JP7310313B2 - POSITION CORRECTION SERVER, POSITION MANAGEMENT DEVICE, MOBILE POSITION MANAGEMENT SYSTEM AND METHOD, POSITION INFORMATION CORRECTION METHOD, COMPUTER PROGRAM, IN-VEHICLE DEVICE, AND VEHICLE - Google Patents

POSITION CORRECTION SERVER, POSITION MANAGEMENT DEVICE, MOBILE POSITION MANAGEMENT SYSTEM AND METHOD, POSITION INFORMATION CORRECTION METHOD, COMPUTER PROGRAM, IN-VEHICLE DEVICE, AND VEHICLE Download PDF

Info

Publication number
JP7310313B2
JP7310313B2 JP2019101576A JP2019101576A JP7310313B2 JP 7310313 B2 JP7310313 B2 JP 7310313B2 JP 2019101576 A JP2019101576 A JP 2019101576A JP 2019101576 A JP2019101576 A JP 2019101576A JP 7310313 B2 JP7310313 B2 JP 7310313B2
Authority
JP
Japan
Prior art keywords
information
image
mobile
vehicle
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019101576A
Other languages
Japanese (ja)
Other versions
JP2020193954A (en
Inventor
明紘 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2019101576A priority Critical patent/JP7310313B2/en
Publication of JP2020193954A publication Critical patent/JP2020193954A/en
Application granted granted Critical
Publication of JP7310313B2 publication Critical patent/JP7310313B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)

Description

この開示は位置補正サーバ、位置管理装置、移動体の位置管理システム及び方法、位置情報の補正方法、コンピュータプログラム、車載装置並びに車両に関する。 This disclosure relates to a position correction server, a position management device, a position management system and method for a moving object, a position information correction method, a computer program, an in-vehicle device, and a vehicle.

車両等の自動運転技術の発達に伴って、測位技術の重要性が増している。車両等の移動体に関する測位のためには、測位用の人工衛星(測位衛星)を使用した全球測位衛星システム(Global Navigation Satellite System: GNSS)が主として使用される。全球測位衛星システムとしては複数の種類があるが、受信機を用いて複数の衛星との間の距離を通信により測位し、三角測量の原理で車両等の位置を特定する点では共通する。 With the development of automatic driving technology for vehicles, etc., the importance of positioning technology is increasing. A global navigation satellite system (GNSS) using artificial satellites for positioning (positioning satellites) is mainly used for positioning of mobile objects such as vehicles. There are several types of global positioning satellite systems, but they all have in common that a receiver is used to measure the distance to a plurality of satellites by communication, and the position of a vehicle or the like is specified by the principle of triangulation.

GNSSでは、その原理から、位置を正確に測定するためには少なくとも3個の測位衛星と通信できることが必要である。ところが、地形の影響、又は道路脇に存在するビル等の影響により、受信機が3個の測位衛星と通信できない状況が発生することがある。その場合には、いわゆるデッドレコニングにより移動体の位置を推定する技術が使用される。 From its principle, GNSS needs to be able to communicate with at least three positioning satellites in order to accurately measure its position. However, a situation may occur in which the receiver cannot communicate with the three positioning satellites due to the influence of topography or the influence of buildings on the side of the road. In that case, a technique of estimating the position of a moving object by so-called dead reckoning is used.

しかし、もともとGNSSを用いた位置自体に誤差が含まれる上、デッドレコニングによる誤差が蓄積することで受信機が管理する位置情報の誤差が大きくなることがある。一方で、最近では、一定地域内に存在する車両等の位置を地図情報とあわせて交通状況俯瞰マップをサーバで作成し、その結果を交通支援のために各車両等に配信するシステムの開発に向けて研究がされつつある。交通状況俯瞰マップをサーバが正確に管理するためには、各車両等からできるだけ正確な位置情報をサーバに通知する必要がある。そのため、車両が備えるGNSS受信機による測位結果の誤差が大きくなると、交通状況俯瞰マップが不正確となり、交通支援に影響を及ぼす可能性がある。 However, the position itself using GNSS originally contains an error, and the accumulation of the error due to dead reckoning may increase the error of the position information managed by the receiver. On the other hand, recently, we are developing a system that creates a bird's-eye view map of traffic conditions on a server by combining the positions of vehicles in a certain area with map information, and distributes the results to each vehicle for traffic support. Research is being conducted towards In order for the server to manage the traffic situation bird's-eye view map accurately, it is necessary to notify the server of position information as accurate as possible from each vehicle or the like. Therefore, if the error in the positioning result obtained by the GNSS receiver provided in the vehicle becomes large, the traffic situation bird's-eye view map becomes inaccurate, which may affect traffic assistance.

こうした問題を解決するための1つの解決策が後掲の特許文献1に開示されている。図1を参照して、特許文献1に記載された位置補正システム50は、GNSSの一種であるGPS(Global Positioning System)により車両位置を検出する、車両64に搭載された位置検出装置と、道路の情報のポール62上のような高い位置に設置された光ビーコン60から位置情報を含むビーコンデータ66、68を受信する車載通信機70と、光ビーコンデータを受信すると位置情報の撮像を開始するカメラ72と、車両64が光ビーコン60の真下に位置するときにカメラ72の画像中で光ビーコンヘッド像が占める位置を基準位置として予め設定しておき、カメラ72の画像から抽出された光ビーコンヘッド像が基準位置に位置するか否かを判定する真下判定装置とを含む。 One solution for solving these problems is disclosed in Patent Document 1 listed below. Referring to FIG. 1, a position correction system 50 described in Patent Document 1 includes a position detection device mounted on a vehicle 64 for detecting the vehicle position by GPS (Global Positioning System), which is a kind of GNSS, and a road position. An in-vehicle communication device 70 receives beacon data 66, 68 including position information from an optical beacon 60 installed at a high position such as on an information pole 62 of the vehicle. The position occupied by the optical beacon head image in the image of the camera 72 when the camera 72 and the vehicle 64 are positioned directly below the optical beacon 60 is set in advance as a reference position, and the optical beacon extracted from the image of the camera 72. and a directly below determination device for determining whether or not the head image is positioned at the reference position.

この位置補正システム50はさらに、真下判定装置によって、光ビーコンヘッド像が基準位置に存在すると判定されたことに応答して、その光ビーコンヘッド像の撮像時点での車両位置を光ビーコンデータの示す位置と一致させるように、位置検出装置の維持する車両位置を補正する位置補正装置とを含む。 The position correction system 50 further responds to the fact that the directly below determination device determines that the optical beacon head image exists at the reference position, and the optical beacon data indicates the vehicle position at the time when the optical beacon head image is captured. a position correction device for correcting the vehicle position maintained by the position detection device to match the position.

特許文献1によれば、この構成により車両位置を正確に測定できるとされている。 According to Patent Literature 1, this configuration enables accurate measurement of the vehicle position.

一方、後掲の特許文献2には、光ビーコン60を用いず、車載カメラの画像解析により路側のランドマークを認識し、位置補正に活用する技術が提案されている。図2を参照して、特許文献2に記載の技術に係る位置補正システム100は、予め路側の特徴物であるランドマーク114の画像と位置とを記憶するランドマーク位置情報記憶装置112と、ランドマーク位置情報記憶装置112に接続され、車両116からその経路におけるランドマークに関する情報要求を受信したことに応答してその経路において位置補正に使用可能な1又は複数のランドマークに関するランドマーク情報を車両に送信するサーバ110とを含む。ランドマーク情報は、カメラ画像から認識可能なランドマークの位置情報、認識用ランドマーク画像、認識の成功のし易さを示す認識評価値等を含む。ランドマーク114に搭載された車載用制御装置は、受信したランドマーク情報に含まれる認識結果評価値に基づいて認識対象とするランドマークを選択する。車載用制御装置は、認識対象としたランドマークの認識結果を評価し、カメラで認識したランドマークの画像とともに評価結果値をサーバに送信する。サーバは車載用制御装置から受信した情報に基づいて、各ランドマーク情報の認識評価値及び認識用ランドマーク画像を更新する。ランドマークとしては、道路上の標識及び信号等の物体、路面上のペイント、並びに道路近辺の特徴的な建造物が挙げられている(段落0049)。 On the other hand, Japanese Patent Application Laid-Open No. 2002-200002 proposes a technique of recognizing roadside landmarks by image analysis of an in-vehicle camera without using the optical beacon 60, and utilizing them for position correction. Referring to FIG. 2, a position correction system 100 according to the technique described in Patent Document 2 includes a landmark position information storage device 112 that stores in advance images and positions of landmarks 114 that are features of the roadside; Connected to a mark position information storage device 112 for storing landmark information about one or more landmarks in the route that can be used for position correction in response to receiving a request from the vehicle 116 for information about landmarks in the route. and a server 110 that transmits to the Landmark information includes position information of landmarks that can be recognized from a camera image, landmark images for recognition, recognition evaluation values that indicate the likelihood of successful recognition, and the like. The in-vehicle control device mounted on the landmark 114 selects a landmark to be recognized based on the recognition result evaluation value included in the received landmark information. The in-vehicle control device evaluates the recognition result of the landmark to be recognized, and transmits the evaluation result value together with the image of the landmark recognized by the camera to the server. The server updates the recognition evaluation value and the landmark image for recognition of each piece of landmark information based on the information received from the in-vehicle control device. Landmarks include objects such as signs and signals on the road, paint on the road, and characteristic buildings near the road (paragraph 0049).

この位置補正システム100によれば、ランドマークの認識処理における負荷の低減を図りながら、車両の位置推定精度の向上ができるとされている。 According to this position correction system 100, it is possible to improve the accuracy of estimating the position of the vehicle while reducing the load in landmark recognition processing.

特開2010-276583号公報JP 2010-276583 A 特開2015-108604号公報JP 2015-108604 A

しかし、特許文献1に開示された発明については以下のような問題点がある。すなわち、特許文献1に記載の技術では路側に光ビーコン60を備えた路側機を備えることが前提であるため、適用範囲が制限されるという問題がある。また光ビーコン60の真下を車両が通過することが前提であるため、車線ごとに光ビーコン60を設ける必要があり、設置の費用がかかるという問題もある。 However, the invention disclosed in Patent Document 1 has the following problems. That is, the technique described in Patent Document 1 is based on the premise that a roadside device having the optical beacon 60 is provided on the roadside, so there is a problem that the scope of application is limited. In addition, since it is assumed that the vehicle passes directly under the optical beacon 60, it is necessary to install the optical beacon 60 for each lane, which also poses a problem of high installation costs.

また特許文献2に記載された発明では、車載用制御装置が、車載カメラからの画像内のランドマーク画像を認識することが前提となっている。そのため、車載カメラの性能、及び車載用制御装置の認識能力に位置補正能力が依存する。一方、車載カメラは車両とともに移動するため、その認識対象となる画像は常に変化する。そのため、認識のための学習に用いる教師データが疎となり、認識精度を高くすることが難しいという問題がある。さらに、画像認識には多くの計算資源が必要となる。一般的に車載用制御装置の性能には限界があり、画像認識を短時間でかつ高精度に行うことは難しい。したがって、特許文献2に開示されたシステムでは、その位置補正能力には限界があると言わざるを得ない。したがって、光ビーコン60を備えた路側機、及び車載カメラの画像等を必要とせずに移動体の位置補正ができるようにすることが望ましい。 Further, in the invention described in Patent Document 2, it is assumed that the in-vehicle control device recognizes the landmark image in the image from the in-vehicle camera. Therefore, the position correction capability depends on the performance of the on-vehicle camera and the recognition capability of the on-vehicle control device. On the other hand, since the in-vehicle camera moves with the vehicle, the image to be recognized is constantly changing. Therefore, teacher data used for learning for recognition becomes sparse, and there is a problem that it is difficult to improve recognition accuracy. Furthermore, image recognition requires a lot of computational resources. In general, there is a limit to the performance of an in-vehicle control device, and it is difficult to perform image recognition in a short time with high accuracy. Therefore, it must be said that the system disclosed in Patent Document 2 has a limit in its position correction capability. Therefore, it is desirable to be able to correct the position of the moving object without using the roadside unit equipped with the optical beacon 60 and the image of the vehicle-mounted camera.

それ故にこの開示の目的は、車両の位置補正を高精度で行える位置補正サーバ、位置管理装置、移動体の位置管理システム及び方法、位置情報の補正方法、コンピュータプログラム、車載装置並びに車両を提供することである。 Therefore, an object of the present disclosure is to provide a position correction server, a position management device, a position management system and method for a moving object, a method for correcting position information, a computer program, an in-vehicle device, and a vehicle that can accurately correct the position of a vehicle. That is.

この開示の第1の局面に係る位置補正サーバは、移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信する移動体情報受信機と、撮像範囲が特定可能な撮像装置からの撮像画像を受信する画像受信機と、撮像画像の中に存在する任意の移動体の画像と移動体情報とに基づいて、任意の移動体の画像を含む撮像画像と移動体情報受信機に移動体情報を送信する移動体とをマッチングするマッチング部と、マッチング部によりマッチングされた移動体から受信した移動体情報の位置情報と、マッチング部によりマッチングされた撮像画像とその撮像時刻とを用いて、移動体が維持する位置情報を補正する処理を行う補正処理部とを含む。 A position correction server according to a first aspect of the present disclosure includes a mobile body information receiver that receives mobile body information including position information and time information of the mobile body from a mobile body; An image receiver for receiving a captured image from a device, and receiving a captured image including an arbitrary moving object image and moving object information based on an arbitrary moving object image and moving object information existing in the captured image a matching unit that matches a moving object that transmits moving object information to a machine; location information of the moving object information received from the moving object matched by the matching unit; captured images matched by the matching unit; and a correction processing unit that performs a process of correcting the position information maintained by the moving body using .

この開示の第2の局面に係る移動体のための位置管理装置は、自己の位置情報及び時刻情報を含む移動体情報を維持する情報維持装置と、所定のタイミングで移動体情報を所定の位置補正サーバに送信するための移動体情報送信装置と、情報維持装置により維持されている位置情報を補正すべきことを示す補正情報を外部から受信したことに応答して、補正情報を使用して位置情報を補正する補正処理部とを含む。 A position management device for a mobile object according to a second aspect of the present disclosure includes an information maintenance device that maintains mobile object information including its own position information and time information, and an information maintenance device that maintains mobile object information including its own position information and time information. In response to externally receiving correction information indicating that the location information maintained by the mobile information transmission device for transmission to the correction server and the information maintenance device should be corrected, using the correction information. and a correction processing unit that corrects the position information.

この開示の第3の局面に係る移動体の位置管理システムは、上記したいずれかの位置補正サーバと、上記したいずれかの位置管理装置とを含む。 A position management system for a mobile object according to a third aspect of the present disclosure includes any of the position correction servers described above and any of the position management devices described above.

この開示の第4の局面に係る位置情報の補正方法は、コンピュータが、移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信するステップと、コンピュータが、撮像範囲が特定可能な撮像装置からの撮像画像を受信するステップと、コンピュータが、撮像画像の中に存在する任意の移動体の画像と移動体情報とに基づいて、任意の移動体の画像を含む撮像画像と移動体情報を受信するステップにおいて移動体情報を送信する移動体とをマッチングするステップと、マッチングするステップにおいてマッチングされた移動体から受信した移動体情報の位置情報と、マッチングするステップにおいてマッチングされた撮像画像とその撮像時刻とを用いて、移動体が維持する位置情報を補正する処理を行うステップとを含む。 A position information correcting method according to a fourth aspect of the present disclosure includes steps of: a computer receiving moving body information including position information and time information of the moving body from a moving body; a step of receiving a captured image from an identifiable imaging device; and a captured image including an image of an arbitrary moving object based on an image of an arbitrary moving object existing in the captured image and information on the moving object. and a step of matching the mobile object transmitting the mobile object information in the step of receiving the mobile object information; location information of the mobile object information received from the mobile object matched in the matching step; and performing a process of correcting the position information maintained by the moving body using the captured image and its capturing time.

この開示の第5の局面に係るコンピュータプログラムは、コンピュータを、移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信する移動体情報受信機と、撮像範囲が特定可能な撮像装置からの撮像画像を受信する画像受信機と、撮像画像の中に存在する任意の移動体の画像と移動体情報とに基づいて、任意の移動体の画像を含む撮像画像と移動体情報受信機に移動体情報を送信する移動体とをマッチングするマッチング部と、マッチング部によりマッチングされた移動体から受信した移動体情報の位置情報と、マッチング部によりマッチングされた撮像画像とその撮像時刻とを用いて、移動体が維持する位置情報を補正する処理を行う補正処理部として機能させる。 A computer program according to a fifth aspect of the present disclosure provides a computer with a mobile object information receiver that receives mobile object information including position information and time information of the mobile object from a mobile object, and an imaging range that can be specified. an image receiver for receiving a captured image from an imaging device; and a captured image including an image of an arbitrary moving object and a moving object based on an image of an arbitrary moving object existing in the captured image and information on the moving object. A matching unit that matches a moving object that transmits moving object information to an information receiver, location information of the moving object information received from the moving object matched by the matching unit, and a captured image that is matched by the matching unit and its image. It functions as a correction processing unit that performs a process of correcting the position information maintained by the moving body using the time.

この開示の第6の局面に係る移動体の位置管理方法は、コンピュータが、自己の位置情報及び時刻情報を含む移動体情報を維持するステップと、コンピュータが、所定のタイミングで移動体情報を所定の位置補正サーバに送信するステップと、コンピュータが、移動体情報を維持するステップにより維持されている位置情報を補正すべきことを示す補正情報を外部から受信したことに応答して、補正情報を使用して位置情報を補正するステップとを含む。 A position management method of a mobile object according to a sixth aspect of the present disclosure includes steps of: a step of a computer maintaining mobile object information including its own position information and time information; and sending the correction information to the position correction server in response to externally receiving correction information indicating that the position information maintained by the step of maintaining the moving body information should be corrected. and using the position information to correct.

この開示の第7の局面に係るコンピュータプログラムは、コンピュータを、自己の位置情報及び時刻情報を含む移動体情報を維持する情報維持装置と、所定のタイミングで移動体情報を所定の位置補正サーバに送信するための移動体情報送信装置と、情報維持装置により維持されている位置情報を補正すべきことを示す補正情報を外部から受信したことに応答して、補正情報を使用して位置情報を補正する補正処理部として機能させる。 A computer program according to a seventh aspect of the present disclosure provides a computer with an information maintenance device that maintains mobile body information including its own position information and time information, and a mobile body information that is sent to a predetermined position correction server at a predetermined timing. and in response to externally receiving correction information indicating that the position information maintained by the information maintenance device should be corrected, using the correction information to update the position information. It functions as a correction processing unit for correction.

この開示の第8の局面に係る車載装置は、上記した移動体の位置管理装置を搭載した車載装置である。 An in-vehicle device according to an eighth aspect of the present disclosure is an in-vehicle device equipped with the position management device for a moving body described above.

この開示の第9の局面に係る車両は、上記した車載装置を搭載した車両である。 A vehicle according to a ninth aspect of the present disclosure is a vehicle equipped with the vehicle-mounted device described above.

なお、この開示は、このような特徴的な処理部を備える装置として実現できるだけでなく、上に記載したような特徴的な処理をステップとする方法として実現したり、それらステップをコンピュータに実行させるためのプログラムとして実現したりできる。また、装置の一部又は全部を実現する半導体集積回路として実現したり、それら装置を含むシステムとして実現したりできる。この開示のそのほかの課題、目的、構成、作用及び効果は、添付の図面とともに以下の開示に関する説明により明らかとなるであろう。 It should be noted that this disclosure can be realized not only as a device having such a characteristic processing unit, but also as a method having steps of the characteristic processing as described above, or as a method that causes a computer to execute the steps. It can be realized as a program for Moreover, it can be realized as a semiconductor integrated circuit that realizes part or all of the device, or as a system including these devices. Other problems, objects, configurations, actions and effects of this disclosure will become apparent from the following description of the disclosure together with the accompanying drawings.

この開示によれば、車両の位置補正を高精度で行える位置補正サーバ、位置管理装置、移動体の位置管理システム及び方法、位置情報の補正方法、コンピュータプログラム、車載装置並びに車両を提供できる。 According to this disclosure, it is possible to provide a position correction server, a position management device, a position management system and method for a moving object, a method for correcting position information, a computer program, an in-vehicle device, and a vehicle that can perform position correction of a vehicle with high accuracy.

図1は、特許文献1に記載された従来の位置補正システムの概略構成を示す模式図である。FIG. 1 is a schematic diagram showing a schematic configuration of a conventional position correction system described in Patent Document 1. As shown in FIG. 図2は、特許文献2に記載された従来の位置補正システムの概略構成を示す模式図である。FIG. 2 is a schematic diagram showing a schematic configuration of a conventional position correction system described in Patent Document 2. As shown in FIG. 図3は、この開示に係る位置補正システムの概略構成を示す図である。FIG. 3 is a diagram showing a schematic configuration of a position correction system according to this disclosure. 図4は、この開示に係る車両の位置補正の原理を説明する模式図である。FIG. 4 is a schematic diagram illustrating the principle of vehicle position correction according to this disclosure. 図5は、この開示に関係する車両の概略構成を示す模式図である。FIG. 5 is a schematic diagram showing a schematic configuration of a vehicle related to this disclosure. 図6は、この開示において使用される車載装置の概略ハードウェア構成を示すブロック図である。FIG. 6 is a block diagram showing a schematic hardware configuration of an in-vehicle device used in this disclosure. 図7は、この開示において使用されるHMIコントローラのハードウェア構成を示すブロック図である。FIG. 7 is a block diagram showing the hardware configuration of the HMI controller used in this disclosure. 図8は、この開示における車載装置でのデータアップロード処理を実現するコンピュータプログラム(以下、単に「プログラム」という。)の制御構造を示すフローチャートである。FIG. 8 is a flow chart showing a control structure of a computer program (hereinafter simply referred to as "program") that implements data upload processing in the in-vehicle device in this disclosure. 図9は、この開示における車載装置での位置補正処理を実現するプログラムの制御構造を示すフローチャートである。FIG. 9 is a flow chart showing a control structure of a program that implements position correction processing in the in-vehicle device according to this disclosure. 図10は、この開示に係るエッジサーバの外観を示す図である。FIG. 10 is a diagram showing the appearance of an edge server according to this disclosure. 図11は、図10に示すエッジサーバの概略ハードウェア構成を示すブロック図である。FIG. 11 is a block diagram showing a schematic hardware configuration of the edge server shown in FIG. 図12は、図10に示すエッジサーバの機能的構成を示すブロック図である。12 is a block diagram showing a functional configuration of the edge server shown in FIG. 10; FIG. 図13は、図12に示す各機能を実現するためのプログラムの制御構造を示すフローチャートである。FIG. 13 is a flow chart showing the control structure of a program for realizing each function shown in FIG. 図14は、同一車種の2台の車両が近接している場合の車両同定に関する問題点を説明するための模式図である。FIG. 14 is a schematic diagram for explaining a problem related to vehicle identification when two vehicles of the same model are close to each other. 図15は、同一車種の2台の車両が近接している場合の車両同定に関する問題点を解決するための方法を示す模式図である。FIG. 15 is a schematic diagram showing a method for solving the problem of vehicle identification when two vehicles of the same model are close to each other. 図16は、同一車種の3台の車両が近接している場合の車両同定に関する問題点を説明するための模式図である。FIG. 16 is a schematic diagram for explaining a problem related to vehicle identification when three vehicles of the same model are close to each other. 図17は、第1の開示に係るエッジサーバの機能を実現するプログラムの制御構造を示すフローチャートである。FIG. 17 is a flow chart showing the control structure of a program that implements the functions of the edge server according to the first disclosure. 図18は、第2の開示に係るエッジサーバの機能を実現するプログラムの制御構造を示すフローチャートである。FIG. 18 is a flow chart showing the control structure of a program that implements the functions of the edge server according to the second disclosure. 図19は、第3の開示に係るエッジサーバの機能を実現するプログラムの制御構造を示すフローチャートである。FIG. 19 is a flow chart showing the control structure of a program that implements the functions of the edge server according to the third disclosure. 図20は、第4の開示に係るエッジサーバの機能を実現するプログラムの制御構造を示すフローチャートである。FIG. 20 is a flow chart showing the control structure of a program that implements the functions of the edge server according to the fourth disclosure.

[この開示の実施の形態の説明]
以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。なお、以下の開示の少なくとも一部を任意に組合せてもよい。
[Description of Embodiments of this Disclosure]
In the following description and drawings, identical parts are provided with identical reference numerals. Therefore, detailed description thereof will not be repeated. It should be noted that at least part of the following disclosures may be combined arbitrarily.

(1)この開示の第1の局面に係る位置補正サーバは、移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信する移動体情報受信機と、撮像範囲が特定可能な撮像装置からの撮像画像を受信する画像受信機と、撮像画像の中に存在する任意の移動体の画像と移動体情報とに基づいて、任意の移動体の画像を含む撮像画像と移動体情報受信機に移動体情報を送信する移動体とをマッチングするマッチング部と、マッチング部によりマッチングされた移動体から受信した移動体情報の位置情報と、マッチング部によりマッチングされた撮像画像とその撮像時刻とを用いて、移動体が維持する位置情報を補正する処理を行う補正処理部とを含む。 (1) A position correction server according to a first aspect of the present disclosure includes a mobile object information receiver that receives mobile object information including position information and time information of the mobile object from the mobile object, and an imaging range that specifies an image receiver for receiving a captured image from a possible imaging device; and a captured image including an image of an arbitrary moving object and movement based on an image of an arbitrary moving object existing in the captured image and information on the moving object. a matching unit that matches a moving object that transmits moving object information to the object information receiver; location information of the moving object information received from the moving object matched by the matching unit; a correction processing unit that performs a process of correcting the position information maintained by the moving body using the imaging time.

撮像装置からの画像と、移動体の位置情報とに基づき、特定の撮像時刻の画像とそのときにその画像装置で撮像された移動体とをマッチングする。撮像時刻における移動体からの位置情報と、画像から得られた移動体の位置情報とにより両者の誤差が算出され、移動体の位置座標がその誤差により補正される。車載カメラの画像を使用せず、既存の撮像装置を使用して移動体の位置補正が行える。 Based on the image from the imaging device and the position information of the moving object, the image at a specific imaging time and the moving object imaged by the imaging device at that time are matched. An error between the position information from the moving body at the imaging time and the position information of the moving body obtained from the image is calculated, and the position coordinates of the moving body are corrected by the error. It is possible to correct the position of a moving object using an existing imaging device without using an image from an in-vehicle camera.

(2)好ましくは、位置補正サーバは、さらに、移動体情報に基づき、位置情報を補正する対象となる移動体を追跡する移動体追跡装置を含み、マッチング部は、移動体情報が移動体追跡装置により追跡されている第1の移動体からの移動体情報であることに応答して、当該第1の移動体の画像を含む撮像画像を画像受信機が受信した撮像画像の中から抽出するための画像抽出部を含み、補正処理部は、画像抽出部が抽出した撮像画像の撮像時刻に第1の移動体から送信され、移動体情報受信機が受信した位置情報と、撮像画像から算出される第1の移動体の位置とから、第1の移動体の維持している位置情報を補正する処理を行う位置補正処理部とを含む。 (2) Preferably, the position correction server further includes a mobile object tracking device for tracking a mobile object whose position information is to be corrected based on the mobile object information, In response to the mobile information from a first mobile being tracked by the device, a captured image including an image of the first mobile is extracted from captured images received by the image receiver. The correction processing unit is calculated from the captured image and the position information transmitted from the first moving object at the imaging time of the captured image extracted by the image extracting unit and received by the moving object information receiver and a position correction processing unit that performs a process of correcting the maintained position information of the first moving body from the position of the first moving body that is determined.

位置補正の対象となる移動体のみが位置補正の対象となる。精度の高い位置情報を維持している移動体については位置補正を行わない。その結果、計算資源を節約しながら、効率的に移動体の位置情報の補正が行える。 Only the moving body subject to position correction is subject to position correction. Position correction is not performed for a moving object that maintains highly accurate position information. As a result, it is possible to efficiently correct the position information of the moving object while saving computational resources.

(3)より好ましくは、位置補正処理部は、実世界の特徴物の位置を記憶する位置記憶装置と、撮像画像の中に存在する特徴物を認識する特徴物認識部と、特徴物認識部により認識された特徴物の実世界における位置を、位置記憶装置から読出すための読出装置と、第1の移動体の維持している位置情報を、位置記憶装置から読出された位置に基づいて補正するための補正量を算出する算出装置を含む。 (3) More preferably, the position correction processing unit includes a position storage device that stores the position of the feature in the real world, a feature recognition unit that recognizes the feature that exists in the captured image, and a feature recognition unit. a reading device for reading from the position storage device the real-world position of the feature recognized by the first moving object, and for reading the position information maintained by the first moving object based on the position read from the position storage device; A calculation device for calculating a correction amount for correction is included.

特徴物の位置は固定された撮像装置による画像として、画像の背景に常に存在する。その画像と、画像内の移動体画像とに基づき、両者の位置関係から移動体の位置を算出できる。車載カメラの画像を使用せず、位置が固定された撮像装置の画像を使うので、移動体の位置算出が高精度に行え、正確に位置補正が行える。 The position of the feature is always present in the background of the image as it is imaged by a fixed imaging device. Based on the image and the moving object image in the image, the position of the moving object can be calculated from the positional relationship between the two. Since the image of the image pickup device whose position is fixed is used instead of the image of the on-board camera, the position of the moving object can be calculated with high accuracy, and the position can be corrected accurately.

(4)さらに好ましくは、算出装置は、撮像画像の中に存在する特徴物の画像と、移動体の画像との関係と、特徴物の地理的位置、及び撮像装置の特性とに基づいて、移動体と特徴物との相対位置を算出する相対位置算出装置と、相対位置に対して特徴物の地理的位置を加算することにより移動体の地理的位置を算出するための地理的位置算出装置と、第1の移動体の維持している位置情報と、地理的位置算出装置により算出された地理的位置との誤差を補正量として算出するための補正量算出装置とを含む。 (4) More preferably, the calculation device, based on the relationship between the image of the feature present in the captured image and the image of the moving object, the geographical position of the feature, and the characteristics of the imaging device, A relative position calculation device for calculating a relative position between a mobile object and a feature, and a geographical position calculation device for calculating the geographical position of the mobile object by adding the geographical position of the feature to the relative position and a correction amount calculation device for calculating, as a correction amount, an error between the position information maintained by the first moving body and the geographical position calculated by the geographical position calculation device.

撮像装置の撮像範囲が固定されている場合、基本的にその画像の背景は常に同一である。したがってその中の特徴物を認識することは高い精度で行える。また特徴物の位置は予めわかっている。したがって、その特徴物に対する移動体の相対位置を画像から算出し、特徴物の位置に加算することで、移動体の位置を容易に特定できる。 When the imaging range of the imaging device is fixed, the background of the image is basically always the same. Recognition of features therein can therefore be performed with high accuracy. Also, the positions of the features are known in advance. Therefore, by calculating the relative position of the moving body with respect to the feature from the image and adding it to the position of the feature, the position of the moving body can be easily specified.

(5)好ましくは、マッチング部は、第1の移動体から所定距離の範囲内に、第1の移動体と同種の第2の移動体が存在していることに応答して、第1の移動体と、第2の移動体とから、各々の前方画像を取得する前方画像取得装置と、前方画像取得装置により取得された前方画像の各々について、第1の移動体と同種の移動体の画像が存在しているか否かを検査する画像検査部と、前方画像の中で、第1の移動体と同種の移動体の画像が存在していない前方画像が1つだけ存在していれば、当該前方画像を送信してた移動体と撮像画像とをマッチングさせる装置とを含む。 (5) Preferably, the matching unit responds to the fact that a second moving body of the same type as the first moving body exists within a predetermined distance from the first moving body, the first A forward image acquiring device for acquiring respective forward images from a moving object and a second moving object; An image inspection unit that inspects whether or not an image exists, and if there is only one forward image in which an image of a moving object of the same type as the first moving object does not exist in the forward image, , and a device for matching the captured image with the moving object that transmitted the forward image.

同一の種類の複数の移動体が近接して存在している場合、画像だけでは位置情報を送信してきた移動体を同定できない。そうした場合、双方から前方画像を取得し、その画像の中にその移動体と同一種類の移動体の画像が存在するか否かを基準にして、複数の移動体の中で、位置情報を送信してきた移動体が同定できる。 When a plurality of mobile objects of the same type exist close to each other, it is not possible to identify the mobile object that has transmitted the position information using only the image. In such a case, forward images are acquired from both sides, and location information is transmitted among a plurality of moving objects based on whether or not an image of the same type of moving object as that moving object exists in the images. Identifies moving objects that have traveled

(6)より好ましくは、位置補正サーバは、移動体情報に基づき、位置情報を補正する対象となる移動体を追跡する移動体追跡装置をさらに含み、移動体情報は、移動体の外観に関する外観情報を含み、マッチング部は、移動体追跡装置による追跡の対象となっている移動体の各々について、当該移動体の近傍に存在する、撮像領域が特定可能な撮像装置を特定し、画像受信機が受信した撮像画像から、当該特定された撮像装置による撮像画像を抽出する画像抽出部と、外観情報を用いて画像抽出部が抽出した撮像画像の中の移動体の画像を特定し、当該画像と、外観情報とに基づいて当該撮像画像の中の移動体を同定するための移動体同定装置とを含む。 (6) More preferably, the position correction server further includes a moving object tracking device that tracks the moving object whose position information is to be corrected based on the moving object information, and the moving object information is an appearance related to the appearance of the moving object. The matching unit identifies, for each moving object to be tracked by the moving object tracking device, an imaging device capable of specifying an imaging area existing near the moving object, and an image receiver. identifies an image of the moving object in the captured image extracted by the image extraction unit using the image extraction unit for extracting an image captured by the specified image capturing device from the captured image received by the specified image capturing device, and determines the image; and a moving body identification device for identifying the moving body in the captured image based on the appearance information.

撮像装置の位置が固定されていると、その撮像する画像の背景は常に同一である。移動体の外観に関する情報を用いると、そうした画像の中でその外観を持つ移動体の画像を容易に特定してその位置を高い精度で特定できるため、移動体の位置情報も高い精度で補正できる。 If the position of the imaging device is fixed, the background of the image it captures is always the same. By using information about the appearance of a moving object, it is possible to easily identify the image of the moving object having that appearance in such an image and identify its position with high accuracy, so that the position information of the moving object can also be corrected with high accuracy. .

(7)さらに好ましくは、補正処理部は、画像抽出部が抽出した撮像画像の撮像領域内の特徴物の位置と、撮像画像中の移動体の画像の位置とに基づいて、当該撮像画像の中の移動体の地理的位置を特定する移動体位置特定部と、移動体位置特定部が特定した移動体の地理的位置と、撮像画像が撮像された時刻に移動体から送信され、移動体情報受信機が受信した位置情報とに基づいて移動体が維持する位置情報を補正する処理を行う装置とを含む。 (7) More preferably, the correction processing unit, based on the position of the feature within the imaging region of the captured image extracted by the image extracting unit, and the position of the image of the moving object in the captured image, a moving body position identifying unit that identifies the geographical position of the moving body in the mobile body, the geographical position of the moving body identified by the moving body position identifying part, and the captured image, which is transmitted from the moving body at the time when the captured image is captured; and a device for correcting location information maintained by the mobile based on the location information received by the information receiver.

受信した画像内の特徴物を基準として算出される移動体の位置情報は、正確な位置情報であると考えられる。その画像が撮像された時刻に移動体から送信された位置情報は、誤差を含んでいると考えられるが、同じ時刻に算出された正しい位置を用いて、その位置情報の誤差を補正できる。 The position information of the moving object calculated with reference to the features in the received image is considered to be accurate position information. The position information transmitted from the moving object at the time the image was captured may contain an error, but the correct position calculated at the same time can be used to correct the error in the position information.

(8)好ましくは、補正する処理を行う装置は、移動体位置特定部が特定した移動体の地理的位置と、撮像画像が撮像された時刻に移動体から送信され、移動体情報受信機が受信した位置情報により決まる地理的位置との間の誤差を算出するための誤差算出装置と、誤差算出装置により算出された誤差を移動体の維持する位置情報に加算する指示を移動体に送信する送信装置とを含む。 (8) Preferably, the device that performs correction processing is transmitted from the mobile object at the geographical position of the mobile object specified by the mobile object position specifying unit and the time when the captured image was captured, and the mobile object information receiver An error calculation device for calculating an error between the geographical position determined by the received position information and an instruction to add the error calculated by the error calculation device to the position information maintained by the mobile object is transmitted to the mobile object. and a transmitting device.

画像から特定した移動体の位置と、その画像が撮像されたのと同じ時刻に移動体から送信された位置情報との誤差は、移動体が維持している位置情報が持つ誤差と考えることができる。この誤差を移動体が維持している位置情報に加算することで、移動体は自己が維持している位置情報を補正し正しい位置を算出できる。 The error between the position of the moving object specified from the image and the position information transmitted from the moving object at the same time when the image was captured can be considered as an error of the position information maintained by the moving object. can. By adding this error to the position information maintained by the moving body, the moving body can correct the position information maintained by itself and calculate the correct position.

(9)より好ましくは、位置情報サーバは、移動体情報に基づき、位置情報を補正する対象となる移動体を追跡する移動体追跡装置をさらに含み、移動体情報は、移動体の外観に関する外観情報を含み、マッチング部は、画像受信機が撮像画像を受信したことに応答して、当該撮像画像内に存在している、移動体追跡装置により追跡されている移動体の画像を認識する移動体画像認識部と、移動体画像認識部により認識された画像と、外観情報とを用いて、当該撮像画像内の移動体を移動体追跡装置により追跡されている移動体の中で同定する同定装置とを含み、補正処理部は、移動体画像認識部により認識された移動体に対して、撮像画像内の特徴物の画像の位置と、当該移動体の画像の位置と、特徴物の地理的位置とに基づいて、撮像画像が撮像された時刻における移動体の位置を算出するための移動体位置算出装置と、移動体位置算出装置により算出された位置と、移動体の画像が認識された撮像画像の撮像時に当該移動体が移動体情報受信機の受信した位置情報とに基づいて移動体が維持する位置情報を補正する処理を実行するための補正実行部とを含む。 (9) More preferably, the location information server further includes a moving body tracking device that tracks a moving body whose position information is to be corrected based on the moving body information, and the moving body information is an appearance related to the appearance of the moving body. The matching unit, in response to the image receiver receiving the captured image, recognizes an image of the mobile being tracked by the mobile tracking device that is present in the captured image. Identification for identifying a moving object in the captured image among moving objects tracked by a moving object tracking device using a body image recognition unit, an image recognized by the moving object image recognition unit, and appearance information and a correction processing unit, for the moving object recognized by the moving object image recognition unit, the position of the image of the feature in the captured image, the position of the image of the moving object, and the geography of the feature. a mobile body position calculation device for calculating the position of the mobile body at the time when the captured image was captured based on the position of the target, and the position calculated by the mobile body position calculation device and the image of the mobile body are recognized. and a correction execution unit for executing a process of correcting the position information maintained by the moving body based on the position information received by the moving body information receiver when the captured image is captured.

位置情報を補正する対象の移動体のみについて位置情報の補正のための追跡を行う。撮像装置から画像を受信したことに応答して、その画像に基づき、その画像内に存在する移動体の画像が特定され、その地理的位置が特定される。その移動体と、移動体追跡装置により追跡されている移動体とを、その移動体の外観情報を用いてマッチングし、画像内の移動体を同定する。その結果を用いて移動体の位置情報が補正される。補正の対象とすべき移動体のみについて位置情報補正のための処理が行えるので、計算資源を節約できる。撮像装置から画像を受信したことを契機として、その画像内の対象移動体の検出とその位置補正の処理が開始されるので、補正処理が効率的に行える。 Tracking for position information correction is performed only for the moving object whose position information is to be corrected. In response to receiving the image from the imaging device, based on the image, an image of a mobile object present in the image is identified and its geographic location is identified. The moving body and the moving body tracked by the moving body tracking device are matched using the appearance information of the moving body to identify the moving body in the image. The result is used to correct the position information of the moving object. Since the processing for position information correction can be performed only for the mobile object to be corrected, computational resources can be saved. When the image is received from the imaging device, the detection of the target moving object in the image and the position correction process are started, so the correction process can be performed efficiently.

(10)さらに好ましくは、位置補正サーバは、移動体情報は、移動体が維持する位置情報の精度に関連する精度関連情報をさらに含み、移動体追跡装置は、精度関連情報に基づいて、所定の精度より低い精度で動作している可能性が高い位置情報取得装置を備えた移動体を、位置情報を補正する対象として追跡する追跡装置を含む。 (10) More preferably, in the position correction server, the mobile body information further includes accuracy-related information related to the accuracy of the position information maintained by the mobile body, and the mobile body tracking device, based on the accuracy-related information, performs a predetermined A tracking device that tracks a moving object having a position information acquisition device that is highly likely to operate with an accuracy lower than the accuracy of position information to be corrected.

この構成により、位置補正のための計算資源を節約できる。 This configuration saves computational resources for position correction.

(11)好ましくは、精度関連情報は、移動体が利用する衛星測位システムにおいて通信可能な測位衛星の数を含み、追跡装置は、移動体が通信可能な測位衛星の数がしきい値以下である移動体を追跡する装置を含む。 (11) Preferably, the accuracy-related information includes the number of positioning satellites that can be communicated in a satellite positioning system used by the mobile, and the tracking device detects that the number of positioning satellites that the mobile can communicate with is equal to or less than a threshold value. Includes equipment for tracking certain moving objects.

通信可能な測位衛星の数という明確な基準で追跡対象の移動体を決定できる。 A mobile object to be tracked can be determined by a clear criterion of the number of positioning satellites that can be communicated with.

(12)より好ましくは、衛星測位システムはGPSを含む。 (12) More preferably, the satellite positioning system includes GPS.

GPSという最も普及した衛星測位システムを搭載した車両を対象とするので、多くの車両がこのシステムによる利益を享受できる。 Since it targets vehicles equipped with GPS, the most popular satellite positioning system, many vehicles can benefit from this system.

(13)好ましくは、位置補正サーバは、さらに、移動体が維持する位置情報の精度に関連する精度関連情報が、位置情報の精度が所定の精度より高くなったことを示す値に変化したことに応答して、当該移動体を補正による位置情報の補正の対象から除外する処理を実行するための除外装置を含む。 (13) Preferably, the position correction server further confirms that the accuracy-related information related to the accuracy of the location information maintained by the moving body has changed to a value indicating that the accuracy of the location information has become higher than a predetermined accuracy. and an excluding device for executing a process of excluding the moving object from a target of position information correction by correction in response to the correction.

移動体の位置情報の精度が高くなった場合、その補正を続行することには意味がない。そうした移動体を補正の対象から除外することで、計算資源を節約でき、他の車両に関する位置情報の補正に節約された計算資源を配分できる。 If the accuracy of the positional information of the moving body has increased, it is meaningless to continue the correction. By excluding such moving bodies from correction targets, computational resources can be saved, and the saved computational resources can be allocated to correction of position information regarding other vehicles.

(14)さらに好ましくは、移動体情報はさらに、移動体の外観に関する外観情報を含み、マッチング部は、移動体情報に含まれる外観情報に基づいて撮像画像内に含まれる移動体の画像を認識する画像認識部と、画像認識部により移動体の画像が認識された撮像画像と、移動体情報受信機に移動体情報を送信する移動体とを対応付ける装置とを含む。 (14) More preferably, the mobile object information further includes appearance information relating to the appearance of the mobile object, and the matching unit recognizes the image of the mobile object included in the captured image based on the appearance information included in the mobile object information. an image recognizing unit that recognizes the image of the moving object, and a device that associates the captured image in which the image of the moving object is recognized by the image recognizing unit with the moving object that transmits the moving object information to the moving object information receiver.

撮像装置の位置が固定されているため、その背景は常に一定である。したがって、その画像内での移動体の位置を、移動体の外観情報を用いて容易に特定できる。 Since the position of the imaging device is fixed, the background is always constant. Therefore, the position of the moving body within the image can be easily specified using the appearance information of the moving body.

(15)この開示の第2の局面に係る移動体のための位置管理装置は、自己の位置情報及び時刻情報を含む移動体情報を維持する情報維持装置と、所定のタイミングで移動体情報を所定の位置補正サーバに送信するための移動体情報送信装置と、情報維持装置により維持されている位置情報を補正すべきことを示す補正情報を外部から受信したことに応答して、補正情報を使用して位置情報を補正する補正処理部とを含む。 (15) A position management device for a mobile object according to the second aspect of the present disclosure includes an information maintenance device that maintains mobile object information including its own position information and time information, and an information maintenance device that maintains mobile object information including its own position information and time information. In response to externally receiving correction information indicating that the position information maintained by the mobile information transmitting device for transmission to a predetermined position correction server and the information maintaining device should be corrected, the correction information is transmitted. and a correction processing unit that is used to correct the position information.

移動体は、サーバから受信した位置情報を用いて、自己が維持している位置情報を補正できる。その結果、移動体は、位置情報を用いるサービスについて、より適切な状態で利用できる。 The mobile can use the location information received from the server to correct the location information it maintains. As a result, mobile units can use services that use location information in a more appropriate state.

(16)好ましくは、情報維持装置は、衛星測位システムにより位置情報を維持する機能を持ち、移動体情報送信装置は、位置補正サーバに移動体情報を送信する際に、移動体情報に衛星測位システムが通信可能な測位衛星の数を含めて送信する。 (16) Preferably, the information maintenance device has a function of maintaining position information by a satellite positioning system, and the mobile object information transmitting device preferably includes the satellite positioning information in the mobile object information when transmitting the mobile object information to the position correction server. Transmit including the number of positioning satellites that the system can communicate with.

測位衛星の数をサーバに送信することで、サーバではこの移動体の位置情報の精度が高いか否かを判定できる。測位衛星の数が所定の数より少なく、デッドレコニングで移動体が自己の位置を補正している場合、サーバから位置情報の補正サービスを受けることが可能になる。 By transmitting the number of positioning satellites to the server, the server can determine whether or not the position information of the mobile object is highly accurate. When the number of positioning satellites is less than a predetermined number and the mobile body corrects its own position by dead reckoning, it becomes possible to receive a position information correction service from the server.

(17)より好ましくは、補正情報は、情報維持装置が維持している位置情報と、正しい位置情報との誤差を含み、補正処理部は、情報維持装置が維持している位置情報に、誤差を加算する加算器を含む。 (17) More preferably, the correction information includes an error between the position information maintained by the information maintenance device and the correct position information, and the correction processing unit adds the error to the position information maintained by the information maintenance device. contains an adder that adds

この構成により容易に移動体の位置情報を補正できる。 With this configuration, it is possible to easily correct the position information of the moving body.

(18)さらに好ましくは、位置管理装置は、さらに、衛星測位システムが通信可能な測位衛星の数が所定の数以上となったことに応答して、補正処理部の動作を停止する停止装置を含む。 (18) More preferably, the position management device further includes a stop device for stopping the operation of the correction processing unit in response to the number of positioning satellites with which the satellite positioning system can communicate reaches or exceeds a predetermined number. include.

通信可能な測位衛星の数が所定の数以上となれば、その衛星測位システムによる位置情報の精度も十分に高くなる。位置情報の補正処理を停止することで、計算資源を節約でき、他の処理に配分できる。 If the number of communicable positioning satellites reaches a predetermined number or more, the accuracy of position information by the satellite positioning system will be sufficiently high. By stopping the position information correction process, computational resources can be saved and allocated to other processes.

(19)この開示の第3の局面に係る移動体の位置管理システムは、上記したいずれかの位置補正サーバと、上記したいずれかの位置管理装置とを含む。 (19) A mobile body position management system according to a third aspect of the present disclosure includes any of the position correction servers described above and any of the position management devices described above.

撮像範囲が特定可能な撮像装置からの画像を用いて、サーバにより移動体の位置情報の補正を行うことが可能になる。常に変化する車載カメラからの情報を用いる必要はない。その結果、移動体の正確な位置を求めることが容易にでき、移動体の管理する位置情報の精度を効率的に高い精度に維持できる
(20)この開示の第4の局面に係る位置情報の補正方法は、コンピュータが、移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信するステップと、コンピュータが、撮像範囲が特定可能な撮像装置からの撮像画像を受信するステップと、コンピュータが、撮像画像内に存在する任意の移動体の画像と移動体情報とに基づいて、任意の移動体の画像を含む撮像画像と移動体情報を受信するステップにおいて移動体情報を送信する移動体とをマッチングするステップと、マッチングするステップにおいてマッチングされた移動体から受信した移動体情報の位置情報と、マッチングするステップにおいてマッチングされた撮像画像とその撮像時刻とを用いて、移動体が維持する位置情報を補正する処理を行うステップとを含む。
Using an image from an imaging device capable of specifying an imaging range, the server can correct the position information of the moving object. There is no need to use constantly changing information from on-board cameras. As a result, it is possible to easily obtain the accurate position of the mobile object, and efficiently maintain the accuracy of the position information managed by the mobile object at a high level of accuracy. (20) Position information according to the fourth aspect of this disclosure The correction method comprises the steps of: a computer receiving moving body information including position information and time information of the moving body from the moving body; and the computer receiving the captured image including the image of the arbitrary moving object and the information on the moving object based on the image of the arbitrary moving object and the information on the moving object existing in the captured image. A step of matching a moving body to be transmitted, position information of the moving body information received from the matching moving body in the matching step, and a captured image matched in the matching step and its capturing time to move. and performing processing to correct body-maintained position information.

撮像範囲が特定可能な撮像装置からの画像を用いて、サーバにより移動体の位置情報の補正を行うことが可能になる。常に変化する車載カメラからの情報を用いる必要はない。その結果、移動体の正確な位置を求めることが容易にでき、移動体の管理する位置情報の精度を効率的に高い精度に維持できる。 Using an image from an imaging device capable of specifying an imaging range, the server can correct the position information of the moving object. There is no need to use constantly changing information from on-board cameras. As a result, the accurate position of the mobile object can be easily obtained, and the accuracy of the position information managed by the mobile object can be efficiently maintained at a high level of accuracy.

(21)この開示の第5の局面に係るコンピュータプログラムは、コンピュータを、移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信する移動体情報受信機と、撮像範囲が特定可能な撮像装置からの撮像画像を受信する画像受信機と、撮像画像内に存在する任意の移動体の画像と移動体情報とに基づいて、任意の移動体の画像を含む撮像画像と移動体情報受信機に移動体情報を送信する移動体とをマッチングするマッチング部と、マッチング部によりマッチングされた移動体から受信した移動体情報の位置情報と、マッチング部によりマッチングされた撮像画像とその撮像時刻とを用いて、移動体が維持する位置情報を補正する処理を行う補正処理部として機能させる。 (21) A computer program according to a fifth aspect of the present disclosure provides a computer with a mobile object information receiver that receives mobile object information including position information and time information of the mobile object from a mobile object; an image receiver that receives a captured image from an imaging device that can identify a captured image that includes an image of an arbitrary moving object based on an image of an arbitrary moving object that exists in the captured image and information on the moving object; A matching unit that matches a moving object that transmits moving object information to a moving object information receiver, location information of the moving object information received from the moving object that has been matched by the matching unit, and a captured image that has been matched by the matching unit. It functions as a correction processing unit that performs a process of correcting the position information maintained by the moving body using the imaging time.

撮像装置からの画像と、移動体からの位置情報とに基づき、特定の撮像時刻に撮像された画像とそのときにその画像装置で撮像された移動体とをマッチングする。撮像時刻における移動体からの位置情報と、画像から得られた移動体の位置情報とにより両者の誤差が算出され、移動体の位置座標がその誤差により補正される。車載カメラの画像を使用せず、既存の撮像装置を使用して移動体の位置補正を行うことができる。 Based on the image from the imaging device and the positional information from the moving body, the image captured at a specific imaging time and the moving body captured by the imaging device at that time are matched. An error between the position information from the moving body at the imaging time and the position information of the moving body obtained from the image is calculated, and the position coordinates of the moving body are corrected by the error. It is possible to correct the position of a moving object using an existing imaging device without using an image from an in-vehicle camera.

(22)この開示の第6の局面に係る移動体の位置管理方法は、コンピュータが、自己の位置情報及び時刻情報を含む移動体情報を維持するステップと、コンピュータが、所定のタイミングで移動体情報を所定の位置補正サーバに送信するステップと、コンピュータが、移動体情報を維持するステップにより維持されている位置情報を補正すべきことを示す補正情報を外部から受信したことに応答して、補正情報を使用して位置情報を補正するステップとを含む。 (22) A mobile object location management method according to a sixth aspect of the present disclosure includes a step in which a computer maintains mobile object information including its own location information and time information; sending the information to a predetermined location correction server; and in response to the computer externally receiving correction information indicating that the location information maintained by the step of maintaining the mobile information should be corrected; and correcting the position information using the correction information.

移動体の位置情報及び時刻情報を含む移動体情報を位置補正サーバに送信することで、移動体の位置情報を補正する補正情報をサーバから受信し、位置情報をより精度高い値に維持できる。 By transmitting the mobile object information including the position information and time information of the mobile object to the position correction server, the correction information for correcting the position information of the mobile object is received from the server, and the position information can be maintained at a more accurate value.

(23)この開示の第7の局面に係るコンピュータプログラムは、コンピュータを、自己の位置情報及び時刻情報を含む移動体情報を維持する情報維持装置と、所定のタイミングで移動体情報を所定の位置補正サーバに送信するための移動体情報送信装置と、情報維持装置により維持されている位置情報を補正すべきことを示す補正情報を外部から受信したことに応答して、補正情報を使用して位置情報を補正する補正処理部として機能させる。 (23) A computer program according to a seventh aspect of the present disclosure provides a computer with an information maintenance device that maintains mobile body information including its own location information and time information; In response to externally receiving correction information indicating that the location information maintained by the mobile information transmission device for transmission to the correction server and the information maintenance device should be corrected, using the correction information. It functions as a correction processing unit that corrects the position information.

移動体の位置情報及び時刻情報を含む移動体情報を位置補正サーバに送信することで、移動体の位置情報を補正する補正情報をサーバから受信し、位置情報をより精度高い値に維持できる。 By transmitting the mobile object information including the position information and time information of the mobile object to the position correction server, the correction information for correcting the position information of the mobile object is received from the server, and the position information can be maintained at a more accurate value.

(24)この開示の第8の局面に係る車載装置は、上記した移動体の位置管理装置を搭載した車載装置である。 (24) An in-vehicle device according to an eighth aspect of the present disclosure is an in-vehicle device equipped with the position management device for a moving body described above.

車載装置を搭載した移動体の位置情報及び時刻情報を含む移動体情報を位置補正サーバに送信することで、移動体の位置情報を補正する補正情報をサーバから受信し、この車載装置が維持する位置情報をより精度高い値に維持できる。 By transmitting mobile information including location information and time information of a mobile device equipped with an in-vehicle device to a location correction server, correction information for correcting the location information of the mobile device is received from the server and maintained by this in-vehicle device Position information can be maintained at a higher accuracy value.

(25)この開示の第9の局面に係る車両は、上記した車載装置を搭載した車両である。 (25) A vehicle according to a ninth aspect of the present disclosure is a vehicle equipped with the in-vehicle device described above.

上記した車載装置を搭載した車両の位置情報及び時刻情報を含む移動体情報を位置補正サーバに送信する。それにより車載装置が移動体の位置情報を補正する補正情報をサーバから受信し、この車載装置が維持する位置情報をより精度高い値に維持できる。 The moving body information including the position information and time information of the vehicle equipped with the above-described in-vehicle device is transmitted to the position correction server. As a result, the in-vehicle device receives correction information for correcting the position information of the moving object from the server, and the position information maintained by the in-vehicle device can be maintained at a value with higher accuracy.

[実施の形態の詳細な説明]
<第1の開示>
〈構成〉
図3は、第1の開示に係る位置補正システム150の概略構成を示す図である。図3を参照して、この位置補正システム150では、例えば高層ビル162、164、166、168、170及び172等の中を通り抜ける道路174の路側、又は例えば高層ビル162の壁面等に設置され、その位置及びその撮像範囲が分かっているインフラカメラ160と、車両176及び178等の、この開示に係る車載装置を搭載した車両と、これら車両から無線により受信した、車両の車種、位置、車両で維持している時刻情報等の車両情報と、インフラカメラ160等のインフラセンサ設備から受信した画像データ及びLiDARによる移動物体の位置データ並びに画像の撮像時刻とに基づいて、交通状況俯瞰マップを作成、維持及び管理し、各車両の車載装置に対して交通支援情報を配信するためのエッジサーバ180とを含む。インフラカメラ160等のインフラセンサ設備からは、カメラの画像、又はLiDAR等のセンサが検出した点群データ等のセンサデータが、その撮像時刻を示す情報とともに定期的にエッジサーバ180にアップロードされる。
[Detailed description of the embodiment]
<First Disclosure>
<composition>
FIG. 3 is a diagram showing a schematic configuration of the position correction system 150 according to the first disclosure. Referring to FIG. 3, this position correction system 150 is installed, for example, on the roadside of a road 174 passing through skyscrapers 162, 164, 166, 168, 170 and 172, or on the wall of skyscraper 162, etc. Infrastructure camera 160 whose position and imaging range are known, vehicles equipped with the in-vehicle device according to this disclosure, such as vehicles 176 and 178, and vehicle type, location, and vehicle received wirelessly from these vehicles Based on vehicle information such as time information maintained, image data received from infrastructure sensor equipment such as infrastructure camera 160, position data of moving objects by LiDAR, and image capturing time, create a traffic situation bird's-eye view map, an edge server 180 for maintaining, managing and distributing traffic assistance information to the on-board devices of each vehicle. From the infrastructure sensor equipment such as the infrastructure camera 160, the image of the camera or sensor data such as point cloud data detected by the sensor such as LiDAR is periodically uploaded to the edge server 180 together with the information indicating the imaging time.

図3に示すような状況では、例えば車両176のように前後左右に比較的開けた場所に車両が存在する場合には、3個の測位衛星と通信可能だが、車両178のように両側に高層ビル162、164、168及び170が存在しているような場所に車両がいる場合には、3個の測位衛星と通信ができず、2個又は1個の測位衛星としかできない場合が起こり得る。そうした場合には、例えば車両176の車載装置は、最後にGNSSで取得した位置情報に、その後のデッドレコニングで累積した移動情報を加算することで位置情報を推定する処理を行う。以下に説明するこの開示に係るエッジサーバ180は、そのような状況にある車両を追跡し、インフラカメラ160からの画像及びその撮像時刻、並びに各車両から受信した車両の位置情報に基づいて車両の位置情報を補正する補正情報を作成し、問題となる車両に送信する機能を持つ。 In the situation shown in FIG. 3, for example, when a vehicle such as a vehicle 176 exists in a relatively open space in the front, rear, left, and right, communication with three positioning satellites is possible. When a vehicle is in a place where buildings 162, 164, 168 and 170 are present, it may happen that it cannot communicate with three positioning satellites and can only communicate with two or one positioning satellite. . In such a case, for example, the in-vehicle device of the vehicle 176 performs a process of estimating the position information by adding the movement information accumulated by the subsequent dead reckoning to the position information finally acquired by GNSS. The edge server 180 according to this disclosure, which will be described below, tracks vehicles in such a situation, and based on the image from the infrastructure camera 160 and its imaging time, as well as the vehicle position information received from each vehicle. It has a function to create correction information that corrects position information and send it to the vehicle in question.

なお、デッドレコニングにより推定された位置情報には、後に述べるように、GNSSにより測定された位置情報の誤差よりも相当に大きな誤差が含まれる。この誤差は、例えば図3に示す車両176及び178の周囲に描いた円により表される。この誤差が大きいと、図3に示すように複数の車両がこの円内に存在することがある。この開示のようにインフラカメラ160により撮像された画像に含まれる車両が同一車種の場合には、いずれが対象車両か判定できないことがある。この開示では、そうした場合には対象車両の位置補正は行わないが、後述の変形例のように、特定の条件が満たされる場合には、対象車両に近接した同一車種の車両が複数台ある場合にも、対象車両を特定できることがある。 As will be described later, position information estimated by dead reckoning includes an error that is considerably larger than that of position information measured by GNSS. This error is represented, for example, by circles drawn around vehicles 176 and 178 shown in FIG. If this error is large, multiple vehicles may be present within this circle, as shown in FIG. As in this disclosure, when the vehicles included in the image captured by the infrastructure camera 160 are of the same type, it may not be possible to determine which vehicle is the target vehicle. In this disclosure, the position of the target vehicle is not corrected in such a case. can also identify the target vehicle.

図4は、この開示における車両の位置補正の一手法を説明するための模式図である。図4を参照して、この開示の一手法では、何らかのランドマーク(例えば道路のペイント202)について、エッジサーバ180が予めその正確な位置(Rx,Ry)を特定し、記憶しておく。車両位置(Cx,Cy)として自己の位置をデッドレコニングにより推定している車両200の画像が、インフラカメラ160等のインフラ設備装置により撮像された画像内に、ペイント202とともに存在していることをエッジサーバ180が認識すると、ペイント202の位置(Rx,Ry)と画像内でのペイント202と車両200との間の距離204に基づいてその差(ΔPx、ΔPy)を算出し、その値から車両200の正確な位置を算出する。さらにエッジサーバ180は、このようにして算出した車両200の正確な位置と、車両200から受信した、車両200が推定しているその位置(Cx,Cy)との誤差を算出し、その誤差を車両200に送信する。車両200は、これ以後、自己がデッドレコニングにより所定時間間隔で推定する車両の位置に、エッジサーバ180から受信した誤差を加算する処理を繰返すことで車両の位置情報を取得する。 FIG. 4 is a schematic diagram for explaining one method of vehicle position correction in this disclosure. Referring to FIG. 4, in one approach of this disclosure, for some landmarks (eg, road paint 202), the edge server 180 pre-identifies and stores the exact location (Rx, Ry). The image of the vehicle 200 whose own position is estimated by dead reckoning as the vehicle position (Cx, Cy) exists together with the paint 202 in the image captured by the infrastructure equipment device such as the infrastructure camera 160. When the edge server 180 recognizes, it calculates the difference (ΔPx, ΔPy) based on the position (Rx, Ry) of the paint 202 and the distance 204 between the paint 202 and the vehicle 200 in the image, and uses the value to 200 exact positions are calculated. Further, edge server 180 calculates the error between the thus calculated accurate position of vehicle 200 and the position (Cx, Cy) received from vehicle 200 and estimated by vehicle 200, and calculates the error. Transmit to vehicle 200 . After this, the vehicle 200 obtains the vehicle position information by repeating the process of adding the error received from the edge server 180 to the position of the vehicle estimated at predetermined time intervals by the vehicle 200 itself through dead reckoning.

もちろん、道路のペイントではなく、画像内の特定の建物等でもよい。複数の特徴物との関係で車両の位置を算出することも可能である。 Of course, it may be a specific building or the like in the image instead of the paint of the road. It is also possible to calculate the position of the vehicle in relation to multiple features.

他の手法として、インフラカメラの画像を入力として、その画像内の車両の位置を推定するニューラルネットワークモデルを使用してもよい。この場合、画像を撮像するカメラはインフラカメラであって、その撮像画像の背景が基本的に常に同一であるため、その中の車両を検出することが、車載カメラからの画像から特徴物を検出するよりもはるかに高い精度で行えるという利点がある。以下に説明するこの開示では、後者の手法を使用する。 Another approach is to use a neural network model that takes an image from an infrastructure camera as input and estimates the position of the vehicle in that image. In this case, the camera that captures the image is an infrastructure camera, and the background of the captured image is basically always the same. It has the advantage that it can be done with much higher precision than This disclosure described below uses the latter approach.

図5は、この開示に関係する車両200の概略構成を示す模式図である。図5を参照して、この開示に関係する車両200は、例えばミリ波レーダ212、車載カメラ214、LiDAR216等のセンサ群と、これらセンサ群が検出データとして出力するセンサデータを定期的にエッジサーバ180にアップロードし、エッジサーバ180から交通支援情報を受信して運転者のための交通支援を行う車載装置210とを含む。 FIG. 5 is a schematic diagram showing a schematic configuration of vehicle 200 related to this disclosure. Referring to FIG. 5, a vehicle 200 related to this disclosure includes a group of sensors such as a millimeter wave radar 212, an in-vehicle camera 214, and a LiDAR 216, and an edge server that periodically outputs sensor data as detection data from these sensors. 180 and receives traffic assistance information from the edge server 180 to provide traffic assistance for the driver.

図6は、車載装置210の概略ハードウェア構成を示すブロック図である。図6を参照して、車載装置210は、車内LANに接続されたHMI(Human-Machine Interface)コントローラ232と、HMIコントローラ232と同様、車内LANに接続された車外通信コントローラ230と、車外通信コントローラ230に接続された、第5世代移動通信システム(いわゆる「5G」)、高度道路交通システム(Intelligent Transport Systems、いわゆる「ITS」)、GNSSの一種であるGPS、及びWi―Fiのためのアンテナとして機能する統合アンテナ240と、車内LANによりHMIコントローラ232及び車外通信コントローラ230に接続された自動運転コントローラ234と、車内LANに接続された走行系コントローラ236とを含む。 FIG. 6 is a block diagram showing a schematic hardware configuration of the in-vehicle device 210. As shown in FIG. Referring to FIG. 6, in-vehicle device 210 includes an HMI (Human-Machine Interface) controller 232 connected to an in-vehicle LAN; 230 as antennas for fifth-generation mobile communication systems (so-called "5G"), intelligent transport systems (so-called "ITS"), GPS, which is a type of GNSS, and Wi-Fi. It includes a functioning integrated antenna 240, an automatic driving controller 234 connected to the HMI controller 232 and the external communication controller 230 by an in-vehicle LAN, and a driving system controller 236 connected to the in-vehicle LAN.

HMIコントローラ232には、モニタ242と、複数のECU(Electronic Control Unit)244、246が接続されている。 A monitor 242 and a plurality of ECUs (Electronic Control Units) 244 and 246 are connected to the HMI controller 232 .

自動運転コントローラ234には、ミリ波レーダ212、車載カメラ214、LiDAR216に加えて、自動運転ECU248が接続されている。 An automatic driving ECU 248 is connected to the automatic driving controller 234 in addition to the millimeter wave radar 212 , the in-vehicle camera 214 and the LiDAR 216 .

走行系コントローラ236には、車両の走行制御のための複数のECUが接続されている。 A plurality of ECUs for vehicle travel control are connected to the travel system controller 236 .

図7は、この開示において使用される、図6に示すHMIコントローラ232のハードウェア構成を示すブロック図である。図7を参照して、HMIコントローラ232は、コンピュータ350と、コンピュータ350に接続されたタッチパネル352と、コンピュータ350に接続され、タッチパネル352とともにユーザI/Fを提供するLCD等からなるモニタ242と、ユーザに対して音声による交通支援情報の提供及び音声によるコンピュータ350のユーザI/Fを提供するためのスピーカ・マイク360とを含む。 FIG. 7 is a block diagram showing the hardware configuration of HMI controller 232 shown in FIG. 6 and used in this disclosure. 7, the HMI controller 232 includes a computer 350, a touch panel 352 connected to the computer 350, a monitor 242 such as an LCD connected to the computer 350 and providing a user I/F together with the touch panel 352, It also includes a speaker/microphone 360 for providing the traffic assistance information by voice to the user and the user I/F of the computer 350 by voice.

コンピュータ350は、とCPU(Central Processing Unit)と、CPU370に接続され、CPU370とHMIコントローラ232内の各ユニットとの間のデータ及び制御信号の通信経路を提供するバス372と、コンピュータ350のブートアッププログラム等を記憶するROM374と、随時書込読出可能なRAM376と、ハードディスク、SSD等の補助記憶装置378と、図6に示す車外通信コントローラ230及び統合アンテナ240を介してエッジサーバ180との無線通信を行うための無線通信部380と、バス372に接続され、USBメモリ362が着脱可能なUSBメモリポート384とを含む。 The computer 350 includes a CPU (Central Processing Unit), a bus 372 connected to the CPU 370 and providing a communication path for data and control signals between the CPU 370 and each unit in the HMI controller 232, and a boot-up controller for the computer 350. Wireless communication with an edge server 180 via a ROM 374 that stores programs, a RAM 376 that can be written and read at any time, an auxiliary storage device 378 such as a hard disk or SSD, and an external communication controller 230 and an integrated antenna 240 shown in FIG. and a USB memory port 384 connected to the bus 372 to which the USB memory 362 can be attached/detached.

コンピュータ350はさらに、バス372に接続され、各種ECU356及び各種センサ358とコンピュータ350との間のI/Fとなる入出力I/F382と、バス372とスピーカ・マイク360とのインターフェイスを提供するための音声処理インターフェイス390と、バス372と車内LAN394とに接続されたネットワークI/F392とを含む。 The computer 350 is further connected to a bus 372 to provide an input/output I/F 382 serving as an interface between various ECUs 356 and various sensors 358 and the computer 350, and an interface between the bus 372 and the speaker/microphone 360. and a network I/F 392 connected to the bus 372 and the in-vehicle LAN 394 .

図8は、この開示における車載装置210でのデータアップロード処理を実現するコンピュータプログラム(以下、単に「プログラム」という。)の制御構造を示すフローチャートである。このプログラムは図7に示すHMIコントローラ232のCPU370により実行される。 FIG. 8 is a flowchart showing a control structure of a computer program (hereinafter simply referred to as "program") that implements data upload processing in the in-vehicle device 210 in this disclosure. This program is executed by the CPU 370 of the HMI controller 232 shown in FIG.

図8を参照して、このプログラムは所定間隔で繰返して実行されるプログラムであって、前回のこのプログラムの実行時から今回の実行時までの間に図7に示す各種センサ358からバス372が受信し、RAM376又は補助記憶装置378に格納したデータをそれら記憶装置から読出すステップ400と、読出した情報をエッジサーバ180にアップロードして処理を終了するステップ402とを含む。 Referring to FIG. 8, this program is repeatedly executed at predetermined intervals. It includes step 400 of reading the data received and stored in RAM 376 or auxiliary storage device 378 from those storage devices, and step 402 of uploading the read information to edge server 180 and completing the process.

ステップ400でエッジサーバ180にアップロードされる情報は、HMIコントローラ232を含む車載装置210を搭載した車両の位置情報、車種、時刻情報、GPS性能、GPSが通信可能な衛星数、車速及び加速度等を含む。 The information uploaded to the edge server 180 in step 400 includes location information, vehicle type, time information, GPS performance, number of satellites with which GPS can communicate, vehicle speed, acceleration, etc. of the vehicle equipped with the in-vehicle device 210 including the HMI controller 232. include.

図9は、この開示における車載装置での位置補正処理を実現するプログラムの制御構造を示すフローチャートである。図9を参照して、このプログラムは、データを受信するたびに起動される。このプログラムは、受信したデータがセンサデータか否かを判定してその結果にしたがって制御の流れを分岐するステップ500と、ステップ500の判定が肯定のときに、受信したセンサデータをRAM376又は補助記憶装置378に保存して処理を終了するステップ502と、ステップ500の判定が否定であることに応答して、受信したデータがエッジサーバ180からの位置補正情報か否かを判定し、結果に応じて制御の流れを分岐させるステップ504とを含む。 FIG. 9 is a flow chart showing a control structure of a program that implements position correction processing in the in-vehicle device according to this disclosure. Referring to FIG. 9, this program is activated each time data is received. This program consists of step 500 for judging whether or not the received data is sensor data and branching the flow of control according to the result, and storing the received sensor data in the RAM 376 or auxiliary storage when the judgment in step 500 is affirmative. Step 502 for saving in the device 378 and ending the process; and step 504 for branching the control flow.

このプログラムはさらに、ステップ504での判定が肯定であることに応答して、受信した位置補正情報をRAM376又は補助記憶装置378に保存してプログラムの実行を終了するステップ508と、ステップ504の判定が否定であることに応答して、そのデータに対してそのデータの種別により定まる処理を実行してこのプログラムの実行を終了するステップ512とを含む。ステップ508の処理で保存された位置補正情報は、この後にはデッドレコニングにより計算された位置情報に加算される。なお、図示はしていないが、通信可能な衛星数が3個以上に戻った場合には、この位置補正情報はクリアされる。 The program further includes a step 508 in which, in response to an affirmative determination in step 504, the received position correction information is stored in RAM 376 or auxiliary storage device 378 and execution of the program ends; is negative, the data is processed according to the type of the data, and the execution of the program is terminated. The position correction information saved in the process of step 508 is then added to the position information calculated by dead reckoning. Although not shown, this position correction information is cleared when the number of communicable satellites returns to three or more.

図10は、この開示において使用されるエッジサーバ180の外観を示す図である。図10を参照して、このエッジサーバ180は、USBメモリポート652及びDVD(Digital Versatile Disc)ドライブ650を有するコンピュータ640と、キーボード646と、マウス648と、モニタ642とを含む。 FIG. 10 is a diagram showing the appearance of the edge server 180 used in this disclosure. 10, this edge server 180 includes a computer 640 having a USB memory port 652 and a DVD (Digital Versatile Disc) drive 650, a keyboard 646, a mouse 648, and a monitor 642.

図11は、図10に示すエッジサーバの概略ハードウェア構成を示すブロック図である。図11を参照して、コンピュータ640は、USBメモリポート652及びDVDドライブ650に加えて、CPU656と、CPU656、USBメモリポート652及びDVDドライブ650に接続されたバス666と、数値計算等を並列的に実行可能なGPU(Graphics Processing Unit)657と、ブートアッププログラム等を記憶する読出専用メモリ(ROM)658と、バス666に接続され、プログラム命令、システムプログラム及び作業データ等を記憶するRAM660と、ハードディスク654を含む。エッジサーバ180はさらに、他端末との通信を可能とするネットワーク668への接続を提供するネットワークインターフェイス644を含む。GPU657は、画像処理及びニューラルネットワーク等で生ずる大量の数値計算を同時並行的に高速に実行可能である。 FIG. 11 is a block diagram showing a schematic hardware configuration of the edge server shown in FIG. Referring to FIG. 11, computer 640 includes, in addition to USB memory port 652 and DVD drive 650, CPU 656, bus 666 connected to CPU 656, USB memory port 652 and DVD drive 650, numerical calculations, etc., in parallel. A GPU (Graphics Processing Unit) 657 that can be executed on a computer, a read-only memory (ROM) 658 that stores a boot-up program, etc., a RAM 660 that is connected to a bus 666 and stores program instructions, system programs, work data, etc. Includes hard disk 654 . Edge server 180 further includes a network interface 644 that provides connection to network 668 that allows communication with other terminals. The GPU 657 can execute a large amount of numerical calculations generated in image processing, neural networks, and the like concurrently and at high speed.

エッジサーバ180をこの発明の各開示に係るエッジサーバ180の各機能部として機能させるためのコンピュータプログラムは、DVDドライブ650又はUSBメモリポート652に装着されるDVD662又はUSBメモリ664に記憶されて流通し、これらからさらにハードディスク654に転送される。又は、プログラムはネットワーク668を通じてコンピュータ640に送信されハードディスク654に記憶されてもよい。プログラムは実行の際にRAM660にロードされる。DVD662から、USBメモリ664から又はネットワーク668を介して、直接にRAM660にプログラムをロードしてもよい。 A computer program for causing the edge server 180 to function as each functional unit of the edge server 180 according to each disclosure of the present invention is stored and distributed on the DVD 662 or USB memory 664 attached to the DVD drive 650 or USB memory port 652. , are further transferred to the hard disk 654 from these. Alternatively, the program may be transmitted to computer 640 over network 668 and stored on hard disk 654 . Programs are loaded into RAM 660 during execution. Programs may be loaded directly into RAM 660 from DVD 662 , from USB memory 664 , or via network 668 .

このプログラムは、コンピュータ640を、上記各開示に係るエッジサーバ180及びその各機能部として機能させるための複数個の命令からなる命令列を含む。コンピュータ640にこの動作を行わせるのに必要な基本的機能のいくつかはコンピュータ640上で動作するオペレーティングシステム若しくはサードパーティのプログラム又はコンピュータ640にインストールされる、ダイナミックリンク可能な各種プログラミングツールキット又はプログラムライブラリにより提供される。したがって、このプログラム自体はこの開示のシステム、装置及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令の中で、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット又はプログラムライブラリ内の適切なプログラムを実行時に動的に呼出すことにより、上記したシステム、装置又は方法としての機能を実現する命令のみを含んでいればよい。もちろん、プログラムのみで必要な機能を全て提供してもよい。 This program includes an instruction string consisting of a plurality of instructions for causing the computer 640 to function as the edge server 180 and its respective functional units according to the above disclosures. Some of the basic functions necessary to cause computer 640 to perform this operation are the operating system or third party programs running on computer 640 or various programming toolkits or programs installed on computer 640 that can be dynamically linked. provided by the library. Accordingly, the program itself need not necessarily include all the functionality necessary to implement the system, apparatus and method of this disclosure. This program, in instructions, dynamically invokes the appropriate functions or programs in a programming toolkit or program library at run time in a controlled manner to achieve the desired result. , apparatus or method. Of course, the program alone may provide all necessary functions.

図12は、図10に示すエッジサーバの機能的構成を示すブロック図である。図12を参照して、エッジサーバ180はこうした運用を可能にするために以下のような構成を持つ。エッジサーバ180は、上記したように複数のインフラセンサ設備(カメラ及びLiDARのいずれか又は双方を含む。)からの信号及び車両搭載センサ(カメラ及びLiDARのいずれか又は双方を含む。)からの信号を無線通信又は有線通信経由で受信し、受信したデータをその内容により振り分ける受信処理部700を含む。 12 is a block diagram showing a functional configuration of the edge server shown in FIG. 10; FIG. Referring to FIG. 12, edge server 180 has the following configuration to enable such operations. The edge server 180 receives signals from a plurality of infrastructure sensor facilities (including either or both of cameras and LiDAR) and signals from vehicle-mounted sensors (including either or both of cameras and LiDAR) as described above. is received via wireless communication or wired communication, and the received data is sorted according to its contents.

エッジサーバ180はさらに、受信処理部700が受信したセンサデータを解析することにより、管理対象の範囲内に存在する車両及び歩行者を含む各移動体の位置、速度、属性等の解析結果を出力するための動体追跡部702と、動体追跡部702が出力する解析結果を記憶するための解析結果記憶部704と、受信処理部700が受信した信号に基づいて、車両及び歩行者等の移動体の車種、種別、時刻情報、GPS性能、GPSが通信可能な衛星数等を含む属性を検出する属性検出部706と、属性検出部706が検出した各移動体の属性を記憶する属性記憶部708と、解析結果記憶部704に記憶された解析結果と属性記憶部708に記憶された属性とを統合的に管理し、高精度マップ情報と統合して交通状況俯瞰マップを生成し出力する統合処理部710と、統合処理部710が出力する交通状況俯瞰マップを記憶する解析結果記憶部712とを含む。動体追跡部702が行うセンサデータによる解析手法自体は公知のもののいずれを採用してもよい。 The edge server 180 further analyzes the sensor data received by the reception processing unit 700, and outputs analysis results such as the position, speed, attributes, etc. of each moving body including vehicles and pedestrians existing within the managed range. a moving body tracking unit 702 for tracking, an analysis result storage unit 704 for storing the analysis results output by the moving body tracking unit 702, and a moving object such as a vehicle and a pedestrian based on the signal received by the reception processing unit 700 Attribute detection unit 706 for detecting attributes including vehicle type, type, time information, GPS performance, number of satellites with which GPS can communicate, etc.; Integrating processing for integrally managing the analysis results stored in the analysis result storage unit 704 and the attributes stored in the attribute storage unit 708, integrating them with the high-precision map information, and generating and outputting a traffic situation bird's-eye view map. 710 and an analysis result storage unit 712 that stores the traffic situation bird's-eye view map output by the integrated processing unit 710 . As for the method of analyzing sensor data performed by the moving object tracking unit 702, any known method may be employed.

エッジサーバ180はさらに、受信処理部700が各車両及び端末から受信した信号に基づいて、管理対象のエリア内に存在する車両等の移動体の位置情報、車速及び加速度等からなる情報を得て、その情報に基づいて移動体を追跡するための車両・端末追跡部714と、車両・端末追跡部714により得られた各車両及び端末等の移動体情報を記憶するための車両・端末情報記憶部716と、解析結果記憶部712に記憶されたGPSが通信可能な衛星数に基づきGPSが通信可能な衛星数が3未満である車両、又はGPS精度(性能)が所定のしきい値以下である車両を特定し位置情報の補正が必要な車両として車両・端末情報記憶部716に記憶されたその車両の車両・端末情報をマークする追跡対象決定部718と、統合処理部710により生成され解析結果記憶部712に記憶された解析結果に基づいて、運転支援情報を生成するための運転支援情報生成部734とを含む。 The edge server 180 further obtains information such as position information, vehicle speed, acceleration, etc. of moving bodies such as vehicles existing in the area to be managed based on the signals received by the reception processing unit 700 from each vehicle and terminal. , a vehicle/terminal tracking unit 714 for tracking a moving object based on the information, and a vehicle/terminal information storage for storing moving object information such as each vehicle and terminal obtained by the vehicle/terminal tracking unit 714. unit 716, based on the number of GPS communicable satellites stored in the analysis result storage unit 712, the number of GPS communicable satellites is less than 3, or the GPS accuracy (performance) is equal to or less than a predetermined threshold value. A tracked object determination unit 718 that identifies a certain vehicle and marks the vehicle/terminal information of the vehicle stored in the vehicle/terminal information storage unit 716 as a vehicle requiring correction of the position information, and the integration processing unit 710 generates and analyzes and a driving support information generation unit 734 for generating driving support information based on the analysis results stored in the result storage unit 712 .

エッジサーバ180はさらに、追跡対象の車両と画像内の車両とのマッチングを行うための機能部として、受信処理部700を介して管理対象のインフラカメラからの画像を受信し、画像データと撮像時刻とに分離するインフラ画像受信部720と、インフラ画像受信部720が受信した画像内の車両の画像及びその撮像時刻を記憶するためのインフラ画像記憶部721と、車両・端末追跡部714及び車両・端末情報記憶部716に接続され、車両・端末追跡部714が位置補正の対象車両から位置情報を受信したことに応答して、その車両から所定範囲内に同一車種の車両が存在するか否かを判定するための同一車種有無判定部722と、管理領域内のインフラカメラの撮像領域地点の中でその車両が最近通過した時点のインフラ画像をインフラ画像記憶部721で特定するための画像特定部726と、画像特定部726により特定されたインフラ画像から、車両・端末追跡部714が位置情報を受信した車両の位置を推定するための車両位置推定部724と、車両・端末情報記憶部716に記憶されている、画像特定部726により特定された画像の撮像時刻でのその車両の位置と、車両位置推定部724により推定されたその車両の位置との誤差を算出するための誤差算出部728とを含む。 The edge server 180 further receives images from the infrastructure cameras to be managed via the reception processing unit 700 as a function unit for matching the vehicle to be tracked with the vehicle in the image, and converts the image data and the imaging time. an infrastructure image receiving unit 720 separated into an infrastructure image receiving unit 720, an infrastructure image storage unit 721 for storing the image of the vehicle in the image received by the infrastructure image receiving unit 720 and its imaging time, a vehicle/terminal tracking unit 714, and a vehicle/terminal tracking unit 714; In response to the vehicle/terminal tracking unit 714 connected to the terminal information storage unit 716 receiving the position information from the vehicle whose position is to be corrected, whether or not a vehicle of the same model exists within a predetermined range from the vehicle. and an image specifying unit 721 for specifying, in the infrastructure image storage unit 721, the infrastructure image at the time when the vehicle recently passed through the imaging area point of the infrastructure camera in the management area. 726, a vehicle position estimation unit 724 for estimating the position of the vehicle whose position information is received by the vehicle/terminal tracking unit 714 from the infrastructure image specified by the image specifying unit 726, and a vehicle/terminal information storage unit 716. An error calculation unit 728 for calculating an error between the stored position of the vehicle specified by the image specifying unit 726 at the time when the image was taken and the position of the vehicle estimated by the vehicle position estimation unit 724. including.

車両位置推定部724は、2段階のニューラルネットワークを含む。第1段階のニューラルネットワークは、画像内のオブジェクトを、その画像内の位置、色、大きさ及びオブジェクト種別等の属性を含めて認識するためのものである。こうした技術は既に存在しており、1つの画像から複数のオブジェクトをそれらの種別を含めて推定可能である。車両位置推定部724はさらに、この第1段階のニューラルネットワークで認識されたオブジェクトの中で、オブジェクトの種別が車両であるものについて、その位置を画像内で認識する第2のニューラルネットワークを含む。この第2のニューラルネットワークは、画像内の他のオブジェクトについては、そのインフラカメラにより通常撮像される画像に置換し、通常そのインフラカメラにより撮像される背景画像に、対象となる車両の画像のみが配置された画像を入力とし、その車両の地理的位置を推定する。 Vehicle position estimator 724 includes a two-stage neural network. The first-stage neural network is for recognizing objects in an image, including attributes such as position, color, size, and object type in the image. Such techniques already exist and can estimate multiple objects, including their types, from a single image. The vehicle position estimator 724 further includes a second neural network that recognizes the position in the image of an object that is of a vehicle type among the objects recognized by the first-stage neural network. This second neural network replaces other objects in the image with images normally captured by the infra-camera, and the background image normally captured by the infra-camera contains only the image of the target vehicle. It takes the placed image as input and estimates the geographical position of the vehicle.

この第2のニューラルネットワークの訓練には、背景画像に車両を配置した画像を入力とし、そのときの車両の地理的位置を教師データとする訓練データを用いる。車両は実際にその位置に配置する必要はなく、背景画像に、車両の画像を、その想定される車両位置に基づいて計算した大きさ、形状、及び姿勢で配置した画像を用いて訓練データの入力とすればよい。車両の色等についても同様で、画像処理により同じ画像で車両の色のみ異なる画像を複数作成し、訓練用の入力データとして用いることができる。なお、インフラカメラが撮像する画像の背景は、常に同一と考えられる。そのため、インフラカメラごとに訓練データを準備すると、訓練データが疎になることがなく、認識精度を高くできる。したがって、車両位置推定部724はインフラカメラごとに訓練したものを個別に準備し、画像特定部726により特定された画像を撮像したインフラカメラ専用のニューラルネットワークを車両位置推定部724として用いる。 For training of this second neural network, an image in which a vehicle is arranged in a background image is used as an input, and training data is used in which the geographical position of the vehicle at that time is used as training data. The vehicle does not need to be actually placed at that position, but the background image is an image of the vehicle, with the size, shape, and pose calculated based on its assumed vehicle position. It can be used as an input. The same applies to the color of the vehicle, and by image processing, a plurality of images of the same image, differing only in the color of the vehicle, can be created and used as input data for training. It is assumed that the background of the image captured by the infrastructure camera is always the same. Therefore, if training data is prepared for each infrastructure camera, the training data will not become sparse, and recognition accuracy can be increased. Therefore, the vehicle position estimating unit 724 prepares a trained one for each infrastructure camera, and uses a neural network dedicated to the infrastructure camera that captures the image specified by the image specifying unit 726 as the vehicle position estimating unit 724 .

エッジサーバ180はさらに、運転支援情報生成部734が生成した運転支援情報から車両・端末情報記憶部716に記憶された各車両に配信するための情報を生成したり、誤差算出部728が算出した誤差に基づき、車両・端末情報記憶部716に記憶された車両の中で、車両・端末追跡部714が受信した位置情報に対応する車両に送信するための位置の誤差補正情報を生成したりするための情報生成部730と、情報生成部730により生成された運転支援情報及び誤差補正情報をそれぞれの送信先(車載装置)に送信するための送信処理部732とを含む。送信先に関する情報は車両・端末情報記憶部716に記憶された車両のアドレスに基づいて情報生成部730が生成し各情報に付与する。 The edge server 180 further generates information to be distributed to each vehicle stored in the vehicle/terminal information storage unit 716 from the driving support information generated by the driving support information generation unit 734, or generates information to be distributed to each vehicle stored in the vehicle/terminal information storage unit 716. Based on the error, among the vehicles stored in the vehicle/terminal information storage unit 716, positional error correction information for transmission to the vehicle corresponding to the positional information received by the vehicle/terminal tracking unit 714 is generated. and a transmission processing unit 732 for transmitting the driving support information and the error correction information generated by the information generation unit 730 to respective destinations (in-vehicle devices). The information about the transmission destination is generated by the information generation unit 730 based on the vehicle address stored in the vehicle/terminal information storage unit 716 and attached to each piece of information.

図13は、図12に示す各機能を実現するためのプログラムの制御構造を示すフローチャートである。図13を参照して、このプログラムは、エッジサーバ180が情報を受信するたびに起動される。このプログラムは、受信した情報が車両からの情報か否かを判定してその結果により制御の流れを分岐させるステップ750と、ステップ750における判定が肯定であることに応答して、受信した情報からその車両の識別情報を特定するステップ754と、特定された対象車両の追跡情報、解析情報及び属性情報を、受信した位置情報に基づいて更新するステップ756と、受信した情報が、位置情報補正の対象となっている車両からの位置情報か否かを判定し制御の流れを分岐させるステップ758と、ステップ758の判定が肯定であることに応答して、同一車種がその車両の近傍に存在するか否かを図12の車両・端末情報記憶部716に記憶されている各車両の位置情報に基づいてチェックするステップ760と、ステップ760の処理の結果、同一車種の車両がこの車両の近傍に存在しているか否かを判定し、その結果に応じて制御の流れを分岐させるステップ762とを含む。ステップ762の判定結果が肯定のときには、この車両の位置情報の補正は行わずこのプログラムの実行を終了する。 FIG. 13 is a flow chart showing the control structure of a program for realizing each function shown in FIG. Referring to FIG. 13, this program is activated each time edge server 180 receives information. The program executes step 750 for determining whether the received information is from the vehicle and branching the control flow depending on the result, and in response to a positive determination at step 750, Step 754 of identifying the identification information of the vehicle; Step 756 of updating the tracking information, analysis information and attribute information of the identified target vehicle based on the received location information; Step 758 for judging whether or not the position information is from the target vehicle and branching the control flow; Based on the position information of each vehicle stored in the vehicle/terminal information storage unit 716 of FIG. and step 762 for determining whether it exists and branching control flow accordingly. When the determination result of step 762 is affirmative, the execution of this program is terminated without correcting the vehicle position information.

このプログラムはさらに、ステップ762の判定が否定のとき、すなわちこの車両の近傍に同一車種の車両が存在していないと判定されたことに応答して、その車両がその画像を送信してきた時点で、その車両から受信した位置情報の近傍に存在するインフラカメラからの画像で撮像された画像の中で、その車両の画像を含む画像及びその車両の地理的位置を、画像内の車両像を認識することで特定するステップ764と、ステップ764で特定された画像が撮像された時点でエッジサーバ180が受信していたその車両の位置情報を車両・端末情報記憶部716から読出すステップ766と、ステップ766で読出した、車両から受信した位置情報と、画像から得た位置情報との差により、その車両の位置情報の誤差を算出するステップ768と、ステップ768で算出された誤差を、対象となる車両(このプログラムが起動されたときの情報を送信してきた車両)の車載装置に位置補正情報として送信してこのプログラムの実行を終了するステップ770とを含む。 Further, when the determination in step 762 is negative, that is, when it is determined that there is no vehicle of the same type in the vicinity of the vehicle, the vehicle transmits the image. , Recognizing the image including the image of the vehicle and the geographical position of the vehicle in the image captured by the image from the infrastructure camera existing in the vicinity of the position information received from the vehicle, and the vehicle image in the image a step 764 of reading out from the vehicle/terminal information storage unit 716 the location information of the vehicle that was received by the edge server 180 at the time when the image identified in step 764 was captured; Step 768 calculates the error of the position information of the vehicle based on the difference between the position information received from the vehicle read out in step 766 and the position information obtained from the image. and a step 770 of transmitting the information as position correction information to the in-vehicle device of the next vehicle (the vehicle that transmitted the information when this program was started) and ending the execution of this program.

このプログラムはさらに、ステップ750の判定が否定のとき、すなわち受信した情報が車両からの情報ではないと判定されたことに応答して、受信情報をその情報の種類に応じて処理し、このプログラムの実行を終了するステップ752を含む。なお、ステップ758の判定が否定のとき、すなわち位置情報の補正のための追跡対象となっている車両からの情報ではないと判定されたときにもこのプログラムの実行は終了される。 The program further processes the received information in response to a negative determination at step 750, i.e., that the received information is not from the vehicle, according to the type of information, and the program includes a step 752 that terminates execution of . The execution of this program is also ended when the determination at step 758 is negative, that is, when it is determined that the information is not from the vehicle being tracked for correcting the position information.

ステップ764では、インフラカメラの画像に基づいて車両の位置を推定する処理がニューラルネットワークを用いて行われる。このニューラルネットワークは、インフラカメラごとに予め訓練が行われているものである。その訓練には、そのカメラからした画像を入力データ、その画像内に存在する車両の、実際に測定された地理的位置を教師データとする訓練データが用いられる。車両としては多数の車種、車両の型、色等の種々の画像を用いる。教師データとして使用する車両位置は、一貫した方法で決める必要がある。そして車両位置の推定の際にも、同様の方法を採用する。 At step 764, a neural network is used to estimate the position of the vehicle based on the infrastructure camera image. This neural network is pre-trained for each infrastructure camera. For the training, training data is used in which the image taken from the camera is used as input data and the actually measured geographical position of the vehicle existing in the image is used as training data. As the vehicle, various images such as a large number of vehicle types, vehicle types, and colors are used. Vehicle positions used as training data should be determined in a consistent manner. A similar method is also used when estimating the vehicle position.

なお、この開示では、インフラカメラごとに上記したニューラルネットワークのモデルを訓練する。ニューラルネットワークとしては畳込みニューラルネットワークがこの場合には好適である。インフラカメラが撮像する画像は基本的にいつでも同一で変化がない。したがって、同一の背景の中に存在する車両の位置を特定するための教師データが疎となるおそれは小さく、教師データとして不可能なほど多い画像を準備することになるおそれはない。教師データの画像として、実際の車両をインフラカメラの撮像範囲内に配置する必要はない。例えば、インフラカメラが撮像する、車両を含まない画像を1枚だけ(又は天気に応じて複数枚)用意し、そこに別途撮像した車両の画像を配置してもよい。この場合には、どのような向きでどのような位置にどのような大きさの車両画像を配置するかについて、予め換算式を用いて定め、画像を合成すればよい。ただし、車両の位置については、教師データが疎になることを防ぐために、ある程度の粒度で特定することが望ましい。例えば地図を30センチメートル四方の矩形に区分し、車両の中心がそれら矩形のうちのいずれの中に存在するかを示す情報を教師データとすればよい。教師データが豊富に入手できるなら、この粒度を上げて、例えば20センチメートル四方、又は15センチメートル四方等のより小さな矩形に地図を区分し、車両位置をその矩形の位置で特定することもできる。すなわち、車両の位置の測定精度を矩形の辺の長さに制限することで、モデルのための訓練データの量をコントロールできる。 Note that in this disclosure, the neural network model described above is trained for each infrastructure camera. A convolutional neural network is suitable in this case as the neural network. The image captured by the infrastructure camera is basically the same and does not change at any time. Therefore, there is little possibility that the teacher data for specifying the position of the vehicle existing in the same background will be sparse, and there is no possibility that an impossibly large number of images will be prepared as teacher data. It is not necessary to place the actual vehicle within the imaging range of the infrastructure camera as the image of the training data. For example, only one image (or a plurality of images depending on the weather) that does not include the vehicle, which is captured by the infrastructure camera, may be prepared, and an image of the vehicle captured separately may be arranged there. In this case, the direction, the position, and the size of the vehicle image are determined in advance using a conversion formula, and the images are synthesized. However, it is desirable to specify vehicle positions with a certain degree of granularity in order to prevent teacher data from becoming sparse. For example, a map may be divided into 30 cm square rectangles, and information indicating in which of these rectangles the center of the vehicle is located may be used as teacher data. If abundant training data is available, this granularity can be increased to segment the map into smaller rectangles, such as 20 cm square, or 15 cm square, and the vehicle location can be specified at the location of the rectangle. . That is, the amount of training data for the model can be controlled by limiting the accuracy of the vehicle position measurement to the side length of the rectangle.

原理的には、インフラカメラごとではなく、全てのインフラカメラについて上記したニューラルネットワークを学習してもよい。しかし、インフラカメラによって背景が異なるので、教師データを十分に準備することが難しく、またニューラルネットワークの学習にも長時間を要することになる。 In principle, the neural network described above may be learned for all infrastructure cameras instead of for each infrastructure camera. However, since the background differs depending on the infrastructure camera, it is difficult to sufficiently prepare training data, and it takes a long time to learn the neural network.

〈動作〉
以上、構成を説明した位置補正システム150は以下のように動作する。まず、予め上記した方法により、図12に示すエッジサーバ180の車両位置推定部724の訓練を、インフラカメラごとに行い、インフラカメラごとに車両位置推定部724のニューラルネットワークモデルを準備しておく。
<motion>
The position correction system 150 having the configuration described above operates as follows. First, the vehicle position estimation unit 724 of the edge server 180 shown in FIG. 12 is trained for each infrastructure camera by the method described above, and a neural network model of the vehicle position estimation unit 724 is prepared for each infrastructure camera.

通常、図7に示す各車両のHMIコントローラ232は、各センサからのセンサデータを受信し、RAM376又は補助記憶装置378に記憶する。HMIコントローラ232は、定期的に図8に示すプログラムをCPU370で実行することにより、その車両の位置情報、時刻情報、車種、GPS性能、GPSが通信可能な衛星数、車速及び加速度等の情報を図3に示すエッジサーバ180に無線を通じて送信する。 Normally, HMI controller 232 of each vehicle shown in FIG. 7 receives sensor data from each sensor and stores it in RAM 376 or auxiliary storage device 378 . The HMI controller 232 periodically executes the program shown in FIG. It is transmitted wirelessly to the edge server 180 shown in FIG.

図12を参照して、エッジサーバ180の受信処理部700は、この情報を受信すると、車両情報を用いて、今まで管理していなかった車両か否かを判定し、新たな車両であれば動体追跡部702、属性検出部706、車両・端末追跡部714に新たな車両のエントリを生成し、同じ識別番号を付与する。受信処理部700は位置情報を車両・端末追跡部714に与え、車両・端末追跡部714はそれらを車両・端末情報記憶部716に記憶する。又は、同じ車両に対する新しい車両情報を受信したときには、以前の車両の記録を新しい記録で更新する。 Referring to FIG. 12, upon receiving this information, reception processing unit 700 of edge server 180 uses the vehicle information to determine whether or not the vehicle has not been managed until now. A new vehicle entry is generated in the moving object tracking unit 702, the attribute detection unit 706, and the vehicle/terminal tracking unit 714, and the same identification number is given. The reception processing unit 700 gives the position information to the vehicle/terminal tracking unit 714 , and the vehicle/terminal tracking unit 714 stores them in the vehicle/terminal information storage unit 716 . Or, when new vehicle information for the same vehicle is received, the previous vehicle record is updated with the new record.

受信処理部700が車両等からセンサ情報を受信したときには、動体追跡部702は、それらセンサ情報を動体追跡部702及び属性検出部706に与える。動体追跡部702は、センサ情報から、管理範囲内に存在する車両等の移動体の存在を認識し、各移動体についてその位置、移動方向、移動速度等に関する情報を生成する。これら情報は解析結果記憶部704に記憶される。 When the reception processing unit 700 receives sensor information from a vehicle or the like, the moving object tracking unit 702 gives the sensor information to the moving object tracking unit 702 and the attribute detection unit 706 . The moving object tracking unit 702 recognizes the existence of moving objects such as vehicles existing within the management range from the sensor information, and generates information regarding the position, moving direction, moving speed, etc. of each moving object. These pieces of information are stored in the analysis result storage unit 704 .

一方、属性検出部706は、与えられたセンサデータに基づき、動体の色、大きさ、種類(歩行者/大人、歩行者/子供、車両(大型車、小型車、二輪車、自転車)等の属性を検出し、属性記憶部708に動体ごとに記憶させる。統合処理部710はこれら情報と、解析結果記憶部704に維持されている各動体についての属性とを統合して交通状況俯瞰マップを作成し、解析結果記憶部712に記憶させる。 On the other hand, the attribute detection unit 706 detects attributes such as color, size, type (pedestrian/adult, pedestrian/child, vehicle (large vehicle, small vehicle, motorcycle, bicycle), etc. of a moving object based on the given sensor data. Detected and stored for each moving object in the attribute storage unit 708. An integration processing unit 710 integrates this information and the attributes of each moving object maintained in the analysis result storage unit 704 to create a traffic situation bird's-eye view map. , is stored in the analysis result storage unit 712 .

また受信処理部700は、車両等から位置情報を受信するとその情報を車両・端末追跡部714に与える。車両・端末追跡部714は、管理範囲内に存在する車両の車両情報を記憶し、定期的にその更新時刻、位置情報、移動速度及び移動方向等によって車両の現在位置を把握し維持管理する。 Further, when the reception processing unit 700 receives position information from a vehicle or the like, the reception processing unit 700 gives the information to the vehicle/terminal tracking unit 714 . The vehicle/terminal tracking unit 714 stores vehicle information of vehicles existing within the management range, and periodically grasps, maintains and manages the current position of the vehicle based on its update time, position information, moving speed, moving direction, and the like.

運転支援情報生成部734は、定期的に解析結果記憶部712から交通状況俯瞰マップを読出し、公知の方法で運転支援情報を生成し、運転支援情報生成部734に与える。運転支援情報生成部734は、この運転支援情報を受けると、車両・端末情報記憶部716に記憶されている位置情報に基づいて運転支援情報を送信する車両のアドレスを決定し、送信処理部732を介してそのアドレスに運転支援情報を送信する。 The driving support information generation unit 734 periodically reads the traffic situation overview map from the analysis result storage unit 712 , generates driving support information by a known method, and supplies the driving support information generation unit 734 with the driving support information. Upon receiving this driving assistance information, the driving assistance information generation unit 734 determines the address of the vehicle to which the driving assistance information is to be transmitted based on the position information stored in the vehicle/terminal information storage unit 716, and sends the information to the transmission processing unit 732. Send driving assistance information to that address via

インフラ画像を受信したときには、受信処理部700はこの画像を動体追跡部702、属性検出部706、及びインフラ画像受信部720に与える。インフラ画像受信部720はこの画像をインフラ画像記憶部721に格納する。 Upon receiving an infrastructure image, the reception processing unit 700 gives this image to the moving object tracking unit 702 , the attribute detection unit 706 , and the infrastructure image reception unit 720 . The infrastructure image reception unit 720 stores this image in the infrastructure image storage unit 721 .

一方、位置情報を受信したときには、同一車種有無判定部722によりその情報を送信してきた車両が位置情報の補正のための追跡対象となっているか否かが判定され(図13のステップ758)、さらに追跡対象であればその位置から所定範囲内に、同一車種の車両が存在しているか否かが車両・端末情報記憶部716の中の情報に基づいて同一車種有無判定部722によりチェックされる(ステップ760)。もしもそのような車両があれば(ステップ762でYES)、この開示では、位置情報の補正は行わない。そのような車両が他に存在していなければ(ステップ762でNO)、図13のステップ764、766、768及び770の処理がこの順に実行され、位置補正情報が該当車両に送信される。 On the other hand, when the position information is received, the same vehicle model presence/absence determination unit 722 determines whether or not the vehicle that transmitted the information is a tracking target for correcting the position information (step 758 in FIG. 13). Furthermore, if it is a tracking object, whether or not a vehicle of the same model exists within a predetermined range from that position is checked by the same model presence/absence determination unit 722 based on the information in the vehicle/terminal information storage unit 716 . (step 760). If there is such a vehicle (YES at step 762), then this disclosure does not correct the position information. If no other such vehicle exists (NO at step 762), the processes of steps 764, 766, 768 and 770 of FIG. 13 are executed in this order, and position correction information is transmitted to the vehicle in question.

図9を参照して、この補正情報を受信した車両では、図9のステップ500→ステップ504という経路を経てステップ508の処理を実行する。すなわち、受信した位置補正情報をRAM376又は補助記憶装置378(図7参照)に保存する。以下、デッドレコニングにより算出された位置情報にこの位置補正情報が加算される。GPSが通信可能な測位衛星の数が3個以上となったときには位置補正情報はクリアされる。 Referring to FIG. 9, the vehicle that has received this correction information executes the processing of step 508 through the route of step 500→step 504 in FIG. That is, the received position correction information is stored in the RAM 376 or the auxiliary storage device 378 (see FIG. 7). Hereinafter, this position correction information is added to the position information calculated by dead reckoning. When the number of positioning satellites with which GPS can communicate becomes three or more, the position correction information is cleared.

以上のようにこの開示によれば、車両から位置情報が受信されると、その車両が位置補正のための追跡対象となっているか否かが判定される。対象となっている場合には、その近傍に同一車種の車両がないことを確認することで、その車両が特定地点を通過した時点で撮像された、その車両の画像を含むインフラ画像が特定される(ステップ764)。その画像から、車両の正確な位置が推定される。すなわち、画像に含まれる車両と、追跡対象の画像とがマッチングされる。こうして推定された位置と、その画像が撮像された時点にその車両から送信された位置情報との間の誤差が、位置誤差の補正情報として該当車両に送信される。該当車両はこの補正情報を格納し、以後、デッドレコニングで位置情報が出力されるたびに、その位置情報にこの誤差を加算することで、デッドレコニングによる位置情報を補正する。この車両のGPSが通信可能な測位衛星の数が3個以上となった時点でこの補正情報はクリアされ、GPSの出力が位置情報として採用されるようになる。 As described above, according to this disclosure, when position information is received from a vehicle, it is determined whether or not the vehicle is being tracked for position correction. If it is the object, by confirming that there is no vehicle of the same model in the vicinity, the infrastructure image including the image of the vehicle captured when the vehicle passed the specific point is specified. (step 764). From that image, the exact position of the vehicle is deduced. That is, the vehicle included in the image and the image of the tracked object are matched. The error between the position estimated in this way and the position information transmitted from the vehicle at the time the image was captured is transmitted to the vehicle as correction information for the position error. The vehicle stores this correction information, and thereafter, every time position information is output by dead reckoning, this error is added to the position information to correct the position information by dead reckoning. When the number of positioning satellites with which the vehicle's GPS can communicate becomes three or more, this correction information is cleared, and the GPS output is adopted as the position information.

したがって、インフラカメラのように、すでに普及しているインフラ設備を用いて、位置情報の精度が落ちている車両の位置を補正できる。特許文献1の光ビーコンのような設備を多数配置する必要はなく、また特許文献2のように車載カメラの画像を使用する必要もない。車載カメラの画像と比較してインフラカメラの画像の背景は基本的に常に同一であり、車両の検出及び位置の検出も精度高く行える。 Therefore, it is possible to correct the position of the vehicle whose positional information is degraded by using infrastructure equipment that is already in widespread use, such as an infrastructure camera. It is not necessary to arrange many facilities like the optical beacon of Patent Document 1, and it is not necessary to use the image of the vehicle-mounted camera as in Patent Document 2. The background of the image of the infrastructure camera is basically always the same as compared with the image of the vehicle-mounted camera, and the detection of the vehicle and the position can also be performed with high accuracy.

インフラカメラによる撮像画像の中の車両の画像及びその位置が認識される。車両・端末追跡部714により管理されているその車両に関する車両情報から、その画像が撮像されたときにその車両から送信され、車両・端末追跡部714に記憶されていた位置情報が読出される。この2つの位置が比較され、両者の誤差が計算され、その車両位置誤差情報として送信される。 An image of the vehicle and its position in the image captured by the infrastructure camera are recognized. From the vehicle information about the vehicle managed by the vehicle/terminal tracking unit 714, the position information transmitted from the vehicle when the image was captured and stored in the vehicle/terminal tracking unit 714 is read. The two positions are compared and the error between them is calculated and transmitted as the vehicle position error information.

なお、この開示は、主として図3に示すような高層ビル街を車両が走行する場合の問題を解決するためのものである。しかしこうした問題は高層ビル街だけで生ずるわけではない。例えばトンネル内等でも同様の問題が生じ得る。多くの場合、トンネルの中にもインフラカメラが設置されているので、この開示に係る位置補正システムを利用できる。デッドレコニングでの位置誤差の目安は、オープンスカイでは中央値で数メートル、最大値で10メートル程度、ビル街では中央値が十数メートル、最大値は百数十メートル、トンネル内では中央値が数十メートル、最大値は百数十メートルである。こうした誤差はかなり大きなものである。 It should be noted that this disclosure is mainly intended to solve the problem when a vehicle travels in an area of high-rise buildings as shown in FIG. But these problems are not limited to high-rise buildings. For example, a similar problem can arise in a tunnel or the like. Infracameras are often installed in tunnels as well, so the position correction system according to this disclosure can be used. The approximate positional error in dead reckoning is a median of several meters in open skies, with a maximum value of about 10 meters. Dozens of meters, the maximum value is one hundred and several tens of meters. These errors are quite large.

インフラカメラを用いた上記開示のシステムによる位置の検知の誤差は、実験によれば数メートル以内に収めることができる。解析に要する時間は、位置検出に数十ミリ秒、車種の識別には1秒以内に収めることができる。また、インフラカメラの画像はズームインすることができる。ズームインして撮像範囲を絞ることで、さらに精度を高くできる。なお、車両が特定できれば、その車両がインフラカメラの撮像領域を通り過ぎた後でも位置を補正可能である。 According to experiments, the error in position detection by the system disclosed above using infrastructure cameras can be kept within several meters. The time required for analysis can be set to several tens of milliseconds for position detection and less than one second for vehicle type identification. Also, the image of the infrastructure camera can be zoomed in. By zooming in and narrowing down the imaging range, the accuracy can be further increased. Note that if the vehicle can be specified, the position can be corrected even after the vehicle has passed the imaging area of the infrastructure camera.

―変形例―
上記第1の開示のシステムでは、図12に示す同一車種有無判定部722により、受信した位置情報により特定される位置から所定範囲内にその車両の車種と全く同じ車種の他の車両が存在しているか否かが判定される。もしもそのような他の車両が存在している場合には、受信した位置情報に基づく位置情報の補正処理は実行されない。全く同じ車種の2つ以上の車両が同一の時刻にごく近くに存在していることは稀なので、このような開示に係る方法でも特に問題は生じないと考えられる。
-Modified example-
In the system of the first disclosure, the same vehicle model presence/absence determination unit 722 shown in FIG. It is determined whether or not If such other vehicle exists, the position information correction process based on the received position information is not executed. Since it is rare for two or more vehicles of exactly the same model to be very close to each other at the same time, it is considered that such a method according to the disclosure does not pose any particular problem.

しかし、稀とはいえ、そうした状況が発生しないとはいえない。例えば図14では、全く同一車種の2台の車両780及び782がお互いの中心の間の距離Lで近接している場合を示す。また車両780の位置情報の誤差範囲が車両780を中心として半径Rの円784、車両782の位置情報の誤差範囲が車両782を中心として円784と重複する円786だとすると、車両780から受信した位置情報が本当に車両780の位置だったとしても、画像からはその車両が車両780なのかは判別できない。このように2台の車両が近接して存在しており、しかも両者とも同一車種である場合、インフラ画像にもこれら2台の車両が存在する場合が多くなる。仮にインフラ画像の中にこれらの中の1台しか認識できなかったとしても、その車両が上記2台の中のいずれであるかは画像からも、上記位置情報からも判定できない。したがってこの場合には、上記第1の開示では位置情報の補正は行わない。 However, although it is rare, such a situation cannot be ruled out. For example, FIG. 14 shows a case where two vehicles 780 and 782 of exactly the same model are close to each other with a distance L between their centers. Further, if the error range of the position information of the vehicle 780 is a circle 784 with radius R centered on the vehicle 780, and the error range of the position information of the vehicle 782 is a circle 786 centered on the vehicle 782 and overlapping the circle 784, then the position received from the vehicle 780 is Even if the information is really the position of the vehicle 780, it cannot be determined whether the vehicle is the vehicle 780 from the image. If two vehicles exist close to each other in this way and both are of the same model, there are many cases where these two vehicles also exist in the infrastructure image. Even if only one of these vehicles can be recognized in the infrastructure image, it cannot be determined from the image or from the position information which of the two vehicles the vehicle is. Therefore, in this case, the position information is not corrected in the first disclosure.

しかし、このような場合でも、条件によっては位置情報を送信してきた車両を判別可能な場合がある。図15は、全く同一車種の2台の車両が近接している場合の車両同定に関する問題点を解決するための方法を示す模式図である。図15を参照して、仮に車両780及び782の双方とも前方画像を撮像する車載カメラを装備しているものとする。両者は同一車種なのでこうした条件が充足される可能性は高い。この場合、車両782の車載カメラの撮像領域790には車両780が存在するので、その画像には車両780の画像があるはずである。一方、車両780の車載カメラの撮像領域788には、車両780、782と同一車種の車両の画像は写っていないはずである。 However, even in such a case, depending on the conditions, it may be possible to identify the vehicle that has transmitted the position information. FIG. 15 is a schematic diagram showing a method for solving the problem of vehicle identification when two vehicles of exactly the same model are close to each other. Referring to FIG. 15, it is assumed that both vehicles 780 and 782 are equipped with in-vehicle cameras that capture forward images. Since both are the same model, it is highly likely that these conditions will be satisfied. In this case, since the vehicle 780 exists in the imaging area 790 of the vehicle-mounted camera of the vehicle 782, there should be an image of the vehicle 780 in the image. On the other hand, an image of a vehicle of the same type as the vehicles 780 and 782 should not be captured in the imaging area 788 of the vehicle-mounted camera of the vehicle 780 .

そこで、上記したように近接した位置に2台の同一車種の車両が存在している場合、それらの車両が前方を撮像する車載カメラを装備している場合には、その画像をエッジサーバ180に送信するようそれら車両に指示する。受信した画像内の車両を画像認識し、位置情報を送ってきた車両と同一車種の車両が写っていれば、位置情報を送ってきた車両は2台の中の後ろの車両782であることが分かる。一方、そうした車両が写っていない場合、その車両は先頭の車両780であると判定できる。そこで、インフラ画像内の先頭車両の画像の地理的位置を第1の開示と同様に認識し、先頭車両の位置情報と比較して補正情報を生成する。 Therefore, as described above, when two vehicles of the same model exist in close proximity, and if these vehicles are equipped with an on-vehicle camera that captures an image of the front, the image is sent to the edge server 180. Instruct those vehicles to transmit. The vehicle in the received image is image-recognized, and if a vehicle of the same type as the vehicle that sent the position information is in the image, the vehicle that sent the position information is the vehicle 782 behind the two. I understand. On the other hand, if such a vehicle is not shown, it can be determined that the vehicle is the leading vehicle 780 . Therefore, the geographical position of the image of the leading vehicle in the infrastructure image is recognized in the same manner as in the first disclosure, and is compared with the positional information of the leading vehicle to generate correction information.

図16は、全く同一車種の3台の車両が近接している場合の車両同定に関する問題点を説明するための模式図である。この例では、車両780及び782に加え、全く同一車種の車両792が車両780等の車線に隣接した車線を並走している。このような場合にも、一定の条件のときには位置情報を送信してきた車両を同定できる。 FIG. 16 is a schematic diagram for explaining a problem regarding vehicle identification when three vehicles of exactly the same model are close to each other. In this example, in addition to vehicles 780 and 782, a vehicle 792 of exactly the same type is running in a lane adjacent to the lane of vehicle 780 and the like. Even in such a case, the vehicle that has transmitted the position information can be identified under certain conditions.

例えばこの場合にも、これら3台の車両に、前方画像を撮像する車載カメラが存在していれば、それらを送信するようこれら車両に指示する。これらの車両から受信した車載カメラの画像は、同一車種の車両の像を含むものと含まないものとに分類できる。例えば車両792の車載カメラの撮像領域796には同一車種の車両は存在しない。したがってその画像の中にはこれらと同一車両の画像はないはずである。撮像領域788を持つ車両780の場合も同様である。しかし撮像領域790を持つ車両782の場合には、撮像領域790に車両780が存在しているので、前方の撮像画像の中には車両780の画像が存在含まれるはずである。 For example, in this case as well, if these three vehicles have on-board cameras that capture forward images, these vehicles are instructed to transmit them. The onboard camera images received from these vehicles can be classified into those containing images of vehicles of the same type and those not containing images. For example, vehicles of the same model do not exist in the imaging area 796 of the vehicle-mounted camera of the vehicle 792 . Therefore, there should be no image of the same vehicle as these in the image. The same is true for vehicle 780 with imaging area 788 . However, in the case of a vehicle 782 having an imaging area 790, since the vehicle 780 exists in the imaging area 790, the image of the vehicle 780 should be included in the front captured image.

位置情報を送信してきた車両からの画像が同一車種の車両の像を含み、他の2台の車両からの画像が同一車両の像を含まない場合には、図16でこの条件を満たすのは、位置情報を送信してきた車両が車両782である場合のみである。したがってこの場合には車両782が位置情報を送信してきた車両として同定できる。 If the image from the vehicle that has transmitted the position information includes the image of the same vehicle type, and the images from the other two vehicles do not include the image of the same vehicle, this condition is satisfied in FIG. , only when the vehicle that has transmitted the position information is the vehicle 782 . Therefore, in this case, vehicle 782 can be identified as the vehicle that has transmitted the position information.

一方、位置情報を送信してきた車両からの画像が同一車種の車両の像を含まず、他の2台の車両の中の一方からの画像にも同一車種の車両の像が含まれない場合には、位置情報を送信してきた車両は車両780か車両792かを判定できない。したがってこの場合には位置情報を送信してきた車両は同定できない。 On the other hand, when the image from the vehicle that has sent the position information does not include the image of the same model of vehicle, and the image from one of the other two vehicles does not include the image of the same model of vehicle. , it cannot be determined whether the vehicle that has transmitted the position information is the vehicle 780 or the vehicle 792 . Therefore, in this case, the vehicle that has transmitted the position information cannot be identified.

これと同様、位置情報を送信してきた車両からの画像が同一車種の車両の像を含み、他の車両の中の1台の車両からの画像も同一車種の車両の像を含む場合には、位置情報を送信してきた車両は同定できない。また、位置情報を送信してきた車両からの画像が同一車種の車両の像を含まず、他の2台の車両からの画像がいずれも同一車種の車両の像を含む場合には、同一車種の車両の像を含まない画像を送信してきた車両が、位置情報を送信してきた車両であると判定できる。 Similarly, when the image from the vehicle that has transmitted the position information includes the image of the same type of vehicle, and the image from one of the other vehicles also includes the image of the same type of vehicle, Vehicles that have sent location information cannot be identified. In addition, if the image from the vehicle that has sent the position information does not include the image of the same model of vehicle, and the images from the other two vehicles both include the image of the same model of vehicle, It can be determined that a vehicle that has transmitted an image that does not include an image of the vehicle is the vehicle that has transmitted the position information.

この考え方によれば、位置情報を送信してきた車両からの画像に含まれる同一車種の車両の像の数が、他の車両からの画像に含まれる同一車種の車両の像の数のいずれとも異なっている場合には、位置情報を送信してきた車両を同定でき、それ以外の場合には同定できないことになる。 According to this idea, the number of images of vehicles of the same model included in the image from the vehicle that has transmitted the position information is different from the number of images of the same model of vehicle included in the images from other vehicles. If it is, the vehicle that has sent the position information can be identified, otherwise it cannot be identified.

この開示では、この考え方にしたがって、位置情報を送信してきた車両の近傍に同一車種の車両が存在している場合でも、特定の条件が成立したときには、位置情報を送信してきた車両を同定し、その車両の位置情報を補正する。 In this disclosure, according to this idea, even if a vehicle of the same type exists in the vicinity of the vehicle that has transmitted the position information, when a specific condition is satisfied, the vehicle that has transmitted the position information is identified, Correct the position information of the vehicle.

図17は、この開示に係るエッジサーバが実行するプログラムの制御構造を示すフローチャートである。図17を参照して、このプログラムは、図13に示すものと同じステップ750、752、754、756、758及び760を含む。このプログラムは、図13と異なり、ステップ760に続き、近傍に同一車種の車両が1台のみか否かを判定し、結果により制御の流れを分岐させるステップ830と、ステップ830の判定が否定のときに、それら同一車種の車両の全てから前方カメラの画像を取得するステップ832と、ステップ832で取得した各画像内の車両を車種も含めて認識するステップ834と、ステップ834に続き、位置情報を送信してきた車両からの前方画像内の同一車種の車両の数が、他の画像内の同一車種の車両の数のいずれとも異なるか否かを判定し、判定にしたがって制御の流れを分岐させるステップ836とを含む。ステップ836の判定結果が否定ならこのプログラムの実行は終了する。すなわち、位置情報を送信してきた車両の位置情報の補正は行わない。 FIG. 17 is a flow chart showing the control structure of the program executed by the edge server according to this disclosure. Referring to FIG. 17, this program includes the same steps 750, 752, 754, 756, 758 and 760 as shown in FIG. Unlike FIG. 13, this program follows step 760 and determines whether or not there is only one vehicle of the same type in the vicinity. Step 832 of acquiring front camera images from all of the vehicles of the same type, Step 834 of recognizing the vehicles in each image including the type of vehicle acquired in Step 832, Step 834 followed by position information determines whether or not the number of vehicles of the same model in the front image from the vehicle that has transmitted the is different from the number of vehicles of the same model in the other images, and branches the control flow according to the determination. and step 836 . If the determination result of step 836 is negative, execution of this program ends. That is, the position information of the vehicle that has transmitted the position information is not corrected.

一方、ステップ836の判定が肯定のときには、位置情報を送信してきた車両からの画像に含まれる同一車種の車両の数によって、同一車種の集団内におけるその車両の位置を特定するステップ763を実行し、さらに図13に示すものと同じステップ764、766、768及び770と同じ処理が実行され、このプログラムの実行は終了する。ステップ830の判定が肯定のときには同様にステップ764以下の処理が実行される。すなわち、画像内の車両と追跡対象とがマッチングされる。なお、位置情報を送信してきた車両からの前方画像に含まれる同一車種の車両がユニークなときには、例えばその数によって、同一車種の集団内の特定位置(多くは先頭又は最後尾)であることが分かる。その結果、インフラ画像内でそうした条件に合致する車両の位置を特定し、その情報を用いてその車両の位置情報を補正できる。 On the other hand, when the determination in step 836 is affirmative, step 763 is executed to specify the position of the vehicle in the group of the same model based on the number of vehicles of the same model included in the image from the vehicle that has transmitted the position information. , and the same steps 764, 766, 768, and 770 as shown in FIG. 13 are executed, and execution of this program ends. When the determination at step 830 is affirmative, the processing from step 764 onwards is similarly executed. That is, the vehicle in the image and the tracked object are matched. When the vehicle of the same model included in the front image from the vehicle that has transmitted the position information is unique, for example, depending on the number of the vehicles, it can be determined that the vehicle is at a specific position (often the head or the tail) within a group of the same model. I understand. As a result, it is possible to identify the location of a vehicle within the infrastructure image that meets these conditions, and use that information to correct the location information for that vehicle.

以上のようにこの変形例では、位置情報を送信してきた車両からの前方画像が特定の条件を満たす(画像内の同一車種の車両数がユニークである)ときにのみ、位置情報を送信してきた車両をインフラ画像内で特定し、その位置情報を補正する。それ以外のときには位置情報の補正は行わない。 As described above, in this modified example, position information is transmitted only when the forward image from the vehicle that has transmitted the position information satisfies a specific condition (the number of vehicles of the same vehicle type in the image is unique). Vehicles are identified in infrastructure images and their position information is corrected. In other cases, correction of position information is not performed.

このように同一車種の車両が複数台、近接しているという稀な場合でも、ある条件が満たされれば補正のための追跡対象となる車両が特定でき、その位置情報を補正できる。 Even in such a rare case that a plurality of vehicles of the same type are close to each other, if a certain condition is satisfied, the vehicle to be tracked for correction can be identified and its position information can be corrected.

<第2の開示>
上記した第1の開示に係る位置補正システム150及びその変形例では、車両から位置情報を受信したことを契機として車両の位置情報の補正が開始される。位置情報の補正では、位置情報を送信してきた車両が特定位置を走行していたときの画像が特定され、その画像からその車両の位置がニューラルネットワークで推定される。推定された位置と、その画像が撮像されたときにその車両から送信された位置との誤差に基づいて補正情報が生成される。画像内での対象車両の特定にはニューラルネットワークによる画像認識が使用され、さらに該当する車両が複数認識された場合には、特定の条件を満たすものを選択するための処理が実行される。しかしこの発明はそのようなものには限定されない。同じ画像認識でも、車両のナンバープレートを画像認識することができれば、画像内に同一車種の車両が複数台あっても、位置情報を送信してきた車両を容易に同定できる。
<Second Disclosure>
In the position correction system 150 according to the first disclosure and its modification described above, the correction of the position information of the vehicle is started when the position information is received from the vehicle. In correcting the positional information, an image is specified when the vehicle transmitting the positional information is traveling at a specific position, and the position of the vehicle is estimated from the image by a neural network. Correction information is generated based on the error between the estimated position and the position transmitted by the vehicle when the image was taken. Image recognition using a neural network is used to identify the target vehicle in the image, and if multiple vehicles are recognized, processing is performed to select one that satisfies specific conditions. However, the invention is not so limited. Even with the same image recognition, if the license plate of the vehicle can be image-recognized, even if there are a plurality of vehicles of the same model in the image, the vehicle that has transmitted the position information can be easily identified.

図18は、この第2の開示に係るエッジサーバの機能を実現するプログラムの制御構造を示すフローチャートである。図18に示すフローチャートは、図13のステップ760に代えて、対象車両のナンバープレート情報を車両・端末情報記憶部716から読出すステップ900と、ステップ900に続き、その車両の位置の近傍に存在するインフラカメラからのインフラ画像の中で、その車両のナンバープレートを持つ車両が特定地点を通過した時点のインフラ画像を特定するステップ902とを含む。ステップ902の後は、インフラ画像内の図13のステップ766、768、770が実行され、このプログラムの実行は終了する。 FIG. 18 is a flow chart showing the control structure of a program that implements the functions of the edge server according to the second disclosure. In the flowchart shown in FIG. 18, instead of step 760 in FIG. and step 902 of identifying an infrastructure image at the time when the vehicle having the license plate of the vehicle passes through the specific point, among the infrastructure images from the infrastructure cameras. After step 902, steps 766, 768 and 770 of FIG. 13 in the infrastructure image are executed and execution of this program ends.

車両のナンバープレートが画像から認識できれば、対象となる車両の同定は容易である。したがって第1の開示の変形例のように、車両の同定のための複雑なマッチングを実行する必要はない。 If the license plate of the vehicle can be recognized from the image, it is easy to identify the target vehicle. Therefore, it is not necessary to perform complex matching for vehicle identification as in the variant of the first disclosure.

<第3の開示>
図19は、第3の開示に係るエッジサーバの機能を実現するプログラムの制御構造を示すフローチャートである。第1及び第2の開示のシステムは、対象車両から位置情報を受信したことを契機として位置情報の補正処理を開始している。しかし、補正処理を開始する契機は位置情報の受信には限らない。例えば、対象車両の各々について、定期的に補正処理を実行してもよい。この第3の開示はそのような例である。ハードウェア構成としては、図10及び図11に示す第1の開示のものと同様のサーバを利用できる。
<Third Disclosure>
FIG. 19 is a flow chart showing the control structure of a program that implements the functions of the edge server according to the third disclosure. The systems disclosed in the first and second disclosures start the process of correcting the position information when the position information is received from the target vehicle. However, the trigger for starting correction processing is not limited to reception of position information. For example, correction processing may be performed periodically for each of the target vehicles. This third disclosure is such an example. As a hardware configuration, a server similar to that disclosed in the first disclosure shown in FIGS. 10 and 11 can be used.

図19を参照して、この第3の開示を実現するためのプログラムは、図12に示す車両・端末情報記憶部716に記憶されている、補正のための追跡対象である車両の各々に対して、以下の処理942を実行するステップ940を含む。 Referring to FIG. 19, the program for realizing the third disclosure is for each vehicle to be tracked for correction stored in vehicle/terminal information storage unit 716 shown in FIG. and includes a step 940 of performing the following process 942 .

処理942は、処理中の対象車両について、車両・端末情報記憶部716に記憶されている各車両の位置情報に基づいて、現在のその車両の近くにインフラカメラが存在するかを判定し、近くにインフラカメラが存在しない場合には処理942を終了し次の対象車両に対する処理を開始させるステップ950を含む。 A process 942 determines whether or not an infrastructure camera exists near the current vehicle based on the position information of each vehicle stored in the vehicle/terminal information storage unit 716 for the target vehicle being processed. includes a step 950 for ending the process 942 and starting the process for the next target vehicle if the infrastructure camera does not exist.

このプログラムはさらに、ステップ950の判定が肯定のときに、対象車両の近くに存在するインフラカメラの画像を取得するステップ952と、取得された画像内の車両を認識するステップ954と、認識された車両の中に、処理中の対象車両が存在するか否かを判定し、存在しない場合には処理942の実行を終了させるステップ956と、ステップ956の判定が肯定のときに、インフラカメラの画像に基づく画像認識により、図12に示す車両位置推定部724と同様のニューラルネットワークを用いて対象車両の位置を特定するステップ958と、ステップ958で処理されたインフラ画像が撮像されたときの当該対象車両の位置を、車両・端末情報記憶部716に記憶されている当該車両の位置の履歴に基づいて算出するステップ960とを含む。 The program further includes step 952 of acquiring an image of an infrastructure camera present near the target vehicle when the determination in step 950 is affirmative, step 954 of recognizing the vehicle in the acquired image, and A step 956 of determining whether or not the target vehicle being processed exists among the vehicles, and ending the execution of the processing 942 if it does not exist; Step 958 of specifying the position of the target vehicle using a neural network similar to the vehicle position estimation unit 724 shown in FIG. and a step 960 of calculating the position of the vehicle based on the history of the position of the vehicle stored in the vehicle/terminal information storage unit 716 .

このプログラムはさらに、ステップ958で特定された対象車両の位置と、ステップ960で算出された対象車両との位置の誤差を計算するステップ962と、ステップ962計算された誤差を補正情報として処理中の対象車両に送信し処理942の実行を終了するステップ964とを含む。 The program further includes a step 962 for calculating an error between the position of the target vehicle identified in step 958 and the position of the target vehicle calculated in step 960, and a step 962 for processing the calculated error as correction information. and a step 964 of transmitting to the target vehicle and terminating execution of process 942 .

この図19に示す処理を繰返して実行することにより、第1及び第2の開示と同様、位置情報の精度が低くなっている対象車両の位置を、インフラ画像を用いて補正できる。 By repeatedly executing the processing shown in FIG. 19, the position of the target vehicle whose position information is low in accuracy can be corrected using the infrastructure image, as in the first and second disclosures.

<第4の開示>
図20は、第4の開示に係るエッジサーバの機能を実現するプログラムの制御構造を示すフローチャートである。この第4の開示に係るシステムは、インフラ画像からの画像を受信したことを契機として、その画像の中の車両の画像に基づいて当該車両の位置情報の補正を行う。
<Fourth Disclosure>
FIG. 20 is a flow chart showing the control structure of a program that implements the functions of the edge server according to the fourth disclosure. The system according to the fourth disclosure is triggered by receiving the image from the infrastructure image, and corrects the position information of the vehicle based on the image of the vehicle in the image.

図20を参照して、このプログラムは、図12に示すインフラ画像受信部720がインフラカメラからインフラ画像を受信したことを契機として、以下の処理を実行する。 Referring to FIG. 20, this program executes the following processing when infrastructure image reception unit 720 shown in FIG. 12 receives an infrastructure image from the infrastructure camera.

このプログラムは、インフラ画像を受信したことに応答して起動され、そのインフラ画像内の車両画像を認識するステップ980と、ステップ980に引き続き、認識された各車両について、以下の処理984を実行するステップ982と含む。 The program is activated in response to receiving an infrastructure image and performs step 980 to recognize vehicle images in the infrastructure image and, following step 980, perform the following process 984 for each recognized vehicle. including step 982;

処理948は、処理中の車両が位置補正の対象車両か否かを車両・端末情報記憶部716(図12)に記憶されている情報に基づいて判定し、判定が否定のときに処理948を終了するステップ990と、ステップ990の判定が肯定のときに実行される、図19に示すものと同じステップ958、960、962及び964とを含む。 A process 948 determines whether or not the vehicle being processed is a target vehicle for position correction based on the information stored in the vehicle/terminal information storage unit 716 (FIG. 12). It includes a step 990 to end and the same steps 958, 960, 962 and 964 as shown in FIG. 19, which are performed when the determination of step 990 is affirmative.

ステップ990で行われる車両の認識では、第1の開示とは異なる方法を用いる。インフラ画像に複数の車両の画像が含まれる場合には、ここでの判定の対象となる車両の画像以外を全てこのインフラカメラの背景画像に置換する点は第1の開示と同様である。しかしここでは、判定の対象となる画像と、判定の対象となる車両の位置情報及び属性情報等の全てとを入力とし、その画像が判定の対象となる車両の画像か否かを示す正誤の2ラベルを教師データとして訓練した畳込みニューラルネットワークを判定に用いる。このニューラルネットワークの最終層にSoftMax関数を採用することで、このニューラルネットワークは、画像と、対象となる車両の情報とを含む入力に対して、その画像に含まれる車両の画像が、入力された車両の画像である確率を示すものとなる。車両・端末情報記憶部716に記憶されている全ての対象車両に対して、このニューラルネットワークによる判定を行い、最も確率が高くかつ確率がしきい値(例えば85%)以上の場合にはその画像にある車両の像が入力された対象車両のものであると判定する。 The vehicle recognition performed at step 990 uses a different method than the first disclosure. When the infrastructure image includes images of a plurality of vehicles, the background image of the infrastructure camera replaces all images other than the image of the vehicle to be determined here, as in the first disclosure. However, in this case, an image to be judged and all position information and attribute information of the vehicle to be judged are input, and a correct/incorrect judgment is made to indicate whether or not the image is the image of the vehicle to be judged. A convolutional neural network trained with two labels as teacher data is used for judgment. By adopting the SoftMax function in the final layer of this neural network, this neural network receives an image of a vehicle included in the image for an input including an image and target vehicle information. It indicates the probability that the image is a vehicle image. All target vehicles stored in the vehicle/terminal information storage unit 716 are judged by this neural network. It is determined that the image of the vehicle at is that of the input target vehicle.

この第4の開示ではインフラ画像を受信したことに応答して、その画像に含まれる全ての車両の画像を認識し、各車両の画像について、車両・端末情報記憶部716に記憶されている対象画像のものか否かを判定する。このような判定を行うことにより、インフラ画像の中の車両が対象車両か否かが分かり、そのインフラ画像が撮像されたときに対象車両から送信された位置情報と、画像から推定された車両の位置とを比較してその誤差を算出できる。 In this fourth disclosure, in response to receiving an infrastructure image, images of all vehicles included in the image are recognized, and for each vehicle image, an object stored in the vehicle/terminal information storage unit 716 is recognized. It is determined whether or not it is an image. By performing such a determination, it is possible to determine whether or not the vehicle in the infrastructure image is the target vehicle. The position can be compared to calculate the error.

上記したいずれの開示でも、使用される画像はインフラカメラで撮像された画像である。インフラカメラで撮像された画像の背景は短期的には常に同一とみなしてよい。そのため、車載カメラを用いてランドマークを認識する場合と比較して、例えばニューラルネットワークを用いて画像の中の車両を認識する場合、教師データが疎となることがなく、ニューラルネットワークによる画像認識の精度を高くできる。またインフラカメラという、既に普及しているインフラ設備装置を使用するため光ビーコンのような特別な設備を新たに設ける必要がないという効果もある。また、図15及び図16では、車両のマッチングに前方画像を用いる例を示したが、この開示は前方画像を用いるものには限定されない。例えば後方画像を用いるものでもよい。 In any of the above disclosures, the images used are those captured by infrastructure cameras. The background of the image captured by the infrastructure camera may always be regarded as the same in the short term. Therefore, compared to recognizing landmarks using an in-vehicle camera, when recognizing a vehicle in an image using a neural network, for example, the training data does not become sparse, and image recognition using a neural network does not become sparse. Accuracy can be improved. In addition, there is an effect that there is no need to newly provide a special facility such as an optical beacon because an infrastructure camera, which is already in widespread use, is used. 15 and 16 show an example of using a front image for vehicle matching, but this disclosure is not limited to using a front image. For example, a rear image may be used.

今回の開示は単に例示であって、この開示が上記した開示のみに制限されるわけではない。この開示の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。 The present disclosure is merely illustrative, and this disclosure is not limited to the disclosures set forth above. The scope of this disclosure is indicated by each claim after taking into consideration the description of the detailed description of the invention, and all changes within the meaning and range of equivalents to the wording described therein include.

50、100、150 位置補正システム
60 光ビーコン
62 ポール
64、116、176、178、200、780、782、792 車両
66、68 ビーコンデータ
70 車載通信機
72 カメラ
110 サーバ
112 ランドマーク位置情報記憶装置
114 ランドマーク
160 インフラカメラ
162、164、166、168、170、172 高層ビル
174 道路
180 エッジサーバ
202 ペイント
204 距離
210 車載装置
212 ミリ波レーダ
214 車載カメラ
216 LiDAR
230 車外通信コントローラ
232 HMIコントローラ
234 自動運転コントローラ
236 走行系コントローラ
240 統合アンテナ
242、642 モニタ
244、246、250、252、254、256 ECU
248 自動運転ECU
350、640 コンピュータ
352 タッチパネル
356 各種ECU
358 各種センサ
360 スピーカ・マイク
362、664 USBメモリ
370、656 CPU
372、666 バス
374、658 ROM
376、660 RAM
378 補助記憶装置
380 無線通信部
382 入出力I/F
384、652 USBメモリポート
390 音声処理I/F
392、644 ネットワークI/F
394 車内LAN
400、402、500、502、504、508、512、750、752、754、756、758、760、762、763、764、766、768、770、830、832、834、836、900、902、940、950、952、954、956、958、960、962、964、980、982、990 ステップ
646 キーボード
648 マウス
650 DVDドライブ
654 HDD
657 GPU
662 DVD
668 ネットワーク
700 受信処理部
702 動体追跡部
704、712 解析結果記憶部
706 属性検出部
708 属性記憶部
710 統合処理部
714 車両・端末追跡部
716 車両・端末情報記憶部
718 追跡対象決定部
720 インフラ画像受信部
721 インフラ画像記憶部
722 同一車種有無判定部
724 車両位置推定部
726 画像特定部
728 誤差算出部
730 情報生成部
732 送信処理部
734 運転支援情報生成部
784、786 円
788、790、796 撮像領域
942、984 処理
50, 100, 150 position correction system 60 optical beacon 62 pole 64, 116, 176, 178, 200, 780, 782, 792 vehicle 66, 68 beacon data 70 in-vehicle communication device 72 camera 110 server 112 landmark position information storage device 114 Landmark 160 Infrastructure camera 162, 164, 166, 168, 170, 172 Skyscraper 174 Road 180 Edge server 202 Paint 204 Distance 210 In-vehicle device 212 Millimeter wave radar 214 In-vehicle camera 216 LiDAR
230 External communication controller 232 HMI controller 234 Automatic operation controller 236 Driving system controller 240 Integrated antennas 242, 642 Monitors 244, 246, 250, 252, 254, 256 ECU
248 Autonomous driving ECU
350, 640 Computer 352 Touch panel 356 Various ECUs
358 Various sensors 360 Speaker/microphone 362, 664 USB memory 370, 656 CPU
372, 666 Bus 374, 658 ROM
376, 660 RAM
378 auxiliary storage device 380 wireless communication unit 382 input/output I/F
384, 652 USB memory port 390 Audio processing I/F
392, 644 network I/F
394 In-vehicle LAN
400, 402, 500, 502, 504, 508, 512, 750, 752, 754, 756, 758, 760, 762, 763, 764, 766, 768, 770, 830, 832, 834, 836, 900, 902, 940, 950, 952, 954, 956, 958, 960, 962, 964, 980, 982, 990 Step 646 Keyboard 648 Mouse 650 DVD drive 654 HDD
657 GPUs
662 DVDs
668 network 700 reception processing unit 702 moving body tracking units 704, 712 analysis result storage unit 706 attribute detection unit 708 attribute storage unit 710 integration processing unit 714 vehicle/terminal tracking unit 716 vehicle/terminal information storage unit 718 tracking target determination unit 720 infrastructure image Reception unit 721 Infrastructure image storage unit 722 Same vehicle model presence/absence determination unit 724 Vehicle position estimation unit 726 Image identification unit 728 Error calculation unit 730 Information generation unit 732 Transmission processing unit 734 Driving support information generation unit 784, 786 Circles 788, 790, 796 Imaging Areas 942, 984 Processing

Claims (23)

移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信する移動体情報受信機と、
撮像範囲が特定可能な撮像装置からの撮像画像を受信する画像受信機と、
前記撮像画像の中に存在する任意の移動体の画像と前記移動体情報とに基づいて、前記任意の移動体の画像を含む撮像画像と前記移動体情報受信機に前記移動体情報を送信する移動体とをマッチングするマッチング部と、
前記マッチング部によりマッチングされた移動体から受信した前記移動体情報の前記位置情報と、前記マッチング部によりマッチングされた撮像画像とその撮像時刻とを用いて、前記移動体が維持する前記位置情報を補正する処理を行う補正処理部とを含む、位置補正サーバであって、
さらに、前記移動体情報に基づき、位置情報を補正する対象となる移動体を追跡する移動体追跡装置を含み、
前記マッチング部は、前記移動体情報が前記移動体追跡装置により追跡されている第1の移動体からの移動体情報であることに応答して、当該第1の移動体の画像を含む撮像画像を前記画像受信機が受信した撮像画像の中から抽出するための画像抽出部を含み、
前記補正処理部は、前記画像抽出部が抽出した前記撮像画像の撮像時刻に前記第1の移動体から送信され、前記移動体情報受信機が受信した位置情報と、前記撮像画像から算出される前記第1の移動体の位置とから、前記第1の移動体の維持している前記位置情報を補正する処理を行う位置補正処理部とを含む、位置補正サーバ
a mobile information receiver that receives mobile information including location information and time information of the mobile from the mobile;
an image receiver that receives a captured image from an imaging device whose imaging range can be specified;
Based on an image of an arbitrary moving object existing in the picked-up image and the information on the moving object, a captured image containing the image of the arbitrary moving object and the information on the moving object are transmitted to the receiver for information on the moving object. a matching unit that matches the moving object;
The position information maintained by the moving object is determined by using the position information of the moving object information received from the moving object matched by the matching unit and the captured image matched by the matching unit and its image capturing time. A position correction server including a correction processing unit that performs correction processing,
further comprising a mobile object tracking device for tracking a mobile object whose position information is to be corrected based on the mobile object information;
The matching unit responds to the fact that the moving body information is moving body information from a first moving body being tracked by the moving body tracking device, and outputs a captured image including an image of the first moving body. from the captured image received by the image receiver,
The correction processing unit is transmitted from the first moving object at the image capturing time of the captured image extracted by the image extracting unit and is calculated from the captured image and the position information received by the moving object information receiver. a position correction processing unit that performs a process of correcting the position information maintained by the first moving body based on the position of the first moving body.
前記位置補正処理部は、
実世界の特徴物の位置を記憶する位置記憶装置と、
前記撮像画像の中に存在する特徴物を認識する特徴物認識部と、
前記特徴物認識部により認識された前記特徴物の実世界における位置を、前記位置記憶装置から読出すための読出装置と、
前記第1の移動体の維持している前記位置情報を、前記位置記憶装置から読出された前記位置に基づいて補正するための補正量を算出する算出装置を含む、請求項に記載の位置補正サーバ。
The position correction processing unit
a position storage device that stores the positions of real-world features;
a feature recognition unit that recognizes features present in the captured image;
a reading device for reading the real-world position of the feature recognized by the feature recognition unit from the position storage device;
2. The position according to claim 1 , further comprising a calculation device for calculating a correction amount for correcting said position information maintained by said first moving body based on said position read from said position storage device. compensation server.
前記算出装置は、
前記撮像画像の中に存在する前記特徴物の画像と、前記移動体の画像との関係と、前記特徴物の地理的位置、及び前記撮像装置の特性とに基づいて、前記移動体と前記特徴物との相対位置を算出する相対位置算出装置と、
前記相対位置に対して前記特徴物の前記地理的位置を加算することにより前記移動体の地理的位置を算出するための地理的位置算出装置と、
前記第1の移動体の維持している前記位置情報と、前記地理的位置算出装置により算出された前記地理的位置との誤差を前記補正量として算出するための補正量算出装置とを含む、請求項に記載の位置補正サーバ。
The calculation device is
Based on the relationship between the image of the characteristic object present in the captured image and the image of the moving object, the geographical position of the characteristic object, and the characteristics of the imaging device, the moving object and the characteristic a relative position calculation device that calculates a relative position with respect to an object;
a geographical position calculation device for calculating the geographical position of the moving object by adding the geographical position of the feature to the relative position;
a correction amount calculation device for calculating, as the correction amount, an error between the position information maintained by the first moving body and the geographical position calculated by the geographical position calculation device; The position correction server according to claim 2 .
前記マッチング部は、
前記第1の移動体から所定距離の範囲内に、前記第1の移動体と同種の第2の移動体が存在していることに応答して、前記第1の移動体と、前記第2の移動体とから、各々の前方画像を取得する前方画像取得装置と、
前記前方画像取得装置により取得された前記前方画像の各々について、
前記第1の移動体と同種の移動体の画像が存在しているか否かを検査する画像検査部と、
前記前方画像の中で、前記第1の移動体と同種の移動体の画像が存在していない前方画像が1つだけ存在していれば、当該前方画像を送信した移動体と前記撮像画像とをマッチングさせる装置とを含む、請求項に記載の位置補正サーバ。
The matching unit
in response to the presence of a second mobile object of the same type as the first mobile object within a predetermined distance from the first mobile object, the first mobile object and the second mobile object; a front image acquisition device that acquires each front image from the moving body of
For each of the front images acquired by the front image acquisition device,
an image inspection unit that inspects whether or not an image of a moving object of the same type as the first moving object exists;
Among the front images, if there is only one front image in which an image of the same type of moving object as the first moving object does not exist, the moving object that transmitted the front image and the captured image are present. 2. The location correction server of claim 1 , comprising a device for matching a .
移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信する移動体情報受信機と、
撮像範囲が特定可能な撮像装置からの撮像画像を受信する画像受信機と、
前記撮像画像の中に存在する任意の移動体の画像と前記移動体情報とに基づいて、前記任意の移動体の画像を含む撮像画像と前記移動体情報受信機に前記移動体情報を送信する移動体とをマッチングするマッチング部と、
前記マッチング部によりマッチングされた移動体から受信した前記移動体情報の前記位置情報と、前記マッチング部によりマッチングされた撮像画像とその撮像時刻とを用いて、前記移動体が維持する前記位置情報を補正する処理を行う補正処理部とを含む、位置補正サーバであって、
前記移動体情報に基づき、位置情報を補正する対象となる移動体を追跡する移動体追跡装置をさらに含み、
前記移動体情報は、移動体の外観に関する外観情報を含み、
前記マッチング部は、
前記移動体追跡装置による追跡の対象となっている移動体の各々について、
当該移動体の近傍に存在する、撮像領域が特定可能な撮像装置を特定し、前記画像受信機が受信した撮像画像から、当該特定された撮像装置による撮像画像を抽出する画像抽出部と、
前記外観情報を用いて前記画像抽出部が抽出した前記撮像画像の中の前記移動体の画像を特定し、当該画像と、前記外観情報とに基づいて当該撮像画像の中の前記移動体を同定するための移動体同定装置とを含む、位置補正サーバ。
a mobile information receiver that receives mobile information including location information and time information of the mobile from the mobile;
an image receiver that receives a captured image from an imaging device whose imaging range can be specified;
Based on an image of an arbitrary moving object existing in the picked-up image and the information on the moving object, a captured image containing the image of the arbitrary moving object and the information on the moving object are transmitted to the receiver for information on the moving object. a matching unit that matches the moving object;
The position information maintained by the moving object is determined by using the position information of the moving object information received from the moving object matched by the matching unit and the captured image matched by the matching unit and its image capturing time. A position correction server including a correction processing unit that performs correction processing,
further comprising a mobile object tracking device that tracks a mobile object whose position information is to be corrected based on the mobile object information;
the moving body information includes appearance information relating to the appearance of the moving body;
The matching unit
For each moving object to be tracked by the moving object tracking device,
an image extraction unit that identifies an imaging device that is present in the vicinity of the moving object and whose imaging area can be specified, and extracts an image captured by the identified imaging device from the captured image received by the image receiver;
identifying an image of the moving body in the captured image extracted by the image extracting unit using the appearance information, and identifying the moving body in the captured image based on the image and the appearance information; A location correction server, comprising: a mobile identification device for
前記補正処理部は、
前記画像抽出部が抽出した前記撮像画像の前記撮像領域内の特徴物の位置と、前記撮像画像中の前記移動体の画像の位置とに基づいて、当該撮像画像の中の前記移動体の地理的位置を特定する移動体位置特定部と、
前記移動体位置特定部が特定した前記移動体の地理的位置と、前記撮像画像が撮像された時刻に前記移動体から送信され、前記移動体情報受信機が受信した前記位置情報とに基づいて前記移動体が維持する前記位置情報を補正する処理を行う装置とを含む、請求項に記載の位置補正サーバ。
The correction processing unit is
Based on the position of the feature within the imaging area of the captured image extracted by the image extracting unit and the position of the image of the moving body in the captured image, the geography of the moving body in the captured image a moving body position specifying unit that specifies a target position;
Based on the geographical position of the mobile body identified by the mobile body position identifying unit and the position information transmitted from the mobile body at the time when the captured image was captured and received by the mobile body information receiver 6. The position correction server according to claim 5 , further comprising a device for correcting said position information maintained by said moving body.
前記補正する処理を行う装置は、
前記移動体位置特定部が特定した前記移動体の地理的位置と、前記撮像画像が撮像された時刻に前記移動体から送信され、前記移動体情報受信機が受信した前記位置情報により決まる地理的位置との間の誤差を算出するための誤差算出装置と、
前記誤差算出装置により算出された誤差を前記移動体の維持する位置情報に加算する指示を前記移動体に送信する送信装置とを含む、請求項に記載の位置補正サーバ。
The apparatus for performing the correcting process includes:
Geographical position determined by the geographical position of the mobile body specified by the mobile body position specifying unit and the position information transmitted from the mobile body at the time when the captured image was captured and received by the mobile body information receiver an error calculator for calculating the error between the position and
7. The position correction server according to claim 6 , further comprising a transmitting device that transmits an instruction to add the error calculated by the error calculating device to the position information maintained by the mobile object to the mobile object.
移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信する移動体情報受信機と、
撮像範囲が特定可能な撮像装置からの撮像画像を受信する画像受信機と、
前記撮像画像の中に存在する任意の移動体の画像と前記移動体情報とに基づいて、前記任意の移動体の画像を含む撮像画像と前記移動体情報受信機に前記移動体情報を送信する移動体とをマッチングするマッチング部と、
前記マッチング部によりマッチングされた移動体から受信した前記移動体情報の前記位置情報と、前記マッチング部によりマッチングされた撮像画像とその撮像時刻とを用いて、前記移動体が維持する前記位置情報を補正する処理を行う補正処理部とを含む、位置補正サーバであって、
前記移動体情報に基づき、位置情報を補正する対象となる移動体を追跡する移動体追跡装置をさらに含み、
前記移動体情報は、移動体の外観に関する外観情報を含み、
前記マッチング部は、
前記画像受信機が前記撮像画像を受信したことに応答して、当該撮像画像の中に存在している、前記移動体追跡装置により追跡されている移動体の画像を認識する移動体画像認識部と、
前記移動体画像認識部により認識された画像と、前記外観情報とを用いて、当該撮像画像の中の前記移動体を前記移動体追跡装置により追跡されている移動体の中で同定する同定装置とを含み、
前記補正処理部は、
前記移動体画像認識部により認識された移動体に対して、前記撮像画像の中の特徴物の画像の位置と、当該移動体の画像の位置と、前記特徴物の地理的位置とに基づいて、前記撮像画像が撮像された時刻における前記移動体の位置を算出するための移動体位置算出装置と、
前記移動体位置算出装置により算出された位置と、前記移動体の画像が認識された前記撮像画像の撮像時に当該移動体から前記移動体情報受信機が受信した位置情報とに基づいて前記移動体が維持する前記位置情報を補正する処理を実行するための補正実行部とを含む、位置補正サーバ。
a mobile information receiver that receives mobile information including location information and time information of the mobile from the mobile;
an image receiver that receives a captured image from an imaging device whose imaging range can be specified;
Based on an image of an arbitrary moving object existing in the picked-up image and the information on the moving object, a captured image containing the image of the arbitrary moving object and the information on the moving object are transmitted to the receiver for information on the moving object. a matching unit that matches the moving object;
The position information maintained by the moving object is determined by using the position information of the moving object information received from the moving object matched by the matching unit and the captured image matched by the matching unit and its image capturing time. A position correction server including a correction processing unit that performs correction processing,
further comprising a mobile object tracking device that tracks a mobile object whose position information is to be corrected based on the mobile object information;
the moving body information includes appearance information relating to the appearance of the moving body;
The matching unit
A moving body image recognition unit that recognizes an image of a moving body being tracked by the moving body tracking device that exists in the captured image in response to the image receiver receiving the captured image. and,
An identification device for identifying the moving object in the captured image among the moving objects tracked by the moving object tracking device, using the image recognized by the moving object image recognition unit and the appearance information. and
The correction processing unit is
for the moving body recognized by the moving body image recognition unit, based on the position of the image of the feature in the captured image, the position of the image of the moving body, and the geographical position of the feature a moving body position calculation device for calculating the position of the moving body at the time when the captured image was captured;
the moving body based on the position calculated by the moving body position calculation device and the position information received by the moving body information receiver from the moving body when the captured image in which the image of the moving body is recognized is captured; a correction execution unit for executing a process of correcting the position information maintained by the position correction server.
前記移動体情報は、移動体が維持する位置情報の精度に関連する精度関連情報をさらに含み、
前記移動体追跡装置は、前記精度関連情報に基づいて、所定の精度より低い精度で動作している可能性が高い位置情報取得装置を備えた移動体を、位置情報を補正する対象として追跡する追跡装置を含む、請求項から請求項のいずれか1項に記載の位置補正サーバ。
The mobile information further includes accuracy-related information related to the accuracy of location information maintained by the mobile,
Based on the accuracy-related information, the moving object tracking device tracks a moving object having a position information acquisition device that is likely to operate with an accuracy lower than a predetermined accuracy as a target for position information correction. A location correction server according to any one of claims 1 to 8 , comprising a tracking device.
前記精度関連情報は、前記移動体が利用する衛星測位システムにおいて通信可能な測位衛星の数を含み、
前記追跡装置は、前記移動体が通信可能な測位衛星の前記数がしきい値以下である移動体を追跡する装置を含む、請求項に記載の位置補正サーバ。
The accuracy-related information includes the number of communicable positioning satellites in the satellite positioning system used by the mobile,
10. The location correction server according to claim 9 , wherein said tracking device includes a device for tracking a mobile with said number of positioning satellites with which said mobile can communicate is equal to or less than a threshold.
前記衛星測位システムはGPSを含む、請求項1に記載の位置補正サーバ。 11. The location correction server of Claim 10 , wherein the satellite positioning system includes GPS. さらに、移動体が維持する位置情報の精度に関連する精度関連情報が、前記位置情報の精度が前記所定の精度より高くなったことを示す値に変化したことに応答して、当該移動体を前記補正による位置情報の補正の対象から除外する処理を実行するための除外装置を含む、請求項から請求項11のいずれか1項に記載の位置補正サーバ。 Furthermore, in response to accuracy-related information related to the accuracy of location information maintained by a mobile object changing to a value indicating that the accuracy of the location information has become higher than the predetermined accuracy, the mobile object is 12. The position correction server according to any one of claims 9 to 11 , further comprising an exclusion device for executing a process of excluding from a target of position information correction by said correction. 前記移動体情報はさらに、移動体の外観に関する外観情報を含み、
前記マッチング部は、前記移動体情報に含まれる前記外観情報に基づいて前記撮像画像の中に含まれる前記移動体の画像を認識する画像認識部と、
前記画像認識部により前記移動体の画像が認識された前記撮像画像と、前記移動体情報受信機に前記移動体情報を送信する移動体とを対応付けるための装置とを含む、
請求項1から請求項のいずれか1項に記載の位置補正サーバ。
The moving body information further includes appearance information about the appearance of the moving body,
The matching unit includes an image recognition unit that recognizes an image of the moving body included in the captured image based on the appearance information included in the moving body information;
a device for associating the captured image in which the image of the moving body is recognized by the image recognition unit with the moving body that transmits the moving body information to the moving body information receiver;
The position correction server according to any one of claims 1 to 4 .
自己の位置情報及び時刻情報を含む移動体情報を維持する情報維持装置と、
所定のタイミングで前記移動体情報を所定の位置補正サーバに送信するための移動体情報送信装置と、
前記情報維持装置により維持されている前記位置情報を補正すべきことを示す補正情報を外部から受信したことに応答して、前記補正情報を使用して前記位置情報を補正する補正処理部とを含む、移動体のための位置管理装置であって、
前記情報維持装置は、衛星測位システムにより前記位置情報を維持する機能を持ち、
前記移動体情報送信装置は、前記位置補正サーバに前記移動体情報を送信する際に、前記移動体情報に前記衛星測位システムが通信可能な測位衛星の数を含めて送信する、位置管理装置
an information maintenance device that maintains mobile information including its own location information and time information;
a mobile body information transmitting device for transmitting the mobile body information to a predetermined position correction server at a predetermined timing;
a correction processing unit that, in response to externally receiving correction information indicating that the position information maintained by the information maintenance device should be corrected, corrects the position information using the correction information; A location management device for a mobile object , comprising:
The information maintenance device has a function of maintaining the position information by a satellite positioning system,
The mobile object information transmission device is a position management device, wherein when the mobile object information is transmitted to the position correction server, the mobile object information includes the number of positioning satellites with which the satellite positioning system can communicate.
前記補正情報は、前記情報維持装置が維持している前記位置情報と、正しい位置情報との誤差を含み、
前記補正処理部は、前記情報維持装置が維持している前記位置情報に、前記誤差を加算する加算器を含む、請求項1に記載の位置管理装置。
the correction information includes an error between the position information maintained by the information maintenance device and correct position information;
15. The position management device according to claim 14 , wherein said correction processing unit includes an adder for adding said error to said position information maintained by said information maintenance device.
さらに、前記衛星測位システムが通信可能な測位衛星の数が所定の数以上となったことに応答して、前記補正処理部の動作を停止する停止装置を含む、請求項14または請求項1に記載の位置管理装置。 Further, claim 14 or claim 1, further comprising a stop device for stopping the operation of the correction processing unit in response to the number of positioning satellites with which the satellite positioning system can communicate reaches or exceeds a predetermined number. 5. The position management device according to 5 . 請求項1から請求項1のいずれか1項に記載の位置補正サーバと、請求項14または請求項1に記載の位置管理装置とを含む、移動体の位置管理システム。 A position management system for a moving body, comprising the position correction server according to any one of claims 1 to 13 and the position management device according to claim 14 or claim 15 . コンピュータが、移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信するステップと、
コンピュータが、撮像範囲が特定可能な撮像装置からの撮像画像を受信するステップと、
コンピュータが、前記撮像画像の中に存在する任意の移動体の画像と前記移動体情報とに基づいて、前記任意の移動体の画像を含む撮像画像と前記移動体情報を受信するステップにおいて前記移動体情報を送信する移動体とをマッチングするステップと、
コンピュータが、前記マッチングするステップにおいてマッチングされた移動体から受信した前記移動体情報の前記位置情報と、前記マッチングするステップにおいてマッチングされた撮像画像とその撮像時刻とを用いて、前記移動体が維持する前記位置情報を補正する処理を行うステップとを含む、位置情報の補正方法であって、
さらに、コンピュータが、前記移動体情報に基づき、位置情報を補正する対象となる移動体を追跡する移動体追跡ステップを含み、
前記マッチングするステップは、コンピュータが、前記移動体情報が前記移動体追跡ステップにより追跡されている第1の移動体からの移動体情報であることに応答して、当該第1の移動体の画像を含む撮像画像を前記画像受信ステップにおいて受信した撮像画像の中から抽出する画像抽出ステップを含み、
前記補正する処理を行うステップは、コンピュータが、前記画像抽出ステップにおいて抽出された前記撮像画像の撮像時刻に前記第1の移動体から送信され、前記移動体情報受信機が受信した位置情報と、前記撮像画像から算出される前記第1の移動体の位置とから、前記第1の移動体の維持している前記位置情報を補正する処理を行うステップとを含む、位置情報の補正方法
a step in which the computer receives mobile information including location information and time information from the mobile;
a step in which a computer receives a captured image from an imaging device whose imaging range can be specified;
In the step of receiving a captured image including the image of the arbitrary moving body and the moving body information based on the moving body information and the image of the moving body existing in the captured image, the computer receives the moving body information. a step of matching with a mobile body that transmits body information;
The computer maintains the moving body using the position information of the moving body information received from the matching moving body in the matching step and the captured image matched in the matching step and its capturing time. A method for correcting position information, comprising:
Furthermore, the computer includes a moving body tracking step of tracking a moving body whose position information is to be corrected based on the moving body information,
In the matching step, the computer, in response to the mobile information being mobile information from a first mobile being tracked by the mobile tracking step, generates an image of the first mobile. An image extraction step of extracting a captured image containing from the captured image received in the image receiving step,
In the step of performing the correcting process, the computer transmits position information from the first mobile object at the imaging time of the captured image extracted in the image extraction step and received by the mobile object information receiver; and performing a process of correcting the position information maintained by the first moving body based on the position of the first moving body calculated from the captured image.
コンピュータを、
移動体から、当該移動体の位置情報と時刻情報とを含む移動体情報を受信する移動体情報受信機と、
撮像範囲が特定可能な撮像装置からの撮像画像を受信する画像受信機と、
前記撮像画像の中に存在する任意の移動体の画像と前記移動体情報とに基づいて、前記任意の移動体の画像を含む撮像画像と前記移動体情報受信機に前記移動体情報を送信する移動体とをマッチングするマッチング部と、
前記マッチング部によりマッチングされた移動体から受信した前記移動体情報の前記位置情報と、前記マッチング部によりマッチングされた撮像画像とその撮像時刻とを用いて、前記移動体が維持する前記位置情報を補正する処理を行う補正処理部として機能させる、コンピュータプログラムであって、
さらに、コンピュータを、前記移動体情報に基づき、位置情報を補正する対象となる移動体を追跡する移動体追跡装置として機能させ、
前記マッチング部は、前記移動体情報が前記移動体追跡装置により追跡されている第1の移動体からの移動体情報であることに応答して、当該第1の移動体の画像を含む撮像画像を前記画像受信機が受信した撮像画像の中から抽出するための画像抽出部を含み、
前記補正処理部は、前記画像抽出部が抽出した前記撮像画像の撮像時刻に前記第1の移動体から送信され、前記移動体情報受信機が受信した位置情報と、前記撮像画像から算出される前記第1の移動体の位置とから、前記第1の移動体の維持している前記位置情報を補正する処理を行う位置補正処理部とを含む、コンピュータプログラム
the computer,
a mobile information receiver that receives mobile information including location information and time information of the mobile from the mobile;
an image receiver that receives a captured image from an imaging device whose imaging range can be specified;
Based on an image of an arbitrary moving object existing in the picked-up image and the information on the moving object, a captured image containing the image of the arbitrary moving object and the information on the moving object are transmitted to the receiver for information on the moving object. a matching unit that matches the moving object;
The position information maintained by the moving object is determined by using the position information of the moving object information received from the moving object matched by the matching unit and the captured image matched by the matching unit and its image capturing time. A computer program that functions as a correction processing unit that performs correction processing ,
Further, causing the computer to function as a mobile object tracking device for tracking a mobile object whose position information is to be corrected based on the mobile object information,
The matching unit responds to the fact that the moving body information is moving body information from a first moving body being tracked by the moving body tracking device, and outputs a captured image including an image of the first moving body. from the captured image received by the image receiver,
The correction processing unit is transmitted from the first moving object at the image capturing time of the captured image extracted by the image extracting unit and is calculated from the captured image and the position information received by the moving object information receiver. a position correction processing unit that performs a process of correcting the position information maintained by the first moving body based on the position of the first moving body.
コンピュータが、自己の位置情報及び時刻情報を含む移動体情報を維持するステップと、
コンピュータが、所定のタイミングで前記移動体情報を所定の位置補正サーバに送信するステップと、
コンピュータが、前記移動体情報を維持するステップにより維持されている前記位置情報を補正すべきことを示す補正情報を外部から受信したことに応答して、前記補正情報を使用して前記位置情報を補正するステップとを含む、移動体の位置管理方法であって、
前記移動体情報を維持するステップは、コンピュータが、衛星測位システムにより前記位置情報を維持するステップを含み、
前記送信するステップは、前記所定のタイミングで前記移動体情報に前記衛星測位システムが通信可能な測位衛星の数を含めて前記所定の位置補正サーバに送信するステップを含む、移動体の位置管理方法
a step in which the computer maintains mobile information including its own location information and time information;
a step in which the computer transmits the moving body information to a predetermined position correction server at a predetermined timing;
In response to the computer externally receiving correction information indicating that the position information maintained by the step of maintaining the moving object information should be corrected, the position information is corrected using the correction information. A position management method for a moving object, comprising:
maintaining the mobile information includes, by a computer, maintaining the location information by a satellite positioning system;
The transmitting step includes transmitting the mobile information including the number of positioning satellites with which the satellite positioning system can communicate to the predetermined location correction server at the predetermined timing. .
コンピュータを、
自己の位置情報及び時刻情報を含む移動体情報を維持する情報維持装置と、
所定のタイミングで前記移動体情報を所定の位置補正サーバに送信するための移動体情報送信装置と、
前記情報維持装置により維持されている前記位置情報を補正すべきことを示す補正情報を外部から受信したことに応答して、前記補正情報を使用して前記位置情報を補正する補正処理部として機能させる、コンピュータプログラムであって、
前記情報維持装置は、衛星測位システムにより前記位置情報を維持する機能を持ち、
前記移動体情報送信装置は、前記位置補正サーバに前記移動体情報を送信する際に、前記移動体情報に前記衛星測位システムが通信可能な測位衛星の数を含めて送信する、コンピュータプログラム
the computer,
an information maintenance device that maintains mobile information including its own location information and time information;
a mobile body information transmitting device for transmitting the mobile body information to a predetermined position correction server at a predetermined timing;
Functioning as a correction processing unit that corrects the position information using the correction information in response to externally receiving correction information indicating that the position information maintained by the information maintenance device should be corrected. A computer program that causes
The information maintenance device has a function of maintaining the position information by a satellite positioning system,
A computer program according to claim 1, wherein the mobile object information transmitting device transmits the mobile object information including the number of positioning satellites with which the satellite positioning system can communicate when transmitting the mobile object information to the position correction server.
請求項1に記載の移動体の位置管理装置を搭載した車載装置。 An in-vehicle device equipped with the position management device for a moving object according to claim 14 . 請求項2に記載の車載装置を搭載した車両 A vehicle equipped with the in-vehicle device according to claim 22 .
JP2019101576A 2019-05-30 2019-05-30 POSITION CORRECTION SERVER, POSITION MANAGEMENT DEVICE, MOBILE POSITION MANAGEMENT SYSTEM AND METHOD, POSITION INFORMATION CORRECTION METHOD, COMPUTER PROGRAM, IN-VEHICLE DEVICE, AND VEHICLE Active JP7310313B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019101576A JP7310313B2 (en) 2019-05-30 2019-05-30 POSITION CORRECTION SERVER, POSITION MANAGEMENT DEVICE, MOBILE POSITION MANAGEMENT SYSTEM AND METHOD, POSITION INFORMATION CORRECTION METHOD, COMPUTER PROGRAM, IN-VEHICLE DEVICE, AND VEHICLE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019101576A JP7310313B2 (en) 2019-05-30 2019-05-30 POSITION CORRECTION SERVER, POSITION MANAGEMENT DEVICE, MOBILE POSITION MANAGEMENT SYSTEM AND METHOD, POSITION INFORMATION CORRECTION METHOD, COMPUTER PROGRAM, IN-VEHICLE DEVICE, AND VEHICLE

Publications (2)

Publication Number Publication Date
JP2020193954A JP2020193954A (en) 2020-12-03
JP7310313B2 true JP7310313B2 (en) 2023-07-19

Family

ID=73547880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019101576A Active JP7310313B2 (en) 2019-05-30 2019-05-30 POSITION CORRECTION SERVER, POSITION MANAGEMENT DEVICE, MOBILE POSITION MANAGEMENT SYSTEM AND METHOD, POSITION INFORMATION CORRECTION METHOD, COMPUTER PROGRAM, IN-VEHICLE DEVICE, AND VEHICLE

Country Status (1)

Country Link
JP (1) JP7310313B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022175768A (en) * 2021-05-14 2022-11-25 株式会社日立製作所 Position measurement system
DE112022001330T5 (en) * 2021-05-21 2024-01-25 Hitachi Astemo, Ltd. SYSTEM FOR DETERMINING EXTERNAL DETECTION ANOMALIES, VEHICLE-MOUNTED DEVICE AND METHOD FOR DETERMINING EXTERNAL DETECTION ANOMALIES
JPWO2022264731A1 (en) * 2021-06-14 2022-12-22
JP2023083942A (en) 2021-12-06 2023-06-16 トヨタ自動車株式会社 Positional accuracy determination device, positional accuracy determination computer program, and positional accuracy determination method
CN114353831B (en) * 2021-12-29 2024-05-28 中国卫星海上测控部 Shipborne USB angle measurement error correction model and implementation method thereof
CN118575055A (en) * 2022-01-26 2024-08-30 三菱电机株式会社 Action planning device and action planning method
JP2023119740A (en) * 2022-02-17 2023-08-29 日立Astemo株式会社 Vehicle recognition system and server

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009229113A (en) 2008-03-19 2009-10-08 Sanyo Electric Co Ltd Positioning device and estimation device
JP2017161350A (en) 2016-03-09 2017-09-14 三菱電機株式会社 Tolerance distribution system
JP2018072011A (en) 2016-10-25 2018-05-10 日産自動車株式会社 Method and system for determining position of own vehicle
JP2018180860A (en) 2017-04-11 2018-11-15 株式会社デンソー Traffic information system
WO2019038987A1 (en) 2017-08-25 2019-02-28 住友電気工業株式会社 Computer program, travel lane identification device, and travel lane identification system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009229113A (en) 2008-03-19 2009-10-08 Sanyo Electric Co Ltd Positioning device and estimation device
JP2017161350A (en) 2016-03-09 2017-09-14 三菱電機株式会社 Tolerance distribution system
JP2018072011A (en) 2016-10-25 2018-05-10 日産自動車株式会社 Method and system for determining position of own vehicle
JP2018180860A (en) 2017-04-11 2018-11-15 株式会社デンソー Traffic information system
WO2019038987A1 (en) 2017-08-25 2019-02-28 住友電気工業株式会社 Computer program, travel lane identification device, and travel lane identification system

Also Published As

Publication number Publication date
JP2020193954A (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP7310313B2 (en) POSITION CORRECTION SERVER, POSITION MANAGEMENT DEVICE, MOBILE POSITION MANAGEMENT SYSTEM AND METHOD, POSITION INFORMATION CORRECTION METHOD, COMPUTER PROGRAM, IN-VEHICLE DEVICE, AND VEHICLE
JP6325806B2 (en) Vehicle position estimation system
US10303168B2 (en) On-vehicle control device, host vehicle position and posture specifying device, and on-vehicle display device
US11592570B2 (en) Automated labeling system for autonomous driving vehicle lidar data
EP3018448B1 (en) Methods and systems for enabling improved positioning of a vehicle
US9208389B2 (en) Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor
US12044532B2 (en) Sensor plausibility using GPS road information
JP6468062B2 (en) Object recognition system
US11205342B2 (en) Traffic information processing device
JP5162849B2 (en) Fixed point position recorder
WO2020042348A1 (en) Method for generating autonomous driving navigation map, system, vehicle-mounted terminal, and server
US20160161265A1 (en) Method and system for improving accuracy of digital map data utilized by a vehicle
CN113519019B (en) Self-position estimating device, automatic driving system equipped with same, and self-generated map sharing device
CN111176270B (en) Positioning using dynamic landmarks
CN113435237B (en) Object state recognition device, recognition method, and computer-readable recording medium, and control device
CN114080537A (en) Collecting user contribution data relating to a navigable network
US20230148097A1 (en) Adverse environment determination device and adverse environment determination method
US20190114911A1 (en) Method and system for determining the location of a vehicle
JP2020067402A (en) Sensor calibration method and sensor calibration apparatus
US11651598B2 (en) Lane mapping and localization using periodically-updated anchor frames
CN114694111A (en) Vehicle positioning
KR20210029323A (en) Apparatus and method for improving cognitive performance of sensor fusion using precise map
JP7215460B2 (en) Map system, map generation program, storage medium, vehicle device and server
JP2023152109A (en) Feature detection device, feature detection method and computer program for detecting feature
US11491978B2 (en) Driving assistance device and method that judge a target object based on neighboring objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7310313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150