JP2016057801A - Charging processing system - Google Patents

Charging processing system Download PDF

Info

Publication number
JP2016057801A
JP2016057801A JP2014183070A JP2014183070A JP2016057801A JP 2016057801 A JP2016057801 A JP 2016057801A JP 2014183070 A JP2014183070 A JP 2014183070A JP 2014183070 A JP2014183070 A JP 2014183070A JP 2016057801 A JP2016057801 A JP 2016057801A
Authority
JP
Japan
Prior art keywords
charging
reference image
processing unit
image
billing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014183070A
Other languages
Japanese (ja)
Other versions
JP5980283B2 (en
Inventor
宅原 雅人
Masahito Takuhara
雅人 宅原
杉本 喜一
Kiichi Sugimoto
喜一 杉本
成寿 亀尾
Shigetoshi Kameo
成寿 亀尾
知浩 松本
Tomohiro Matsumoto
知浩 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2014183070A priority Critical patent/JP5980283B2/en
Priority to MYPI2015703674A priority patent/MY175964A/en
Priority to SG11201508484QA priority patent/SG11201508484QA/en
Priority to PCT/JP2015/000472 priority patent/WO2016038755A1/en
Publication of JP2016057801A publication Critical patent/JP2016057801A/en
Application granted granted Critical
Publication of JP5980283B2 publication Critical patent/JP5980283B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B13/00Taximeters

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Charge And Discharge Circuits For Batteries Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system capable of performing charging to a vehicle at an arbitrary position by using a method for collating observation images which can be acquired from a vehicle during traveling with preliminarily stored reference images.SOLUTION: A charging processing system 1 for performing charging processing when a user vehicle 30 travels on a road includes: a reference image database for storing reference images preliminarily acquired in association with a plurality of charging positions set on the road; an observation image acquisition part 31 installed in the user vehicle 30 for acquiring observation images by photographing landscapes around the road on which the user vehicle 30 travels; a data processing part 33 for performing image matching between the stored reference images and the newly acquired observation images; and a charging processing part 35 for performing charging processing to the user vehicle 30 on the basis of the result of the image matching by the data processing part 33.SELECTED DRAWING: Figure 4

Description

本発明は、道路を走行する車両に課金処理するシステムに関し、特に任意の位置で課金することのできるシステムに関する。   The present invention relates to a system for charging a vehicle traveling on a road, and more particularly to a system capable of charging at an arbitrary position.

DSRC(Dedicated Short Range Communication)方式のERP(Electronic Road Pricing)システムに続くシステムとしては、車両の走行位置に対応、つまり走行距離に対応して課金するシステムが有望視されている。そのためには、±10m程度の精度で課金を行い、ドライバに対して課金の事実をリアルタイムに通知することが望まれている。車両の走行位置を特定するには、GPS(Global Positioning System)を用いることができる。   As a system following the ERC (Electronic Loading Pricing) system of the DSRC (Dedicated Short Range Communication) system, a system that charges according to the travel position of the vehicle, that is, the travel distance, is promising. For this purpose, it is desired to charge with an accuracy of about ± 10 m and notify the driver of the fact of charging in real time. GPS (Global Positioning System) can be used to specify the traveling position of the vehicle.

ところが、このGPSによる測位手段を、ERPの対象地域となる高層ビルが立ち並ぶ市街地に適用しようとすると、ビルや高架によりGPS信号が遮断されたり、また、GPS信号が乱反射したりするマルチパスの問題に直面する。そのため、一般に、高層な構造物が多い市街地においては、GPSの本来の測位精度を得ることが困難であり、課金位置にズレが生じたり誤った金額で課金がなされたりする恐れがある。また、GPSの測位精度の低下は、衛星配置や大気の状態等によっても、不特定な状況で発生し、誤差の大きさも時間的に変動する。そのため、GPSだけでは、課金位置の精度や、課金の信頼性を担保するのが難しい。   However, when this GPS positioning means is applied to an urban area where high-rise buildings that are the target areas of ERP are lined up, the GPS signal is blocked by the building or the overhead, or the GPS signal is irregularly reflected. To face. Therefore, in general, in an urban area where there are many high-rise structures, it is difficult to obtain the original positioning accuracy of GPS, and there is a possibility that the charging position may be shifted or charged with an incorrect amount. In addition, a decrease in GPS positioning accuracy occurs in an unspecified situation depending on the satellite arrangement, atmospheric conditions, and the like, and the magnitude of the error also varies with time. Therefore, it is difficult to ensure the accuracy of the billing position and the reliability of billing only with GPS.

高層ビル街でのGPSの精度低下に対応するために、例えばジャイロ、加速度センサによって補償すること、あるいは、地図情報を用いて道路上に位置を補正することが想定される。例えば、特許文献1は、環境に起因して発生する測位誤差に関する情報を用いて補正して、車両の位置を特定する提案を行っている。GPS精度が低下した場合でも、ある程度の期間はジャイロや加速度センサによって精度が維持されるが、この補正はジャイロや加速度センサの値を積分することを伴うために、時間の経過とともに誤差が拡大してしまう。
また、高性能な車速パルス、高性能なジャイロなどの測位用の機器を用いて、GPSが途絶した場合でも慣性航法によって自己位置を推定することも可能である。ところが、これらの機器は、民間のユーザ車両に取付けるには高額すぎる。
In order to cope with a decrease in the accuracy of GPS in a high-rise building area, for example, it is assumed that compensation is performed by a gyroscope or an acceleration sensor, or that the position is corrected on the road using map information. For example, Patent Document 1 proposes that the position of the vehicle is specified by correcting it using information related to a positioning error that occurs due to the environment. Even if the GPS accuracy is reduced, the accuracy is maintained by the gyroscope and acceleration sensor for a certain period of time, but this correction involves integrating the values of the gyroscope and acceleration sensor, so the error increases over time. End up.
In addition, it is possible to estimate the self-position by inertial navigation even when the GPS is interrupted by using a positioning device such as a high-performance vehicle speed pulse or a high-performance gyroscope. However, these devices are too expensive to install in private user vehicles.

したがって、GPSに頼ることなく、しかも高額な機器を取り付けることなく、走行している車両の位置を特定できることが、車両の走行位置に対応して課金するシステムにとって望ましい。例えば、特許文献2には、移動体の現在位置における周囲の画像(観測画像)と、所定の地点に関連して予め用意された画像(参照画像)を、画像マッチングにより照合し、この結果に基づき、移動体の現在位置を算出することを提案している。   Therefore, it is desirable for a system that charges according to the traveling position of the vehicle to be able to specify the position of the traveling vehicle without relying on GPS and without attaching expensive equipment. For example, in Patent Document 2, a surrounding image (observation image) at the current position of a moving object is collated with an image (reference image) prepared in advance in relation to a predetermined point by image matching. Based on this, it is proposed to calculate the current position of the moving object.

特開2014−92986号公報JP 2014-92986 A 特開2013−61270号公報JP 2013-61270 A

ところが、特許文献2は、車両の現在位置を特定できるものの、車両に課金するシステムについて示唆していない。
そこで本発明は、走行中の車両から取得できる観測画像と予め記憶された参照画像を照合する手法を用いて、任意の位置で車両に課金できるシステムを提供することを目的とする。
However, Patent Literature 2 does not suggest a system for charging the vehicle, although the current position of the vehicle can be specified.
Therefore, an object of the present invention is to provide a system that can charge a vehicle at an arbitrary position by using a method of collating an observation image that can be acquired from a traveling vehicle with a reference image stored in advance.

かかる目的のもと、本発明の課金処理システムは、ユーザ車両が道路を走行する際に課金処理を行う課金処理システムであって、道路上に設定される複数の課金位置に関連して予め取得された参照画像を記憶する参照画像記憶部と、ユーザ車両に設けられ、ユーザ車両が走行する特定道路の周囲の風景を撮影して観測画像を取得する観測画像取得部と、記憶されている参照画像と新たに取得された観測画像を画像マッチングするデータ処理部と、データ処理部における画像マッチングの結果に基づいて、ユーザ車両に課金処理を行う課金処理部と、を備えることを特徴としている。   For this purpose, the billing processing system of the present invention is a billing processing system that performs billing processing when a user vehicle travels on a road, and is acquired in advance in association with a plurality of billing positions set on the road. A reference image storage unit that stores the reference image, an observation image acquisition unit that is provided in the user vehicle and that captures a landscape around a specific road on which the user vehicle runs and acquires an observation image, and a stored reference The image processing apparatus includes a data processing unit that performs image matching between the image and a newly acquired observation image, and a charging processing unit that performs charging processing on the user vehicle based on a result of image matching in the data processing unit.

本発明の課金処理システムにおいて、データ処理部は、選択された参照画像について新たに取得された観測画像と画像マッチングする、ことができる。   In the billing processing system of the present invention, the data processing unit can perform image matching with the observation image newly acquired for the selected reference image.

本発明の課金処理システムにおいて、データ処理部は、参照画像と観測画像の類似度を画像マッチングにより求め、課金処理部は、類似度に基づいて参照画像に対応する課金位置において課金処理を行う、ことができる。   In the charging processing system of the present invention, the data processing unit obtains the similarity between the reference image and the observed image by image matching, and the charging processing unit performs charging processing at a charging position corresponding to the reference image based on the similarity. be able to.

本発明の課金処理システムにおいて、データ処理部は、画像マッチングされる参照画像と観測画像について、当該参照画像が撮影された位置と当該観測画像が撮影された位置との相対的な位置関係を推定し、課金処理部は、推定の結果に基づいて参照画像に対応する課金位置において課金処理を行うことができる。   In the billing processing system of the present invention, the data processing unit estimates a relative positional relationship between a position where the reference image is photographed and a position where the observation image is photographed, for the reference image and the observation image to be image-matched. Then, the charging processing unit can perform the charging process at the charging position corresponding to the reference image based on the estimation result.

本発明の課金処理システムにおいて、データ処理部は、参照画像と観測画像に基づいて、当該参照画像に対応する課金位置をユーザ車両が通過する通過予測時刻を求め、課金処理部は、通過予測時刻にユーザ車両に課金処理を行う、ことができる。   In the charging processing system of the present invention, the data processing unit obtains a predicted passing time when the user vehicle passes the charging position corresponding to the reference image based on the reference image and the observed image, and the charging processing unit The user vehicle can be charged.

本発明において、通過予測時刻を求める手法は少なくとも二つある。
一つ目は、データ処理部が、課金位置に対応する参照画像が撮影された位置と観測画像が撮影された位置との相対位置関係に基づいて算出される課金位置までの距離に基づいて、通過予測時刻を求める。
二つ目は、データ処理部が、課金位置に対応する参照画像が撮影された位置と観測画像が撮影された位置との相対位置関係と、ユーザ車両の走行速度に基づいて、通過予測時刻を求める。
In the present invention, there are at least two methods for obtaining the predicted passage time.
First, the data processing unit is based on the distance to the charging position calculated based on the relative positional relationship between the position where the reference image corresponding to the charging position is captured and the position where the observation image is captured, Obtain the estimated passage time.
Second, the data processing unit calculates the estimated passage time based on the relative positional relationship between the position where the reference image corresponding to the charging position is captured and the position where the observation image is captured, and the traveling speed of the user vehicle. Ask.

以上説明した本発明の課金処理システムにおけるいくつかの構成要素は、ユーザ車両に搭載される車載器として実現される。つまり本発明は、ユーザ車両が道路を走行する際に課金処理を行う、ユーザ車両に搭載される車載器であって、道路上に設定される複数の課金位置に関連して予め取得された参照画像と、ユーザ車両が走行する道路の周囲の風景を撮影した観測画像と、を画像マッチングするデータ処理部と、データ処理部における画像マッチングの結果に基づいて、ユーザ車両に課金処理を行う課金処理部と、を備えることを特徴とする。   Some components in the accounting processing system of the present invention described above are realized as an in-vehicle device mounted on a user vehicle. That is, the present invention is an in-vehicle device mounted on a user vehicle that performs charging processing when the user vehicle travels on a road, and is a reference acquired in advance related to a plurality of charging positions set on the road. A data processing unit that performs image matching between an image and an observation image obtained by capturing a landscape around a road on which the user vehicle travels, and a charging process that charges the user vehicle based on a result of image matching in the data processing unit And a section.

本発明の車載器は、以上説明した本発明の課金処理システムにおけるより具体的な形態を適用することができる。   The vehicle-mounted device of the present invention can apply a more specific form in the accounting processing system of the present invention described above.

本発明の課金処理システムによれば、参照画像情報に対応して課金位置を設定しておくので、参照画像情報に位置情報を含む観測画像情報をマッチング処理することにより、課金位置を特定することができる。
したがって、本発明の課金処理システムは、ユーザ車両が走行中に通過する位置を基準にして課金を可能にする。しかも、この課金処理システムは、GPSに依存しないで課金位置を特定できるので、GPSの精度低下の影響を受けずに課金処理を行うことができる。また、トンネルの内部、地下道路といったGPSが利用できない領域であっても、例えば、文字、その他の情報をトンネルの壁面に描くことで、当該位置と他の位置とが、撮影した画像上で区別できるのであれば、課金処理を行うことができる。
According to the billing processing system of the present invention, the billing position is set corresponding to the reference image information. Therefore, the billing position is specified by performing the matching process on the observed image information including the position information in the reference image information. Can do.
Therefore, the billing processing system of the present invention enables billing based on the position through which the user vehicle passes while traveling. In addition, since the billing processing system can identify the billing position without depending on the GPS, the billing processing can be performed without being affected by the deterioration of the accuracy of GPS. Also, even in areas where GPS is not available, such as inside tunnels and underground roads, for example, characters and other information are drawn on the wall of the tunnel, so that the position and other positions can be distinguished on the captured image. If possible, billing processing can be performed.

また、本発明における課金処理システムにおいて特定される課金位置の精度は、参照画像情報及び観測画像情報の両者の画像情報の撮影条件、参照画像情報と観測画像情報のマッチング手法によって決まるが、この精度は既知と言える。これに対してGPSの精度は、GPS信号を取得する位置によって著しくばらつく。したがって、本発明によると、GPSを利用するのに比べて、課金の信頼性を担保できる。   In addition, the accuracy of the billing position specified in the billing processing system according to the present invention is determined by the imaging conditions of the image information of both the reference image information and the observation image information, and the matching method of the reference image information and the observation image information. Is known. On the other hand, the accuracy of GPS varies greatly depending on the position where the GPS signal is acquired. Therefore, according to the present invention, charging reliability can be ensured as compared to using GPS.

本発明の第1実施形態に係る課金処理システムの概念を示す図である。It is a figure which shows the concept of the accounting processing system which concerns on 1st Embodiment of this invention. 第1実施形態において、参照画像を取得する撮影車両が走行する様子を示す図である。In 1st Embodiment, it is a figure which shows a mode that the imaging | photography vehicle which acquires a reference image drive | works. 第1実施形態において、観測画像を取得するユーザ車両が走行する様子を示す図である。In 1st Embodiment, it is a figure which shows a mode that the user vehicle which acquires an observation image drive | works. 第1実施形態における課金処理システムの構成の概要を示す図である。It is a figure which shows the outline | summary of a structure of the accounting processing system in 1st Embodiment. 第1実施形態におけるサーバが保持するデータベースの内容を示す図である。It is a figure which shows the content of the database which the server in 1st Embodiment hold | maintains. 第1実施形態におけるユーザ車両におけるマッチング処理の様子を示す図である。It is a figure which shows the mode of the matching process in the user vehicle in 1st Embodiment. 第1実施形態におけるユーザ車両の処理の手順を示す図である。It is a figure which shows the procedure of the process of the user vehicle in 1st Embodiment. 第2実施形態におけるユーザ車両の処理の手順を示す図である。It is a figure which shows the procedure of the process of the user vehicle in 2nd Embodiment. 第2実施形態において、観測画像を取得した位置と参照画像を取得した位置の関係を示す図である。In 2nd Embodiment, it is a figure which shows the relationship between the position which acquired the observation image, and the position which acquired the reference image. 第2実施形態におけるサーバが保持するデータベースの内容を示す図である。It is a figure which shows the content of the database which the server in 2nd Embodiment hold | maintains. 第2実施形態において適用するエゴモーション(Ego-motion)推定を説明する図である。It is a figure explaining the ego motion (Ego-motion) estimation applied in 2nd Embodiment. 第2実施形態において、位置の推定の精度を向上する手法を説明する図である。In 2nd Embodiment, it is a figure explaining the method of improving the precision of position estimation. 第3実施形態(第1の手法)において、課金位置を通過する時刻を推定する処理の内容を示す図である。It is a figure which shows the content of the process which estimates the time which passes a charge position in 3rd Embodiment (1st method). 第3実施形態(第1の手法)におけるユーザ車両における課金処理の手順を示す図である。It is a figure which shows the procedure of the accounting process in the user vehicle in 3rd Embodiment (1st method). 第3実施形態(第2の手法)において、課金位置を通過する時刻を推定する処理の内容を示す図である。It is a figure which shows the content of the process which estimates the time which passes a charge position in 3rd Embodiment (2nd method). 第3実施形態(第2の手法)におけるユーザ車両における課金処理の手順を示す図である。It is a figure which shows the procedure of the accounting process in the user vehicle in 3rd Embodiment (2nd method).

以下、本発明の好ましい実施形態について、添付図面を参照して説明する。
[第1実施形態]
図1〜図3に示す車両の課金処理システム1は、GPSを用いることなく、課金対象領域Zにおけるユーザ車両30の走行位置に応じて、当該車両に対して課金処理を行うシステムである。また、システム1は、従来のガントリのように大規模な構造物を設けることなく、ユーザ車両30の走行位置に応じて課金処理ができるシステムである。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[First Embodiment]
The vehicle charging processing system 1 shown in FIGS. 1 to 3 is a system that performs charging processing on the vehicle according to the travel position of the user vehicle 30 in the charging target area Z without using GPS. In addition, the system 1 is a system that can perform billing processing according to the travel position of the user vehicle 30 without providing a large-scale structure like a conventional gantry.

課金処理システム1は、予め撮影車両10が課金対象領域Zを走行して撮影して生成した参照画像情報に、ユーザ車両30が課金対象領域Zを走行しながら連続的に撮影して生成した観測画像情報を、マッチング処理することで、ユーザ車両30の走行位置を特定する。課金処理システム1は、特定された走行位置が課金をすべき位置に該当する場合には、ユーザ車両30に対して課金処理を行う。課金処理システム1は、図1に示すように、撮影車両10とユーザ車両30の他にホスト20を備えており、ホスト20が参照画像情報を保持している。   The accounting processing system 1 uses the observation image generated by the user vehicle 30 continuously shooting while traveling in the charging target area Z based on the reference image information generated by shooting the vehicle 10 traveling in the charging target area Z in advance. The traveling position of the user vehicle 30 is specified by performing a matching process on the image information. The billing processing system 1 performs billing processing on the user vehicle 30 when the identified travel position corresponds to a position where billing is to be performed. As shown in FIG. 1, the charging processing system 1 includes a host 20 in addition to the photographing vehicle 10 and the user vehicle 30, and the host 20 holds reference image information.

課金処理システム1を構築するに当たり、撮影車両10は、図2に示すように、課金対象領域Z内の道路Rを走行しながら、周囲の風景を撮影して参照画像を取得する。そのために、撮影車両10は、図4に示すように、参照画像取得部11と、測位部13と、参照画像記憶部15と、送受信部17とを備えている。   In constructing the billing processing system 1, the photographing vehicle 10 obtains a reference image by photographing a surrounding landscape while traveling on the road R in the billing target area Z as shown in FIG. For this purpose, the photographing vehicle 10 includes a reference image acquisition unit 11, a positioning unit 13, a reference image storage unit 15, and a transmission / reception unit 17, as shown in FIG.

参照画像取得部11は、撮影車両10の周囲の全方位を、例えば10m、あるいは5mといった等間隔で撮影することで参照画像を取得するカメラを備えている。撮影車両10は、参照画像を取得しながら、測位部13により撮影車両10の緯度及び経度を測定する。撮影された参照画像は、当該画像が撮影された緯度及び経度(位置情報)と関連付けられた上で、参照画像記憶部15に記憶される。記憶された情報(以下、参照画像情報)は、送受信部17を介して、ホスト20に送られる。単数又は複数の撮影車両10を用い、課金対象領域Zとなる全ての道路Rについて取得された参照画像情報は、ホスト20に送られる。
撮影車両10は、測位部13が高性能な測位機器を備えることで、緯度及び経度を正確に測定する。
The reference image acquisition unit 11 includes a camera that acquires a reference image by photographing all directions around the photographing vehicle 10 at equal intervals, for example, 10 m or 5 m. The photographing vehicle 10 measures the latitude and longitude of the photographing vehicle 10 by the positioning unit 13 while acquiring the reference image. The captured reference image is stored in the reference image storage unit 15 after being associated with the latitude and longitude (position information) at which the image was captured. The stored information (hereinafter referred to as reference image information) is sent to the host 20 via the transmission / reception unit 17. The reference image information acquired for all roads R that are to be charged using the single or plural photographing vehicles 10 is sent to the host 20.
The photographing vehicle 10 accurately measures latitude and longitude by the positioning unit 13 including a high-performance positioning device.

ホスト20は、図4に示すように、記憶部21と、データ処理部25と、送受信部27とを備えている。
ホスト20は、撮影車両10から送られる参照画像情報を、送受信部27を介して取得する。この参照画像情報は、観測画像とのマッチングに供するために、データ処理部25によって特徴量に変換した上で、記憶部21に記憶される。記憶部21は、例えば図5に示すように、参照画像情報データベース22と、課金情報データベース23と、顧客情報データベース24とを備えている。
参照画像情報データベース22は、図5に示すように、特徴量としての画像データ(画像#1,#2,#3…)と、その画像が取得された位置データ((Lat1,Lon1),(Lat1,Lon2),(Lat1,Lon3)…)とが対応付けられたテーブル形式の情報を保持している。
また、課金情報データベース23は、図5に示すように、課金される位置を緯度及び経度で示した課金位置データと、課金位置データにおいて課金される金額である課金額とが対応付けられたテーブル形式の情報を記憶している。課金情報データベース23に記憶される課金位置(データ)と課金額(データ)は、課金処理システム1を運用するのに当たって設定され、適宜の入力手段から送受信部27を介して記憶部21の課金情報データベース23に入力される。
また、顧客情報データベース24は、ユーザ車両に搭載されるユーザ車両30ごとに割り当てられた識別情報(ID)と課金の状況を対応付けて記憶している。新たに課金がなされる度に、顧客情報データベース24の記憶内容は更新される。
As illustrated in FIG. 4, the host 20 includes a storage unit 21, a data processing unit 25, and a transmission / reception unit 27.
The host 20 acquires reference image information sent from the photographing vehicle 10 via the transmission / reception unit 27. This reference image information is stored in the storage unit 21 after being converted into a feature value by the data processing unit 25 for use in matching with the observed image. As shown in FIG. 5, for example, the storage unit 21 includes a reference image information database 22, a charging information database 23, and a customer information database 24.
As shown in FIG. 5, the reference image information database 22 includes image data (images # 1, # 2, # 3...) As feature amounts and position data ((Lat1, Lon1), ( Lat1, Lon2), (Lat1, Lon3) ...) are stored in table format information.
Further, as shown in FIG. 5, the billing information database 23 is a table in which billing location data indicating the billing location in latitude and longitude and a billing amount that is the amount billed in the billing location data are associated with each other. Stores format information. The billing position (data) and the billing amount (data) stored in the billing information database 23 are set when the billing processing system 1 is operated, and billing information in the storage unit 21 is transmitted from an appropriate input unit via the transmission / reception unit 27. Input to the database 23.
Further, the customer information database 24 stores the identification information (ID) assigned to each user vehicle 30 mounted on the user vehicle and the charging status in association with each other. Each time a new charge is made, the stored contents of the customer information database 24 are updated.

データ処理部25は、撮影車両10から送られる参照画像情報を特徴量に変換した上で、記憶部21の参照画像情報データベース22に記憶する。また、データ処理部25は、記憶部21の参照画像情報データベース22、課金情報データベース23及び顧客情報データベース24に記憶されている情報を読み出し、送受信部27を介してユーザ車両30に向けて送信する。   The data processing unit 25 converts the reference image information sent from the photographing vehicle 10 into a feature amount, and then stores it in the reference image information database 22 of the storage unit 21. The data processing unit 25 reads information stored in the reference image information database 22, the billing information database 23, and the customer information database 24 in the storage unit 21, and transmits the information to the user vehicle 30 via the transmission / reception unit 27. .

次に、ユーザ車両30は、図3に示すように、課金対象領域Zを走行中に撮影した周囲の風景に関する情報(観測画像情報)とホスト20に記憶された参照画像情報とをマッチング処理することにより、ユーザ車両30が課金位置を通過することを認識したならば、課金処理を行う。そのために、ユーザ車両30は、図4に示すように、観測画像取得部31と、データ処理部33と、課金処理部35と、送受信部37とを備える。なお、観測画像取得部31、データ処理部33、課金処理部35及び送受信部37からなる構成部分は、いわゆる車載器ユニットとしてユーザ車両30に搭載することができるが、ここでは単にユーザ車両30と表記する。
観測画像取得部31は、ユーザ車両30が課金対象領域Zを走行中に周囲の風景を撮影するとともに、撮影した画像情報をデータ処理部33に送る。なお、特徴量に変換された観測画像を観測画像情報という。
Next, as shown in FIG. 3, the user vehicle 30 performs a matching process between information (observation image information) related to the surrounding landscape captured while traveling in the chargeable area Z and reference image information stored in the host 20. Thus, if it is recognized that the user vehicle 30 passes the charging position, the charging process is performed. Therefore, as shown in FIG. 4, the user vehicle 30 includes an observation image acquisition unit 31, a data processing unit 33, a charging processing unit 35, and a transmission / reception unit 37. In addition, although the component part which consists of the observation image acquisition part 31, the data processing part 33, the charge process part 35, and the transmission / reception part 37 can be mounted in the user vehicle 30 as what is called an onboard equipment unit, here, it is only the user vehicle 30 and write.
The observation image acquisition unit 31 captures the surrounding scenery while the user vehicle 30 is traveling in the chargeable area Z, and sends the captured image information to the data processing unit 33. Note that the observation image converted into the feature amount is referred to as observation image information.

データ処理部33は、観測画像取得部31で撮影された観測画像情報とホスト20の記憶部21に記憶された参照画像情報とのマッチング処理を行い、マッチング処理の結果として課金位置の通過を特定する。より具体的には、以下の通りである。
データ処理部33は、観測画像取得部31で撮影された観測画像を取り込んで、これを特徴量に変換する。一方で、データ処理部33は、ホスト20の参照画像情報データベース22から記憶されている全ての参照画像情報♯1〜♯Nを取り込んで、撮影されたばかりの最新の観測画像情報をマッチングし、画像情報間の類似度を算出し、最も類似する参照画像情報を特定する。例えば、参照画像情報データベース22の参照画像情報♯3が最も類似度が大きいと判断すれば、データ処理部33は自己の位置が、参照画像情報♯3が取得された位置(Lat1,Lon3)に近似することを特定する。データ処理部33は、自己の位置が近似する参照画像情報が特定されたならば、次に、課金情報データベース23を参照し、当該参照画像情報の位置と一致するデータの存在有無を確認する。ここでは、参照画像情報♯3に対応する位置(Lat1,Lon3)が課金情報データベース23に記憶されているので、データ処理部33は参照画像情報♯3は課金位置であることを認識するとともに、課金情報データベース23から対応する課金額を取得する。
The data processing unit 33 performs a matching process between the observation image information captured by the observation image acquisition unit 31 and the reference image information stored in the storage unit 21 of the host 20, and specifies the passage of the charging location as a result of the matching process. To do. More specifically, it is as follows.
The data processing unit 33 takes in the observation image captured by the observation image acquisition unit 31 and converts it into a feature amount. On the other hand, the data processing unit 33 takes in all the reference image information # 1 to #N stored from the reference image information database 22 of the host 20, matches the latest observed image information just taken, and The similarity between the information is calculated, and the most similar reference image information is specified. For example, if it is determined that the reference image information # 3 in the reference image information database 22 has the highest similarity, the data processing unit 33 is set to the position (Lat1, Lon3) where the reference image information # 3 is acquired. Specify to approximate. If the reference image information whose position is approximated is specified, the data processing unit 33 next refers to the billing information database 23 and confirms the presence / absence of data that matches the position of the reference image information. Here, since the position (Lat1, Lon3) corresponding to the reference image information # 3 is stored in the charging information database 23, the data processing unit 33 recognizes that the reference image information # 3 is the charging position, and The corresponding charge amount is acquired from the charge information database 23.

なお、参照画像情報データベース22、課金情報データベース23及び顧客情報データベース24の区分はあくまで一例であり、例えば、参照画像情報データベース22と課金情報データベース23を統合したデータベースにすることもできる。要は、課金位置と、当該課金位置における課金額とが特定できればよい。   The classification of the reference image information database 22, the billing information database 23, and the customer information database 24 is merely an example. For example, the reference image information database 22 and the billing information database 23 may be integrated. In short, it suffices if the billing location and the billing amount at the billing location can be specified.

課金処理部35は、データ処理部33が課金位置を特定すると課金処理を実行する。
課金処理としては、特定された課金位置とこの課金位置に対応する課金額を自己のIDに対応付けて、ホスト20に送信する。ホスト20は、取得したこれらの課金処理に関する情報を、顧客情報データベース24の対応するIDの記録領域に記憶する。
また、課金処理として、ユーザ車両30の図示を省略するディスプレイに課金の事実を表示させる。表示の仕方としては、課金額だけを表示させることもできるし、課金位置と課金額を併記することもできる。ディスプレイに文字情報として課金の事実を表示するだけでなく、音声により課金の事実を通知することもできる。
The billing processing unit 35 executes billing processing when the data processing unit 33 specifies the billing location.
As the billing process, the identified billing location and the billing amount corresponding to this billing location are transmitted to the host 20 in association with its own ID. The host 20 stores the acquired information related to the billing process in the corresponding ID recording area of the customer information database 24.
Further, as a billing process, the fact of billing is displayed on a display (not shown) of the user vehicle 30. As a display method, only the charge amount can be displayed, or the charge position and the charge amount can be written together. In addition to displaying the accounting fact as character information on the display, the accounting fact can be notified by voice.

[課金処理システム1の動作]
さて、以上の構成を備える課金処理システム1の動作を、図7を参照しながら説明する。なお、ホスト20の記憶部21には所定の参照画像情報、課金情報及び顧客情報がそれぞれ参照画像情報データベース22、課金情報データベース23及び顧客情報データベース24に記憶されているものとする。
[Operation of Billing Processing System 1]
Now, the operation of the billing processing system 1 having the above configuration will be described with reference to FIG. It is assumed that predetermined reference image information, billing information, and customer information are stored in the reference image information database 22, billing information database 23, and customer information database 24 in the storage unit 21 of the host 20, respectively.

いま、車載器ユニットを備えるユーザ車両30が、課金対象領域Zを走行しているものとする。
ユーザ車両30は、走行中にユーザ車両30の観測画像取得部31により周囲の風景の画像を撮影するとともに、特徴量に変換して観測画像情報を取得する(図7 S101)。
ユーザ車両30は、観測画像情報を取得したならば、次いで、データ処理部33にてマッチング処理を行う(図7 S103)。マッチング処理の具体的な内容は前述した通りであるが、このマッチング処理により、最も類似度の大きな参照画像情報が特定される。例えば、図6において、取得された観測画像情報に対する類似度が最も大きいのが参照画像情報♯3だとすると、データ処理部33は参照画像情報♯3を現在のユーザ車両30の位置と特定する。
Now, it is assumed that the user vehicle 30 including the vehicle-mounted device unit is traveling in the charge target area Z.
While traveling, the user vehicle 30 captures an image of the surrounding landscape by the observation image acquisition unit 31 of the user vehicle 30 and converts it into a feature amount to acquire observation image information (S101 in FIG. 7).
Once the user vehicle 30 has acquired the observation image information, the data processing unit 33 performs matching processing (S103 in FIG. 7). The specific contents of the matching process are as described above, but the reference image information having the highest similarity is specified by this matching process. For example, in FIG. 6, if the reference image information # 3 has the largest similarity to the acquired observation image information, the data processing unit 33 specifies the reference image information # 3 as the current position of the user vehicle 30.

ユーザ車両30は、次に、特定したユーザ車両30の位置が課金位置に該当するか否かの判断を行う(図7 S105)。
この判断は、データ処理部33がホスト20の課金情報データベース23から読み出した課金情報に特定したユーザ車両30の位置を照合することにより行われる。対応する課金位置が照合されたならば(図7 S105 Y)、データ処理部33は次に課金処理を行う(図7 S107)。課金処理の具体的な内容は前述したとおりである。課金処理を終えたならば新たな観測画像情報を取得し、以後は、マッチング処理以降の手順を繰り返す。
一方、対応する課金位置が照合されなければ(図7 S105 N)、新たに観測画像情報を取得し、やはり新たな観測画像情報を取得し、以後は、マッチング処理以降の手順を繰り返す。
Next, the user vehicle 30 determines whether or not the specified position of the user vehicle 30 corresponds to the charging position (S105 in FIG. 7).
This determination is made by collating the specified position of the user vehicle 30 with the billing information read from the billing information database 23 of the host 20 by the data processing unit 33. If the corresponding billing location is verified (S105 Y in FIG. 7), the data processing unit 33 next performs billing processing (S107 in FIG. 7). The specific contents of the billing process are as described above. When the accounting process is completed, new observation image information is acquired, and thereafter, the procedure after the matching process is repeated.
On the other hand, if the corresponding billing position is not verified (S105 N in FIG. 7), the observation image information is newly acquired, the new observation image information is also acquired, and thereafter, the procedure after the matching process is repeated.

[課金処理システム1の効果]
以上説明したように、課金処理システム1は参照画像情報に対応して課金位置を設定しておくので、参照画像情報に位置情報を含む観測画像情報をマッチング処理することにより、課金位置を特定することができる。
したがって、課金処理システム1は、ユーザ車両30が走行中に通過する位置を基準にした課金を可能にする。しかも、課金処理システム1は、GPSに依存しないで課金位置を特定できるので、GPSの精度低下の影響を受けずに課金処理を行うことができる。また、トンネルの内部、地下道路といったGPSが利用できない領域であっても、例えば、文字、その他の情報をトンネルの壁面に描くことで、当該位置と他の位置とが、撮影した画像上で区別できるのであれば、課金処理を行うことができる。
また、課金処理システム1において特定される課金位置の精度は、参照画像情報及び観測画像情報の両者の画像情報の撮影条件、参照画像情報と観測画像情報のマッチング手法によって決まるが、この精度は既知と言える。これに対してGPSの精度は、GPS信号を取得する位置によって著しくばらつく。したがって、課金処理システム1によると、GPSを利用するのに比べて、課金の信頼性を担保できる。
[Effect of billing system 1]
As described above, since the charging processing system 1 sets the charging position corresponding to the reference image information, the charging position is specified by matching the observation image information including the position information with the reference image information. be able to.
Accordingly, the billing processing system 1 enables billing based on the position through which the user vehicle 30 passes while traveling. In addition, since the accounting processing system 1 can specify the accounting location without depending on the GPS, the accounting processing can be performed without being affected by the deterioration of the accuracy of GPS. Also, even in areas where GPS is not available, such as inside tunnels and underground roads, for example, characters and other information are drawn on the wall of the tunnel, so that the position and other positions can be distinguished on the captured image. If possible, billing processing can be performed.
In addition, the accuracy of the billing position specified in the billing processing system 1 is determined by the imaging conditions of the image information of both the reference image information and the observation image information, and the matching method of the reference image information and the observation image information. It can be said. On the other hand, the accuracy of GPS varies greatly depending on the position where the GPS signal is acquired. Therefore, according to the billing processing system 1, billing reliability can be ensured as compared to using the GPS.

[変更例]
以上、本発明による好適な実施形態を、課金処理システム1を例にして説明したが、本発明の主旨を逸脱しない範囲で課金処理システム1の構成を変更することができる。
例えば、課金処理システム1は、ユーザ車両30とは別体として遠隔地に存在するホスト20の記憶部21に参照画像所情報及び課金情報を記憶させているが、記憶媒体の容量が許すのであれば、ユーザ車両30に参照画像所情報及び課金情報を記憶させることもできる。
また、課金処理システム1は、ユーザ車両30において、マッチング処理及び課金処理を行っている。しかし、本発明は、ユーザ車両30にて撮影したユーザ車両30の周辺の画像である観測画像をホスト20に送信し、ホスト20にて観測画像の特徴化、マッチング処理及び課金処理を行うこともできる。つまり本発明は、ユーザ車両30をも含めた課金処理システム1の全体として、マッチング処理及び課金処理が行うことができればよい。
[Example of change]
The preferred embodiment of the present invention has been described above by taking the charging processing system 1 as an example. However, the configuration of the charging processing system 1 can be changed without departing from the gist of the present invention.
For example, the billing processing system 1 stores the reference image location information and billing information in the storage unit 21 of the host 20 that exists in a remote place as a separate body from the user vehicle 30, but the capacity of the storage medium is allowed. For example, the reference image place information and the billing information can be stored in the user vehicle 30.
Further, the billing processing system 1 performs matching processing and billing processing in the user vehicle 30. However, according to the present invention, an observation image that is an image around the user vehicle 30 captured by the user vehicle 30 is transmitted to the host 20, and the host 20 performs characterization of the observation image, matching processing, and billing processing. it can. That is, the present invention only needs to be able to perform matching processing and billing processing as a whole of the billing processing system 1 including the user vehicle 30.

また、課金処理システム1は、現状では課金位置に該当しない位置についても参照画像情報データベース22に記憶しているが、これにより後に課金位置を変更するのに迅速に対応することができる。例えば、現在は♯3が課金位置とされているが、後に、♯3から♯4に課金位置が変更される場合に、改めて♯4に対応する参照画像を撮影する必要がない。ただし、本発明は、課金位置に該当する観測画像情報だけを参照画像情報データベース22に記憶する対象にすることができる。この場合には、課金情報を観測画像情報に含めることもでき、課金情報データベース23を個別に設ける必要がなくなる。   The accounting processing system 1 also stores positions that do not correspond to the accounting position in the reference image information database 22 at present, but this makes it possible to respond quickly to changing the accounting position later. For example, # 3 is currently set as the charging position, but when the charging position is changed from # 3 to # 4 later, there is no need to take a reference image corresponding to # 4 again. However, according to the present invention, only the observation image information corresponding to the charging position can be stored in the reference image information database 22. In this case, the charging information can be included in the observation image information, and it is not necessary to provide the charging information database 23 individually.

また、課金処理システム1は、全ての参照画像情報を観測画像情報にマッチング処理する対象にしているが、参照画像情報データベース22に記憶されている一部の参照画像に絞ってマッチング処理を行うことができる。例えば、先行して特定された課金位置に基づいてユーザ車両30が次に通過しうるいくつかの課金位置を抽出し、抽出された課金位置に絞ってマッチング処理を行うことができる。例えば、課金位置として♯3が先行して特定されたものとし、道路の繋がり具合により、次に通過しうる課金位置が♯5、♯11及び♯14に限られるのであれば、♯5、♯11及び♯14に該当する参照画像情報だけに観測画像情報をマッチング処理することができる。また、ユーザ車両30がGPSに基づくカーナビゲーションシステムを備えている場合には、GPS信号により求められるユーザ車両30の自己位置に所定の距離関係を有する参照画像情報だけを参照画像情報データベース22から抽出して、マッチング処理の対象にすることができる。   In addition, the accounting processing system 1 targets all reference image information to be subjected to matching processing with observation image information, but performs matching processing only on a part of the reference images stored in the reference image information database 22. Can do. For example, it is possible to extract several billing positions that the user vehicle 30 can pass next based on the billing positions specified in advance, and to perform matching processing by focusing on the extracted billing positions. For example, if # 3 is specified in advance as the billing position, and if the billing position that can be passed next is limited to # 5, # 11, and # 14 due to road connection, # 5, # 11 The observation image information can be matched only to the reference image information corresponding to 11 and # 14. Further, when the user vehicle 30 includes a car navigation system based on GPS, only reference image information having a predetermined distance relationship with the self position of the user vehicle 30 obtained from the GPS signal is extracted from the reference image information database 22. Thus, it can be a target of matching processing.

[第2実施形態]
次に、本発明の第2実施形態について、図8〜図10を参照して説明する。
第1実施形態は、マッチング処理により特定される位置の精度が、参照画像が撮影される間隔に依存する。つまり、第1実施形態のように10m間隔で参照画像を撮影した場合には、得られる精度は最高でも±5mの範囲内に限られる。そこで、第2実施形態においては、参照画像の間隔よりも高い精度で位置を特定する手法を提案する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS.
In the first embodiment, the accuracy of the position specified by the matching process depends on the interval at which the reference image is captured. That is, when the reference images are photographed at intervals of 10 m as in the first embodiment, the obtained accuracy is limited to a range of ± 5 m at the maximum. Therefore, in the second embodiment, a method for specifying the position with higher accuracy than the interval between the reference images is proposed.

第2実施形態に係る課金処理システム2は、撮影車両10と、ホスト20と、車載器ユニットが搭載されるユーザ車両30とを備えるという基本的な構成を備える点で第1実施形態の課金処理システム1と共通する。そこで、以下では、課金処理システム1との相違点を中心に課金処理システム2を説明する。   The charging processing system 2 according to the second embodiment has the basic configuration of including the photographing vehicle 10, the host 20, and the user vehicle 30 on which the vehicle-mounted unit is mounted. Common to system 1. Therefore, the charging processing system 2 will be described below with a focus on differences from the charging processing system 1.

始めに、課金処理システム2の概要を、図8〜図9を参照して説明する。
課金処理システム2は、図8に示すように、マッチング処理(図7のS103に相当)において、観測画像情報が撮影された位置と参照画像情報が撮影された位置との相対的な位置関係を算出する(図8 S203)。この算出は、データ処理部33(図4)が以下のようにして行う。つまり、データ処理部33は、ホスト20の参照画像情報データベース22から記憶されている全ての参照画像情報♯1〜♯Nを取り込んで、撮影されたばかりの最新の観測画像情報をマッチングし、画像情報間の相対的な位置関係である距離△L1〜Nを算出する。そして、データ処理部33は、算出された距離△L1〜Nが最も小さい参照画像情報♯1〜♯Nを特定する。例えば、参照画像情報データベース22の参照画像情報♯3までの距離△L3が最も小さいと判断すれば、データ処理部33は自己の位置が、参照画像情報♯3が取得された位置(Lat1,Lon3)に最も近く、距離△L3だけ離れていることを特定する。データ処理部33は、自己の位置が近似する参照画像情報が特定されたならば、次に、課金情報データベース23を参照し、当該参照画像情報の位置と一致するデータの存在有無を確認する。ここでは、参照画像情報♯3に対応する位置(Lat1,Lon3)が課金情報データベース23に記憶されているので、データ処理部33は参照画像情報♯3は課金位置であることを認識するとともに、課金情報データベース23から対応する課金額を取得する。
First, an outline of the accounting processing system 2 will be described with reference to FIGS.
As shown in FIG. 8, the billing processing system 2 determines the relative positional relationship between the position where the observation image information is photographed and the position where the reference image information is photographed in the matching process (corresponding to S103 in FIG. 7). Calculate (S203 in FIG. 8). This calculation is performed by the data processing unit 33 (FIG. 4) as follows. That is, the data processing unit 33 takes in all the reference image information # 1 to #N stored from the reference image information database 22 of the host 20, matches the latest observed image information that has just been photographed, and obtains image information. Distances ΔL1 to N, which are relative positional relationships between them, are calculated. Then, the data processing unit 33 specifies reference image information # 1 to #N having the smallest calculated distances ΔL1 to ΔN. For example, if it is determined that the distance ΔL3 to the reference image information # 3 in the reference image information database 22 is the shortest, the data processing unit 33 determines that its position is the position (Lat1, Lon3) from which the reference image information # 3 is acquired. ) And the distance ΔL3 is specified. If the reference image information whose position is approximated is specified, the data processing unit 33 next refers to the billing information database 23 and confirms the presence / absence of data that matches the position of the reference image information. Here, since the position (Lat1, Lon3) corresponding to the reference image information # 3 is stored in the charging information database 23, the data processing unit 33 recognizes that the reference image information # 3 is the charging position, and The corresponding charge amount is acquired from the charge information database 23.

以上の相対位置関係の算出には、画像を用いて環境内におけるカメラの三次元移動を推定する処理であるエゴモーション(Ego-motion)推定を適用すればよい。ただし、以上の処理を行うためには、図10に示すように、参照画像情報としてスケール情報を備える必要がある。なお、図10は、課金情報データベース23及び顧客情報データベース24の記載を省略している。
スケール情報は、図11に示すように、参照画像情報に任意の二点A,Bを結ぶ線分の距離(実寸法:SA−Bとする)である。エゴモーション推定による相対位置関係の算出手法は、例えば非特許文献1に開示されるように公知であるので、詳細は省略するが、マッチング処理される観測画像情報であって、任意の二点A,Bに対応する二点a,bを結ぶ線分の実寸法Sa−bをSA−Bとみなすことにより、相対的な位置関係を算出できる。なお、図11において、Pは参照画像の撮影位置を示し、また、Dは観測画像の撮影位置を示している。
For the calculation of the relative positional relationship described above, ego-motion estimation, which is processing for estimating the three-dimensional movement of the camera in the environment using an image, may be applied. However, in order to perform the above processing, it is necessary to provide scale information as reference image information, as shown in FIG. In FIG. 10, the accounting information database 23 and the customer information database 24 are not shown.
As shown in FIG. 11, the scale information is a distance (actual dimension: S A-B ) of a line segment connecting any two points A and B to the reference image information. Since the relative positional relationship calculation method based on egomotion estimation is known as disclosed in Non-Patent Document 1, for example, the details are omitted, but it is observation image information to be subjected to matching processing, and two arbitrary points A , two points a corresponding to B, the line segment connecting the b the actual dimension S a-b by regarding the S a-B, it calculates a relative positional relationship. In FIG. 11, P indicates the shooting position of the reference image, and D indicates the shooting position of the observation image.

[第2実施形態の効果]
以上の通りであるから、第2実施形態によると、以下の効果を奏することができる。
はじめに、第2実施形態は、観測画像情報が撮影された位置と参照画像情報が撮影された位置との相対的な位置関係を算出するので、参照画像を撮影した間隔よりも高い精度で推定された位置に基づいて、課金位置を特定することができる。
また、例えば、ユーザ車両30が走行する車線が複数存在する場合に、参照画像を撮影した車線とユーザ車両30が走行する車線とが相違する場合であっても、相対的な位置関係を算出することで、高い精度で課金位置を特定することができる。
[Effects of Second Embodiment]
Since it is as above, according to 2nd Embodiment, there can exist the following effects.
First, in the second embodiment, the relative positional relationship between the position where the observed image information is captured and the position where the reference image information is captured is calculated. Therefore, the second embodiment is estimated with higher accuracy than the interval at which the reference image is captured. The billing location can be identified based on the location.
For example, when there are a plurality of lanes in which the user vehicle 30 travels, the relative positional relationship is calculated even when the lane in which the reference image is captured and the lane in which the user vehicle 30 travels are different. Thus, the billing location can be specified with high accuracy.

また、第2実施形態によると、参照画像情報の数を減らしたとしても、課金位置までの距離を推定できるので、撮影車両10で撮影し、かつ、ホスト20の参照画像情報データベース22に記憶する参照画像情報の数を減らすことができる。   Further, according to the second embodiment, even if the number of reference image information is reduced, the distance to the billing position can be estimated, so the image is taken with the photographing vehicle 10 and stored in the reference image information database 22 of the host 20. The number of reference image information can be reduced.

[第2実施形態の変更例]
以上で説明した第2実施形態による位置の推定の精度を、さらに向上することができる。以下、この手法を説明する。
この精度向上の手法は、画像マッチング処理において、複数の全方位画像を撮影した位置と、車載カメラとの相対位置関係を算出し、各時刻での相対位置として複数の情報を得る。得られた複数の情報を統合、典型的には平均化することで、各々の画像マッチング処理で発生した誤差の影響を低減するというものである。以下、図12を参照してより具体的に説明する。
[Modification Example of Second Embodiment]
The accuracy of position estimation according to the second embodiment described above can be further improved. Hereinafter, this method will be described.
This accuracy improvement method calculates a relative positional relationship between a position where a plurality of omnidirectional images are captured and an in-vehicle camera in an image matching process, and obtains a plurality of pieces of information as relative positions at each time. By integrating, typically averaging, a plurality of obtained information, the influence of errors generated in each image matching process is reduced. Hereinafter, a more specific description will be given with reference to FIG.

図12は、参照画像を撮影した位置が道路R上にP1,P2,P3,P4として示しており、この道路R上をユーザ車両30が走行しながら観測画像を撮影し、マッチング処理を行うものとする。ここでは、位置D1において撮影された観測画像$について処理する例を示す。
位置D1において撮影された観測画像と位置P1,P2,P3,P4の各々で撮影された参照画像との相対的位置関係を算出する。なお、位置P1,P2,P3,P4の各々の間隔は、正確にはα(例えば10m)とする。
FIG. 12 shows the positions at which the reference images are taken as P1, P2, P3, and P4 on the road R. The user vehicle 30 travels on the road R to take an observation image, and performs matching processing. And Here, an example of processing the observed image $ taken at the position D1 is shown.
The relative positional relationship between the observed image captured at the position D1 and the reference image captured at each of the positions P1, P2, P3, and P4 is calculated. In addition, each space | interval of position P1, P2, P3, P4 shall be (alpha) (for example, 10 m) correctly.

算出結果が、例えば図12に示すように、位置D1と位置P1の距離△L1、位置D1と位置P2の距離△L2、位置D1と位置P3の距離△L3、位置D1と位置P4の距離△L4として求められるものとする。上述したように、△L1だけで位置D1と位置P1の距離を推定することができるが、ここでは△L2、△L3及び△L4の算出結果も考慮して、位置D1と位置P1の距離△Lを算出する。そのために、下記式(1)に示すように、△L1に位置P1から位置P2,P3,P4の各々までの正確な距離(α,2α,3α)を差し引いた値を加えて平均化する。
△L=(△L1+(△L2−α)+(△L3−2α)+(△L4−3α))/4 …式(1)
For example, as shown in FIG. 12, the calculation result is a distance ΔL1 between the position D1 and the position P1, a distance ΔL2 between the position D1 and the position P2, a distance ΔL3 between the position D1 and the position P3, and a distance ΔL3 between the position D1 and the position P4. It shall be calculated | required as L4. As described above, the distance between the position D1 and the position P1 can be estimated only by ΔL1, but here, the distance Δ between the position D1 and the position P1 is also considered in consideration of the calculation results of ΔL2, ΔL3, and ΔL4. L is calculated. For this purpose, as shown in the following formula (1), ΔL1 is averaged by adding a value obtained by subtracting an accurate distance (α, 2α, 3α) from position P1 to each of positions P2, P3, P4.
ΔL = (ΔL1 + (ΔL2-α) + (ΔL3-2α) + (ΔL4-3α)) / 4 Formula (1)

以上のように平均化することにより、マッチング処理で発生する誤差の影響を低減できるので、第2実施形態における位置の推定精度をより向上できる。
なお、本発明において、単純に算術的に平均化するだけでなく、重み付けを適用することができる。重み付けは、例えば、距離が遠くなれば係数を小さくする、という具合であり、△L1、△L2、△L3及び△L4の項に乗ずる係数を順に小さくする。
By averaging as described above, the influence of errors generated in the matching process can be reduced, so that the position estimation accuracy in the second embodiment can be further improved.
In the present invention, weighting can be applied in addition to simple arithmetic averaging. The weighting is, for example, that the coefficient is decreased as the distance increases, and the coefficients multiplied by the terms ΔL1, ΔL2, ΔL3, and ΔL4 are sequentially decreased.

[第3実施形態]
次に、本発明の第3実施形態について、図13〜図16を参照して説明する。
第1実施形態及び第2実施形態は、「課金位置の風景」と最も類似する画像であることが、課金位置を通過した後にしか判明できない。その結果、ユーザ車両30が課金位置を通過した瞬間に、ユーザ車両30がこの通過を判断し、かつ課金処理することができない。
第3実施形態は、課金位置を通過した瞬間に課金処理を行うことができる手法を提供する。第3実施形態は、第1の手法と第2の手法の二つの手法を提案する。
第1の手法は、第2実施形態で用いた参照画像情報と観測画像情報に基づいて、ユーザ車両30の課金位置までの距離を時系列的に算出することにより、ユーザ車両30が課金位置を通過する時刻を予測する。第2の手法は、ユーザ車両30で撮影された観測画像から、ユーザ車両30の走行速度を算出することにより、ユーザ車両30が課金位置を通過する時刻を予測する。以下、第1の手法、第2の手法の順で説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIGS.
In the first embodiment and the second embodiment, it is possible to determine that the image is most similar to “the scenery of the charging position” only after passing through the charging position. As a result, at the moment when the user vehicle 30 passes the billing position, the user vehicle 30 cannot determine the passage and perform billing processing.
The third embodiment provides a method capable of performing charging processing at the moment when the charging position is passed. The third embodiment proposes two methods, a first method and a second method.
The first method calculates the distance to the charging position of the user vehicle 30 in a time series based on the reference image information and the observation image information used in the second embodiment, so that the user vehicle 30 determines the charging position. Predict the time to pass. The second method predicts the time when the user vehicle 30 passes through the charging position by calculating the traveling speed of the user vehicle 30 from the observed image captured by the user vehicle 30. Hereinafter, the first method and the second method will be described in this order.

[第1の手法]
第1の手法は、課金位置が特定されている参照画像情報と観測画像情報をマッチング処理することにより、ユーザ車両30の相対的な位置関係を算出する。相対的な位置関係の算出は、第2実施形態と同様にして行う。この相対位置関係を算出すると、課金位置Pの手前の地点においては、課金位置Pまでの距離が算出できる。この処理を時系列的に行うと、課金位置Pまでの距離の時系列変化が算出できるが、この時系列変化を外挿すると、課金位置Pに達する前に、当該ユーザ車両30が課金位置Pを通過する時刻を予測できる。したがって、この予測通過時刻を用いることにより、ユーザ車両30は課金位置Pを通過した瞬間に課金処理を行うことが可能となる。以下、図13及び図14を参照して、第1の手法をより具体的に説明する。
[First method]
In the first method, the relative positional relationship of the user vehicle 30 is calculated by performing a matching process on the reference image information in which the charging position is specified and the observed image information. The calculation of the relative positional relationship is performed in the same manner as in the second embodiment. When this relative positional relationship is calculated, the distance to the charging position P can be calculated at a point before the charging position P. When this process is performed in time series, the time series change of the distance to the charging position P can be calculated. However, when this time series change is extrapolated, the user vehicle 30 is connected to the charging position P before reaching the charging position P. The time to pass can be predicted. Therefore, by using this predicted passage time, the user vehicle 30 can perform billing processing at the moment when it passes the billing position P. Hereinafter, the first method will be described more specifically with reference to FIGS. 13 and 14.

第1の手法に係る課金処理システム3−1は、撮影車両10と、ホスト20と、車載器ユニットが搭載されるユーザ車両30とを備えるという基本的な構成を備える点で第1実施形態の課金処理システム1と共通する。そこで、以下では、課金処理システム1との相違点、つまり図14に示される手順のS205,S206に関する処理を中心に課金処理システム3−1を説明する。   The billing processing system 3-1 according to the first method is the same as that of the first embodiment in that it includes a basic configuration that includes a photographing vehicle 10, a host 20, and a user vehicle 30 on which an onboard unit is mounted. Common with the accounting processing system 1. Therefore, in the following, the charging processing system 3-1 will be described focusing on the differences from the charging processing system 1, that is, the processes related to S205 and S206 in the procedure shown in FIG.

図13(a)に示すように、課金位置Pに向ってユーザ車両30が道路上を走行し、ユーザ車両30の観測画像取得部31が継続的に周囲の風景を撮影しているものとする。そして仮に、道路R上の観測位置D1,D2,D3,D4において撮影した風景に基づく観測画像情報($1〜$4)と課金位置Pに基づく観測画像情報(♯N)とのマッチング処理を順に行うものとする。このマッチング処理は、データ処理部33が行う。
このマッチング処理により、観測位置D1と課金位置Pの相対的位置関係を算出し、次いで、観測位置D1と課金位置Pの間の距離△L1を求める。これを、横軸が時間、縦軸が距離のグラフ上に示すと、図13(b)の通りである。
同様にして、観測位置D2と課金位置Pの間の距離△L2、観測位置D3と課金位置Pの間の距離△L3、観測位置D4と課金位置Pの間の距離△L4を時系列的に求める。そうすると、課金位置Pまでの距離の時系列変化が求められ、それらを順に外挿すると、図13(c),(d),(e)の白抜き矢印にて示ように、課金位置Pを通過する時刻を事前に予測することができる。
As shown in FIG. 13A, it is assumed that the user vehicle 30 travels on the road toward the charging position P, and the observation image acquisition unit 31 of the user vehicle 30 continuously shoots the surrounding scenery. . Then, suppose that the matching processing between the observation image information ($ 1 to $ 4) based on the scenery photographed at the observation positions D1, D2, D3, and D4 on the road R and the observation image information (#N) based on the charging position P is performed. It shall be performed in order. This matching process is performed by the data processing unit 33.
By this matching process, the relative positional relationship between the observation position D1 and the charging position P is calculated, and then the distance ΔL1 between the observation position D1 and the charging position P is obtained. FIG. 13B shows this on a graph in which the horizontal axis represents time and the vertical axis represents distance.
Similarly, a distance ΔL2 between the observation position D2 and the charging position P, a distance ΔL3 between the observation position D3 and the charging position P, and a distance ΔL4 between the observation position D4 and the charging position P are time-sequentially. Ask. Then, a time series change of the distance to the charging position P is obtained, and when these are extrapolated in order, the charging position P is set as shown by the white arrows in FIGS. 13 (c), (d), and (e). The passing time can be predicted in advance.

図13(b)〜(e)に示すように、ユーザ車両30の走行に伴って、観測位置D1,D2,D3,D4に順に達する度に、課金位置Pを通過する時刻の事前予測を更新する。ただし、本発明は、予測の更新を必須とするものではなく、課金位置Pに対して特定の観測位置だけ、例えば、課金位置Pに近い観測位置D4においてのみ課金位置Pを通過する時刻の予測を行うこともできる。もっとも、課金位置Pに近い領域において、ユーザ車両30の走行速度の変動が大きいこともあり得るために、ある程度の期間にわたって時系列変化を観察し、この変化を考慮して課金位置Pを通過する時刻を予測することが好ましい。   As shown in FIGS. 13B to 13E, as the user vehicle 30 travels, the advance prediction of the time of passing the charging position P is updated each time the observation positions D1, D2, D3, D4 are reached in order. To do. However, the present invention does not necessarily require the updating of the prediction, and the prediction of the time that passes the charging position P only at a specific observation position with respect to the charging position P, for example, only at the observation position D4 close to the charging position P. Can also be done. Of course, in the region close to the charging position P, the fluctuation of the traveling speed of the user vehicle 30 may be large. Therefore, a time series change is observed over a certain period, and the charging position P is passed in consideration of this change. It is preferable to predict the time.

[第2の手法]
第2の手法は、ユーザ車両30の課金位置Pまでの距離を算出し、かつ、ユーザ車両30が課金位置Pの通過時刻を予測する点で第1の手法と共通する。しかし、第2の手法は、この予測にユーザ車両の走行速度を用いる。
[Second method]
The second method is common to the first method in that the distance to the charging position P of the user vehicle 30 is calculated and the user vehicle 30 predicts the passing time of the charging position P. However, the second method uses the traveling speed of the user vehicle for this prediction.

第2の手法に係る課金処理システム3−2は、撮影車両10と、ホスト20と、車載器ユニットが搭載されるユーザ車両30とを備えるという基本的な構成を備える点で課金処理システム3−1と共通する。そこで、以下では、課金処理システム3−1との相違点、つまり図16に示される手順のS202,S204,S205に関する処理を中心に課金処理システム3−2を説明する。   The billing processing system 3-2 according to the second method is a billing processing system 3-3 in that it has a basic configuration including a photographing vehicle 10, a host 20, and a user vehicle 30 on which an onboard unit is mounted. 1 and common. Therefore, in the following, the charging processing system 3-2 will be described focusing on the differences from the charging processing system 3-1, that is, the processes related to S202, S204, and S205 in the procedure shown in FIG.

図15(a)に示すように、課金位置Pに向ってユーザ車両30が道路上を走行し、ユーザ車両30の観測画像取得部31が継続的に周囲の風景を撮影しているものとする。そして仮に、道路上の観測位置D1,D2,D3,D4において撮影した風景に基づく観測画像情報($1〜$4)と課金位置Pにおける基づく観測画像情報(♯N)とのマッチング処理を順に行うものとする。このマッチング処理は、データ処理部33が行う。
このマッチング処理により、第1の手法と同様にして、観測位置D1と課金位置Pの間の距離△L1、観測位置D2と課金位置Pの間の距離△L2、観測位置D3と課金位置Pの間の距離△L3、観測位置D4と課金位置Pの間の距離△L4を時系列的に求める。
As shown in FIG. 15A, it is assumed that the user vehicle 30 travels on the road toward the charging position P, and the observation image acquisition unit 31 of the user vehicle 30 continuously shoots the surrounding scenery. . Then, suppose that the matching processing between the observation image information ($ 1 to $ 4) based on the scenery photographed at the observation positions D1, D2, D3, and D4 on the road and the observation image information (#N) based on the charging position P is sequentially performed. Assumed to be performed. This matching process is performed by the data processing unit 33.
By this matching process, the distance ΔL1 between the observation position D1 and the charge position P, the distance ΔL2 between the observation position D2 and the charge position P, the observation position D3 and the charge position P, as in the first method. A distance ΔL3 between them, and a distance ΔL4 between the observation position D4 and the charging position P are obtained in time series.

以上の距離の算出と並行して、データ処理部33は、連続的に撮影される観測画像から、ユーザ車両30の走行速度vを算出する。この走行速度vは、例えばビジュアルオドメトリ(Visual Odometry)により算出することができる。ビジュアルオドメトリにより算出される走行速度vの精度を向上するために、参照画像取得部11を設けてステレオ画像を撮影することもできる。また、走行速度vは、観測画像から求める他に、ユーザ車両30が備える機器、例えば、加速度センサ、エンコーダにより得られる速度を用いることもできる。
データ処理部33は、観測位置D1における走行速度v1、観測位置D2における走行速度v2、観測位置D3における走行速度v3及び観測位置D4における走行速度v4を時系列的に求める。
In parallel with the above calculation of the distance, the data processing unit 33 calculates the traveling speed v of the user vehicle 30 from the observed images taken continuously. This traveling speed v can be calculated by, for example, visual odometry. In order to improve the accuracy of the traveling speed v calculated by visual odometry, a reference image acquisition unit 11 can be provided to capture a stereo image. In addition to obtaining from the observation image, the traveling speed v can also be a speed obtained by a device provided in the user vehicle 30, for example, an acceleration sensor or an encoder.
The data processing unit 33 obtains the traveling speed v1 at the observation position D1, the traveling speed v2 at the observation position D2, the traveling speed v3 at the observation position D3, and the traveling speed v4 at the observation position D4 in time series.

データ処理部33は、算出される距離△L1と走行速度v1を、カルマンフィルタ(Kalman filter)等の確率的なモデルを用いて融合して、課金位置Pを通過する時刻を事前に予測することができる。
同様にして、観測位置D2、観測位置D3及び観測位置D4において、図15(c),(d),(e)に示すように、課金位置Pを通過する時刻を事前に予測することができる。
The data processing unit 33 can predict the time of passing the charging position P in advance by fusing the calculated distance ΔL1 and the traveling speed v1 using a stochastic model such as a Kalman filter. it can.
Similarly, at the observation position D2, the observation position D3, and the observation position D4, as shown in FIGS. 15 (c), (d), and (e), it is possible to predict in advance the time of passing the charging position P. .

図15(b)〜(e)に示すように、ユーザ車両30の走行に伴って、観測位置D1,D2,D3,D4に順に達する度に、課金位置Pを通過する時刻の事前予測を更新する。ただし、本発明は、予測の更新を必須とするものではなく、課金位置Pに対して特定の観測位置だけ、例えば、課金位置Pに近い観測位置D4においてのみ課金位置Pを通過する時刻の予測を行うこともできる。もっとも、課金位置Pに近い領域において、ユーザ車両30の走行速度の変動が大きいこともあり得るために、ある程度の期間にわたって時系列変化を観察し、この変化を考慮して課金位置Pを通過する時刻を予測することが好ましい。   As shown in FIGS. 15 (b) to 15 (e), every time the observation positions D1, D2, D3, and D4 are reached in order as the user vehicle 30 travels, the advance prediction of the time passing through the charging position P is updated. To do. However, the present invention does not necessarily require the updating of the prediction, and the prediction of the time that passes the charging position P only at a specific observation position with respect to the charging position P, for example, only at the observation position D4 close to the charging position P. Can also be done. Of course, in the region close to the charging position P, the fluctuation of the traveling speed of the user vehicle 30 may be large. Therefore, a time series change is observed over a certain period, and the charging position P is passed in consideration of this change. It is preferable to predict the time.

課金処理システム3−2は、通過時刻の予測に当たり、ユーザ車両30の走行速度vを用いる。走行速度vは、走行距離が長ければ大きく変動しうるが、課金位置Pを含む比較的短距離であれば、変動が小さいとみなすことができるので、通過時刻を予測することができる。走行速度vは、所定期間の平均走行速度を用いることができる。例えば、観測位置D1において適用する走行速度v1は、観測位置D1に達するまでの所定期間における走行速度vの平均値、観測位置D2において適用する走行速度v2は、観測位置D1と観測位置D2の間の走行速度の平均値、というように設定することができる。なお、ユーザ車両30の走行速度vは、通常、カーナビゲーションシステムが測定しかつ記録しているので、そのデータを使用してもよい。   The billing processing system 3-2 uses the traveling speed v of the user vehicle 30 in predicting the passage time. The traveling speed v can vary greatly if the traveling distance is long, but if the traveling speed v is a relatively short distance including the charging position P, it can be considered that the variation is small, so that the passage time can be predicted. As the traveling speed v, an average traveling speed for a predetermined period can be used. For example, the traveling speed v1 applied at the observation position D1 is the average value of the traveling speed v in a predetermined period until reaching the observation position D1, and the traveling speed v2 applied at the observation position D2 is between the observation position D1 and the observation position D2. It is possible to set the average value of the traveling speed of Note that the traveling speed v of the user vehicle 30 is usually measured and recorded by the car navigation system, so that data may be used.

以上、本発明の好ましい実施形態を説明したが、本発明の主旨を逸脱しない限り、上記実施の形態で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。
例えば、ユーザ車両30が備えるデータ処理部33、課金処理部35の機能をホスト20に持たせることもできる。逆に、ホスト20のデータ処理部25の機能をユーザ車両30に持たせることができる。
The preferred embodiments of the present invention have been described above. However, the configuration described in the above embodiments can be selected or changed to other configurations as appropriate without departing from the gist of the present invention. .
For example, the host 20 can have the functions of the data processing unit 33 and the charging processing unit 35 provided in the user vehicle 30. Conversely, the user vehicle 30 can be provided with the function of the data processing unit 25 of the host 20.

1 課金処理システム
10 撮影車両
11 参照画像取得部
13 測位部
15 参照画像記憶部
17 送受信部
20 サーバ
21 記憶部
22 参照画像情報データベース
23 課金情報データベース
24 顧客情報データベース
25 データ処理部
27 送受信部
30 ユーザ車両
31 観測画像取得部
33 データ処理部
35 課金処理部
37 送受信部
R 道路
Z 課金対象領域
DESCRIPTION OF SYMBOLS 1 Charge processing system 10 Shooting vehicle 11 Reference image acquisition part 13 Positioning part 15 Reference image storage part 17 Transmission / reception part 20 Server 21 Storage part 22 Reference image information database 23 Charge information database 24 Customer information database 25 Data processing part 27 Transmission / reception part 30 User Vehicle 31 Observation image acquisition unit 33 Data processing unit 35 Charge processing unit 37 Transmission / reception unit R Road Z Chargeable area

Claims (14)

ユーザ車両が道路を走行する際に課金処理を行う課金処理システムであって、
前記道路上に設定される複数の課金位置に関連して予め取得された参照画像を記憶する参照画像記憶部と、
前記ユーザ車両に設けられ、前記ユーザ車両が走行する前記道路の周囲の風景を撮影して観測画像を取得する観測画像取得部と、
記憶されている前記参照画像と新たに取得された前記観測画像を画像マッチングするデータ処理部と、
前記データ処理部における前記画像マッチングの結果に基づいて、前記ユーザ車両に課金処理を行う課金処理部と、
を備えることを特徴とする、課金処理システム。
A charging processing system that performs charging processing when a user vehicle travels on a road,
A reference image storage unit that stores reference images acquired in advance in association with a plurality of charging positions set on the road;
An observation image acquisition unit that is provided in the user vehicle and acquires an observation image by photographing a landscape around the road on which the user vehicle runs;
A data processing unit that performs image matching between the stored reference image and the newly acquired observation image;
A charging processing unit for charging the user vehicle based on the result of the image matching in the data processing unit;
A billing processing system comprising:
前記データ処理部は、
選択された前記参照画像について新たに取得された前記観測画像と前記画像マッチングする、
請求項1に記載の課金処理システム。
The data processing unit
The image matching with the observation image newly acquired for the selected reference image is performed.
The accounting processing system according to claim 1.
前記データ処理部は、
前記参照画像と前記観測画像の類似度を前記画像マッチングにより求め、
前記課金処理部は、
前記類似度に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
請求項1又は請求項2に記載の課金処理システム。
The data processing unit
Obtaining the similarity between the reference image and the observed image by the image matching;
The billing processing unit
Charging processing is performed at the charging position corresponding to the reference image based on the similarity;
The billing processing system according to claim 1 or 2.
前記データ処理部は、
前記画像マッチングされる前記参照画像と前記観測画像について、当該参照画像が撮影された位置と当該観測画像が撮影された位置との相対的な位置関係を推定し、
前記課金処理部は、
前記推定の結果に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
請求項1又は請求項2に記載の課金処理システム。
The data processing unit
With respect to the reference image and the observation image to be image-matched, a relative positional relationship between a position where the reference image is captured and a position where the observation image is captured is estimated,
The billing processing unit
Based on the estimation result, charging processing is performed at the charging position corresponding to the reference image.
The billing processing system according to claim 1 or 2.
前記データ処理部は、
前記参照画像と前記観測画像に基づいて、当該参照画像に対応する前記課金位置を前記ユーザ車両が通過する通過予測時刻を求め、
前記課金処理部は、
前記通過予測時刻に前記ユーザ車両に課金処理を行う、
請求項1〜請求項4のいずれか一項に記載の課金処理システム。
The data processing unit
Based on the reference image and the observation image, obtain a predicted passage time when the user vehicle passes through the charging position corresponding to the reference image,
The billing processing unit
The user vehicle is charged at the estimated passage time.
The billing processing system according to any one of claims 1 to 4.
前記データ処理部は、
前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係に基づいて算出される前記課金位置までの距離に基づいて、前記通過予測時刻を求める、
請求項5に記載の課金処理システム。
The data processing unit
The estimated passage time is obtained based on a distance to the charging position calculated based on a relative positional relationship between the position where the reference image corresponding to the charging position is captured and the position where the observation image is captured. ,
The billing processing system according to claim 5.
前記データ処理部は、
前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係と、前記ユーザ車両の走行速度に基づいて、前記通過予測時刻を求める、
請求項5又は6に記載の課金処理システム。
The data processing unit
Obtaining the predicted passage time based on a relative positional relationship between a position where the reference image corresponding to the charging position is photographed and a position where the observation image is photographed, and a traveling speed of the user vehicle;
The billing processing system according to claim 5 or 6.
ユーザ車両が道路を走行する際に課金処理を行う、前記ユーザ車両に搭載される車載器であって、
前記道路上に設定される複数の課金位置に関連して予め取得された参照画像と、前記ユーザ車両が走行する前記道路の周囲の風景を撮影した観測画像と、を画像マッチングするデータ処理部と、
前記データ処理部における前記画像マッチングの結果に基づいて、前記ユーザ車両に課金処理を行う課金処理部と、
を備えることを特徴とする、車載器。
An on-vehicle device mounted on the user vehicle that performs billing processing when the user vehicle travels on a road,
A data processing unit that performs image matching between a reference image acquired in advance in association with a plurality of billing positions set on the road and an observation image obtained by photographing a landscape around the road on which the user vehicle travels; ,
A charging processing unit for charging the user vehicle based on the result of the image matching in the data processing unit;
A vehicle-mounted device comprising:
前記データ処理部は、
選択された前記参照画像について新たに取得された前記観測画像と前記画像マッチングする、
請求項8に記載の車載器。
The data processing unit
The image matching with the observation image newly acquired for the selected reference image is performed.
The vehicle-mounted device according to claim 8.
前記データ処理部は、
前記参照画像と前記観測画像の類似度を前記画像マッチングにより求め、
前記課金処理部は、
前記類似度に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
請求項8又は請求項9に記載の車載器。
The data processing unit
Obtaining the similarity between the reference image and the observed image by the image matching;
The billing processing unit
Charging processing is performed at the charging position corresponding to the reference image based on the similarity;
The vehicle-mounted device according to claim 8 or 9.
前記データ処理部は、
前記画像マッチングされる前記参照画像と前記観測画像について、当該参照画像が撮影された位置と当該観測画像が撮影された位置との相対的な位置関係を推定し、
前記課金処理部は、
前記推定の結果に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
請求項8又は請求項9に記載の車載器。
The data processing unit
With respect to the reference image and the observation image to be image-matched, a relative positional relationship between a position where the reference image is captured and a position where the observation image is captured is estimated,
The billing processing unit
Based on the estimation result, charging processing is performed at the charging position corresponding to the reference image.
The vehicle-mounted device according to claim 8 or 9.
前記データ処理部は、
前記参照画像と前記観測画像に基づいて、当該参照画像に対応する前記課金位置を前記ユーザ車両が通過する通過予測時刻を求め、
前記課金処理部は、
前記通過予測時刻に前記ユーザ車両に課金処理を行う、
請求項8〜請求項11のいずれか一項に記載の車載器。
The data processing unit
Based on the reference image and the observation image, obtain a predicted passage time when the user vehicle passes through the charging position corresponding to the reference image,
The billing processing unit
The user vehicle is charged at the estimated passage time.
The vehicle-mounted device according to any one of claims 8 to 11.
前記データ処理部は、
前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係に基づいて算出される前記課金位置までの距離に基づいて、前記通過予測時刻を求める、
請求項12に記載の車載器。
The data processing unit
The estimated passage time is obtained based on a distance to the charging position calculated based on a relative positional relationship between the position where the reference image corresponding to the charging position is captured and the position where the observation image is captured. ,
The vehicle-mounted device according to claim 12.
前記データ処理部は、
前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係と、前記ユーザ車両の走行速度に基づいて、前記通過予測時刻を求める、
請求項12又は13に記載の車載器。
The data processing unit
Obtaining the predicted passage time based on a relative positional relationship between a position where the reference image corresponding to the charging position is photographed and a position where the observation image is photographed, and a traveling speed of the user vehicle;
The vehicle-mounted device according to claim 12 or 13.
JP2014183070A 2014-09-09 2014-09-09 Billing system Active JP5980283B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014183070A JP5980283B2 (en) 2014-09-09 2014-09-09 Billing system
MYPI2015703674A MY175964A (en) 2014-09-09 2015-02-03 Charging processing system
SG11201508484QA SG11201508484QA (en) 2014-09-09 2015-02-03 Charging processing system
PCT/JP2015/000472 WO2016038755A1 (en) 2014-09-09 2015-02-03 Billing processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014183070A JP5980283B2 (en) 2014-09-09 2014-09-09 Billing system

Publications (2)

Publication Number Publication Date
JP2016057801A true JP2016057801A (en) 2016-04-21
JP5980283B2 JP5980283B2 (en) 2016-08-31

Family

ID=55458538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014183070A Active JP5980283B2 (en) 2014-09-09 2014-09-09 Billing system

Country Status (4)

Country Link
JP (1) JP5980283B2 (en)
MY (1) MY175964A (en)
SG (1) SG11201508484QA (en)
WO (1) WO2016038755A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020039938A1 (en) * 2018-08-24 2020-02-27 日本電信電話株式会社 Lane pricing system, lane pricing device, method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010204756A (en) * 2009-02-27 2010-09-16 Mitsubishi Heavy Ind Ltd Charging system, charging method, external device, and program
JP2013061270A (en) * 2011-09-14 2013-04-04 Mitsubishi Electric Corp Present position calculation device and present position calculation method
JP2014092986A (en) * 2012-11-05 2014-05-19 Mitsubishi Heavy Ind Ltd Accounting processing system, accounting processing method, accounting processing device, program, and recording medium
WO2014129501A1 (en) * 2013-02-22 2014-08-28 三菱重工業株式会社 Passage detection system, passage detection method, passage detection device, program, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010204756A (en) * 2009-02-27 2010-09-16 Mitsubishi Heavy Ind Ltd Charging system, charging method, external device, and program
JP2013061270A (en) * 2011-09-14 2013-04-04 Mitsubishi Electric Corp Present position calculation device and present position calculation method
JP2014092986A (en) * 2012-11-05 2014-05-19 Mitsubishi Heavy Ind Ltd Accounting processing system, accounting processing method, accounting processing device, program, and recording medium
WO2014129501A1 (en) * 2013-02-22 2014-08-28 三菱重工業株式会社 Passage detection system, passage detection method, passage detection device, program, and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020039938A1 (en) * 2018-08-24 2020-02-27 日本電信電話株式会社 Lane pricing system, lane pricing device, method, and program
CN112602122A (en) * 2018-08-24 2021-04-02 日本电信电话株式会社 Lane pricing system, lane pricing device, lane pricing method, and lane pricing program
JPWO2020039938A1 (en) * 2018-08-24 2021-08-26 日本電信電話株式会社 Lane pricing systems, lane pricing equipment, methods and programs
JP7047920B2 (en) 2018-08-24 2022-04-05 日本電信電話株式会社 Lane pricing systems, lane pricing equipment, methods and programs
CN112602122B (en) * 2018-08-24 2023-08-11 日本电信电话株式会社 Lane pricing device, method, and recording medium
US12051279B2 (en) 2018-08-24 2024-07-30 Nippon Telegraph And Telephone Corporation Lane pricing system, lane pricing device, method, and program

Also Published As

Publication number Publication date
MY175964A (en) 2020-07-16
SG11201508484QA (en) 2016-04-28
JP5980283B2 (en) 2016-08-31
WO2016038755A1 (en) 2016-03-17

Similar Documents

Publication Publication Date Title
US10267924B2 (en) Systems and methods for using a sliding window of global positioning epochs in visual-inertial odometry
US10240934B2 (en) Method and system for determining a position relative to a digital map
US20180154901A1 (en) Method and system for localizing a vehicle
US11915440B2 (en) Generation of structured map data from vehicle sensors and camera arrays
US9275458B2 (en) Apparatus and method for providing vehicle camera calibration
KR101921429B1 (en) Method and system for making precise map
US11002553B2 (en) Method and device for executing at least one measure for increasing the safety of a vehicle
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
JP6759175B2 (en) Information processing equipment and information processing system
JP2008249666A (en) Vehicle position specifying device and vehicle position specifying method
JP6395010B2 (en) Information provision system for billing location evaluation
CN113316706A (en) Landmark position estimation apparatus and method, and computer-readable recording medium storing computer program programmed to execute the method
JP2019016188A (en) Moving entity remote control system and moving entity remote control method
KR102037129B1 (en) Apparatus and Method for Compensating Position of Vehicle, System for Compensating Position of Vehicle and Unmanned Vehicle Using the Same
US11436843B2 (en) Lane mapping and localization using periodically-updated anchor frames
JP2009074861A (en) Travel measuring device and position measuring device
JP2018189457A (en) Information processing device
JP5980283B2 (en) Billing system
JP2021043486A (en) Position estimating device
WO2023037570A1 (en) On-board processing device, vehicle control device, and self-position estimation method
RU2772620C1 (en) Creation of structured map data with vehicle sensors and camera arrays
CN118089754A (en) Method and computing unit for creating a road traffic network map representation for vehicle navigation
CN111157015A (en) Method and system for creating path information
CN117405071A (en) Intelligent rail station-entering pose measurement method based on visual sensing, storage medium and system
KR20110075119A (en) Blackbox for vehicle and control method thereof

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160726

R151 Written notification of patent or utility model registration

Ref document number: 5980283

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151