JP2016057801A - Charging processing system - Google Patents
Charging processing system Download PDFInfo
- Publication number
- JP2016057801A JP2016057801A JP2014183070A JP2014183070A JP2016057801A JP 2016057801 A JP2016057801 A JP 2016057801A JP 2014183070 A JP2014183070 A JP 2014183070A JP 2014183070 A JP2014183070 A JP 2014183070A JP 2016057801 A JP2016057801 A JP 2016057801A
- Authority
- JP
- Japan
- Prior art keywords
- charging
- reference image
- processing unit
- image
- billing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07B—TICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
- G07B13/00—Taximeters
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Devices For Checking Fares Or Tickets At Control Points (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Charge And Discharge Circuits For Batteries Or The Like (AREA)
Abstract
Description
本発明は、道路を走行する車両に課金処理するシステムに関し、特に任意の位置で課金することのできるシステムに関する。 The present invention relates to a system for charging a vehicle traveling on a road, and more particularly to a system capable of charging at an arbitrary position.
DSRC(Dedicated Short Range Communication)方式のERP(Electronic Road Pricing)システムに続くシステムとしては、車両の走行位置に対応、つまり走行距離に対応して課金するシステムが有望視されている。そのためには、±10m程度の精度で課金を行い、ドライバに対して課金の事実をリアルタイムに通知することが望まれている。車両の走行位置を特定するには、GPS(Global Positioning System)を用いることができる。 As a system following the ERC (Electronic Loading Pricing) system of the DSRC (Dedicated Short Range Communication) system, a system that charges according to the travel position of the vehicle, that is, the travel distance, is promising. For this purpose, it is desired to charge with an accuracy of about ± 10 m and notify the driver of the fact of charging in real time. GPS (Global Positioning System) can be used to specify the traveling position of the vehicle.
ところが、このGPSによる測位手段を、ERPの対象地域となる高層ビルが立ち並ぶ市街地に適用しようとすると、ビルや高架によりGPS信号が遮断されたり、また、GPS信号が乱反射したりするマルチパスの問題に直面する。そのため、一般に、高層な構造物が多い市街地においては、GPSの本来の測位精度を得ることが困難であり、課金位置にズレが生じたり誤った金額で課金がなされたりする恐れがある。また、GPSの測位精度の低下は、衛星配置や大気の状態等によっても、不特定な状況で発生し、誤差の大きさも時間的に変動する。そのため、GPSだけでは、課金位置の精度や、課金の信頼性を担保するのが難しい。 However, when this GPS positioning means is applied to an urban area where high-rise buildings that are the target areas of ERP are lined up, the GPS signal is blocked by the building or the overhead, or the GPS signal is irregularly reflected. To face. Therefore, in general, in an urban area where there are many high-rise structures, it is difficult to obtain the original positioning accuracy of GPS, and there is a possibility that the charging position may be shifted or charged with an incorrect amount. In addition, a decrease in GPS positioning accuracy occurs in an unspecified situation depending on the satellite arrangement, atmospheric conditions, and the like, and the magnitude of the error also varies with time. Therefore, it is difficult to ensure the accuracy of the billing position and the reliability of billing only with GPS.
高層ビル街でのGPSの精度低下に対応するために、例えばジャイロ、加速度センサによって補償すること、あるいは、地図情報を用いて道路上に位置を補正することが想定される。例えば、特許文献1は、環境に起因して発生する測位誤差に関する情報を用いて補正して、車両の位置を特定する提案を行っている。GPS精度が低下した場合でも、ある程度の期間はジャイロや加速度センサによって精度が維持されるが、この補正はジャイロや加速度センサの値を積分することを伴うために、時間の経過とともに誤差が拡大してしまう。
また、高性能な車速パルス、高性能なジャイロなどの測位用の機器を用いて、GPSが途絶した場合でも慣性航法によって自己位置を推定することも可能である。ところが、これらの機器は、民間のユーザ車両に取付けるには高額すぎる。
In order to cope with a decrease in the accuracy of GPS in a high-rise building area, for example, it is assumed that compensation is performed by a gyroscope or an acceleration sensor, or that the position is corrected on the road using map information. For example,
In addition, it is possible to estimate the self-position by inertial navigation even when the GPS is interrupted by using a positioning device such as a high-performance vehicle speed pulse or a high-performance gyroscope. However, these devices are too expensive to install in private user vehicles.
したがって、GPSに頼ることなく、しかも高額な機器を取り付けることなく、走行している車両の位置を特定できることが、車両の走行位置に対応して課金するシステムにとって望ましい。例えば、特許文献2には、移動体の現在位置における周囲の画像(観測画像)と、所定の地点に関連して予め用意された画像(参照画像)を、画像マッチングにより照合し、この結果に基づき、移動体の現在位置を算出することを提案している。
Therefore, it is desirable for a system that charges according to the traveling position of the vehicle to be able to specify the position of the traveling vehicle without relying on GPS and without attaching expensive equipment. For example, in
ところが、特許文献2は、車両の現在位置を特定できるものの、車両に課金するシステムについて示唆していない。
そこで本発明は、走行中の車両から取得できる観測画像と予め記憶された参照画像を照合する手法を用いて、任意の位置で車両に課金できるシステムを提供することを目的とする。
However,
Therefore, an object of the present invention is to provide a system that can charge a vehicle at an arbitrary position by using a method of collating an observation image that can be acquired from a traveling vehicle with a reference image stored in advance.
かかる目的のもと、本発明の課金処理システムは、ユーザ車両が道路を走行する際に課金処理を行う課金処理システムであって、道路上に設定される複数の課金位置に関連して予め取得された参照画像を記憶する参照画像記憶部と、ユーザ車両に設けられ、ユーザ車両が走行する特定道路の周囲の風景を撮影して観測画像を取得する観測画像取得部と、記憶されている参照画像と新たに取得された観測画像を画像マッチングするデータ処理部と、データ処理部における画像マッチングの結果に基づいて、ユーザ車両に課金処理を行う課金処理部と、を備えることを特徴としている。 For this purpose, the billing processing system of the present invention is a billing processing system that performs billing processing when a user vehicle travels on a road, and is acquired in advance in association with a plurality of billing positions set on the road. A reference image storage unit that stores the reference image, an observation image acquisition unit that is provided in the user vehicle and that captures a landscape around a specific road on which the user vehicle runs and acquires an observation image, and a stored reference The image processing apparatus includes a data processing unit that performs image matching between the image and a newly acquired observation image, and a charging processing unit that performs charging processing on the user vehicle based on a result of image matching in the data processing unit.
本発明の課金処理システムにおいて、データ処理部は、選択された参照画像について新たに取得された観測画像と画像マッチングする、ことができる。 In the billing processing system of the present invention, the data processing unit can perform image matching with the observation image newly acquired for the selected reference image.
本発明の課金処理システムにおいて、データ処理部は、参照画像と観測画像の類似度を画像マッチングにより求め、課金処理部は、類似度に基づいて参照画像に対応する課金位置において課金処理を行う、ことができる。 In the charging processing system of the present invention, the data processing unit obtains the similarity between the reference image and the observed image by image matching, and the charging processing unit performs charging processing at a charging position corresponding to the reference image based on the similarity. be able to.
本発明の課金処理システムにおいて、データ処理部は、画像マッチングされる参照画像と観測画像について、当該参照画像が撮影された位置と当該観測画像が撮影された位置との相対的な位置関係を推定し、課金処理部は、推定の結果に基づいて参照画像に対応する課金位置において課金処理を行うことができる。 In the billing processing system of the present invention, the data processing unit estimates a relative positional relationship between a position where the reference image is photographed and a position where the observation image is photographed, for the reference image and the observation image to be image-matched. Then, the charging processing unit can perform the charging process at the charging position corresponding to the reference image based on the estimation result.
本発明の課金処理システムにおいて、データ処理部は、参照画像と観測画像に基づいて、当該参照画像に対応する課金位置をユーザ車両が通過する通過予測時刻を求め、課金処理部は、通過予測時刻にユーザ車両に課金処理を行う、ことができる。 In the charging processing system of the present invention, the data processing unit obtains a predicted passing time when the user vehicle passes the charging position corresponding to the reference image based on the reference image and the observed image, and the charging processing unit The user vehicle can be charged.
本発明において、通過予測時刻を求める手法は少なくとも二つある。
一つ目は、データ処理部が、課金位置に対応する参照画像が撮影された位置と観測画像が撮影された位置との相対位置関係に基づいて算出される課金位置までの距離に基づいて、通過予測時刻を求める。
二つ目は、データ処理部が、課金位置に対応する参照画像が撮影された位置と観測画像が撮影された位置との相対位置関係と、ユーザ車両の走行速度に基づいて、通過予測時刻を求める。
In the present invention, there are at least two methods for obtaining the predicted passage time.
First, the data processing unit is based on the distance to the charging position calculated based on the relative positional relationship between the position where the reference image corresponding to the charging position is captured and the position where the observation image is captured, Obtain the estimated passage time.
Second, the data processing unit calculates the estimated passage time based on the relative positional relationship between the position where the reference image corresponding to the charging position is captured and the position where the observation image is captured, and the traveling speed of the user vehicle. Ask.
以上説明した本発明の課金処理システムにおけるいくつかの構成要素は、ユーザ車両に搭載される車載器として実現される。つまり本発明は、ユーザ車両が道路を走行する際に課金処理を行う、ユーザ車両に搭載される車載器であって、道路上に設定される複数の課金位置に関連して予め取得された参照画像と、ユーザ車両が走行する道路の周囲の風景を撮影した観測画像と、を画像マッチングするデータ処理部と、データ処理部における画像マッチングの結果に基づいて、ユーザ車両に課金処理を行う課金処理部と、を備えることを特徴とする。 Some components in the accounting processing system of the present invention described above are realized as an in-vehicle device mounted on a user vehicle. That is, the present invention is an in-vehicle device mounted on a user vehicle that performs charging processing when the user vehicle travels on a road, and is a reference acquired in advance related to a plurality of charging positions set on the road. A data processing unit that performs image matching between an image and an observation image obtained by capturing a landscape around a road on which the user vehicle travels, and a charging process that charges the user vehicle based on a result of image matching in the data processing unit And a section.
本発明の車載器は、以上説明した本発明の課金処理システムにおけるより具体的な形態を適用することができる。 The vehicle-mounted device of the present invention can apply a more specific form in the accounting processing system of the present invention described above.
本発明の課金処理システムによれば、参照画像情報に対応して課金位置を設定しておくので、参照画像情報に位置情報を含む観測画像情報をマッチング処理することにより、課金位置を特定することができる。
したがって、本発明の課金処理システムは、ユーザ車両が走行中に通過する位置を基準にして課金を可能にする。しかも、この課金処理システムは、GPSに依存しないで課金位置を特定できるので、GPSの精度低下の影響を受けずに課金処理を行うことができる。また、トンネルの内部、地下道路といったGPSが利用できない領域であっても、例えば、文字、その他の情報をトンネルの壁面に描くことで、当該位置と他の位置とが、撮影した画像上で区別できるのであれば、課金処理を行うことができる。
According to the billing processing system of the present invention, the billing position is set corresponding to the reference image information. Therefore, the billing position is specified by performing the matching process on the observed image information including the position information in the reference image information. Can do.
Therefore, the billing processing system of the present invention enables billing based on the position through which the user vehicle passes while traveling. In addition, since the billing processing system can identify the billing position without depending on the GPS, the billing processing can be performed without being affected by the deterioration of the accuracy of GPS. Also, even in areas where GPS is not available, such as inside tunnels and underground roads, for example, characters and other information are drawn on the wall of the tunnel, so that the position and other positions can be distinguished on the captured image. If possible, billing processing can be performed.
また、本発明における課金処理システムにおいて特定される課金位置の精度は、参照画像情報及び観測画像情報の両者の画像情報の撮影条件、参照画像情報と観測画像情報のマッチング手法によって決まるが、この精度は既知と言える。これに対してGPSの精度は、GPS信号を取得する位置によって著しくばらつく。したがって、本発明によると、GPSを利用するのに比べて、課金の信頼性を担保できる。 In addition, the accuracy of the billing position specified in the billing processing system according to the present invention is determined by the imaging conditions of the image information of both the reference image information and the observation image information, and the matching method of the reference image information and the observation image information. Is known. On the other hand, the accuracy of GPS varies greatly depending on the position where the GPS signal is acquired. Therefore, according to the present invention, charging reliability can be ensured as compared to using GPS.
以下、本発明の好ましい実施形態について、添付図面を参照して説明する。
[第1実施形態]
図1〜図3に示す車両の課金処理システム1は、GPSを用いることなく、課金対象領域Zにおけるユーザ車両30の走行位置に応じて、当該車両に対して課金処理を行うシステムである。また、システム1は、従来のガントリのように大規模な構造物を設けることなく、ユーザ車両30の走行位置に応じて課金処理ができるシステムである。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[First Embodiment]
The vehicle
課金処理システム1は、予め撮影車両10が課金対象領域Zを走行して撮影して生成した参照画像情報に、ユーザ車両30が課金対象領域Zを走行しながら連続的に撮影して生成した観測画像情報を、マッチング処理することで、ユーザ車両30の走行位置を特定する。課金処理システム1は、特定された走行位置が課金をすべき位置に該当する場合には、ユーザ車両30に対して課金処理を行う。課金処理システム1は、図1に示すように、撮影車両10とユーザ車両30の他にホスト20を備えており、ホスト20が参照画像情報を保持している。
The
課金処理システム1を構築するに当たり、撮影車両10は、図2に示すように、課金対象領域Z内の道路Rを走行しながら、周囲の風景を撮影して参照画像を取得する。そのために、撮影車両10は、図4に示すように、参照画像取得部11と、測位部13と、参照画像記憶部15と、送受信部17とを備えている。
In constructing the
参照画像取得部11は、撮影車両10の周囲の全方位を、例えば10m、あるいは5mといった等間隔で撮影することで参照画像を取得するカメラを備えている。撮影車両10は、参照画像を取得しながら、測位部13により撮影車両10の緯度及び経度を測定する。撮影された参照画像は、当該画像が撮影された緯度及び経度(位置情報)と関連付けられた上で、参照画像記憶部15に記憶される。記憶された情報(以下、参照画像情報)は、送受信部17を介して、ホスト20に送られる。単数又は複数の撮影車両10を用い、課金対象領域Zとなる全ての道路Rについて取得された参照画像情報は、ホスト20に送られる。
撮影車両10は、測位部13が高性能な測位機器を備えることで、緯度及び経度を正確に測定する。
The reference
The photographing
ホスト20は、図4に示すように、記憶部21と、データ処理部25と、送受信部27とを備えている。
ホスト20は、撮影車両10から送られる参照画像情報を、送受信部27を介して取得する。この参照画像情報は、観測画像とのマッチングに供するために、データ処理部25によって特徴量に変換した上で、記憶部21に記憶される。記憶部21は、例えば図5に示すように、参照画像情報データベース22と、課金情報データベース23と、顧客情報データベース24とを備えている。
参照画像情報データベース22は、図5に示すように、特徴量としての画像データ(画像#1,#2,#3…)と、その画像が取得された位置データ((Lat1,Lon1),(Lat1,Lon2),(Lat1,Lon3)…)とが対応付けられたテーブル形式の情報を保持している。
また、課金情報データベース23は、図5に示すように、課金される位置を緯度及び経度で示した課金位置データと、課金位置データにおいて課金される金額である課金額とが対応付けられたテーブル形式の情報を記憶している。課金情報データベース23に記憶される課金位置(データ)と課金額(データ)は、課金処理システム1を運用するのに当たって設定され、適宜の入力手段から送受信部27を介して記憶部21の課金情報データベース23に入力される。
また、顧客情報データベース24は、ユーザ車両に搭載されるユーザ車両30ごとに割り当てられた識別情報(ID)と課金の状況を対応付けて記憶している。新たに課金がなされる度に、顧客情報データベース24の記憶内容は更新される。
As illustrated in FIG. 4, the
The
As shown in FIG. 5, the reference
Further, as shown in FIG. 5, the
Further, the
データ処理部25は、撮影車両10から送られる参照画像情報を特徴量に変換した上で、記憶部21の参照画像情報データベース22に記憶する。また、データ処理部25は、記憶部21の参照画像情報データベース22、課金情報データベース23及び顧客情報データベース24に記憶されている情報を読み出し、送受信部27を介してユーザ車両30に向けて送信する。
The
次に、ユーザ車両30は、図3に示すように、課金対象領域Zを走行中に撮影した周囲の風景に関する情報(観測画像情報)とホスト20に記憶された参照画像情報とをマッチング処理することにより、ユーザ車両30が課金位置を通過することを認識したならば、課金処理を行う。そのために、ユーザ車両30は、図4に示すように、観測画像取得部31と、データ処理部33と、課金処理部35と、送受信部37とを備える。なお、観測画像取得部31、データ処理部33、課金処理部35及び送受信部37からなる構成部分は、いわゆる車載器ユニットとしてユーザ車両30に搭載することができるが、ここでは単にユーザ車両30と表記する。
観測画像取得部31は、ユーザ車両30が課金対象領域Zを走行中に周囲の風景を撮影するとともに、撮影した画像情報をデータ処理部33に送る。なお、特徴量に変換された観測画像を観測画像情報という。
Next, as shown in FIG. 3, the
The observation
データ処理部33は、観測画像取得部31で撮影された観測画像情報とホスト20の記憶部21に記憶された参照画像情報とのマッチング処理を行い、マッチング処理の結果として課金位置の通過を特定する。より具体的には、以下の通りである。
データ処理部33は、観測画像取得部31で撮影された観測画像を取り込んで、これを特徴量に変換する。一方で、データ処理部33は、ホスト20の参照画像情報データベース22から記憶されている全ての参照画像情報♯1〜♯Nを取り込んで、撮影されたばかりの最新の観測画像情報をマッチングし、画像情報間の類似度を算出し、最も類似する参照画像情報を特定する。例えば、参照画像情報データベース22の参照画像情報♯3が最も類似度が大きいと判断すれば、データ処理部33は自己の位置が、参照画像情報♯3が取得された位置(Lat1,Lon3)に近似することを特定する。データ処理部33は、自己の位置が近似する参照画像情報が特定されたならば、次に、課金情報データベース23を参照し、当該参照画像情報の位置と一致するデータの存在有無を確認する。ここでは、参照画像情報♯3に対応する位置(Lat1,Lon3)が課金情報データベース23に記憶されているので、データ処理部33は参照画像情報♯3は課金位置であることを認識するとともに、課金情報データベース23から対応する課金額を取得する。
The
The
なお、参照画像情報データベース22、課金情報データベース23及び顧客情報データベース24の区分はあくまで一例であり、例えば、参照画像情報データベース22と課金情報データベース23を統合したデータベースにすることもできる。要は、課金位置と、当該課金位置における課金額とが特定できればよい。
The classification of the reference
課金処理部35は、データ処理部33が課金位置を特定すると課金処理を実行する。
課金処理としては、特定された課金位置とこの課金位置に対応する課金額を自己のIDに対応付けて、ホスト20に送信する。ホスト20は、取得したこれらの課金処理に関する情報を、顧客情報データベース24の対応するIDの記録領域に記憶する。
また、課金処理として、ユーザ車両30の図示を省略するディスプレイに課金の事実を表示させる。表示の仕方としては、課金額だけを表示させることもできるし、課金位置と課金額を併記することもできる。ディスプレイに文字情報として課金の事実を表示するだけでなく、音声により課金の事実を通知することもできる。
The
As the billing process, the identified billing location and the billing amount corresponding to this billing location are transmitted to the
Further, as a billing process, the fact of billing is displayed on a display (not shown) of the
[課金処理システム1の動作]
さて、以上の構成を備える課金処理システム1の動作を、図7を参照しながら説明する。なお、ホスト20の記憶部21には所定の参照画像情報、課金情報及び顧客情報がそれぞれ参照画像情報データベース22、課金情報データベース23及び顧客情報データベース24に記憶されているものとする。
[Operation of Billing Processing System 1]
Now, the operation of the
いま、車載器ユニットを備えるユーザ車両30が、課金対象領域Zを走行しているものとする。
ユーザ車両30は、走行中にユーザ車両30の観測画像取得部31により周囲の風景の画像を撮影するとともに、特徴量に変換して観測画像情報を取得する(図7 S101)。
ユーザ車両30は、観測画像情報を取得したならば、次いで、データ処理部33にてマッチング処理を行う(図7 S103)。マッチング処理の具体的な内容は前述した通りであるが、このマッチング処理により、最も類似度の大きな参照画像情報が特定される。例えば、図6において、取得された観測画像情報に対する類似度が最も大きいのが参照画像情報♯3だとすると、データ処理部33は参照画像情報♯3を現在のユーザ車両30の位置と特定する。
Now, it is assumed that the
While traveling, the
Once the
ユーザ車両30は、次に、特定したユーザ車両30の位置が課金位置に該当するか否かの判断を行う(図7 S105)。
この判断は、データ処理部33がホスト20の課金情報データベース23から読み出した課金情報に特定したユーザ車両30の位置を照合することにより行われる。対応する課金位置が照合されたならば(図7 S105 Y)、データ処理部33は次に課金処理を行う(図7 S107)。課金処理の具体的な内容は前述したとおりである。課金処理を終えたならば新たな観測画像情報を取得し、以後は、マッチング処理以降の手順を繰り返す。
一方、対応する課金位置が照合されなければ(図7 S105 N)、新たに観測画像情報を取得し、やはり新たな観測画像情報を取得し、以後は、マッチング処理以降の手順を繰り返す。
Next, the
This determination is made by collating the specified position of the
On the other hand, if the corresponding billing position is not verified (S105 N in FIG. 7), the observation image information is newly acquired, the new observation image information is also acquired, and thereafter, the procedure after the matching process is repeated.
[課金処理システム1の効果]
以上説明したように、課金処理システム1は参照画像情報に対応して課金位置を設定しておくので、参照画像情報に位置情報を含む観測画像情報をマッチング処理することにより、課金位置を特定することができる。
したがって、課金処理システム1は、ユーザ車両30が走行中に通過する位置を基準にした課金を可能にする。しかも、課金処理システム1は、GPSに依存しないで課金位置を特定できるので、GPSの精度低下の影響を受けずに課金処理を行うことができる。また、トンネルの内部、地下道路といったGPSが利用できない領域であっても、例えば、文字、その他の情報をトンネルの壁面に描くことで、当該位置と他の位置とが、撮影した画像上で区別できるのであれば、課金処理を行うことができる。
また、課金処理システム1において特定される課金位置の精度は、参照画像情報及び観測画像情報の両者の画像情報の撮影条件、参照画像情報と観測画像情報のマッチング手法によって決まるが、この精度は既知と言える。これに対してGPSの精度は、GPS信号を取得する位置によって著しくばらつく。したがって、課金処理システム1によると、GPSを利用するのに比べて、課金の信頼性を担保できる。
[Effect of billing system 1]
As described above, since the charging
Accordingly, the
In addition, the accuracy of the billing position specified in the
[変更例]
以上、本発明による好適な実施形態を、課金処理システム1を例にして説明したが、本発明の主旨を逸脱しない範囲で課金処理システム1の構成を変更することができる。
例えば、課金処理システム1は、ユーザ車両30とは別体として遠隔地に存在するホスト20の記憶部21に参照画像所情報及び課金情報を記憶させているが、記憶媒体の容量が許すのであれば、ユーザ車両30に参照画像所情報及び課金情報を記憶させることもできる。
また、課金処理システム1は、ユーザ車両30において、マッチング処理及び課金処理を行っている。しかし、本発明は、ユーザ車両30にて撮影したユーザ車両30の周辺の画像である観測画像をホスト20に送信し、ホスト20にて観測画像の特徴化、マッチング処理及び課金処理を行うこともできる。つまり本発明は、ユーザ車両30をも含めた課金処理システム1の全体として、マッチング処理及び課金処理が行うことができればよい。
[Example of change]
The preferred embodiment of the present invention has been described above by taking the charging
For example, the
Further, the
また、課金処理システム1は、現状では課金位置に該当しない位置についても参照画像情報データベース22に記憶しているが、これにより後に課金位置を変更するのに迅速に対応することができる。例えば、現在は♯3が課金位置とされているが、後に、♯3から♯4に課金位置が変更される場合に、改めて♯4に対応する参照画像を撮影する必要がない。ただし、本発明は、課金位置に該当する観測画像情報だけを参照画像情報データベース22に記憶する対象にすることができる。この場合には、課金情報を観測画像情報に含めることもでき、課金情報データベース23を個別に設ける必要がなくなる。
The
また、課金処理システム1は、全ての参照画像情報を観測画像情報にマッチング処理する対象にしているが、参照画像情報データベース22に記憶されている一部の参照画像に絞ってマッチング処理を行うことができる。例えば、先行して特定された課金位置に基づいてユーザ車両30が次に通過しうるいくつかの課金位置を抽出し、抽出された課金位置に絞ってマッチング処理を行うことができる。例えば、課金位置として♯3が先行して特定されたものとし、道路の繋がり具合により、次に通過しうる課金位置が♯5、♯11及び♯14に限られるのであれば、♯5、♯11及び♯14に該当する参照画像情報だけに観測画像情報をマッチング処理することができる。また、ユーザ車両30がGPSに基づくカーナビゲーションシステムを備えている場合には、GPS信号により求められるユーザ車両30の自己位置に所定の距離関係を有する参照画像情報だけを参照画像情報データベース22から抽出して、マッチング処理の対象にすることができる。
In addition, the
[第2実施形態]
次に、本発明の第2実施形態について、図8〜図10を参照して説明する。
第1実施形態は、マッチング処理により特定される位置の精度が、参照画像が撮影される間隔に依存する。つまり、第1実施形態のように10m間隔で参照画像を撮影した場合には、得られる精度は最高でも±5mの範囲内に限られる。そこで、第2実施形態においては、参照画像の間隔よりも高い精度で位置を特定する手法を提案する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS.
In the first embodiment, the accuracy of the position specified by the matching process depends on the interval at which the reference image is captured. That is, when the reference images are photographed at intervals of 10 m as in the first embodiment, the obtained accuracy is limited to a range of ± 5 m at the maximum. Therefore, in the second embodiment, a method for specifying the position with higher accuracy than the interval between the reference images is proposed.
第2実施形態に係る課金処理システム2は、撮影車両10と、ホスト20と、車載器ユニットが搭載されるユーザ車両30とを備えるという基本的な構成を備える点で第1実施形態の課金処理システム1と共通する。そこで、以下では、課金処理システム1との相違点を中心に課金処理システム2を説明する。
The charging
始めに、課金処理システム2の概要を、図8〜図9を参照して説明する。
課金処理システム2は、図8に示すように、マッチング処理(図7のS103に相当)において、観測画像情報が撮影された位置と参照画像情報が撮影された位置との相対的な位置関係を算出する(図8 S203)。この算出は、データ処理部33(図4)が以下のようにして行う。つまり、データ処理部33は、ホスト20の参照画像情報データベース22から記憶されている全ての参照画像情報♯1〜♯Nを取り込んで、撮影されたばかりの最新の観測画像情報をマッチングし、画像情報間の相対的な位置関係である距離△L1〜Nを算出する。そして、データ処理部33は、算出された距離△L1〜Nが最も小さい参照画像情報♯1〜♯Nを特定する。例えば、参照画像情報データベース22の参照画像情報♯3までの距離△L3が最も小さいと判断すれば、データ処理部33は自己の位置が、参照画像情報♯3が取得された位置(Lat1,Lon3)に最も近く、距離△L3だけ離れていることを特定する。データ処理部33は、自己の位置が近似する参照画像情報が特定されたならば、次に、課金情報データベース23を参照し、当該参照画像情報の位置と一致するデータの存在有無を確認する。ここでは、参照画像情報♯3に対応する位置(Lat1,Lon3)が課金情報データベース23に記憶されているので、データ処理部33は参照画像情報♯3は課金位置であることを認識するとともに、課金情報データベース23から対応する課金額を取得する。
First, an outline of the
As shown in FIG. 8, the
以上の相対位置関係の算出には、画像を用いて環境内におけるカメラの三次元移動を推定する処理であるエゴモーション(Ego-motion)推定を適用すればよい。ただし、以上の処理を行うためには、図10に示すように、参照画像情報としてスケール情報を備える必要がある。なお、図10は、課金情報データベース23及び顧客情報データベース24の記載を省略している。
スケール情報は、図11に示すように、参照画像情報に任意の二点A,Bを結ぶ線分の距離(実寸法:SA−Bとする)である。エゴモーション推定による相対位置関係の算出手法は、例えば非特許文献1に開示されるように公知であるので、詳細は省略するが、マッチング処理される観測画像情報であって、任意の二点A,Bに対応する二点a,bを結ぶ線分の実寸法Sa−bをSA−Bとみなすことにより、相対的な位置関係を算出できる。なお、図11において、Pは参照画像の撮影位置を示し、また、Dは観測画像の撮影位置を示している。
For the calculation of the relative positional relationship described above, ego-motion estimation, which is processing for estimating the three-dimensional movement of the camera in the environment using an image, may be applied. However, in order to perform the above processing, it is necessary to provide scale information as reference image information, as shown in FIG. In FIG. 10, the
As shown in FIG. 11, the scale information is a distance (actual dimension: S A-B ) of a line segment connecting any two points A and B to the reference image information. Since the relative positional relationship calculation method based on egomotion estimation is known as disclosed in
[第2実施形態の効果]
以上の通りであるから、第2実施形態によると、以下の効果を奏することができる。
はじめに、第2実施形態は、観測画像情報が撮影された位置と参照画像情報が撮影された位置との相対的な位置関係を算出するので、参照画像を撮影した間隔よりも高い精度で推定された位置に基づいて、課金位置を特定することができる。
また、例えば、ユーザ車両30が走行する車線が複数存在する場合に、参照画像を撮影した車線とユーザ車両30が走行する車線とが相違する場合であっても、相対的な位置関係を算出することで、高い精度で課金位置を特定することができる。
[Effects of Second Embodiment]
Since it is as above, according to 2nd Embodiment, there can exist the following effects.
First, in the second embodiment, the relative positional relationship between the position where the observed image information is captured and the position where the reference image information is captured is calculated. Therefore, the second embodiment is estimated with higher accuracy than the interval at which the reference image is captured. The billing location can be identified based on the location.
For example, when there are a plurality of lanes in which the
また、第2実施形態によると、参照画像情報の数を減らしたとしても、課金位置までの距離を推定できるので、撮影車両10で撮影し、かつ、ホスト20の参照画像情報データベース22に記憶する参照画像情報の数を減らすことができる。
Further, according to the second embodiment, even if the number of reference image information is reduced, the distance to the billing position can be estimated, so the image is taken with the photographing
[第2実施形態の変更例]
以上で説明した第2実施形態による位置の推定の精度を、さらに向上することができる。以下、この手法を説明する。
この精度向上の手法は、画像マッチング処理において、複数の全方位画像を撮影した位置と、車載カメラとの相対位置関係を算出し、各時刻での相対位置として複数の情報を得る。得られた複数の情報を統合、典型的には平均化することで、各々の画像マッチング処理で発生した誤差の影響を低減するというものである。以下、図12を参照してより具体的に説明する。
[Modification Example of Second Embodiment]
The accuracy of position estimation according to the second embodiment described above can be further improved. Hereinafter, this method will be described.
This accuracy improvement method calculates a relative positional relationship between a position where a plurality of omnidirectional images are captured and an in-vehicle camera in an image matching process, and obtains a plurality of pieces of information as relative positions at each time. By integrating, typically averaging, a plurality of obtained information, the influence of errors generated in each image matching process is reduced. Hereinafter, a more specific description will be given with reference to FIG.
図12は、参照画像を撮影した位置が道路R上にP1,P2,P3,P4として示しており、この道路R上をユーザ車両30が走行しながら観測画像を撮影し、マッチング処理を行うものとする。ここでは、位置D1において撮影された観測画像$について処理する例を示す。
位置D1において撮影された観測画像と位置P1,P2,P3,P4の各々で撮影された参照画像との相対的位置関係を算出する。なお、位置P1,P2,P3,P4の各々の間隔は、正確にはα(例えば10m)とする。
FIG. 12 shows the positions at which the reference images are taken as P1, P2, P3, and P4 on the road R. The
The relative positional relationship between the observed image captured at the position D1 and the reference image captured at each of the positions P1, P2, P3, and P4 is calculated. In addition, each space | interval of position P1, P2, P3, P4 shall be (alpha) (for example, 10 m) correctly.
算出結果が、例えば図12に示すように、位置D1と位置P1の距離△L1、位置D1と位置P2の距離△L2、位置D1と位置P3の距離△L3、位置D1と位置P4の距離△L4として求められるものとする。上述したように、△L1だけで位置D1と位置P1の距離を推定することができるが、ここでは△L2、△L3及び△L4の算出結果も考慮して、位置D1と位置P1の距離△Lを算出する。そのために、下記式(1)に示すように、△L1に位置P1から位置P2,P3,P4の各々までの正確な距離(α,2α,3α)を差し引いた値を加えて平均化する。
△L=(△L1+(△L2−α)+(△L3−2α)+(△L4−3α))/4 …式(1)
For example, as shown in FIG. 12, the calculation result is a distance ΔL1 between the position D1 and the position P1, a distance ΔL2 between the position D1 and the position P2, a distance ΔL3 between the position D1 and the position P3, and a distance ΔL3 between the position D1 and the position P4. It shall be calculated | required as L4. As described above, the distance between the position D1 and the position P1 can be estimated only by ΔL1, but here, the distance Δ between the position D1 and the position P1 is also considered in consideration of the calculation results of ΔL2, ΔL3, and ΔL4. L is calculated. For this purpose, as shown in the following formula (1), ΔL1 is averaged by adding a value obtained by subtracting an accurate distance (α, 2α, 3α) from position P1 to each of positions P2, P3, P4.
ΔL = (ΔL1 + (ΔL2-α) + (ΔL3-2α) + (ΔL4-3α)) / 4 Formula (1)
以上のように平均化することにより、マッチング処理で発生する誤差の影響を低減できるので、第2実施形態における位置の推定精度をより向上できる。
なお、本発明において、単純に算術的に平均化するだけでなく、重み付けを適用することができる。重み付けは、例えば、距離が遠くなれば係数を小さくする、という具合であり、△L1、△L2、△L3及び△L4の項に乗ずる係数を順に小さくする。
By averaging as described above, the influence of errors generated in the matching process can be reduced, so that the position estimation accuracy in the second embodiment can be further improved.
In the present invention, weighting can be applied in addition to simple arithmetic averaging. The weighting is, for example, that the coefficient is decreased as the distance increases, and the coefficients multiplied by the terms ΔL1, ΔL2, ΔL3, and ΔL4 are sequentially decreased.
[第3実施形態]
次に、本発明の第3実施形態について、図13〜図16を参照して説明する。
第1実施形態及び第2実施形態は、「課金位置の風景」と最も類似する画像であることが、課金位置を通過した後にしか判明できない。その結果、ユーザ車両30が課金位置を通過した瞬間に、ユーザ車両30がこの通過を判断し、かつ課金処理することができない。
第3実施形態は、課金位置を通過した瞬間に課金処理を行うことができる手法を提供する。第3実施形態は、第1の手法と第2の手法の二つの手法を提案する。
第1の手法は、第2実施形態で用いた参照画像情報と観測画像情報に基づいて、ユーザ車両30の課金位置までの距離を時系列的に算出することにより、ユーザ車両30が課金位置を通過する時刻を予測する。第2の手法は、ユーザ車両30で撮影された観測画像から、ユーザ車両30の走行速度を算出することにより、ユーザ車両30が課金位置を通過する時刻を予測する。以下、第1の手法、第2の手法の順で説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIGS.
In the first embodiment and the second embodiment, it is possible to determine that the image is most similar to “the scenery of the charging position” only after passing through the charging position. As a result, at the moment when the
The third embodiment provides a method capable of performing charging processing at the moment when the charging position is passed. The third embodiment proposes two methods, a first method and a second method.
The first method calculates the distance to the charging position of the
[第1の手法]
第1の手法は、課金位置が特定されている参照画像情報と観測画像情報をマッチング処理することにより、ユーザ車両30の相対的な位置関係を算出する。相対的な位置関係の算出は、第2実施形態と同様にして行う。この相対位置関係を算出すると、課金位置Pの手前の地点においては、課金位置Pまでの距離が算出できる。この処理を時系列的に行うと、課金位置Pまでの距離の時系列変化が算出できるが、この時系列変化を外挿すると、課金位置Pに達する前に、当該ユーザ車両30が課金位置Pを通過する時刻を予測できる。したがって、この予測通過時刻を用いることにより、ユーザ車両30は課金位置Pを通過した瞬間に課金処理を行うことが可能となる。以下、図13及び図14を参照して、第1の手法をより具体的に説明する。
[First method]
In the first method, the relative positional relationship of the
第1の手法に係る課金処理システム3−1は、撮影車両10と、ホスト20と、車載器ユニットが搭載されるユーザ車両30とを備えるという基本的な構成を備える点で第1実施形態の課金処理システム1と共通する。そこで、以下では、課金処理システム1との相違点、つまり図14に示される手順のS205,S206に関する処理を中心に課金処理システム3−1を説明する。
The billing processing system 3-1 according to the first method is the same as that of the first embodiment in that it includes a basic configuration that includes a photographing
図13(a)に示すように、課金位置Pに向ってユーザ車両30が道路上を走行し、ユーザ車両30の観測画像取得部31が継続的に周囲の風景を撮影しているものとする。そして仮に、道路R上の観測位置D1,D2,D3,D4において撮影した風景に基づく観測画像情報($1〜$4)と課金位置Pに基づく観測画像情報(♯N)とのマッチング処理を順に行うものとする。このマッチング処理は、データ処理部33が行う。
このマッチング処理により、観測位置D1と課金位置Pの相対的位置関係を算出し、次いで、観測位置D1と課金位置Pの間の距離△L1を求める。これを、横軸が時間、縦軸が距離のグラフ上に示すと、図13(b)の通りである。
同様にして、観測位置D2と課金位置Pの間の距離△L2、観測位置D3と課金位置Pの間の距離△L3、観測位置D4と課金位置Pの間の距離△L4を時系列的に求める。そうすると、課金位置Pまでの距離の時系列変化が求められ、それらを順に外挿すると、図13(c),(d),(e)の白抜き矢印にて示ように、課金位置Pを通過する時刻を事前に予測することができる。
As shown in FIG. 13A, it is assumed that the
By this matching process, the relative positional relationship between the observation position D1 and the charging position P is calculated, and then the distance ΔL1 between the observation position D1 and the charging position P is obtained. FIG. 13B shows this on a graph in which the horizontal axis represents time and the vertical axis represents distance.
Similarly, a distance ΔL2 between the observation position D2 and the charging position P, a distance ΔL3 between the observation position D3 and the charging position P, and a distance ΔL4 between the observation position D4 and the charging position P are time-sequentially. Ask. Then, a time series change of the distance to the charging position P is obtained, and when these are extrapolated in order, the charging position P is set as shown by the white arrows in FIGS. 13 (c), (d), and (e). The passing time can be predicted in advance.
図13(b)〜(e)に示すように、ユーザ車両30の走行に伴って、観測位置D1,D2,D3,D4に順に達する度に、課金位置Pを通過する時刻の事前予測を更新する。ただし、本発明は、予測の更新を必須とするものではなく、課金位置Pに対して特定の観測位置だけ、例えば、課金位置Pに近い観測位置D4においてのみ課金位置Pを通過する時刻の予測を行うこともできる。もっとも、課金位置Pに近い領域において、ユーザ車両30の走行速度の変動が大きいこともあり得るために、ある程度の期間にわたって時系列変化を観察し、この変化を考慮して課金位置Pを通過する時刻を予測することが好ましい。
As shown in FIGS. 13B to 13E, as the
[第2の手法]
第2の手法は、ユーザ車両30の課金位置Pまでの距離を算出し、かつ、ユーザ車両30が課金位置Pの通過時刻を予測する点で第1の手法と共通する。しかし、第2の手法は、この予測にユーザ車両の走行速度を用いる。
[Second method]
The second method is common to the first method in that the distance to the charging position P of the
第2の手法に係る課金処理システム3−2は、撮影車両10と、ホスト20と、車載器ユニットが搭載されるユーザ車両30とを備えるという基本的な構成を備える点で課金処理システム3−1と共通する。そこで、以下では、課金処理システム3−1との相違点、つまり図16に示される手順のS202,S204,S205に関する処理を中心に課金処理システム3−2を説明する。
The billing processing system 3-2 according to the second method is a billing processing system 3-3 in that it has a basic configuration including a photographing
図15(a)に示すように、課金位置Pに向ってユーザ車両30が道路上を走行し、ユーザ車両30の観測画像取得部31が継続的に周囲の風景を撮影しているものとする。そして仮に、道路上の観測位置D1,D2,D3,D4において撮影した風景に基づく観測画像情報($1〜$4)と課金位置Pにおける基づく観測画像情報(♯N)とのマッチング処理を順に行うものとする。このマッチング処理は、データ処理部33が行う。
このマッチング処理により、第1の手法と同様にして、観測位置D1と課金位置Pの間の距離△L1、観測位置D2と課金位置Pの間の距離△L2、観測位置D3と課金位置Pの間の距離△L3、観測位置D4と課金位置Pの間の距離△L4を時系列的に求める。
As shown in FIG. 15A, it is assumed that the
By this matching process, the distance ΔL1 between the observation position D1 and the charge position P, the distance ΔL2 between the observation position D2 and the charge position P, the observation position D3 and the charge position P, as in the first method. A distance ΔL3 between them, and a distance ΔL4 between the observation position D4 and the charging position P are obtained in time series.
以上の距離の算出と並行して、データ処理部33は、連続的に撮影される観測画像から、ユーザ車両30の走行速度vを算出する。この走行速度vは、例えばビジュアルオドメトリ(Visual Odometry)により算出することができる。ビジュアルオドメトリにより算出される走行速度vの精度を向上するために、参照画像取得部11を設けてステレオ画像を撮影することもできる。また、走行速度vは、観測画像から求める他に、ユーザ車両30が備える機器、例えば、加速度センサ、エンコーダにより得られる速度を用いることもできる。
データ処理部33は、観測位置D1における走行速度v1、観測位置D2における走行速度v2、観測位置D3における走行速度v3及び観測位置D4における走行速度v4を時系列的に求める。
In parallel with the above calculation of the distance, the
The
データ処理部33は、算出される距離△L1と走行速度v1を、カルマンフィルタ(Kalman filter)等の確率的なモデルを用いて融合して、課金位置Pを通過する時刻を事前に予測することができる。
同様にして、観測位置D2、観測位置D3及び観測位置D4において、図15(c),(d),(e)に示すように、課金位置Pを通過する時刻を事前に予測することができる。
The
Similarly, at the observation position D2, the observation position D3, and the observation position D4, as shown in FIGS. 15 (c), (d), and (e), it is possible to predict in advance the time of passing the charging position P. .
図15(b)〜(e)に示すように、ユーザ車両30の走行に伴って、観測位置D1,D2,D3,D4に順に達する度に、課金位置Pを通過する時刻の事前予測を更新する。ただし、本発明は、予測の更新を必須とするものではなく、課金位置Pに対して特定の観測位置だけ、例えば、課金位置Pに近い観測位置D4においてのみ課金位置Pを通過する時刻の予測を行うこともできる。もっとも、課金位置Pに近い領域において、ユーザ車両30の走行速度の変動が大きいこともあり得るために、ある程度の期間にわたって時系列変化を観察し、この変化を考慮して課金位置Pを通過する時刻を予測することが好ましい。
As shown in FIGS. 15 (b) to 15 (e), every time the observation positions D1, D2, D3, and D4 are reached in order as the
課金処理システム3−2は、通過時刻の予測に当たり、ユーザ車両30の走行速度vを用いる。走行速度vは、走行距離が長ければ大きく変動しうるが、課金位置Pを含む比較的短距離であれば、変動が小さいとみなすことができるので、通過時刻を予測することができる。走行速度vは、所定期間の平均走行速度を用いることができる。例えば、観測位置D1において適用する走行速度v1は、観測位置D1に達するまでの所定期間における走行速度vの平均値、観測位置D2において適用する走行速度v2は、観測位置D1と観測位置D2の間の走行速度の平均値、というように設定することができる。なお、ユーザ車両30の走行速度vは、通常、カーナビゲーションシステムが測定しかつ記録しているので、そのデータを使用してもよい。
The billing processing system 3-2 uses the traveling speed v of the
以上、本発明の好ましい実施形態を説明したが、本発明の主旨を逸脱しない限り、上記実施の形態で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。
例えば、ユーザ車両30が備えるデータ処理部33、課金処理部35の機能をホスト20に持たせることもできる。逆に、ホスト20のデータ処理部25の機能をユーザ車両30に持たせることができる。
The preferred embodiments of the present invention have been described above. However, the configuration described in the above embodiments can be selected or changed to other configurations as appropriate without departing from the gist of the present invention. .
For example, the
1 課金処理システム
10 撮影車両
11 参照画像取得部
13 測位部
15 参照画像記憶部
17 送受信部
20 サーバ
21 記憶部
22 参照画像情報データベース
23 課金情報データベース
24 顧客情報データベース
25 データ処理部
27 送受信部
30 ユーザ車両
31 観測画像取得部
33 データ処理部
35 課金処理部
37 送受信部
R 道路
Z 課金対象領域
DESCRIPTION OF
Claims (14)
前記道路上に設定される複数の課金位置に関連して予め取得された参照画像を記憶する参照画像記憶部と、
前記ユーザ車両に設けられ、前記ユーザ車両が走行する前記道路の周囲の風景を撮影して観測画像を取得する観測画像取得部と、
記憶されている前記参照画像と新たに取得された前記観測画像を画像マッチングするデータ処理部と、
前記データ処理部における前記画像マッチングの結果に基づいて、前記ユーザ車両に課金処理を行う課金処理部と、
を備えることを特徴とする、課金処理システム。 A charging processing system that performs charging processing when a user vehicle travels on a road,
A reference image storage unit that stores reference images acquired in advance in association with a plurality of charging positions set on the road;
An observation image acquisition unit that is provided in the user vehicle and acquires an observation image by photographing a landscape around the road on which the user vehicle runs;
A data processing unit that performs image matching between the stored reference image and the newly acquired observation image;
A charging processing unit for charging the user vehicle based on the result of the image matching in the data processing unit;
A billing processing system comprising:
選択された前記参照画像について新たに取得された前記観測画像と前記画像マッチングする、
請求項1に記載の課金処理システム。 The data processing unit
The image matching with the observation image newly acquired for the selected reference image is performed.
The accounting processing system according to claim 1.
前記参照画像と前記観測画像の類似度を前記画像マッチングにより求め、
前記課金処理部は、
前記類似度に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
請求項1又は請求項2に記載の課金処理システム。 The data processing unit
Obtaining the similarity between the reference image and the observed image by the image matching;
The billing processing unit
Charging processing is performed at the charging position corresponding to the reference image based on the similarity;
The billing processing system according to claim 1 or 2.
前記画像マッチングされる前記参照画像と前記観測画像について、当該参照画像が撮影された位置と当該観測画像が撮影された位置との相対的な位置関係を推定し、
前記課金処理部は、
前記推定の結果に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
請求項1又は請求項2に記載の課金処理システム。 The data processing unit
With respect to the reference image and the observation image to be image-matched, a relative positional relationship between a position where the reference image is captured and a position where the observation image is captured is estimated,
The billing processing unit
Based on the estimation result, charging processing is performed at the charging position corresponding to the reference image.
The billing processing system according to claim 1 or 2.
前記参照画像と前記観測画像に基づいて、当該参照画像に対応する前記課金位置を前記ユーザ車両が通過する通過予測時刻を求め、
前記課金処理部は、
前記通過予測時刻に前記ユーザ車両に課金処理を行う、
請求項1〜請求項4のいずれか一項に記載の課金処理システム。 The data processing unit
Based on the reference image and the observation image, obtain a predicted passage time when the user vehicle passes through the charging position corresponding to the reference image,
The billing processing unit
The user vehicle is charged at the estimated passage time.
The billing processing system according to any one of claims 1 to 4.
前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係に基づいて算出される前記課金位置までの距離に基づいて、前記通過予測時刻を求める、
請求項5に記載の課金処理システム。 The data processing unit
The estimated passage time is obtained based on a distance to the charging position calculated based on a relative positional relationship between the position where the reference image corresponding to the charging position is captured and the position where the observation image is captured. ,
The billing processing system according to claim 5.
前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係と、前記ユーザ車両の走行速度に基づいて、前記通過予測時刻を求める、
請求項5又は6に記載の課金処理システム。 The data processing unit
Obtaining the predicted passage time based on a relative positional relationship between a position where the reference image corresponding to the charging position is photographed and a position where the observation image is photographed, and a traveling speed of the user vehicle;
The billing processing system according to claim 5 or 6.
前記道路上に設定される複数の課金位置に関連して予め取得された参照画像と、前記ユーザ車両が走行する前記道路の周囲の風景を撮影した観測画像と、を画像マッチングするデータ処理部と、
前記データ処理部における前記画像マッチングの結果に基づいて、前記ユーザ車両に課金処理を行う課金処理部と、
を備えることを特徴とする、車載器。 An on-vehicle device mounted on the user vehicle that performs billing processing when the user vehicle travels on a road,
A data processing unit that performs image matching between a reference image acquired in advance in association with a plurality of billing positions set on the road and an observation image obtained by photographing a landscape around the road on which the user vehicle travels; ,
A charging processing unit for charging the user vehicle based on the result of the image matching in the data processing unit;
A vehicle-mounted device comprising:
選択された前記参照画像について新たに取得された前記観測画像と前記画像マッチングする、
請求項8に記載の車載器。 The data processing unit
The image matching with the observation image newly acquired for the selected reference image is performed.
The vehicle-mounted device according to claim 8.
前記参照画像と前記観測画像の類似度を前記画像マッチングにより求め、
前記課金処理部は、
前記類似度に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
請求項8又は請求項9に記載の車載器。 The data processing unit
Obtaining the similarity between the reference image and the observed image by the image matching;
The billing processing unit
Charging processing is performed at the charging position corresponding to the reference image based on the similarity;
The vehicle-mounted device according to claim 8 or 9.
前記画像マッチングされる前記参照画像と前記観測画像について、当該参照画像が撮影された位置と当該観測画像が撮影された位置との相対的な位置関係を推定し、
前記課金処理部は、
前記推定の結果に基づいて前記参照画像に対応する前記課金位置において課金処理を行う、
請求項8又は請求項9に記載の車載器。 The data processing unit
With respect to the reference image and the observation image to be image-matched, a relative positional relationship between a position where the reference image is captured and a position where the observation image is captured is estimated,
The billing processing unit
Based on the estimation result, charging processing is performed at the charging position corresponding to the reference image.
The vehicle-mounted device according to claim 8 or 9.
前記参照画像と前記観測画像に基づいて、当該参照画像に対応する前記課金位置を前記ユーザ車両が通過する通過予測時刻を求め、
前記課金処理部は、
前記通過予測時刻に前記ユーザ車両に課金処理を行う、
請求項8〜請求項11のいずれか一項に記載の車載器。 The data processing unit
Based on the reference image and the observation image, obtain a predicted passage time when the user vehicle passes through the charging position corresponding to the reference image,
The billing processing unit
The user vehicle is charged at the estimated passage time.
The vehicle-mounted device according to any one of claims 8 to 11.
前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係に基づいて算出される前記課金位置までの距離に基づいて、前記通過予測時刻を求める、
請求項12に記載の車載器。 The data processing unit
The estimated passage time is obtained based on a distance to the charging position calculated based on a relative positional relationship between the position where the reference image corresponding to the charging position is captured and the position where the observation image is captured. ,
The vehicle-mounted device according to claim 12.
前記課金位置に対応する前記参照画像が撮影された位置と前記観測画像が撮影された位置との相対位置関係と、前記ユーザ車両の走行速度に基づいて、前記通過予測時刻を求める、
請求項12又は13に記載の車載器。 The data processing unit
Obtaining the predicted passage time based on a relative positional relationship between a position where the reference image corresponding to the charging position is photographed and a position where the observation image is photographed, and a traveling speed of the user vehicle;
The vehicle-mounted device according to claim 12 or 13.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014183070A JP5980283B2 (en) | 2014-09-09 | 2014-09-09 | Billing system |
MYPI2015703674A MY175964A (en) | 2014-09-09 | 2015-02-03 | Charging processing system |
SG11201508484QA SG11201508484QA (en) | 2014-09-09 | 2015-02-03 | Charging processing system |
PCT/JP2015/000472 WO2016038755A1 (en) | 2014-09-09 | 2015-02-03 | Billing processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014183070A JP5980283B2 (en) | 2014-09-09 | 2014-09-09 | Billing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016057801A true JP2016057801A (en) | 2016-04-21 |
JP5980283B2 JP5980283B2 (en) | 2016-08-31 |
Family
ID=55458538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014183070A Active JP5980283B2 (en) | 2014-09-09 | 2014-09-09 | Billing system |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP5980283B2 (en) |
MY (1) | MY175964A (en) |
SG (1) | SG11201508484QA (en) |
WO (1) | WO2016038755A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020039938A1 (en) * | 2018-08-24 | 2020-02-27 | 日本電信電話株式会社 | Lane pricing system, lane pricing device, method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010204756A (en) * | 2009-02-27 | 2010-09-16 | Mitsubishi Heavy Ind Ltd | Charging system, charging method, external device, and program |
JP2013061270A (en) * | 2011-09-14 | 2013-04-04 | Mitsubishi Electric Corp | Present position calculation device and present position calculation method |
JP2014092986A (en) * | 2012-11-05 | 2014-05-19 | Mitsubishi Heavy Ind Ltd | Accounting processing system, accounting processing method, accounting processing device, program, and recording medium |
WO2014129501A1 (en) * | 2013-02-22 | 2014-08-28 | 三菱重工業株式会社 | Passage detection system, passage detection method, passage detection device, program, and recording medium |
-
2014
- 2014-09-09 JP JP2014183070A patent/JP5980283B2/en active Active
-
2015
- 2015-02-03 MY MYPI2015703674A patent/MY175964A/en unknown
- 2015-02-03 SG SG11201508484QA patent/SG11201508484QA/en unknown
- 2015-02-03 WO PCT/JP2015/000472 patent/WO2016038755A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010204756A (en) * | 2009-02-27 | 2010-09-16 | Mitsubishi Heavy Ind Ltd | Charging system, charging method, external device, and program |
JP2013061270A (en) * | 2011-09-14 | 2013-04-04 | Mitsubishi Electric Corp | Present position calculation device and present position calculation method |
JP2014092986A (en) * | 2012-11-05 | 2014-05-19 | Mitsubishi Heavy Ind Ltd | Accounting processing system, accounting processing method, accounting processing device, program, and recording medium |
WO2014129501A1 (en) * | 2013-02-22 | 2014-08-28 | 三菱重工業株式会社 | Passage detection system, passage detection method, passage detection device, program, and recording medium |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020039938A1 (en) * | 2018-08-24 | 2020-02-27 | 日本電信電話株式会社 | Lane pricing system, lane pricing device, method, and program |
CN112602122A (en) * | 2018-08-24 | 2021-04-02 | 日本电信电话株式会社 | Lane pricing system, lane pricing device, lane pricing method, and lane pricing program |
JPWO2020039938A1 (en) * | 2018-08-24 | 2021-08-26 | 日本電信電話株式会社 | Lane pricing systems, lane pricing equipment, methods and programs |
JP7047920B2 (en) | 2018-08-24 | 2022-04-05 | 日本電信電話株式会社 | Lane pricing systems, lane pricing equipment, methods and programs |
CN112602122B (en) * | 2018-08-24 | 2023-08-11 | 日本电信电话株式会社 | Lane pricing device, method, and recording medium |
US12051279B2 (en) | 2018-08-24 | 2024-07-30 | Nippon Telegraph And Telephone Corporation | Lane pricing system, lane pricing device, method, and program |
Also Published As
Publication number | Publication date |
---|---|
MY175964A (en) | 2020-07-16 |
SG11201508484QA (en) | 2016-04-28 |
JP5980283B2 (en) | 2016-08-31 |
WO2016038755A1 (en) | 2016-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10267924B2 (en) | Systems and methods for using a sliding window of global positioning epochs in visual-inertial odometry | |
US10240934B2 (en) | Method and system for determining a position relative to a digital map | |
US20180154901A1 (en) | Method and system for localizing a vehicle | |
US11915440B2 (en) | Generation of structured map data from vehicle sensors and camera arrays | |
US9275458B2 (en) | Apparatus and method for providing vehicle camera calibration | |
KR101921429B1 (en) | Method and system for making precise map | |
US11002553B2 (en) | Method and device for executing at least one measure for increasing the safety of a vehicle | |
JP6950832B2 (en) | Position coordinate estimation device, position coordinate estimation method and program | |
JP6759175B2 (en) | Information processing equipment and information processing system | |
JP2008249666A (en) | Vehicle position specifying device and vehicle position specifying method | |
JP6395010B2 (en) | Information provision system for billing location evaluation | |
CN113316706A (en) | Landmark position estimation apparatus and method, and computer-readable recording medium storing computer program programmed to execute the method | |
JP2019016188A (en) | Moving entity remote control system and moving entity remote control method | |
KR102037129B1 (en) | Apparatus and Method for Compensating Position of Vehicle, System for Compensating Position of Vehicle and Unmanned Vehicle Using the Same | |
US11436843B2 (en) | Lane mapping and localization using periodically-updated anchor frames | |
JP2009074861A (en) | Travel measuring device and position measuring device | |
JP2018189457A (en) | Information processing device | |
JP5980283B2 (en) | Billing system | |
JP2021043486A (en) | Position estimating device | |
WO2023037570A1 (en) | On-board processing device, vehicle control device, and self-position estimation method | |
RU2772620C1 (en) | Creation of structured map data with vehicle sensors and camera arrays | |
CN118089754A (en) | Method and computing unit for creating a road traffic network map representation for vehicle navigation | |
CN111157015A (en) | Method and system for creating path information | |
CN117405071A (en) | Intelligent rail station-entering pose measurement method based on visual sensing, storage medium and system | |
KR20110075119A (en) | Blackbox for vehicle and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160726 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5980283 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |