JP2011164069A - Position correction system - Google Patents

Position correction system Download PDF

Info

Publication number
JP2011164069A
JP2011164069A JP2010030406A JP2010030406A JP2011164069A JP 2011164069 A JP2011164069 A JP 2011164069A JP 2010030406 A JP2010030406 A JP 2010030406A JP 2010030406 A JP2010030406 A JP 2010030406A JP 2011164069 A JP2011164069 A JP 2011164069A
Authority
JP
Japan
Prior art keywords
vehicle
feature
angle
moving body
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010030406A
Other languages
Japanese (ja)
Other versions
JP5355443B2 (en
Inventor
Yosuke Ishiwatari
要介 石渡
Hideaki Maehara
秀明 前原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010030406A priority Critical patent/JP5355443B2/en
Publication of JP2011164069A publication Critical patent/JP2011164069A/en
Application granted granted Critical
Publication of JP5355443B2 publication Critical patent/JP5355443B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a position correction system capable of preventing position error magnification of a moving object, by correcting a moving object's position, as well as, a moving object's angle detected by an angle detection means. <P>SOLUTION: The position correction system includes a position detection means for detecting the present position of a vehicle 1; a gyroscope 24 for detecting an angle of the vehicle 1 to a given reference; a feature position data 35 where positions of features 2, in a travel range of the vehicle 1 are recorded in advance; a camera 21 for taking an image of the surrounding of the vehicle 1; a laser range finder 22 for measuring the distance between the vehicle 1 and the surrounding environment; and a position correcting unit 12 which finds the relative relation between the vehicle 1 and a specific feature 2, from measurement result of the specific feature 2 within the camera image and recorded in the feature position data 35 by using the laser range finder 22, corrects the present position of the vehicle 1, detected by the position detection means, based on the relative relationship, and corrects the angle of the vehicle 1 detected by the gyroscope 24, based on multiple relative relations. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、例えばGPSによって検出された車両の位置を補正する位置補正システムに関する。   The present invention relates to a position correction system that corrects the position of a vehicle detected by, for example, GPS.

現在、屋外測位に関しては、全地球測位システム(GPS:Global Positioning System)が主流となっている。GPSは、GPS衛星からのGPS信号を受信し、受信したGPS信号に基づいて地球上における移動体(例えば、車両)の位置を検出するものである。   Currently, for outdoor positioning, a global positioning system (GPS) has become the mainstream. The GPS receives a GPS signal from a GPS satellite and detects the position of a moving body (for example, a vehicle) on the earth based on the received GPS signal.

しかしながら、高層建造物の多い都市部等では、例えばビルの谷間のように、測定場所からGPS衛星を見ることができない場合があり、測定環境が悪化することがある。測定環境が悪化すると、車両の位置を全く検出できない場合や、測定誤差が大きくなる場合がある。   However, in urban areas where there are many high-rise buildings, GPS satellites may not be seen from the measurement location, for example, in valleys of buildings, and the measurement environment may deteriorate. If the measurement environment deteriorates, the vehicle position may not be detected at all, or the measurement error may increase.

そこで、GPS信号の受信状況が悪い環境においては、他の方法によって車両の位置を検出する必要がある。一般的には、車両の角度(走行方向)または角速度を検出するジャイロスコープおよび車両の加速度を検出する加速度センサ等のデバイスを車両に別途搭載し、GPSで車両の位置を検出できない場合に、ジャイロスコープおよび加速度センサからの出力に基づいて、車両の位置を算出している。   Therefore, in an environment where the GPS signal reception condition is poor, it is necessary to detect the position of the vehicle by another method. Generally, when a device such as a gyroscope that detects a vehicle angle (traveling direction) or angular velocity and an acceleration sensor that detects vehicle acceleration is separately mounted on the vehicle and the position of the vehicle cannot be detected by GPS, the gyroscope The position of the vehicle is calculated based on outputs from the scope and the acceleration sensor.

また、このとき、車両に搭載されたカメラおよびレーザからの出力に基づいて、車両と周辺地物との相対位置関係を算出し、算出された相対位置関係を用いて、ジャイロスコープおよび加速度センサの出力に基づいて算出された車両の位置を補正する現在地検出装置が提案されている(例えば、特許文献1参照)。   At this time, the relative positional relationship between the vehicle and the surrounding features is calculated based on the output from the camera and the laser mounted on the vehicle, and the gyroscope and the acceleration sensor are calculated using the calculated relative positional relationship. A current position detection device that corrects the position of a vehicle calculated based on an output has been proposed (see, for example, Patent Document 1).

特開2007−232690号公報JP 2007-232690 A

しかしながら、従来技術には、以下のような課題がある。
従来の現在地検出装置では、車両の位置を補正することはできるものの、車両の角度(走行方向)または角速度を補正することはできない。これは、車両の角度(または角速度)を検出する手段を、ジャイロスコープのみに依存しているからである。
However, the prior art has the following problems.
In the conventional current position detection device, the position of the vehicle can be corrected, but the angle (traveling direction) or angular velocity of the vehicle cannot be corrected. This is because the means for detecting the angle (or angular velocity) of the vehicle depends only on the gyroscope.

すなわち、従来の現在地検出装置では、「補正の瞬間」における車両の位置を補正することはできるが、ジャイロスコープで検出された車両の角度に誤差が含まれている場合には、車両位置の補正後、すぐに車両の位置に誤差が生じるという問題がある。なお、この誤差は、走行距離が長くなるにつれて大きくなる。   In other words, the conventional current position detection device can correct the position of the vehicle at the “correction moment”, but if the vehicle angle detected by the gyroscope includes an error, the correction of the vehicle position is performed. Later, there is a problem that an error occurs in the position of the vehicle immediately. This error increases as the travel distance increases.

さらに、ジャイロスコープ等のデバイスには、使用している間に誤差が増加する誤差蓄積の問題がある。そのため、何らかの形でジャイロスコープの誤差を解消しなければ、測定誤差が大きくなるという問題もある。   Furthermore, devices such as gyroscopes have the problem of error accumulation, which increases the error during use. Therefore, if the error of the gyroscope is not eliminated in some way, there is a problem that the measurement error increases.

この発明は、上記のような課題を解決するためになされたものであり、移動体の位置を補正するとともに、角度検出手段で検出された移動体の角度を補正して、移動体の位置誤差の拡大を防止することができる位置補正システムを得ることを目的とする。   The present invention has been made in order to solve the above-described problems, and corrects the position of the moving body and corrects the angle of the moving body detected by the angle detection means, thereby correcting the position error of the moving body. An object of the present invention is to obtain a position correction system that can prevent the enlargement of the image.

この発明に係る位置補正システムは、移動体の現在位置を検出する位置検出手段と、移動体の所定の基準に対する角度を検出する角度検出手段と、移動体の移動範囲における地物の位置があらかじめ記録された地物位置記録手段と、移動体の周囲を撮影する撮影手段と、移動体の周囲にレーザを送出して、移動体と周辺環境との距離を測定する距離測定手段と、撮影手段で撮影された画像内における、地物位置記録手段に記録された特定の地物に対する距離測定手段による測定結果から移動体と特定の地物との相対関係を求め、相対関係に基づいて位置検出手段で検出された移動体の現在位置を補正するとともに、複数回の相対関係に基づいて角度検出手段で検出された移動体の角度を補正する位置補正手段とを備えたものである。   The position correction system according to the present invention includes a position detection unit that detects a current position of a moving body, an angle detection unit that detects an angle of the moving body with respect to a predetermined reference, and a position of a feature in a moving range of the moving body in advance. Recorded feature position recording means, photographing means for photographing the surroundings of the moving body, distance measuring means for sending a laser around the moving body and measuring the distance between the moving body and the surrounding environment, and photographing means In the image photographed in step 1, the relative relationship between the moving object and the specific feature is obtained from the measurement result of the distance measurement unit with respect to the specific feature recorded in the feature position recording unit, and the position is detected based on the relative relationship. And a position correcting means for correcting the current position of the moving body detected by the means and correcting the angle of the moving body detected by the angle detecting means based on a plurality of relative relationships.

この発明に係る位置補正システムによれば、位置補正手段は、撮影手段で撮影された画像内における、地物位置記録手段に記録された特定の地物に対する距離測定手段による測定結果から移動体と特定の地物との相対関係を求め、複数回の相対関係に基づいて角度検出手段で検出された移動体の角度を補正する。
そのため、移動体の位置を補正するとともに、角度検出手段で検出された移動体の角度を補正して、移動体の位置誤差の拡大を防止することができる位置補正システムを得ることができる。
According to the position correction system of the present invention, the position correction unit is configured to detect the moving object from the measurement result by the distance measurement unit for the specific feature recorded in the feature position recording unit in the image captured by the imaging unit. A relative relationship with a specific feature is obtained, and the angle of the moving body detected by the angle detection means is corrected based on the plurality of relative relationships.
Therefore, it is possible to obtain a position correction system capable of correcting the position of the moving body and correcting the angle of the moving body detected by the angle detection unit to prevent the position error of the moving body from being enlarged.

この発明の実施の形態1に係る位置補正システムを搭載した車両を示す構成図である。It is a block diagram which shows the vehicle carrying the position correction system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る位置補正システムを含むシステム全体を示すブロック構成図である。It is a block block diagram which shows the whole system containing the position correction system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る位置補正システムを搭載した車両において、2回の車両補正を行った場合の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship at the time of performing vehicle correction twice in the vehicle carrying the position correction system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る位置補正システムの位置補正部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the position correction part of the position correction system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る位置補正システムにおいて、カメラの光軸中心を原点とした座標系で表された点群が、カメラ画像内のどの座標に映るかを表す計算式を示す説明図である。In the position correction system which concerns on Embodiment 1 of this invention, explanatory drawing which shows the calculation formula showing in which coordinate in the camera image the point group represented by the coordinate system which made the optical axis center of the camera the origin is reflected It is. この発明の実施の形態1に係る位置補正システムにおける車両座標系から平面直角座標系への変換、およびその際のジャイロスコープの角度誤差をεとしたときの誤差値を算出する計算式を示す説明図である。Description of a calculation formula for calculating an error value when ε is an angle error of a gyroscope at the time of conversion from a vehicle coordinate system to a plane rectangular coordinate system in the position correction system according to Embodiment 1 of the present invention. FIG. この発明の実施の形態1に係る位置補正システムの効果を説明するための説明図である。It is explanatory drawing for demonstrating the effect of the position correction system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る位置補正システムの効果を説明するための説明図である。It is explanatory drawing for demonstrating the effect of the position correction system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る位置補正システムの効果を、従来技術と比較して示す説明図である。It is explanatory drawing which shows the effect of the position correction system which concerns on Embodiment 1 of this invention compared with a prior art.

以下、この発明の位置補正システムの好適な実施の形態につき図面を用いて説明するが、各図において同一、または相当する部分については、同一符号を付して説明する。
なお、以下の実施の形態では、この位置補正システムが測定対象となる車両に搭載されている場合について説明する。
Hereinafter, preferred embodiments of the position correction system of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts will be described with the same reference numerals.
In the following embodiments, a case will be described in which this position correction system is mounted on a vehicle to be measured.

実施の形態1.
図1は、この発明の実施の形態1に係る位置補正システムを搭載した車両1(移動体)を示す構成図である。また、図2は、この発明の実施の形態1に係る位置補正システムを含むシステム全体を示すブロック構成図である。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram showing a vehicle 1 (moving body) equipped with a position correction system according to Embodiment 1 of the present invention. FIG. 2 is a block configuration diagram showing the entire system including the position correction system according to Embodiment 1 of the present invention.

図1、2において、このシステムは、制御装置10、カメラ21(撮影手段)、レーザレンジファインダ22(距離測定手段)、GPS受信機23(位置検出手段)、ジャイロスコープ24(角度検出手段)、カメラ撮影データ31、カメラ撮影時刻データ32、距離測定データ33、距離測定時刻データ34および地物位置データ35(地物位置記録手段)を備えている。   1 and 2, this system includes a control device 10, a camera 21 (imaging means), a laser range finder 22 (distance measurement means), a GPS receiver 23 (position detection means), a gyroscope 24 (angle detection means), Camera photographing data 31, camera photographing time data 32, distance measurement data 33, distance measurement time data 34, and feature position data 35 (feature position recording means) are provided.

カメラ21は、車両1の前方を定期的に撮影し、撮影した画像を制御装置10に出力してカメラ撮影データ31に記録するとともに、撮影時刻をカメラ撮影時刻データ32に記録する。レーザレンジファインダ22は、車両1の前方にレーザを送出して、車両1と周辺環境との距離を測定し、測定した距離を制御装置10に出力して距離測定データ33に記録するとともに、測定時刻を距離測定時刻データ34に記録する。   The camera 21 periodically photographs the front of the vehicle 1, outputs the photographed image to the control device 10 and records it in the camera photographing data 31, and records the photographing time in the camera photographing time data 32. The laser range finder 22 sends a laser in front of the vehicle 1, measures the distance between the vehicle 1 and the surrounding environment, outputs the measured distance to the control device 10, records it in the distance measurement data 33, and measures the distance. The time is recorded in the distance measurement time data 34.

このとき、レーザレンジファインダ22は、レーザを送出する角度を定期的に変化させて、車両1の前方全体をカバーする。
なお、レーザレンジファインダ22による周辺環境との距離測定の頻度は、カメラ21による車両1の前方撮影の頻度よりも高いものとする。一般的には、レーザレンジファインダ22は、車両1の周囲を1秒間に50回以上走査し、カメラ21は、車両1の前方を1秒間に5回程度撮影する。
At this time, the laser range finder 22 periodically changes the angle at which the laser is transmitted to cover the entire front of the vehicle 1.
The frequency of distance measurement with the surrounding environment by the laser range finder 22 is assumed to be higher than the frequency of photographing the vehicle 1 in front of the camera 21. In general, the laser range finder 22 scans around the vehicle 1 50 times or more per second, and the camera 21 captures the front of the vehicle 1 about 5 times per second.

GPS受信機23は、GPS衛星(図示せず)からのGPS信号を受信し、受信したGPS信号を制御装置10に出力する。ジャイロスコープ24は、車両1の所定の基準に対する角度(走行方向)または角速度を検出し、検出結果を制御装置10に出力する。ここでは、ジャイロスコープ24は、車両1の角度(走行方向)を検出しているものとする。   The GPS receiver 23 receives a GPS signal from a GPS satellite (not shown), and outputs the received GPS signal to the control device 10. The gyroscope 24 detects an angle (traveling direction) or angular velocity with respect to a predetermined reference of the vehicle 1 and outputs a detection result to the control device 10. Here, it is assumed that the gyroscope 24 detects the angle (traveling direction) of the vehicle 1.

制御装置10は、位置検出部11(位置検出手段)と、位置補正部12(位置補正手段)とを有している。また、地物位置データ35には、車両1が走行する環境下における地物2の位置があらかじめ測定され、測定された位置情報が記録されている。ただし、全ての地物の位置を測定することは困難なので、一部の地物についてのみ位置が測定される。   The control device 10 includes a position detection unit 11 (position detection unit) and a position correction unit 12 (position correction unit). In the feature position data 35, the position of the feature 2 in the environment in which the vehicle 1 travels is measured in advance, and the measured position information is recorded. However, since it is difficult to measure the positions of all the features, the positions are measured only for some of the features.

位置検出部11は、GPS受信機23からのGPS信号に基づいて、地球上における車両1の位置を検出する。
位置補正部12は、GPS衛星からのGPS信号を受信できない場合に、カメラ21による撮影結果、レーザレンジファインダ22による測定結果および地物位置データ35に記録された位置情報に基づいて位置検出部11で検出された車両1の位置を補正するとともに、ジャイロスコープ24で検出された車両1の角度を補正する。
The position detector 11 detects the position of the vehicle 1 on the earth based on the GPS signal from the GPS receiver 23.
When the GPS signal from the GPS satellite cannot be received, the position correction unit 12 is based on the shooting result by the camera 21, the measurement result by the laser range finder 22, and the position information recorded in the feature position data 35. In addition to correcting the position of the vehicle 1 detected in step 1, the angle of the vehicle 1 detected by the gyroscope 24 is corrected.

なお、位置検出部11による車両1の位置検出に関しては、他のセンサ等から得られた情報、例えば車両速度、車輪の回転数、ハンドル角度といった車両情報を併せて利用してもよい。また、車両1の角度検出に関しては、ジャイロスコープ24に限定されるものではなく、例えばGPS受信機23を複数搭載して角度を検出してもよい。   In addition, regarding the position detection of the vehicle 1 by the position detection unit 11, information obtained from other sensors or the like, for example, vehicle information such as the vehicle speed, the number of wheel rotations, and the handle angle may be used together. The angle detection of the vehicle 1 is not limited to the gyroscope 24. For example, a plurality of GPS receivers 23 may be mounted to detect the angle.

ここで、車両1の位置検出おいて、真値として使える値に注目すると、正しい値として得られるものは、地物位置データ35に記録された地物2の位置のみである。そのため、この地物2の位置から車両1の角度を求めることができれば、ジャイロスコープ24で検出された車両1の角度を、地物2の位置から求めた角度によって補正することが可能となる。このとき、真値である地物2の位置から求めた角度と、誤差が蓄積するジャイロスコープ24で検出された角度とでは、どちらが正確かは明らかである。   Here, when attention is paid to a value that can be used as a true value in the position detection of the vehicle 1, only the position of the feature 2 recorded in the feature position data 35 can be obtained as a correct value. Therefore, if the angle of the vehicle 1 can be obtained from the position of the feature 2, the angle of the vehicle 1 detected by the gyroscope 24 can be corrected by the angle obtained from the position of the feature 2. At this time, it is clear which is more accurate between the angle obtained from the true position of the feature 2 and the angle detected by the gyroscope 24 in which errors accumulate.

一方、レーザレンジファインダ22によるレーザ測定の現状を鑑みるに、測定の際に、地物2が1回だけ認識される状態というのは稀である。このことは、レーザ測定の際の車両速度が比較的低速(約30km/h)であり、また、カメラ21による撮影頻度も少なくない(1秒間に5回程度)ためである。つまり、1つの地物2に対して、複数回の撮影が可能であるということである。   On the other hand, in view of the current state of laser measurement by the laser range finder 22, it is rare that the feature 2 is recognized only once during the measurement. This is because the vehicle speed at the time of laser measurement is relatively low (about 30 km / h), and the frequency of photographing by the camera 21 is not small (about 5 times per second). That is, a single feature 2 can be shot multiple times.

さらに、上述したように、レーザレンジファインダ22による周辺環境との距離測定の頻度は、カメラ21による車両1の前方撮影の頻度よりも高いことから、複数のカメラ画像のそれぞれに対応したレーザ測定結果が得られる可能性が高い。
すなわち、1つの地物2に対して、車両1と地物2との相対関係が、複数回得られる可能性が高いと考えられる。
Furthermore, as described above, since the frequency of distance measurement with the surrounding environment by the laser range finder 22 is higher than the frequency of photographing the front of the vehicle 1 by the camera 21, the laser measurement result corresponding to each of a plurality of camera images. Is likely to be obtained.
That is, it is considered highly likely that the relative relationship between the vehicle 1 and the feature 2 is obtained a plurality of times for one feature 2.

そこで、この実施の形態1では、ジャイロスコープ24で検出された車両1の角度を補正するために、上記複数回の車両1と地物2との相対関係に基づいて、車両1の角度を算出する方法を示す。以下、車両1と地物2との相対関係を求めることを、「車両補正」と称する。   Therefore, in the first embodiment, in order to correct the angle of the vehicle 1 detected by the gyroscope 24, the angle of the vehicle 1 is calculated based on the relative relationship between the vehicle 1 and the feature 2 a plurality of times. How to do. Hereinafter, obtaining the relative relationship between the vehicle 1 and the feature 2 is referred to as “vehicle correction”.

なお、同一の地物2について、車両補正を複数回行う際、その補正の時間間隔(使用したレーザ測定結果を得た時刻の間隔)は、高々数百ミリ秒程度である。このとき、車両1が交差点等で方向を変えようとしていない限り、急激に車両1の走行方向が変わるとは考えにくい。すなわち、車両補正の間の車両1は、直進している(走行方向が変化しない)と近似することができる。   When the vehicle correction is performed a plurality of times for the same feature 2, the time interval for the correction (the time interval when the used laser measurement result is obtained) is about several hundred milliseconds at most. At this time, unless the vehicle 1 is about to change direction at an intersection or the like, it is unlikely that the traveling direction of the vehicle 1 will change suddenly. That is, it can be approximated that the vehicle 1 during vehicle correction is traveling straight (the traveling direction does not change).

図3は、この発明の実施の形態1に係る位置補正システムを搭載した車両1において、2回の車両補正を行った場合の位置関係を示す説明図である。
図3において、1回目の車両補正による車両1の位置から、2回目の車両補正による車両1の位置を直線で結んだ方向が、車両1の角度(走行方向)となる。また、角度の誤差は、2回目の車両補正による距離に基づいて算出することができる。
FIG. 3 is an explanatory diagram showing the positional relationship when the vehicle correction is performed twice in the vehicle 1 equipped with the position correction system according to Embodiment 1 of the present invention.
In FIG. 3, the direction (traveling direction) of the vehicle 1 is a direction in which the position of the vehicle 1 by the first vehicle correction is connected by a straight line from the position of the vehicle 1 by the second vehicle correction. Further, the angle error can be calculated based on the distance by the second vehicle correction.

なお、実際には、3次元空間上では、角度は3つ必要なので、図3だけでは算出することができないが、同処理を3式立てる(地物2を4回認識する)ことによって算出することができる。   Actually, since three angles are required in the three-dimensional space, it cannot be calculated only by FIG. 3, but it is calculated by setting up three sets of the same processing (recognizing the feature 2 four times). be able to.

次に、図4に示したフローチャートを参照しながら、位置補正部12の具体的な動作について説明する。
図4は、カメラ撮影データ31に記録されたカメラ21による撮影結果と、距離測定データ33に記録されたレーザレンジファインダ22による測定結果に基づいて、車両1の位置および角度を補正するフローを示したものである。ここでは、GPS受信機23の受信感度が悪く、車両1の位置精度がメートルオーダでずれている可能性があるものとする。また、ジャイロスコープ24にも誤差(1度未満〜数度程度)がのっているとする。
Next, a specific operation of the position correction unit 12 will be described with reference to the flowchart shown in FIG.
FIG. 4 shows a flow for correcting the position and angle of the vehicle 1 based on the photographing result by the camera 21 recorded in the camera photographing data 31 and the measurement result by the laser range finder 22 recorded in the distance measurement data 33. It is a thing. Here, it is assumed that the reception sensitivity of the GPS receiver 23 is poor and the positional accuracy of the vehicle 1 may be deviated on the order of meters. It is also assumed that the gyroscope 24 has an error (less than 1 degree to several degrees).

まず、位置補正部12は、カメラ撮影データ31に記録されたカメラ画像を時系列にチェックし、画像処理によって地物2の検知を行う(ステップS1)。
続いて、位置補正部12は、カメラ画像内(車両1の前方)に地物2があるか否かを判定する(ステップS2)。
First, the position correction unit 12 checks the camera image recorded in the camera shooting data 31 in time series, and detects the feature 2 by image processing (step S1).
Subsequently, the position correction unit 12 determines whether or not the feature 2 is present in the camera image (in front of the vehicle 1) (step S2).

ステップS2において、カメラ画像内に地物2がある(すなわち、Yes)と判定された場合には、位置補正部12は、その地物2の位置真値が地物位置データ35に記録されているか否かを判定する(ステップS3)。
これは、カメラ21による撮影時の位置として、位置検出部11で暫定的に検出された車両1の位置(メートルオーダの誤差を含む)を利用して範囲を絞り込むことによって行われる。具体的には、メートルオーダの誤差があり得るので、カメラ21による撮影時の位置から10メートル四方程度の狭い範囲を対象として、地物位置データ35に該当すると考えられるデータがあるか否かを判定する。
If it is determined in step S2 that the feature 2 is present in the camera image (that is, Yes), the position correction unit 12 records the true position value of the feature 2 in the feature position data 35. It is determined whether or not there is (step S3).
This is performed by narrowing down the range using the position of the vehicle 1 (including a metric order error) temporarily detected by the position detection unit 11 as the position at the time of photographing by the camera 21. Specifically, since there may be a metric error, it is determined whether or not there is data that is considered to correspond to the feature position data 35 for a narrow range of about 10 meters square from the position taken by the camera 21. judge.

ステップS3において、その地物2の位置真値が地物位置データ35に記録されている(すなわち、Yes)と判定された場合には、位置補正部12は、レーザレンジファインダ22による測定結果(レーザによる測定結果を3次元座標に直したもの。以下、「点群」と称する)で地物2に当っているものがあるか否かを判定する(ステップS4)。
具体的には、点群の位置をカメラ画像上にマッピングして画像内位置を算出し、地物2の範囲内に収まる1つを選択する。
In step S3, when it is determined that the true position value of the feature 2 is recorded in the feature position data 35 (that is, Yes), the position correction unit 12 obtains the measurement result by the laser range finder 22 ( It is determined whether or not the measurement result obtained by the laser is converted to the three-dimensional coordinates (hereinafter referred to as “point group”) and hitting the feature 2 (step S4).
Specifically, the position of the point cloud is mapped on the camera image to calculate the position in the image, and one that falls within the range of the feature 2 is selected.

図5は、この発明の実施の形態1に係る位置補正システムにおいて、カメラ21の光軸中心を原点とした座標系で表された点群が、カメラ画像内のどの座標(画像内座標)に映るかを表す計算式を示す説明図である。点群の座標計算においては、レーザレンジファインダ22による測定結果(距離)を、一旦レーザ送出位置を原点とした座標系であるレーザ座標系の座標として算出し、次にレーザレンジファインダ22の車両座標系における設置位置および設置角度をパラメータとして車両座標系に変換する。この車両座標系に変換した座標値と、カメラ21の車両座標系における設置位置および設置角度とに基づいて、点群のカメラ座標系における位置を算出することができる。   FIG. 5 shows in the position correction system according to the first embodiment of the present invention, at which coordinates (coordinates in the image) the point group represented by the coordinate system with the optical axis center of the camera 21 as the origin is in the camera image. It is explanatory drawing which shows the calculation formula showing whether it is reflected. In the coordinate calculation of the point group, the measurement result (distance) by the laser range finder 22 is once calculated as the coordinates of the laser coordinate system, which is the coordinate system with the laser transmission position as the origin, and then the vehicle coordinates of the laser range finder 22 The installation position and the installation angle in the system are converted into the vehicle coordinate system as parameters. Based on the coordinate value converted into the vehicle coordinate system and the installation position and installation angle of the camera 21 in the vehicle coordinate system, the position of the point cloud in the camera coordinate system can be calculated.

ここで、車両座標系は、車両1の前方方向をx軸、車両1の上方方向をy軸、車両1の右方向をz軸とし、座標値が距離(単位はメートル)に等しい座標系と定義する。また、カメラ座標系は、x、y、z軸が車両座標系と同じ方向を向き、カメラ21のレンズ中心を原点とする座標系と定義する。また、レーザ座標系は、x、y、z軸が車両座標系と同じ方向を向き、レーザ送出位置を原点とする座標系と定義する。   Here, the vehicle coordinate system is a coordinate system in which the forward direction of the vehicle 1 is the x axis, the upward direction of the vehicle 1 is the y axis, the right direction of the vehicle 1 is the z axis, and the coordinate value is equal to the distance (unit is meter). Define. The camera coordinate system is defined as a coordinate system in which the x, y, and z axes are oriented in the same direction as the vehicle coordinate system, and the lens center of the camera 21 is the origin. The laser coordinate system is defined as a coordinate system in which the x, y, and z axes are oriented in the same direction as the vehicle coordinate system and the laser transmission position is the origin.

ステップS4において、地物2に当たっている点群がある(すなわち、Yes)と判定され、地物2の範囲内に収まる1つの点群が選択されて、車両座標系における地物位置座標(すなわち、車両1と地物2との位置関係)が求められた場合には、位置補正部12は、地物位置座標を絶対距離系(平面直角座標系)に変換する(ステップS5)。   In step S4, it is determined that there is a point cloud that hits the feature 2 (that is, Yes), one point group that falls within the range of the feature 2 is selected, and the feature position coordinates (that is, the vehicle coordinate system) When the positional relationship between the vehicle 1 and the feature 2 is determined, the position correction unit 12 converts the feature position coordinates into an absolute distance system (planar rectangular coordinate system) (step S5).

一方、ステップS2において、カメラ画像内に地物2がない(すなわち、No)と判定された場合、ステップS3において、その地物2の位置真値が地物位置データ35に記録されていない(すなわち、No)と判定された場合およびステップS4において、地物2に当たっている点群がない(すなわち、No)と判定された場合には、位置補正部12は、直ちに補正処理を終了する。   On the other hand, if it is determined in step S2 that there is no feature 2 in the camera image (that is, No), the true position value of the feature 2 is not recorded in the feature position data 35 in step S3 ( That is, when it is determined No) and when it is determined in step S4 that there is no point group that hits the feature 2 (that is, No), the position correction unit 12 immediately ends the correction process.

なお、平面直角座標系とは、日本ではある原点(日本国内に19箇所あり、測定対象の位置により異なる)から緯度方向をx軸、経度方向をy軸、高さ方向をz軸とした直交座標系である。平面直角座標系については、国土地理院、平面直角座標系(平成十四年国土交通省告示第九号)(http://www.gsi.go.jp/LAW/heimencho.html)に示されているので、詳細な説明は省略する。例えば、東京都(島部除く)内では、東経139度50分0秒、北緯36度0分0秒(千葉県野田市内)を原点とする。   The plane rectangular coordinate system is orthogonal from the origin in Japan (19 locations in Japan, depending on the position of the measurement target), with the latitude direction as the x-axis, the longitude direction as the y-axis, and the height direction as the z-axis. Coordinate system. The plane Cartesian coordinate system is shown in the Geospatial Information Authority of Japan, Plane Cartesian Coordinate System (Ministry of Land, Infrastructure, Transport and Tourism Notification No. 9 of 2004) (http://www.gsi.go.jp/LAW/heimencho.html). Therefore, detailed description is omitted. For example, in Tokyo (excluding islands), the origin is 139 degrees 50 minutes 0 seconds east longitude 36 degrees 0 minutes 0 seconds north latitude (Noda City, Chiba Prefecture).

ここで、車両座標系から平面直角座標系に変換する際、車両の平面直角座標系における向きが必要となる。
図6は、この発明の実施の形態1に係る位置補正システムにおける車両座標系から平面直角座標系への変換、およびその際のジャイロスコープ24の角度誤差をεとしたときの誤差値を算出する計算式を示す説明図である。ただし、車両1が地面に対して垂直に走行している(車両座標系y軸と平面直角座標の高さ方向とが一致する)ものとする。
Here, when converting from the vehicle coordinate system to the planar rectangular coordinate system, the orientation of the vehicle in the planar rectangular coordinate system is required.
FIG. 6 shows the conversion from the vehicle coordinate system to the plane rectangular coordinate system in the position correction system according to the first embodiment of the present invention, and the error value when the angle error of the gyroscope 24 at that time is ε. It is explanatory drawing which shows a calculation formula. However, it is assumed that the vehicle 1 is traveling vertically with respect to the ground (the vehicle coordinate system y-axis and the height direction of the plane rectangular coordinates coincide).

図6から分かるように、測定誤差Δx、Δyは、車両座標系x軸(車両進行方向)の座標値、z軸(車両進行方向右向き)の座標値および角度誤差に依存する。このとき、ジャイロスコープ24の角度誤差ε=2°とすると、sin(ε/2)=約0.01なので、x、z軸方向の距離が10m程度ならば10〜20cm程度の誤差となる。これは、上述した位置検出部11で暫定的に検出された位置の誤差に比べれば小さい。   As can be seen from FIG. 6, the measurement errors Δx and Δy depend on the coordinate value of the vehicle coordinate system x-axis (vehicle traveling direction), the coordinate value of the z-axis (rightward in the vehicle traveling direction), and the angle error. At this time, assuming that the angle error ε = 2 ° of the gyroscope 24 is sin (ε / 2) = about 0.01, if the distance in the x and z axis directions is about 10 m, an error of about 10-20 cm is obtained. This is small compared to the position error temporarily detected by the position detection unit 11 described above.

続いて、位置補正部12は、ステップS5で求められた平面直角座標における地物2の車両相対位置と、地物位置データ35に記録された地物2の位置真値とに基づいて、車両1の位置を求め、車両1の位置を補正する(ステップS6)。なお、地物位置データ35が他の座標系でデータを記録している場合には、平面直角座標系に変換する必要がある。   Subsequently, the position correction unit 12 determines the vehicle based on the vehicle relative position of the feature 2 in the plane rectangular coordinates obtained in step S5 and the true position value of the feature 2 recorded in the feature position data 35. 1 is obtained, and the position of the vehicle 1 is corrected (step S6). When the feature position data 35 is recorded in another coordinate system, it is necessary to convert it into a plane rectangular coordinate system.

次に、位置補正部12は、この地物2による位置補正が2回目であるか否かを判定する(ステップS7)。
ステップS7において、この地物2による位置補正が2回目でない(1回目である)(すなわち、No)と判定された場合には、位置補正部12は、この補正後の車両1の位置を記録し(ステップS8)、図4の処理を終了する。
Next, the position correction unit 12 determines whether or not the position correction by the feature 2 is the second time (step S7).
In step S7, when it is determined that the position correction by the feature 2 is not the second time (the first time) (that is, No), the position correction unit 12 records the position of the vehicle 1 after the correction. (Step S8), and the process of FIG.

一方、ステップS7において、この地物2による位置補正が2回目である(すなわち、Yes)と判定された場合には、位置補正部12は、前回のサイクルのステップS8で記録された1回目の位置補正時における車両1の位置と、今回のサイクルのステップS6で補正された車両1の位置とに基づいて、車両1の角度を算出する(ステップS9)。   On the other hand, when it is determined in step S7 that the position correction by the feature 2 is the second time (that is, Yes), the position correction unit 12 performs the first time recorded in step S8 of the previous cycle. Based on the position of the vehicle 1 at the time of position correction and the position of the vehicle 1 corrected in step S6 of the current cycle, the angle of the vehicle 1 is calculated (step S9).

1つの地物2が複数回(例えば、2回)検知できる場合、それぞれの検知時における車両1の位置は、時間にしてカメラ21の撮影間隔程度であり、それほど離れていないと考えられる。また、曲がり角を曲がっているのではない限り1秒未満の間隔で突然車両1の角度が変化するとは考えにくいことから、この2つの車両1の位置の間では、車両1が直線移動(すなわち、平面直角座標系での向きが互いに等しい)をしていると仮定できる。   When one feature 2 can be detected a plurality of times (for example, twice), the position of the vehicle 1 at the time of each detection is about the shooting interval of the camera 21 in terms of time, and is not so far away. Further, since it is unlikely that the angle of the vehicle 1 will suddenly change at an interval of less than 1 second unless it is turning at a corner, the vehicle 1 moves linearly between the positions of the two vehicles 1 (ie, It can be assumed that the directions in the plane rectangular coordinate system are equal to each other.

さらに、車両1が直線運動している際に、短時間でジャイロスコープ24の角度誤差(ジャイロ誤差)が急激に変動することはない。これらのことから、図6に示した角度誤差による測定誤差は、図7に示された計算式(X−XおよびY−Y)によって、図8に示されるように軽減されることが分かる。ここで、車両位置にほとんど変化が無い(図8におけるnr2−nr1およびer2−er1が0に近い)場合、角度誤差による測定誤差は、ほぼ0の近傍の値となる。これにより、図7によって得られる角度値が、正確さを増していることが分かる。 Furthermore, when the vehicle 1 is moving linearly, the angle error (gyro error) of the gyroscope 24 does not fluctuate rapidly in a short time. Therefore, the measurement error due to the angle error shown in FIG. 6 is reduced as shown in FIG. 8 by the calculation formulas (X 2 −X 1 and Y 2 −Y 1 ) shown in FIG. I understand that. Here, there is little change in the vehicle position (n r2 -n r1 and e r2 -e r1 in FIG. 8 is close to 0), the measurement error due to the angle error is a value in the vicinity of substantially zero. Thereby, it can be seen that the angle value obtained by FIG. 7 increases the accuracy.

続いて、位置補正部12は、ステップS9で算出された車両1の角度に基づいて、ジャイロスコープ24で検出された車両1の角度を補正し(ステップS10)、図4の処理を終了する。これにより、ジャイロスコープ24の角度誤差(図5に示したεに相当する)が算出され、車両1の角度が補正されたことが分かる。   Subsequently, the position correction unit 12 corrects the angle of the vehicle 1 detected by the gyroscope 24 based on the angle of the vehicle 1 calculated in step S9 (step S10), and ends the process of FIG. Thereby, the angle error (corresponding to ε shown in FIG. 5) of the gyroscope 24 is calculated, and it can be seen that the angle of the vehicle 1 is corrected.

このように、車両1の角度値を、地表位置真値と誤差を含む角度値とを用いて補正することができる。角度の誤差は、図9に示されるように、車両1の位置が進むにつれて位置誤差の増加として現れるので、結果的に車両1の測位精度を向上させることにも繋がる。   In this way, the angle value of the vehicle 1 can be corrected using the ground position true value and the angle value including an error. As shown in FIG. 9, the angle error appears as an increase in the position error as the position of the vehicle 1 advances. As a result, the positioning accuracy of the vehicle 1 is improved.

以上のように、実施の形態1によれば、位置補正手段は、撮影手段で撮影された画像内における、地物位置記録手段に記録された特定の地物に対する距離測定手段による測定結果から移動体と特定の地物との相対関係を求め、複数回の相対関係に基づいて角度検出手段で検出された移動体の角度を補正する。
そのため、移動体の位置を補正するとともに、角度検出手段で検出された移動体の角度を補正して、移動体の位置誤差の拡大を防止することができる位置補正システムを得ることができる。
As described above, according to the first embodiment, the position correction unit moves from the measurement result by the distance measurement unit for the specific feature recorded in the feature position recording unit in the image captured by the imaging unit. The relative relationship between the body and the specific feature is obtained, and the angle of the moving body detected by the angle detection means is corrected based on the relative relationship of a plurality of times.
Therefore, it is possible to obtain a position correction system capable of correcting the position of the moving body and correcting the angle of the moving body detected by the angle detection unit to prevent the position error of the moving body from being enlarged.

なお、上記実施の形態1では、レーザレンジファインダ22の測定結果とカメラ21で撮影されたカメラ画像とを利用して車両1と地物2との相対距離を算出すると説明した。しかしながら、これに限定されず、2台のカメラを用いて同時に撮影された2枚の画像を利用し、ステレオ視によって車両1と地物2との位置関係を求めてもよい。
この場合も、上記実施の形態1と同様の効果を得ることができる。
In the first embodiment, it has been described that the relative distance between the vehicle 1 and the feature 2 is calculated using the measurement result of the laser range finder 22 and the camera image captured by the camera 21. However, the present invention is not limited to this, and the positional relationship between the vehicle 1 and the feature 2 may be obtained by stereo viewing using two images captured simultaneously using two cameras.
Also in this case, the same effect as in the first embodiment can be obtained.

また、上記実施の形態1では、カメラ画像のみによって地物2の認識を行っているが、これに限定されず、認識の段階で点群を利用してもよい。すなわち、点群を利用して形状を算出し、カメラ画像を利用して色を求めることによって、3次元的に判定を行うことができる。このとき、地物2との位置関係は、求めた地物2の形状から求めることができる。
この場合も、上記実施の形態1と同様の効果を得ることができる。
In the first embodiment, the feature 2 is recognized only by the camera image. However, the present invention is not limited to this, and a point cloud may be used at the recognition stage. That is, it is possible to make a three-dimensional determination by calculating a shape using a point cloud and obtaining a color using a camera image. At this time, the positional relationship with the feature 2 can be obtained from the shape of the obtained feature 2.
Also in this case, the same effect as in the first embodiment can be obtained.

1 車両、2 地物、11 位置検出部(位置検出手段)、12 位置補正部(位置補正手段)、21 カメラ(撮影手段)、22 レーザレンジファインダ(距離測定手段)、23 GPS受信機(位置検出手段)、24 ジャイロスコープ(角度検出手段)、35 地物位置データ(地物位置記録手段)。   DESCRIPTION OF SYMBOLS 1 Vehicle, 2 features, 11 Position detection part (position detection means), 12 Position correction part (position correction means), 21 Camera (photographing means), 22 Laser range finder (distance measurement means), 23 GPS receiver (position Detection means), 24 gyroscope (angle detection means), 35 feature position data (feature position recording means).

Claims (1)

移動体の現在位置を検出する位置検出手段と、
前記移動体の所定の基準に対する角度を検出する角度検出手段と、
前記移動体の移動範囲における地物の位置があらかじめ記録された地物位置記録手段と、
前記移動体の周囲を撮影する撮影手段と、
前記移動体の周囲にレーザを送出して、前記移動体と周辺環境との距離を測定する距離測定手段と、
前記撮影手段で撮影された画像内における、前記地物位置記録手段に記録された特定の地物に対する前記距離測定手段による測定結果から前記移動体と前記特定の地物との相対関係を求め、前記相対関係に基づいて前記位置検出手段で検出された前記移動体の現在位置を補正するとともに、複数回の前記相対関係に基づいて前記角度検出手段で検出された前記移動体の角度を補正する位置補正手段と、
を備えたことを特徴とする位置補正システム。
Position detecting means for detecting the current position of the moving body;
Angle detecting means for detecting an angle of the moving body with respect to a predetermined reference;
Feature position recording means in which the position of the feature in the moving range of the moving body is recorded in advance;
Photographing means for photographing the periphery of the moving body;
A distance measuring means for sending a laser around the moving body and measuring a distance between the moving body and the surrounding environment;
In the image photographed by the photographing means, obtain a relative relationship between the moving object and the specific feature from the measurement result by the distance measuring means for the specific feature recorded in the feature position recording means, Based on the relative relationship, the current position of the moving body detected by the position detecting unit is corrected, and the angle of the moving body detected by the angle detecting unit is corrected based on the relative relationship a plurality of times. Position correction means;
A position correction system comprising:
JP2010030406A 2010-02-15 2010-02-15 Position correction system Active JP5355443B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010030406A JP5355443B2 (en) 2010-02-15 2010-02-15 Position correction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010030406A JP5355443B2 (en) 2010-02-15 2010-02-15 Position correction system

Publications (2)

Publication Number Publication Date
JP2011164069A true JP2011164069A (en) 2011-08-25
JP5355443B2 JP5355443B2 (en) 2013-11-27

Family

ID=44594901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010030406A Active JP5355443B2 (en) 2010-02-15 2010-02-15 Position correction system

Country Status (1)

Country Link
JP (1) JP5355443B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104501829A (en) * 2014-11-24 2015-04-08 杭州申昊科技股份有限公司 Error correction method of inertial navigation system
GB2569404A (en) * 2017-12-13 2019-06-19 Univ Xihua Positioning method and apparatus
CN109917411A (en) * 2019-04-17 2019-06-21 重庆大学 Obstacle detector and method based on laser ranging and three axis accelerometer
JP2019128309A (en) * 2018-01-26 2019-08-01 アルパイン株式会社 Information processing device, own vehicle location calculation system and vehicle
JP2021148581A (en) * 2020-03-18 2021-09-27 株式会社デンソー Vehicle position identification device and vehicle position identification method
JP7472759B2 (en) 2020-11-10 2024-04-23 株式会社デンソー Position estimation device, position estimation method, and position estimation program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232690A (en) * 2006-03-03 2007-09-13 Denso Corp Present position detection apparatus, map display device and present position detecting method
JP2009053059A (en) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp Object specifying device, object specifying method, and object specifying program
JP2009162518A (en) * 2007-12-28 2009-07-23 Aisin Aw Co Ltd Navigation apparatus and navigation program
JP2010190647A (en) * 2009-02-17 2010-09-02 Mitsubishi Electric Corp Vehicle position measuring instrument and vehicle position measuring program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232690A (en) * 2006-03-03 2007-09-13 Denso Corp Present position detection apparatus, map display device and present position detecting method
JP2009053059A (en) * 2007-08-27 2009-03-12 Mitsubishi Electric Corp Object specifying device, object specifying method, and object specifying program
JP2009162518A (en) * 2007-12-28 2009-07-23 Aisin Aw Co Ltd Navigation apparatus and navigation program
JP2010190647A (en) * 2009-02-17 2010-09-02 Mitsubishi Electric Corp Vehicle position measuring instrument and vehicle position measuring program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104501829A (en) * 2014-11-24 2015-04-08 杭州申昊科技股份有限公司 Error correction method of inertial navigation system
CN104501829B (en) * 2014-11-24 2017-04-12 杭州申昊科技股份有限公司 Error correction method of inertial navigation system
GB2569404A (en) * 2017-12-13 2019-06-19 Univ Xihua Positioning method and apparatus
GB2569404B (en) * 2017-12-13 2020-06-24 Univ Xihua Positioning method and apparatus
JP2019128309A (en) * 2018-01-26 2019-08-01 アルパイン株式会社 Information processing device, own vehicle location calculation system and vehicle
JP7034741B2 (en) 2018-01-26 2022-03-14 アルパイン株式会社 Information processing device, own vehicle position calculation system and vehicle
CN109917411A (en) * 2019-04-17 2019-06-21 重庆大学 Obstacle detector and method based on laser ranging and three axis accelerometer
CN109917411B (en) * 2019-04-17 2023-04-18 重庆大学 Obstacle detection device and method based on laser ranging and triaxial accelerometer
JP2021148581A (en) * 2020-03-18 2021-09-27 株式会社デンソー Vehicle position identification device and vehicle position identification method
JP7342753B2 (en) 2020-03-18 2023-09-12 株式会社デンソー Vehicle location identification device and vehicle location identification method
JP7472759B2 (en) 2020-11-10 2024-04-23 株式会社デンソー Position estimation device, position estimation method, and position estimation program

Also Published As

Publication number Publication date
JP5355443B2 (en) 2013-11-27

Similar Documents

Publication Publication Date Title
US10613231B2 (en) Portable GNSS survey system
US20080319664A1 (en) Navigation aid
US8427536B2 (en) Orientation determination of a mobile station using side and top view images
US11796682B2 (en) Methods for geospatial positioning and portable positioning devices thereof
US20110282580A1 (en) Method of image based navigation for precision guidance and landing
JP5355443B2 (en) Position correction system
WO2011019071A1 (en) System that generates map image integration database and program that generates map image integration database
CN108759834B (en) Positioning method based on global vision
JP5610870B2 (en) Unmanned traveling vehicle guidance device and unmanned traveling vehicle guidance method
TWI412730B (en) Methods and device for detecting distance, identifying positions of targets, and identifying a current position in a smart portable device
TWI556198B (en) Positioning and directing data analysis system and method thereof
CN110737007A (en) Portable positioning device and method for obtaining a geospatial position
KR101444685B1 (en) Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data
JP2009210388A (en) Geographic data collection device
JP2007093483A (en) Positioning system, positioning method, and positioning program
JP2016048172A (en) Image processor, image processing method, and program
CN101782642B (en) Method and device for absolutely positioning measurement target by multi-sensor fusion
JP4986883B2 (en) Orientation device, orientation method and orientation program
US11536857B2 (en) Surface tracking on a survey pole
JP3900365B2 (en) Positioning device and positioning method
JP2010190647A (en) Vehicle position measuring instrument and vehicle position measuring program
US20120026324A1 (en) Image capturing terminal, data processing terminal, image capturing method, and data processing method
JP5886241B2 (en) Portable imaging device
US20100085467A1 (en) Image pickup device capable of providing gps coordinates of subject to be shot and method for detecting gps coordinates thereof
JP2021143861A (en) Information processor, information processing method, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130827

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5355443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250