JP2011232168A - Navigation device - Google Patents

Navigation device Download PDF

Info

Publication number
JP2011232168A
JP2011232168A JP2010102622A JP2010102622A JP2011232168A JP 2011232168 A JP2011232168 A JP 2011232168A JP 2010102622 A JP2010102622 A JP 2010102622A JP 2010102622 A JP2010102622 A JP 2010102622A JP 2011232168 A JP2011232168 A JP 2011232168A
Authority
JP
Japan
Prior art keywords
imaging
image
host vehicle
feature
navigation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010102622A
Other languages
Japanese (ja)
Inventor
Mikio Bando
幹雄 板東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2010102622A priority Critical patent/JP2011232168A/en
Publication of JP2011232168A publication Critical patent/JP2011232168A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a navigation device which can use pictures from a camera for the use other than for map matching between map information and a vehicle location.SOLUTION: The navigation device comprises: a rear camera 24 which takes a picture around a vehicle and outputs an imaging signal; a vibratory gyroscope 14a and a velocity sensor 14b which output a traveling state signal of the vehicle; an operation part 35 which operates calibration information based on the imaging signal outputted by the rear camera 24; and a calibration part 36 which performs the calibration of the vibratory gyroscope 14a and the velocity sensor 14b based on the calibration information.

Description

本発明は、車載用ナビゲーション装置に関する。   The present invention relates to an in-vehicle navigation device.

車両にカメラを搭載し、カメラが撮像した映像を利用して運転の支援を行う技術が知られている。例えば特許文献1には、車両に搭載された複数のカメラの出力を合成し、車両を見下ろす視点の画像を出力する車両用映像表示装置が記載されている。運転者はこの画像を見ることにより、車両周辺の状況を容易に把握することができる。   There is known a technology in which a camera is mounted on a vehicle and driving assistance is performed using an image captured by the camera. For example, Patent Literature 1 describes a vehicle video display device that combines outputs from a plurality of cameras mounted on a vehicle and outputs an image of a viewpoint overlooking the vehicle. The driver can easily grasp the situation around the vehicle by viewing this image.

他方、車両に搭載されたカメラの映像を運転者に提示するだけではなく、ナビゲーション装置の機能の補助に用いる技術が存在する。例えば特許文献2では、カメラの出力から車線を抽出しマップマッチング処理の精度を高めるカーナビゲーション装置が記載されている。   On the other hand, there is a technique that not only presents the video of the camera mounted on the vehicle to the driver but also assists the function of the navigation device. For example, Patent Document 2 describes a car navigation device that extracts a lane from the output of a camera and increases the accuracy of map matching processing.

特開2004−7299号公報JP 2004-7299 A 特開平9−152348号公報Japanese Patent Laid-Open No. 9-152348

特許文献2に開示されているカーナビゲーション装置は、カメラからの映像を、地図情報と自車位置とのマップマッチングにしか利用していなかった。   The car navigation device disclosed in Patent Document 2 uses a video from a camera only for map matching between map information and the vehicle position.

請求項1に係る発明は、自車両の周辺を撮像し撮像信号を出力する撮像手段と、自車両の走行状態を表す信号を出力するセンサと、撮像手段が出力する撮像信号に基づいてキャリブレーション情報を演算する演算手段と、キャリブレーション情報に基づいて、センサのキャリブレーションを行うキャリブレーション手段と、を備えることを特徴とするナビゲーション装置である。
請求項6に係る発明は、自車両の周辺を撮像し撮像信号を出力する撮像手段と、地図情報を記憶する第1の記憶手段と、自車両の現在位置および方位を記憶する第2の記憶手段と、撮像手段が出力する撮像信号に基づいて補正情報を演算する演算手段と、自車両の速度が所定速度以下である場合、補正情報に基づいて、第2の記憶手段が記憶する自車両の現在位置を補正する第1の補正手段と、補正情報と地図情報とに基づいて、第2の記憶手段が記憶する自車両の方位を補正する第2の補正手段とを備えることを特徴とするナビゲーション装置である。
The invention according to claim 1 calibrates based on an image pickup means for picking up an image of the periphery of the host vehicle and outputting an image pickup signal, a sensor for outputting a signal representing the running state of the host vehicle, and an image pickup signal output by the image pickup means. A navigation apparatus comprising: an arithmetic unit that calculates information; and a calibration unit that calibrates a sensor based on calibration information.
The invention according to claim 6 is an image pickup means for picking up an image of the periphery of the own vehicle and outputting an image pickup signal, a first storage means for storing map information, and a second storage for storing the current position and direction of the own vehicle. Means, calculation means for calculating correction information based on an imaging signal output by the imaging means, and the host vehicle stored in the second storage means based on the correction information when the speed of the host vehicle is equal to or lower than a predetermined speed. And a second correction unit for correcting the direction of the host vehicle stored in the second storage unit based on the correction information and the map information. Navigation device.

本発明によれば、カメラからの映像を、地図情報と自車位置とのマップマッチング以外の用途にも利用することが可能となる。   According to the present invention, the video from the camera can be used for purposes other than map matching between map information and the vehicle position.

第1の実施形態におけるナビゲーション装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the navigation apparatus in 1st Embodiment. 制御回路11の詳細な構成を示すブロック図である。3 is a block diagram showing a detailed configuration of a control circuit 11. FIG. リアカメラ24による撮像の詳細を説明する図である。It is a figure explaining the detail of imaging with the rear camera 24. FIG. 回転検知部33による回転検知処理を説明する図である。It is a figure explaining the rotation detection process by the rotation detection part. 移動検知部34による移動検知処理を説明する図である。It is a figure explaining the movement detection process by the movement detection part. 制御回路11によるキャリブレーション処理ならびに補正処理を示すフローチャートである。3 is a flowchart showing calibration processing and correction processing by a control circuit 11; 第2の実施の形態におけるナビゲーション装置101の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the navigation apparatus 101 in 2nd Embodiment. 制御回路111の詳細な構成を示すブロック図である。2 is a block diagram showing a detailed configuration of a control circuit 111. FIG. 制御回路111に接続されたそれぞれのカメラの撮像範囲を示す図である。FIG. 3 is a diagram illustrating an imaging range of each camera connected to a control circuit 111. 車両周辺の全体を含む画像を解析する処理を説明する平面図である。It is a top view explaining the process which analyzes the image containing the whole vehicle periphery. 制御回路111による補正処理を示すフローチャートである。5 is a flowchart showing correction processing by a control circuit 111.

(第1の実施の形態)
図1は、本実施形態におけるナビゲーション装置の全体構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing the overall configuration of the navigation device according to this embodiment.

ナビゲーション装置1は、各部の制御を行う制御回路11を備えている。制御回路11には、ROM12、RAM13、現在地検出装置14、画像メモリ15、表示モニタ16、スピーカ17、入力装置18、タッチパネル20、ディスクドライブ21、データ記憶部23およびリアカメラ24がそれぞれ接続されている。タッチパネル20は、タッチパネルコントロール部19を介して制御回路11に接続されている。ディスクドライブ21には、地図データが記憶されたDVD−ROM22が装填されている。   The navigation device 1 includes a control circuit 11 that controls each unit. Connected to the control circuit 11 are ROM 12, RAM 13, current location detection device 14, image memory 15, display monitor 16, speaker 17, input device 18, touch panel 20, disk drive 21, data storage unit 23, and rear camera 24, respectively. Yes. The touch panel 20 is connected to the control circuit 11 via the touch panel control unit 19. The disk drive 21 is loaded with a DVD-ROM 22 in which map data is stored.

制御回路11は、マイクロプロセッサ及びその周辺回路からなり、RAM13を作業エリアとしてROM12に格納された制御プログラムを実行して各種の制御を行う。この制御回路11がDVD−ROM22に記憶された地図データに基づいて所定の経路探索処理を行うと、その処理結果が推奨経路として表示モニタ16に表示される。   The control circuit 11 includes a microprocessor and its peripheral circuits, and performs various controls by executing a control program stored in the ROM 12 using the RAM 13 as a work area. When the control circuit 11 performs a predetermined route search process based on the map data stored in the DVD-ROM 22, the processing result is displayed on the display monitor 16 as a recommended route.

現在地検出装置14は自車両の現在位置および方位を検出する装置である。現在地検出装置14は、振動ジャイロ14a、速度センサ14b、GPS(Global Positioning System)センサ14cなどからなる。振動ジャイロ14aは振動型のジャイロスコープ装置であり、自車両の角速度を検出して角速度信号を出力する。速度センサ14bは、自車両の速度を検出して速度信号を出力する。速度センサ14bには自車両から出力される車速パルス信号が入力される。速度センサ14bは、単位時間あたりのパルス数に1パルスあたりの速度を乗じることで自車両の速度を検出する。GPSセンサ14cはGPS衛星からのGPS信号を検出する。ナビゲーション装置1は、この現在地検出装置14により検出された自車両の現在位置および方位をRAM13に格納する。そして、RAM13に格納されたこれらのデータに基づいて、地図の表示範囲の決定、経路探索開始点の決定、地図上への現在位置の表示、などの処理を実行する。   The current location detection device 14 is a device that detects the current position and direction of the host vehicle. The current location detection device 14 includes a vibration gyro 14a, a speed sensor 14b, a GPS (Global Positioning System) sensor 14c, and the like. The vibration gyro 14a is a vibration type gyroscope device, and detects an angular velocity of the host vehicle and outputs an angular velocity signal. The speed sensor 14b detects the speed of the host vehicle and outputs a speed signal. A speed pulse signal output from the host vehicle is input to the speed sensor 14b. The speed sensor 14b detects the speed of the host vehicle by multiplying the number of pulses per unit time by the speed per pulse. The GPS sensor 14c detects a GPS signal from a GPS satellite. The navigation device 1 stores the current position and direction of the host vehicle detected by the current location detection device 14 in the RAM 13. Then, based on these data stored in the RAM 13, processing such as determination of a map display range, determination of a route search start point, display of the current position on the map, and the like are executed.

画像メモリ15は、表示モニタ16に表示するための画像データを格納する。この画像データは道路地図描画用データや各種の図形データからなる。これらのデータはDVD−ROM22に記憶された地図データに基づいて、制御回路11により適宜生成される。ナビゲーション装置1は、このようにして生成された画像データを用いることによって地図表示などを行うことができる。   The image memory 15 stores image data to be displayed on the display monitor 16. This image data includes road map drawing data and various graphic data. These data are appropriately generated by the control circuit 11 based on the map data stored in the DVD-ROM 22. The navigation device 1 can perform map display and the like by using the image data generated in this way.

ディスクドライブ21は、DVD−ROM22から地図データを読み出す。地図データは、地図表示用データ、経路探索用データなどを含む。地図表示用データおよび経路探索用データには、地図データに格納されている道路のリンク情報およびノード情報が含まれている。リンク情報には、各リンクの旅行時間(以下、リンク旅行時間)および標高の情報が含まれている。地図表示用データは、広域から詳細まで複数の縮尺の地図データを有し、ユーザの要求にしたがって、表示地図の縮尺を変更することができる。なお、DVD−ROM22以外の他の記録メディア、たとえばCD−ROMやハードディスクなどから地図データを読み出してもよい。   The disk drive 21 reads map data from the DVD-ROM 22. The map data includes map display data, route search data, and the like. The map display data and the route search data include road link information and node information stored in the map data. The link information includes travel time (hereinafter referred to as “link travel time”) and altitude information of each link. The map display data has map data of a plurality of scales from wide areas to details, and the scale of the display map can be changed according to a user request. Note that the map data may be read from a recording medium other than the DVD-ROM 22, such as a CD-ROM or a hard disk.

表示モニタ16は、地図データなどの各種情報に基づいて、自車位置付近の道路地図などの各種情報を画面表示としてユーザに提供する。スピーカ17は、各種入力操作をユーザに指示したり、経路誘導したりするための音声を出力する。入力装置18は、ユーザが各種コマンドを設定するための入力スイッチを有し、操作パネルやリモコンなどによって実現される。ユーザは、表示モニタ16の表示画面の指示やスピーカ17からの音声指示にしたがって入力装置18を操作することにより、目的地を設定する。   The display monitor 16 provides the user with various information such as a road map near the vehicle position as a screen display based on various information such as map data. The speaker 17 outputs sound for instructing the user to perform various input operations and for guiding the route. The input device 18 has an input switch for a user to set various commands, and is realized by an operation panel, a remote controller, or the like. The user sets the destination by operating the input device 18 in accordance with an instruction on the display screen of the display monitor 16 or a voice instruction from the speaker 17.

タッチパネル20は、表示モニタ16の表面に積層される透明のタッチスイッチであり、表示モニタ16に表示される画像はタッチパネル20を通して表示される。タッチパネル20は、タッチパネル20上の操作位置に応じた信号をタッチパネルコントロール部19に送出する。そして、タッチパネルコントロール部19はタッチパネル20の押圧位置を算出する。   The touch panel 20 is a transparent touch switch laminated on the surface of the display monitor 16, and an image displayed on the display monitor 16 is displayed through the touch panel 20. The touch panel 20 sends a signal corresponding to the operation position on the touch panel 20 to the touch panel control unit 19. Then, the touch panel control unit 19 calculates the pressed position of the touch panel 20.

表示モニタ16の表示画面を押圧するとタッチパネル20が押圧される。そして、押圧した位置に目的地が設定されたり、押圧された各種ボタンや表示メニューに定義された処理が実行されたりする。   When the display screen of the display monitor 16 is pressed, the touch panel 20 is pressed. Then, a destination is set at the pressed position, or processing defined in the pressed buttons and display menu is executed.

データ記憶部23は不揮発性の記憶装置である。ナビゲーション装置1の電源断が行われても、データ記憶部23の記憶内容は維持される。データ記憶部23には、ナビゲーション装置1の各種設定やテーブルが記憶される。   The data storage unit 23 is a nonvolatile storage device. Even when the navigation apparatus 1 is powered off, the stored contents of the data storage unit 23 are maintained. The data storage unit 23 stores various settings and tables of the navigation device 1.

リアカメラ24は自車両の後方に設置されたカメラである。リアカメラ24は、所定の周期(例えば30分の1秒)で自車両の後方の様子を撮像し、制御回路11へ撮像した画像を表す信号(以下、撮像信号と呼ぶ)を出力する。制御回路11はこの画像をRAM13へ格納し、表示モニタ16への映像の表示や、後述するセンサの補正処理などに利用する。   The rear camera 24 is a camera installed behind the host vehicle. The rear camera 24 captures the state behind the host vehicle at a predetermined cycle (for example, 1/30 second), and outputs a signal representing the captured image (hereinafter referred to as an imaging signal) to the control circuit 11. The control circuit 11 stores this image in the RAM 13 and uses it for display of video on the display monitor 16 and sensor correction processing described later.

目的地がユーザにより設定されると、ナビゲーション装置1はGPSセンサ14cにより検出された現在位置を出発地として目的地までの経路演算を所定のアルゴリズムに基づいて行う。たとえば、出発地から目的地までの間の旅行時間(リンク旅行時間の合計)が最小になるような経路を演算するアルゴリズムで経路演算が行われる。以下の説明では、このような経路演算を経路探索と呼ぶ。このようにして求められた経路(以下、推奨経路という)は、表示形態、たとえば表示色などを変えることによって、ほかの道路とは区別して画面表示される。これにより、ユーザは地図上の推奨経路を画面上で認識することができる。ナビゲーション装置1は、推奨経路にしたがって車両が走行できるように、ユーザに対して画面や音声などによる進行方向指示を行い、車両を経路誘導する。   When the destination is set by the user, the navigation apparatus 1 performs a route calculation from the current position detected by the GPS sensor 14c to the destination based on a predetermined algorithm. For example, the route calculation is performed by an algorithm that calculates a route that minimizes the travel time from the departure point to the destination (the total of the link travel times). In the following description, such route calculation is called route search. The route thus obtained (hereinafter referred to as a recommended route) is displayed on the screen in a manner different from other roads by changing the display form, for example, the display color. Thereby, the user can recognize the recommended route on the map on the screen. The navigation device 1 instructs the user in the direction of travel using a screen or voice so that the vehicle can travel according to the recommended route, thereby guiding the route of the vehicle.

図2は、制御回路11の詳細な構成を示すブロック図である。図2に示す制御回路11内の各機能部は、制御回路11がROM12に格納された制御プログラムを実行することにより、ソフトウェア的に実現される。   FIG. 2 is a block diagram showing a detailed configuration of the control circuit 11. Each functional unit in the control circuit 11 shown in FIG. 2 is realized by software by the control circuit 11 executing a control program stored in the ROM 12.

白線検出部32は、リアカメラ24が出力する画像を解析し、画像から地物である白線を検出する。なお、リアカメラ24が出力する画像は、制御回路11により一旦RAM13へ格納されるが、図2ではこれを省略して図示している。回転検知部33は、リアカメラ24が2つの異なる時刻に出力した2つの画像のそれぞれにおける白線の検出結果に基づいて、2つの画像間における白線の回転量を検知する。移動検知部34は、リアカメラ24が2つの異なる時刻に出力した2つの画像のそれぞれにおける白線の検出結果に基づいて、2つの画像間における白線の移動量を検知する。   The white line detection unit 32 analyzes the image output from the rear camera 24 and detects a white line as a feature from the image. Note that the image output by the rear camera 24 is temporarily stored in the RAM 13 by the control circuit 11, but this is omitted in FIG. The rotation detection unit 33 detects the amount of rotation of the white line between the two images based on the detection result of the white line in each of the two images output by the rear camera 24 at two different times. The movement detection unit 34 detects the amount of movement of the white line between the two images based on the detection result of the white line in each of the two images output by the rear camera 24 at two different times.

演算部35は、回転検知部33および移動検知部34による検知結果に基づいて、後述するキャリブレーション情報を演算する。キャリブレーション部36は、振動ジャイロ14aおよび速度センサ14bのキャリブレーションと、RAM13に格納されている自車両の現在位置および方位の補正とを行う。   The computing unit 35 computes calibration information, which will be described later, based on detection results from the rotation detection unit 33 and the movement detection unit 34. The calibration unit 36 performs calibration of the vibration gyro 14 a and the speed sensor 14 b and corrects the current position and direction of the host vehicle stored in the RAM 13.

演算部35が演算するキャリブレーション情報、ならびに、キャリブレーション部36が実行するキャリブレーション処理について詳述する。演算部35は、自車両の速度と角速度とを演算し、キャリブレーション情報としてキャリブレーション部36へ出力する。演算部35は、移動検知部34により検知された白線の移動量に基づいて自車両の速度を演算する。また、演算部35は、回転検知部33により検知された白線の回転量に基づいて自車両の角速度を演算する。   The calibration information calculated by the calculation unit 35 and the calibration process executed by the calibration unit 36 will be described in detail. The calculating unit 35 calculates the speed and angular velocity of the host vehicle and outputs the calculated information to the calibration unit 36 as calibration information. The calculation unit 35 calculates the speed of the host vehicle based on the amount of movement of the white line detected by the movement detection unit 34. The computing unit 35 computes the angular velocity of the host vehicle based on the amount of white line rotation detected by the rotation detection unit 33.

キャリブレーション部36は、振動ジャイロ14aが出力する角速度信号と、演算部35が出力するキャリブレーション情報に含まれる角速度とを比較する。これら2つが一致しなかった場合、キャリブレーション部36は振動ジャイロ14aの出力が誤っていると見なし、振動ジャイロ14aのキャリブレーションを行う。具体的には、振動ジャイロ14aのバイアス(ゼロ位置)および感度を、振動ジャイロ14aから正しい角速度信号が出力されるよう調整する。   The calibration unit 36 compares the angular velocity signal output from the vibration gyro 14 a with the angular velocity included in the calibration information output from the calculation unit 35. If the two do not match, the calibration unit 36 regards the output of the vibration gyro 14a as incorrect and calibrates the vibration gyro 14a. Specifically, the bias (zero position) and sensitivity of the vibration gyro 14a are adjusted so that a correct angular velocity signal is output from the vibration gyro 14a.

キャリブレーション部36は更に、速度センサ14bが出力する速度信号と、演算部35が出力するキャリブレーション情報に含まれる速度とを比較する。これら2つが一致しなかった場合、キャリブレーション部36は速度センサ14bの出力が誤っていると見なし、速度センサ14bのキャリブレーションを行う。具体的には、速度センサ14bに設定されている1パルスあたりの速度を、速度センサ14bから正しい速度信号が出力されるよう調整する。   The calibration unit 36 further compares the speed signal output from the speed sensor 14b with the speed included in the calibration information output from the calculation unit 35. If the two do not match, the calibration unit 36 regards the output of the speed sensor 14b as incorrect and calibrates the speed sensor 14b. Specifically, the speed per pulse set in the speed sensor 14b is adjusted so that a correct speed signal is output from the speed sensor 14b.

演算部35が演算する補正情報、ならびに、キャリブレーション部36が実行する補正処理について詳述する。演算部35は、白線検出部32が検出した白線の情報と、キャリブレーション情報に含まれる自車両の速度と、を補正情報としてキャリブレーション部36へ出力する。キャリブレーション部36は、補正情報に含まれる白線の情報を、DVD−ROM22に記憶されている地図データから検索する。白線の情報が地図データに含まれている場合、キャリブレーション部36は地図データ中の白線情報と補正情報に含まれる白線情報とのマッチングを行う。キャリブレーション部36は、マッチングの結果から得られた自車両の方位を現時点における正しい方位であると見なし、RAM13に格納されている自車両の方位を補正する。例えば、RAM13に格納されている自車両の方位を単純に置き換えてもよいし、両者の平均を算出して新たな方位としてもよい。   The correction information calculated by the calculation unit 35 and the correction process executed by the calibration unit 36 will be described in detail. The calculation unit 35 outputs the white line information detected by the white line detection unit 32 and the speed of the host vehicle included in the calibration information to the calibration unit 36 as correction information. The calibration unit 36 searches the map data stored in the DVD-ROM 22 for white line information included in the correction information. When the white line information is included in the map data, the calibration unit 36 performs matching between the white line information in the map data and the white line information included in the correction information. The calibration unit 36 regards the direction of the host vehicle obtained from the matching result as the correct direction at the present time, and corrects the direction of the host vehicle stored in the RAM 13. For example, the direction of the host vehicle stored in the RAM 13 may be simply replaced, or the average of both may be calculated as a new direction.

キャリブレーション部36は更に、補正情報に含まれる自車両の速度に基づいて、時刻t1からt2の間における自車両の移動距離を演算する。そして、移動距離が0ではなかった場合、時刻t1からt2の間における、速度センサ14bへの車速パルスの入力回数を調べる。移動距離が0ではないにも係わらず車速パルスが1回も入力されていなかった場合、自車両が実際に移動しているにも関わらず、速度センサ14bが自車両の速度を検知できなかったということである。これは、自車両がスリップにより移動したか、あるいは1パルス当たりの移動距離よりも短い距離を移動したか、のいずれかの原因によるものである。この場合、キャリブレーション部36は、上記の演算により求められた自車両の移動距離に基づいて、自車両の速度を演算する。そして、自車両が時刻t1からt2の間にこの速度で移動した場合の自車両の現在位置を演算し、RAM13に格納されている自車両の現在位置を補正する。例えば、RAM13に格納されている自車両の現在位置を単純に置き換えてもよいし、両者の平均を算出して新たな現在位置としてもよい。   The calibration unit 36 further calculates the moving distance of the host vehicle between the times t1 and t2 based on the speed of the host vehicle included in the correction information. When the moving distance is not 0, the number of times of inputting the vehicle speed pulse to the speed sensor 14b between the times t1 and t2 is checked. When the vehicle speed pulse has not been input even though the moving distance is not 0, the speed sensor 14b cannot detect the speed of the host vehicle even though the host vehicle is actually moving. That's what it means. This is because the vehicle has moved due to slip or moved a distance shorter than the moving distance per pulse. In this case, the calibration unit 36 calculates the speed of the host vehicle based on the movement distance of the host vehicle obtained by the above calculation. Then, the current position of the host vehicle is calculated when the host vehicle moves at this speed between times t1 and t2, and the current position of the host vehicle stored in the RAM 13 is corrected. For example, the current position of the host vehicle stored in the RAM 13 may be simply replaced, or an average of both may be calculated as a new current position.

他方、時刻t1からt2の間に車速パルスの入力があった場合、上述の演算により得られた自車両の移動距離と、入力されたパルス数と、に基づき1パルス当たりの移動距離を算出する。そして、算出された1パルス当たりの移動距離を速度センサ14bに設定する。   On the other hand, when a vehicle speed pulse is input between times t1 and t2, the movement distance per pulse is calculated based on the movement distance of the host vehicle obtained by the above-described calculation and the number of pulses input. . Then, the calculated movement distance per pulse is set in the speed sensor 14b.

図3は、リアカメラ24による撮像の詳細を説明する図である。図3(a)に、自車両とその周辺を見下ろした平面図を示す。リアカメラ24は、自車両41が矢印Fで表す方向を向いているとき、範囲42を撮像するように設置される。このときのリアカメラ24による撮像結果を図3(b)に示す。白線検出部32は、リアカメラ24が撮像した画像43(図3(b))を解析し、画像43から白線L1,L2,L3を検出する。なお、白線検出部32が検出する白線は車線に限らない。例えば、駐車場の白線などであってもよい。   FIG. 3 is a diagram illustrating details of imaging by the rear camera 24. FIG. 3A shows a plan view of the host vehicle and its surroundings. The rear camera 24 is installed so as to capture the range 42 when the host vehicle 41 is facing the direction indicated by the arrow F. The imaging result by the rear camera 24 at this time is shown in FIG. The white line detection unit 32 analyzes the image 43 (FIG. 3B) captured by the rear camera 24 and detects white lines L 1, L 2, and L 3 from the image 43. In addition, the white line which the white line detection part 32 detects is not restricted to a lane. For example, it may be a white line in a parking lot.

リアカメラ24は所定周期(例えば30分の1秒)ごとに撮像を繰り返す。白線検出部32はリアカメラ24が画像を出力する度に、その画像から白線を検出する。回転検知部33は、リアカメラ24が2つの異なる時刻に出力した2つの撮像信号から、白線検出部32が検出した白線の回転量を検知する。例えば、リアカメラ24が30分の1秒ごとに撮像を繰り返す場合、回転検知部33は30分の1秒の間に白線がどれだけ回転したのかを検知する。   The rear camera 24 repeats imaging every predetermined cycle (for example, 1/30 second). Each time the rear camera 24 outputs an image, the white line detection unit 32 detects a white line from the image. The rotation detection unit 33 detects the amount of rotation of the white line detected by the white line detection unit 32 from two imaging signals output by the rear camera 24 at two different times. For example, when the rear camera 24 repeats imaging every 1/30 second, the rotation detection unit 33 detects how much the white line has rotated during 1/30 second.

図4は、回転検知部33による回転検知処理を説明する図である。図4(a)に示す画像44は、ある時刻t1にリアカメラ24が出力した画像である。時刻t1の後に自車両の方位が変化した場合、時刻t1より後の時刻t2においてリアカメラ24が出力する画像は、図4(b)に示す画像45のようになる。   FIG. 4 is a diagram for explaining rotation detection processing by the rotation detection unit 33. An image 44 shown in FIG. 4A is an image output by the rear camera 24 at a certain time t1. When the direction of the host vehicle changes after time t1, the image output by the rear camera 24 at time t2 after time t1 is as shown in an image 45 in FIG.

白線検出部32は、図4(a)に示す画像44から5つの白線L4,L5,L6,L7,L8を検出する。回転検知部33は、検出された白線から画像の中央にもっとも近い白線を1つ選択する。図4(a)に示す画像44からは、白線L4が選択される。その後回転検知部33は、所定時間経過後の画像において、選択された白線が回転していることを検知する。図4(b)に示す時刻t2における画像45では、図4(a)で選択した白線L4が回転し異なる角度の白線L4xとなっていることが検知される。回転検知部33はこれら2つの白線L4、L4xの間の角度46すなわち回転量を算出し、演算部35へ出力する。   The white line detection unit 32 detects five white lines L4, L5, L6, L7, and L8 from the image 44 shown in FIG. The rotation detection unit 33 selects one white line closest to the center of the image from the detected white lines. From the image 44 shown in FIG. 4A, the white line L4 is selected. Thereafter, the rotation detection unit 33 detects that the selected white line is rotating in the image after a predetermined time has elapsed. In the image 45 at time t2 shown in FIG. 4B, it is detected that the white line L4 selected in FIG. 4A is rotated to become a white line L4x having a different angle. The rotation detection unit 33 calculates an angle 46 between these two white lines L4 and L4x, that is, an amount of rotation, and outputs it to the calculation unit 35.

移動検知部34は回転検知部33と同様に、リアカメラ24が2つの異なる時刻に出力した2つの画像から、白線検出部32が検出した白線の移動量を検知する。例えば、リアカメラ24が30分の1秒ごとに撮像を繰り返す場合、移動検知部34は30分の1秒の間に白線がどれだけ移動したのかを検知する。   Similar to the rotation detection unit 33, the movement detection unit 34 detects the amount of movement of the white line detected by the white line detection unit 32 from the two images output by the rear camera 24 at two different times. For example, when the rear camera 24 repeats imaging every 1/30 second, the movement detection unit 34 detects how much the white line has moved during 1/30 second.

図5は、移動検知部34による移動検知処理を説明する図である。図5(a)に示す画像47は、ある時刻t1にリアカメラ24が出力した撮像信号である。時刻t1の後に自車両が移動した場合、時刻t1より後の時刻t2においてリアカメラ24が出力する画像は、図5(b)に示す画像48のようになる。   FIG. 5 is a diagram for explaining movement detection processing by the movement detection unit 34. An image 47 shown in FIG. 5A is an imaging signal output by the rear camera 24 at a certain time t1. When the host vehicle moves after time t1, an image output by the rear camera 24 at time t2 after time t1 is an image 48 shown in FIG.

白線検出部32は、図5(a)に示す画像47から5つの白線L9,L10,L11,L12,L13を検出する。移動検知部34は、検出された白線からもっとも水平に近い白線を1つ選択する。図5(a)に示す画像47からは、白線L9が選択される。なお同程度に水平な白線が複数存在する場合には、画面中央にもっとも近い白線が選択される。その後移動検知部34は、所定時間経過後の画像において、選択された白線が水平移動していることを検知する。図5(b)に示す時刻t2における画像48では、図5(a)で選択した白線L9が水平移動し異なる位置の白線L9xとなっていることが検知される。移動検知部34はこれら2つの白線L9,L9xの間の距離49すなわち移動量を算出し、演算部35へ出力する。   The white line detection unit 32 detects five white lines L9, L10, L11, L12, and L13 from the image 47 shown in FIG. The movement detection unit 34 selects one white line closest to the horizontal from the detected white lines. A white line L9 is selected from the image 47 shown in FIG. If there are a plurality of white lines with the same level, the white line closest to the center of the screen is selected. Thereafter, the movement detection unit 34 detects that the selected white line is moving horizontally in the image after a predetermined time has elapsed. In the image 48 at time t2 shown in FIG. 5B, it is detected that the white line L9 selected in FIG. 5A is moved horizontally to become a white line L9x at a different position. The movement detection unit 34 calculates a distance 49 between these two white lines L9 and L9x, that is, a movement amount, and outputs it to the calculation unit 35.

なお本実施形態では、白線検出部32は画像の入力毎に白線検出を1度だけ実行する。回転検知部33と移動検知部34は共に同一の白線検出結果を用いて、上述の回転検知処理および移動検知処理を実行する。   In the present embodiment, the white line detection unit 32 performs white line detection once for each input of an image. Both the rotation detection unit 33 and the movement detection unit 34 execute the above-described rotation detection process and movement detection process using the same white line detection result.

演算部35は、回転検知部33が出力した回転量に基づいて、時刻t1からt2の間における自車両の角速度を演算する。更に演算部35は、移動検知部34が出力した移動量に基づいて、時刻t1からt2の間における自車両の速度を演算する。そして、演算された角速度ならびに速度を、キャリブレーション情報としてキャリブレーション部36へ出力する。また、演算された速度と、白線検出部32が検出した白線の情報と、を補正情報としてキャリブレーション部36へ出力する。   The computing unit 35 computes the angular velocity of the host vehicle between the times t1 and t2 based on the rotation amount output from the rotation detection unit 33. Furthermore, the calculating part 35 calculates the speed of the own vehicle between the time t1 and t2 based on the movement amount which the movement detection part 34 output. Then, the calculated angular velocity and velocity are output to the calibration unit 36 as calibration information. Further, the calculated speed and the white line information detected by the white line detection unit 32 are output to the calibration unit 36 as correction information.

図6は、制御回路11によるキャリブレーション処理ならびに補正処理を示すフローチャートである。この処理は、制御回路11がROM12に格納された制御プログラムを実行することにより行われる。なお、図6に示す処理の開始時、時刻t1にリアカメラ24から出力された画像(以下、画像1と呼ぶ)と、時刻t2にリアカメラ24から出力された画像(以下、画像2と呼ぶ)と、がRAM13へ既に格納されているものとする。   FIG. 6 is a flowchart showing calibration processing and correction processing by the control circuit 11. This process is performed by the control circuit 11 executing a control program stored in the ROM 12. At the start of the process shown in FIG. 6, an image output from the rear camera 24 at time t1 (hereinafter referred to as image 1) and an image output from the rear camera 24 at time t2 (hereinafter referred to as image 2). ) Are already stored in the RAM 13.

まずステップS11では、白線検出部32が画像1および画像2を解析し、白線を検出する。画像データを解析し白線を検知するアルゴリズムは公知の技術のうち所定のものを用いてよい。ステップS12では、回転検知部33が画像1において画像の中央にもっとも近い白線を1つ選択する。ステップS13では、回転検知部33がステップS12で選択された白線の角度が画像2において画像1から変化しているか否かを判定する。白線の角度が変化していなかった場合にはステップS18へ進む。他方、白線の角度が変化していた場合にはステップS14へ進む。   First, in step S11, the white line detection unit 32 analyzes the image 1 and the image 2 and detects a white line. As an algorithm for analyzing the image data and detecting the white line, a predetermined one of known techniques may be used. In step S12, the rotation detection unit 33 selects one white line closest to the center of the image in the image 1. In step S13, the rotation detection unit 33 determines whether the angle of the white line selected in step S12 has changed from image 1 in image 2. If the angle of the white line has not changed, the process proceeds to step S18. On the other hand, if the angle of the white line has changed, the process proceeds to step S14.

ステップS14では、演算部35が白線の角度の変化量に基づいて、自車両の回転量を演算する。ステップS15では、キャリブレーション部36がステップS14で算出された回転量に基づいて、振動ジャイロ14aのバイアスおよび感度を調整する。ステップS16では、キャリブレーション部36が、DVD−ROM22に記憶されている地図データにステップS12で選択された白線の情報が含まれているか否かを判定する。白線の情報が地図データに含まれていた場合にはステップS17へ進む。ステップS17では、キャリブレーション部36がステップS12で選択した白線の地図データとのマッチングを行い、RAM13に格納されている自車両の方位を補正する。他方、地図データに白線の情報が含まれていなかった場合にはステップS18へ進む。   In step S14, the calculating part 35 calculates the rotation amount of the own vehicle based on the change amount of the angle of the white line. In step S15, the calibration unit 36 adjusts the bias and sensitivity of the vibration gyro 14a based on the rotation amount calculated in step S14. In step S <b> 16, the calibration unit 36 determines whether the map data stored in the DVD-ROM 22 includes the white line information selected in step S <b> 12. If the white line information is included in the map data, the process proceeds to step S17. In step S17, the calibration unit 36 performs matching with the map data of the white line selected in step S12, and corrects the direction of the host vehicle stored in the RAM 13. On the other hand, if the map data does not include white line information, the process proceeds to step S18.

ステップS18では、移動検知部34が画像1においてもっとも水平に近い白線を1つ選択する。ステップS19では、移動検知部34が、ステップS18で選択した白線が画像2において画像1内の位置から移動しているか否かを判定する。白線が移動していなかった場合には図6のフローチャートの処理を終了する。他方、白線が移動していた場合にはステップS20へ進む。   In step S <b> 18, the movement detection unit 34 selects one white line that is closest to the horizontal in the image 1. In step S19, the movement detection unit 34 determines whether or not the white line selected in step S18 has moved from a position in the image 1 in the image 2. If the white line has not moved, the process of the flowchart of FIG. 6 is terminated. On the other hand, if the white line has moved, the process proceeds to step S20.

ステップS20では、移動検知部34が、ステップS18で選択した白線の画像1と画像2との間における移動量を算出する。ステップS21では、演算部35が、ステップS20で算出された移動量に基づき、時刻t1とt2との間における自車両の速度を演算する。ステップS22では、キャリブレーション部36が、時刻t1とt2との間において速度センサ14bへ車速パルスが入力されたか否かを判定する。車速パルスが1つ以上入力されていた場合にはステップS23へ進む。ステップS23では、キャリブレーション部36がステップS21で算出された速度と速度センサ14bによりカウントされたパルス数とに基づき1パルス当たりの移動距離を算出し、速度センサ14bへ設定する。他方、時刻t1とt2との間において車速パルスが入力されていなかった場合にはステップS24へ進む。ステップS24では、キャリブレーション部36が、ステップS21で演算した速度に基づいてRAM13内の現在位置を補正する。   In step S20, the movement detection unit 34 calculates a movement amount between the image 1 and the image 2 of the white line selected in step S18. In step S21, the calculating part 35 calculates the speed of the own vehicle between the time t1 and t2 based on the moving amount calculated in step S20. In step S22, the calibration unit 36 determines whether or not a vehicle speed pulse is input to the speed sensor 14b between times t1 and t2. If one or more vehicle speed pulses have been input, the process proceeds to step S23. In step S23, the calibration unit 36 calculates a moving distance per pulse based on the speed calculated in step S21 and the number of pulses counted by the speed sensor 14b, and sets it in the speed sensor 14b. On the other hand, if no vehicle speed pulse is input between times t1 and t2, the process proceeds to step S24. In step S24, the calibration unit 36 corrects the current position in the RAM 13 based on the speed calculated in step S21.

上述した第1の実施の形態によるナビゲーション装置によれば、次の作用効果が得られる。
(1)キャリブレーション部36は、演算部35が演算したキャリブレーション情報に基づいて、振動ジャイロ14aおよび速度センサ14bのキャリブレーションを行う。これにより、リアカメラ24からの映像を、地図情報と自車位置とのマップマッチング以外の用途に利用することができる。
According to the navigation apparatus according to the first embodiment described above, the following operational effects can be obtained.
(1) The calibration unit 36 calibrates the vibration gyro 14a and the speed sensor 14b based on the calibration information calculated by the calculation unit 35. Thereby, the image | video from the rear camera 24 can be utilized for uses other than the map matching of map information and the own vehicle position.

(2)キャリブレーション部36は、速度センサ14bに車速パルスが入力されない場合、演算部35が演算した補正情報に基づいて現在位置を補正する。これにより、低速で移動している場合など、車速パルスが得られない状況下であっても、正しい現在位置を得ることができる。 (2) The calibration unit 36 corrects the current position based on the correction information calculated by the calculation unit 35 when no vehicle speed pulse is input to the speed sensor 14b. As a result, the correct current position can be obtained even when the vehicle speed pulse cannot be obtained, such as when moving at a low speed.

(3)キャリブレーション部36は、可能であれば白線検出部32による検出結果と地図データとのマッチングを行い自車両の方位を補正する。これにより、振動ジャイロ14aの動作が不安定な場合であっても、自車両の方位を正しく保つことができる。 (3) The calibration unit 36 corrects the direction of the host vehicle by matching the detection result of the white line detection unit 32 with the map data if possible. Thereby, even if the operation of the vibration gyro 14a is unstable, the direction of the host vehicle can be maintained correctly.

上述した第1の実施の形態では、リアカメラ24が撮像した画像を用いてセンサの補正等を行っていた。以下に詳述する第2の実施の形態では、4つのカメラの撮像結果を合成した画像を用いてセンサの補正等を行う。   In the first embodiment described above, sensor correction and the like are performed using an image captured by the rear camera 24. In the second embodiment described in detail below, sensor correction and the like are performed using an image obtained by combining the imaging results of the four cameras.

(第2の実施の形態)
図7は、第2の実施の形態におけるナビゲーション装置101の全体構成を示すブロック図である。なお、図1に示す第1の実施の形態と同一の回路および装置には同一の符号を付し、説明を省略する。
(Second Embodiment)
FIG. 7 is a block diagram showing the overall configuration of the navigation device 101 according to the second embodiment. In addition, the same code | symbol is attached | subjected to the circuit and apparatus same as 1st Embodiment shown in FIG. 1, and description is abbreviate | omitted.

制御回路111には、カメラ124a,124b,124c,124dから成るカメラ群124が接続されている。これらのカメラはそれぞれ自車両の前方、自車両の右側、自車両の左側、自車両の後方を撮像し、制御回路111へ撮像信号を出力する。制御回路111は、これら4つのカメラからの撮像信号を、例えば特開2004−7299号公報に開示された手法により合成し、車両上空の視点から車両を見下ろす形の、車両周辺の全体を含む画像を作成する。そして、この作成された画像を解析することにより、センサの補正等を実行する。   To the control circuit 111, a camera group 124 including cameras 124a, 124b, 124c, and 124d is connected. Each of these cameras images the front of the host vehicle, the right side of the host vehicle, the left side of the host vehicle, and the rear of the host vehicle, and outputs an imaging signal to the control circuit 111. The control circuit 111 synthesizes the imaging signals from these four cameras by a method disclosed in, for example, Japanese Patent Application Laid-Open No. 2004-7299, and includes an image including the entire periphery of the vehicle in a form of looking down on the vehicle from a viewpoint above the vehicle. Create Then, sensor correction or the like is performed by analyzing the created image.

図8は、制御回路111の詳細な構成を示すブロック図である。図8に示す制御回路111内の各機能部は、制御回路111がROM112に格納された制御プログラムを実行することにより、ソフトウェア的に実現される。   FIG. 8 is a block diagram showing a detailed configuration of the control circuit 111. Each functional unit in the control circuit 111 shown in FIG. 8 is realized by software by the control circuit 111 executing a control program stored in the ROM 112.

画像合成部131は、カメラ群124の各カメラがそれぞれ出力した撮像信号に基づいて画像合成を行い、車両周辺の全体を含む画像を作成する。作成した画像はRAM13へ格納される。特徴点検出部132は、RAM13に格納されている画像を解析し、画像に含まれる特徴点(後に詳述)を検出する。重心検出部133は、画像に含まれる特徴点の重心位置を検出する。   The image composition unit 131 performs image composition based on the imaging signals output from each camera of the camera group 124, and creates an image including the entire vehicle periphery. The created image is stored in the RAM 13. The feature point detector 132 analyzes the image stored in the RAM 13 and detects a feature point (detailed later) included in the image. The centroid detection unit 133 detects the centroid position of the feature points included in the image.

演算部135は、特徴点検出部132および重心検出部133による検出結果に基づいてキャリブレーション情報および補正情報を演算する。キャリブレーション部136は、演算部135が演算したキャリブレーション情報に基づいて、振動ジャイロ14aおよび速度センサ14bのキャリブレーション、ならびに、RAM13に格納されている自車両の現在位置および方位の補正を行う。   The calculation unit 135 calculates calibration information and correction information based on detection results from the feature point detection unit 132 and the centroid detection unit 133. The calibration unit 136 calibrates the vibration gyro 14 a and the speed sensor 14 b and corrects the current position and direction of the host vehicle stored in the RAM 13 based on the calibration information calculated by the calculation unit 135.

図9は、制御回路111に接続されたそれぞれのカメラの撮像範囲を示す図である。図9に示す自車両51の前方の範囲52をカメラ124aが、自車両51の右側の範囲53をカメラ124bが、自車両51の左側の範囲54をカメラ124cが、自車両51の後方の範囲55をカメラ124dがそれぞれ撮像する。画像合成部131はこれらのカメラにより出力される画像信号を合成することにより、図9に示す視点の画像を作成する。   FIG. 9 is a diagram illustrating an imaging range of each camera connected to the control circuit 111. 9, the camera 124a is in the range 52 in front of the host vehicle 51, the camera 124b is in the range 53 on the right side of the host vehicle 51, and the camera 124c is in the range 54 on the left side of the host vehicle 51. The camera 124d captures images of 55 respectively. The image synthesis unit 131 creates the viewpoint image shown in FIG. 9 by synthesizing the image signals output from these cameras.

次に、制御回路111による画像の解析処理について説明する。制御回路111は第1の実施の形態における制御回路11と同様に、画像から検出した白線の回転量および移動量を検知することによりセンサのキャリブレーション等の処理を行う。ただし、制御回路111は、白線の回転と移動とが同時に起こった場合であっても、それぞれの検知を行うことが可能である。   Next, image analysis processing by the control circuit 111 will be described. Similar to the control circuit 11 in the first embodiment, the control circuit 111 performs processing such as sensor calibration by detecting the amount of rotation and movement of the white line detected from the image. However, the control circuit 111 can detect each of them even when the white line rotates and moves simultaneously.

図10は、車両周辺の全体を含む画像を解析する処理を説明する平面図である。図10(a)に示す画像61はある時刻t1に画像合成部131により作成された画像を、図10(b)に示す画像63はt1より後の時刻t2において画像合成部131により作成された画像を、それぞれ表す。図10(b)には、図10(a)から自車両の位置および方位が変化したために、カメラ124a,124b,124c,124dによる撮像結果および画像合成部131による合成結果が変化している様子が示されている。   FIG. 10 is a plan view for explaining processing for analyzing an image including the entire periphery of the vehicle. An image 61 shown in FIG. 10A is an image created by the image composition unit 131 at a certain time t1, and an image 63 shown in FIG. 10B is created by the image composition unit 131 at a time t2 after t1. Each image is represented. In FIG. 10B, since the position and direction of the host vehicle have changed from FIG. 10A, the imaging results by the cameras 124a, 124b, 124c, and 124d and the synthesis result by the image synthesis unit 131 have changed. It is shown.

画像合成部131は撮像信号が入力されると、4つの撮像信号を合成し1つの画像を作成する。特徴点検出部132は作成された画像から第1の実施の形態と同様に白線を検出すると共に、白線の検出結果に基づいて2つの特徴点を検出する。ここで特徴点とは、複数の白線の交点のことである。2つより多くの特徴点が検出された場合には、それらの特徴点の中から任意の2つを選択する。図10(a)では、2つの特徴点P1,P2が検出されている。   When the imaging signal is input, the image synthesis unit 131 synthesizes the four imaging signals to create one image. The feature point detection unit 132 detects a white line from the created image as in the first embodiment, and detects two feature points based on the detection result of the white line. Here, the feature point is an intersection of a plurality of white lines. When more than two feature points are detected, any two of the feature points are selected. In FIG. 10A, two feature points P1 and P2 are detected.

重心検出部133は検出された2つの特徴点の重心位置を検出する。図10(a)では重心位置P3が検出される。これに加えて重心検出部133は、2つの特徴点を結んだ線分が所定の基準線に対して成す角度を算出する。本実施形態では、基準線は図10(a)に示す線分L21である。   The centroid detection unit 133 detects the centroid position of the two detected feature points. In FIG. 10A, the gravity center position P3 is detected. In addition to this, the center-of-gravity detection unit 133 calculates an angle formed by a line segment connecting two feature points with respect to a predetermined reference line. In the present embodiment, the reference line is a line segment L21 shown in FIG.

重心検出部133はその後、図10(b)に示す、時刻t2における画像63において、図10(a)で検出された2つの特徴点P1,P2が移動したことを検出する。すなわち、図10(b)において、特徴点P1xは図10(a)における特徴点P1に、特徴点P2xは図10(a)における特徴点P2にそれぞれ対応することを検出する。このとき重心検出部133は、図10(a)と同様にこれらの特徴点P1x,P2xの重心位置P3xを検出すると共に、これらの特徴点を結んだ線分L24が基準線L21に対して成す角度を算出する。   Thereafter, the center-of-gravity detecting unit 133 detects that the two feature points P1 and P2 detected in FIG. 10A have moved in the image 63 at time t2 shown in FIG. 10B. That is, in FIG. 10B, it is detected that the feature point P1x corresponds to the feature point P1 in FIG. 10A, and the feature point P2x corresponds to the feature point P2 in FIG. At this time, the centroid detection unit 133 detects the centroid position P3x of these feature points P1x and P2x as in FIG. 10A, and a line segment L24 connecting these feature points forms with respect to the reference line L21. Calculate the angle.

重心検出部133は、時刻t1において線分L22が基準線L21に対して成す角度62と、時刻t2において線分L24が基準線L21に対して成す角度64とを比較する。この角度62と角度64との差が、第1の実施形態における白線の回転量に相当する。演算部135はこの角度の差に基づいて、第1の実施形態と同様に自車両の回転量を演算する。   The center-of-gravity detection unit 133 compares the angle 62 formed by the line segment L22 with respect to the reference line L21 at time t1 and the angle 64 formed by the line segment L24 with respect to the reference line L21 at time t2. The difference between the angle 62 and the angle 64 corresponds to the amount of rotation of the white line in the first embodiment. Based on the difference in angle, the calculation unit 135 calculates the amount of rotation of the host vehicle as in the first embodiment.

重心検出部133は更に、図10(b)に示す、時刻t2における画像63において、図10(a)で検出された2つの特徴点P1,P2の重心位置P3と、図10(b)で検出された2つの特徴点P1x,P2xの重心位置P3xとを比較する。この重心位置P3と重心位置P3xとの間の距離65が、第1の実施形態における白線の移動量に相当する。演算部135は距離56に基づいて、第1の実施形態と同様に自車両の移動量を演算する。演算部135は以上のようにして演算された自車両の回転量および移動量をキャリブレーション情報として、キャリブレーション部136へ出力する。   The center-of-gravity detection unit 133 further displays the center-of-gravity position P3 of the two feature points P1 and P2 detected in FIG. 10A in the image 63 at time t2 shown in FIG. 10B, and in FIG. The two detected feature points P1x and P2x are compared with the barycentric position P3x. A distance 65 between the barycentric position P3 and the barycentric position P3x corresponds to the movement amount of the white line in the first embodiment. Based on the distance 56, the computing unit 135 computes the amount of movement of the host vehicle as in the first embodiment. The calculation unit 135 outputs the rotation amount and movement amount of the host vehicle calculated as described above to the calibration unit 136 as calibration information.

図11は、制御回路111による補正処理を示すフローチャートである。この処理は、制御回路111がROM112に格納された制御プログラムを実行することにより行われる。まずステップS31では、画像合成部131がカメラ124a,124b,124c,124dからそれぞれ出力される撮像信号を受信し、これらの撮像信号に基づく画像を合成してRAM13へ格納する。以下、この画像を画像1と呼ぶ。ステップS32では、制御回路111が、各カメラから新たな撮像信号が出力されるまで待機する。   FIG. 11 is a flowchart showing the correction process by the control circuit 111. This process is performed by the control circuit 111 executing a control program stored in the ROM 112. First, in step S31, the image synthesis unit 131 receives imaging signals output from the cameras 124a, 124b, 124c, and 124d, synthesizes images based on these imaging signals, and stores them in the RAM 13. Hereinafter, this image is referred to as image 1. In step S32, the control circuit 111 stands by until a new imaging signal is output from each camera.

ステップS33では、画像合成部131がステップS31と同様にカメラ124a,124b,124c,124dからそれぞれ出力される撮像信号を受信し、これらの撮像信号に基づく画像を合成してRAM13へ格納する。以下、この画像を画像2と呼ぶ。ステップS34では、特徴点検出部132がRAM13に格納されている画像1を解析し、特徴点を2つ検出する。ステップS35では、特徴点検出部132がステップS34で検出した2つの特徴点と同一の特徴点を画像2から検出する。   In step S33, the image synthesizing unit 131 receives imaging signals output from the cameras 124a, 124b, 124c, and 124d as in step S31, synthesizes images based on these imaging signals, and stores them in the RAM 13. Hereinafter, this image is referred to as image 2. In step S34, the feature point detector 132 analyzes the image 1 stored in the RAM 13, and detects two feature points. In step S35, the feature point detection unit 132 detects from the image 2 the same feature points as the two feature points detected in step S34.

ステップS36では、重心検出部133が画像1と画像2のそれぞれについて特徴点の重心位置を算出する。ステップS37では、重心検出部133が画像1と画像2のそれぞれについて特徴点を結んだ線分が所定の基準線に対して成す角度を算出する。ステップS38では、重心検出部133が、画像1と画像2との間で、ステップS37で算出した角度が異なっているか否かを判定する。画像1と画像2との間でこれらの角度が異なっていない場合にはステップS43へ進む。他方、ステップS38において、画像1と画像2との間でステップS37で算出した角度が異なっていた場合にはステップS39へ進む。   In step S <b> 36, the centroid detection unit 133 calculates the centroid position of the feature point for each of the image 1 and the image 2. In step S37, the center-of-gravity detection unit 133 calculates an angle formed by a line segment connecting feature points with respect to each of image 1 and image 2 with respect to a predetermined reference line. In step S38, the gravity center detection unit 133 determines whether the angle calculated in step S37 is different between the image 1 and the image 2. If these angles are not different between the image 1 and the image 2, the process proceeds to step S43. On the other hand, if the angle calculated in step S37 is different between image 1 and image 2 in step S38, the process proceeds to step S39.

ステップS39では、演算部135がステップS37で算出した2つの角度の差に基づいて自車両の回転量を演算する。ステップS40では、キャリブレーション部136が、ステップS39で演算された回転量に基づいて振動ジャイロ14aのバイアスおよび感度を調整する。ステップS41では、キャリブレーション部136がDVD−ROM22に記憶されている地図データにステップS34で検出された特徴点の情報が含まれているか否かを判定する。特徴点の情報が地図データに含まれていた場合にはステップS42へ進み、キャリブレーション部136がステップS34で検出された特徴点のマッチングを行い、RAM13に格納されている自車両の方位を補正する。他方、地図データに特徴点の情報が含まれていなかった場合にはステップS43へ進む。   In step S39, the calculation unit 135 calculates the rotation amount of the host vehicle based on the difference between the two angles calculated in step S37. In step S40, the calibration unit 136 adjusts the bias and sensitivity of the vibration gyro 14a based on the rotation amount calculated in step S39. In step S41, the calibration unit 136 determines whether or not the map data stored in the DVD-ROM 22 includes the information on the feature points detected in step S34. If the feature point information is included in the map data, the process proceeds to step S42, where the calibration unit 136 matches the feature points detected in step S34 and corrects the direction of the host vehicle stored in the RAM 13. To do. On the other hand, if the map data contains no feature point information, the process proceeds to step S43.

ステップS43では、重心検出部135が、ステップS36で算出された画像1および画像2における重心位置がそれぞれ異なっているか否かを判定する。重心位置が同一の位置であった場合には図11のフローチャートの処理を終了する。他方、画像1と画像2とで重心位置が異なっていた場合にはステップS44へ進む。   In step S43, the centroid detection unit 135 determines whether or not the centroid positions in the image 1 and the image 2 calculated in step S36 are different from each other. When the barycentric positions are the same position, the process of the flowchart of FIG. 11 is terminated. On the other hand, if the position of the center of gravity is different between image 1 and image 2, the process proceeds to step S44.

ステップS44では、重心検出部135が、ステップS36で算出された重心位置の画像1と画像2との間における移動量を算出する。ステップS45では、演算部135がステップS44で算出された移動量に基づきステップS31からステップS33の間における自車両の移動量を演算する。ステップ46では、キャリブレーション部136が、ステップS31からステップS33の間において速度センサ14bへ車速パルスが入力されたか否かを判定する。車速パルスが1つ以上入力されていた場合にはステップS47へ進み、キャリブレーション部136がステップS45で演算された移動量と速度センサ14bに入力されたパルス数とに基づき1パルス当たりの移動距離を算出し、速度センサ14bへ設定する。他方、ステップS31からステップS33の間において車速パルスが入力されていなかった場合にはステップS48へ進む。ステップS48では、キャリブレーション部136が、ステップS45で演算された速度に基づいてRAM13内の現在位置を補正する。   In step S44, the centroid detection unit 135 calculates the amount of movement between the image 1 and the image 2 at the centroid position calculated in step S36. In step S45, the calculation unit 135 calculates the movement amount of the host vehicle between step S31 and step S33 based on the movement amount calculated in step S44. In step 46, the calibration unit 136 determines whether a vehicle speed pulse is input to the speed sensor 14b between step S31 and step S33. If one or more vehicle speed pulses have been input, the process proceeds to step S47, where the calibration unit 136 moves based on the amount of movement calculated in step S45 and the number of pulses input to the speed sensor 14b. Is calculated and set in the speed sensor 14b. On the other hand, if no vehicle speed pulse is input between step S31 and step S33, the process proceeds to step S48. In step S48, the calibration unit 136 corrects the current position in the RAM 13 based on the speed calculated in step S45.

上述した第2の実施の形態によるナビゲーション装置によれば、第1の実施の形態によるナビゲーション装置で得られる作用効果に加えて、次の作用効果が得られる。
(1)特徴点検出部132は、画像合成部131が合成した車両周辺の全体を含む画像を用いて特徴点の検出を行う。これにより、車両周辺のどこに存在する特徴点であっても検出することが可能となる。
According to the navigation apparatus according to the second embodiment described above, the following functions and effects can be obtained in addition to the functions and effects obtained by the navigation apparatus according to the first embodiment.
(1) The feature point detection unit 132 detects feature points using an image including the entire vehicle periphery synthesized by the image synthesis unit 131. As a result, it is possible to detect a feature point existing anywhere around the vehicle.

(2)演算部135は、特徴点検出部132が検出した特徴点、ならびに、重心検出部133が検出した重心位置に基づいて、移動および回転に関する演算を行う。これにより、車両の移動と回転が同時に発生した場合であっても、キャリブレーション部136によるキャリブレーションおよび補正が正しく実行される。 (2) The calculation unit 135 performs calculations related to movement and rotation based on the feature points detected by the feature point detection unit 132 and the barycentric position detected by the barycentric detection unit 133. Thereby, even when the movement and rotation of the vehicle occur at the same time, calibration and correction by the calibration unit 136 are correctly executed.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。   The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.

(変形例1)
第2の実施形態において、特徴点を2つ検出し、これらの特徴点の重心位置を算出していたが、特徴点を3つ以上検出し、これらの特徴点の各組み合わせにおける重心位置を算出してもよい。例えば特徴点A,B,Cを検出し、特徴点A,Bの重心位置と、特徴点B,Cの重心位置と、特徴点A,Cの重心位置とを算出してもよい。このように3つ以上の特徴点を検出することにより、例えば車両の影になった等の理由により画像上から1つの特徴点が消えた場合であっても、キャリブレーションや補正を継続することが可能となる。
(Modification 1)
In the second embodiment, two feature points are detected and the centroid positions of these feature points are calculated. However, three or more feature points are detected, and the centroid position in each combination of these feature points is calculated. May be. For example, the feature points A, B, and C may be detected, and the centroid positions of the feature points A and B, the centroid positions of the feature points B and C, and the centroid positions of the feature points A and C may be calculated. By detecting three or more feature points in this way, calibration and correction can be continued even when one feature point disappears from the image due to, for example, a shadow of the vehicle. Is possible.

(変形例2)
画像から白線が複数検出された場合、第1の実施形態で示した基準以外で白線を選択するようにしてもよい。例えば、もっとも幅が広い白線を選択するようにしてもよいし、予め定めた特定の領域に含まれる白線を選択するようにしてもよい。
(Modification 2)
When a plurality of white lines are detected from the image, the white lines may be selected other than the reference shown in the first embodiment. For example, the widest white line may be selected, or a white line included in a predetermined specific area may be selected.

(変形例3)
第2の実施形態において、角度を計算するための基準線として、図8(a)に示した基準線L21以外を用いてもよい。例えば縦方向の垂直線を基準線としてもよいし、これらの基準線に対して傾いた線を基準線としてもよい。
(Modification 3)
In the second embodiment, a reference line other than the reference line L21 shown in FIG. 8A may be used as the reference line for calculating the angle. For example, a vertical line in the vertical direction may be used as the reference line, and a line inclined with respect to these reference lines may be used as the reference line.

(変形例4)
第2の実施形態において、特徴点は白線の交点以外のものであってもよい。例えば道路標示や縁石など、画像から検出可能なものであればどのような地物であっても特徴点とすることが可能である。
(Modification 4)
In the second embodiment, the feature point may be other than the intersection of the white lines. For example, any feature that can be detected from an image such as a road marking or a curb can be used as a feature point.

(変形例5)
第1の実施形態のようにリアカメラのみを用いる場合であっても、第2の実施形態と同様に特徴点を用いた解析を行ってもよい。これにより、リアカメラのみの環境下においても、移動と回転とが同時に発生する場合に対処することが可能となる。
(Modification 5)
Even when only the rear camera is used as in the first embodiment, the analysis using the feature points may be performed in the same manner as in the second embodiment. This makes it possible to cope with the case where movement and rotation occur at the same time even in an environment with only the rear camera.

(変形例6)
第1の実施形態において、リアカメラ以外の撮像手段により解析を行ってもよい。例えばフロントカメラであってもよいし、第2の実施形態のように車両周辺の全体を含む画像を作成する複数のカメラであってもよい。もしくは、車両の側方に設置したカメラであってもよい。
(Modification 6)
In the first embodiment, the analysis may be performed by imaging means other than the rear camera. For example, it may be a front camera, or may be a plurality of cameras that create an image including the entire vehicle periphery as in the second embodiment. Or the camera installed in the side of the vehicle may be sufficient.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

1,101 ナビゲーション装置
11,111 制御回路
24 リアカメラ
124a,124b,124c,124d カメラ
1,101 Navigation device 11, 111 Control circuit 24 Rear camera 124a, 124b, 124c, 124d Camera

Claims (8)

自車両の周辺を撮像し撮像信号を出力する撮像手段と、
自車両の走行状態を表す信号を出力するセンサと、
前記撮像手段が出力する撮像信号に基づいてキャリブレーション情報を演算する演算手段と、
前記キャリブレーション情報に基づいて、前記センサのキャリブレーションを行うキャリブレーション手段と、
を備えることを特徴とするナビゲーション装置。
Imaging means for imaging the periphery of the host vehicle and outputting an imaging signal;
A sensor that outputs a signal indicating the traveling state of the host vehicle;
A computing means for computing calibration information based on an imaging signal output by the imaging means;
Calibration means for calibrating the sensor based on the calibration information;
A navigation device comprising:
請求項1に記載のナビゲーション装置において、
前記撮像信号から地物を検出する地物検出手段と、
前記撮像手段が2つの異なる時刻に出力した2つの撮像信号に基づいて、前記地物検出手段が検出した地物の前記2つの撮像信号間における回転量を検知する回転検知手段と、
前記撮像信号が2つの異なる時刻に出力した2つの撮像信号に基づいて、前記地物検知手段が検出した地物の前記2つの撮像信号間における移動量および移動方向を検知する移動検知手段とを更に備え、
前記演算手段は、前記回転量と前記移動量と前記移動方向とに基づいて前記キャリブレーション情報を演算することを特徴とするナビゲーション装置。
The navigation device according to claim 1, wherein
A feature detection means for detecting a feature from the imaging signal;
A rotation detection means for detecting a rotation amount between the two imaging signals of the feature detected by the feature detection means based on two imaging signals output by the imaging means at two different times;
A movement detection means for detecting a movement amount and a movement direction between the two imaging signals of the feature detected by the feature detection means based on the two imaging signals output by the imaging signal at two different times; In addition,
The navigation device according to claim 1, wherein the calculation means calculates the calibration information based on the rotation amount, the movement amount, and the movement direction.
請求項1に記載のナビゲーション装置において、
前記撮像信号から複数の特徴点を検出する特徴点検出手段と、
前記撮像手段が2つの異なる時刻に出力した2つの撮像信号に基づいて、複数の特徴点のうちいずれか2つの特徴点の重心の、前記2つの撮像信号間における移動量および移動方向を検出する重心検出手段とを更に備え、
前記演算手段は、前記移動量と前記移動方向とに基づいて前記キャリブレーション情報を演算することを特徴とするナビゲーション装置。
The navigation device according to claim 1, wherein
Feature point detecting means for detecting a plurality of feature points from the imaging signal;
Based on two imaging signals output by the imaging means at two different times, a movement amount and a movement direction between the two imaging signals of the center of gravity of any two of the feature points are detected. A center of gravity detection means;
The navigation device according to claim 1, wherein the calculation means calculates the calibration information based on the movement amount and the movement direction.
請求項1〜3のいずれか一項に記載のナビゲーション装置において、
前記センサは自車両の角速度を表す角速度信号を出力する角速度センサであることを特徴とするナビゲーション装置。
In the navigation device according to any one of claims 1 to 3,
The navigation apparatus according to claim 1, wherein the sensor is an angular velocity sensor that outputs an angular velocity signal representing an angular velocity of the host vehicle.
請求項1〜3のいずれか一項に記載のナビゲーション装置において、
前記センサは自車両の速度を表す速度信号を出力する速度センサであることを特徴とするナビゲーション装置。
In the navigation device according to any one of claims 1 to 3,
The navigation apparatus according to claim 1, wherein the sensor is a speed sensor that outputs a speed signal representing a speed of the host vehicle.
自車両の周辺を撮像し撮像信号を出力する撮像手段と、
地図情報を記憶する第1の記憶手段と、
自車両の現在位置および方位を記憶する第2の記憶手段と、
前記撮像手段が出力する撮像信号に基づいて補正情報を演算する演算手段と、
自車両の速度が所定速度以下である場合、前記補正情報に基づいて、前記第2の記憶手段が記憶する自車両の現在位置を補正する第1の補正手段と、
前記補正情報と前記地図情報とに基づいて、前記第2の記憶手段が記憶する自車両の方位を補正する第2の補正手段と
を備えることを特徴とするナビゲーション装置。
Imaging means for imaging the periphery of the host vehicle and outputting an imaging signal;
First storage means for storing map information;
Second storage means for storing the current position and direction of the host vehicle;
A computing means for computing correction information based on an imaging signal output by the imaging means;
A first correction unit that corrects the current position of the host vehicle stored in the second storage unit based on the correction information when the speed of the host vehicle is equal to or lower than a predetermined speed;
A navigation apparatus comprising: second correction means for correcting an orientation of the host vehicle stored in the second storage means based on the correction information and the map information.
請求項6に記載のナビゲーション装置において、
前記撮像信号から地物を検出する地物検出手段と、
前記撮像手段が2つの異なる時刻に出力した2つの撮像信号に基づいて、前記地物検出手段が検出した地物の前記2つの撮像信号間における回転量を検知する回転検知手段と、
前記撮像信号が2つの異なる時刻に出力した2つの撮像信号に基づいて、前記地物検知手段が検出した地物の前記2つの撮像信号間における移動量を検知する移動検知手段と、を更に備え、
前記演算手段は、前記回転量と前記移動量とに基づいて前記補正情報を演算することを特徴とするナビゲーション装置。
The navigation device according to claim 6, wherein
A feature detection means for detecting a feature from the imaging signal;
A rotation detection means for detecting a rotation amount between the two imaging signals of the feature detected by the feature detection means based on two imaging signals output by the imaging means at two different times;
Movement detection means for detecting a movement amount of the feature detected by the feature detection means between the two imaging signals based on two imaging signals output at two different times by the imaging signal. ,
The navigation device according to claim 1, wherein the calculation means calculates the correction information based on the rotation amount and the movement amount.
請求項6に記載のナビゲーション装置において、
前記撮像信号から複数の特徴点を検出する特徴点検出手段と、
前記撮像手段が2つの異なる時刻に出力した2つの撮像信号に基づいて、複数の特徴点のうちいずれか2つの特徴点の重心の、前記2つの撮像信号間における移動量および移動方向を検出する重心検出手段と、を更に備え、
前記演算手段は、前記重心検出手段が検出した重心の移動量および移動方向に基づいて前記補正情報を演算することを特徴とするナビゲーション装置。
The navigation device according to claim 6, wherein
Feature point detecting means for detecting a plurality of feature points from the imaging signal;
Based on two imaging signals output by the imaging means at two different times, a movement amount and a movement direction between the two imaging signals of the center of gravity of any two of the feature points are detected. A center of gravity detection means;
The navigation device according to claim 1, wherein the calculation means calculates the correction information based on a movement amount and a movement direction of the center of gravity detected by the center of gravity detection means.
JP2010102622A 2010-04-27 2010-04-27 Navigation device Pending JP2011232168A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010102622A JP2011232168A (en) 2010-04-27 2010-04-27 Navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010102622A JP2011232168A (en) 2010-04-27 2010-04-27 Navigation device

Publications (1)

Publication Number Publication Date
JP2011232168A true JP2011232168A (en) 2011-11-17

Family

ID=45321625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010102622A Pending JP2011232168A (en) 2010-04-27 2010-04-27 Navigation device

Country Status (1)

Country Link
JP (1) JP2011232168A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103968837A (en) * 2014-04-25 2014-08-06 惠州华阳通用电子有限公司 Method and device for correcting calibration factor of gyroscope in inertial navigation system
JP2018009833A (en) * 2016-07-12 2018-01-18 株式会社Soken Vehicle self-localization device and vehicle self-localization method
CN109195849A (en) * 2016-08-05 2019-01-11 日立汽车系统株式会社 Photographic device
JP2020190415A (en) * 2019-05-17 2020-11-26 アイシン・エィ・ダブリュ株式会社 Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program
KR102358695B1 (en) * 2020-09-07 2022-02-07 포티투닷 주식회사 Compensation Device and Method for Vehicle Motion Sensor Capable of Frequent Correction for Each Lane Keeping Section Extracted Based on Image Information, and Medium Being Recorded with Program for Executing the Method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005291732A (en) * 2004-03-31 2005-10-20 Clarion Co Ltd Navigation device, method, and program
JP2006252566A (en) * 2006-03-14 2006-09-21 Honda Motor Co Ltd Moving object detector
JP2008082932A (en) * 2006-09-28 2008-04-10 Clarion Co Ltd Navigation device, its control method, and control program
WO2009004749A1 (en) * 2007-07-04 2009-01-08 Mitsubishi Electric Corporation Navigation system
JP2009074859A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Motion measuring device and position measuring device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005291732A (en) * 2004-03-31 2005-10-20 Clarion Co Ltd Navigation device, method, and program
JP2006252566A (en) * 2006-03-14 2006-09-21 Honda Motor Co Ltd Moving object detector
JP2008082932A (en) * 2006-09-28 2008-04-10 Clarion Co Ltd Navigation device, its control method, and control program
WO2009004749A1 (en) * 2007-07-04 2009-01-08 Mitsubishi Electric Corporation Navigation system
JP2009074859A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Motion measuring device and position measuring device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103968837A (en) * 2014-04-25 2014-08-06 惠州华阳通用电子有限公司 Method and device for correcting calibration factor of gyroscope in inertial navigation system
JP2018009833A (en) * 2016-07-12 2018-01-18 株式会社Soken Vehicle self-localization device and vehicle self-localization method
CN109195849A (en) * 2016-08-05 2019-01-11 日立汽车系统株式会社 Photographic device
JPWO2018025632A1 (en) * 2016-08-05 2019-04-18 日立オートモティブシステムズ株式会社 Imaging device
US10810448B2 (en) 2016-08-05 2020-10-20 Hitachi Automotive Systems, Ltd. Image-capturing device
CN109195849B (en) * 2016-08-05 2021-09-07 日立汽车系统株式会社 Image pickup apparatus
JP2020190415A (en) * 2019-05-17 2020-11-26 アイシン・エィ・ダブリュ株式会社 Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program
KR102358695B1 (en) * 2020-09-07 2022-02-07 포티투닷 주식회사 Compensation Device and Method for Vehicle Motion Sensor Capable of Frequent Correction for Each Lane Keeping Section Extracted Based on Image Information, and Medium Being Recorded with Program for Executing the Method
KR20220033475A (en) * 2020-09-07 2022-03-16 포티투닷 주식회사 Compensation Device and Method for Vehicle Motion Sensor Capable of Frequent Correction for Each Lane Keeping Section Extracted Based on Image Information, and Medium Being Recorded with Program for Executing the Method
KR102475878B1 (en) * 2020-09-07 2022-12-12 포티투닷 주식회사 Compensation Device and Method for Vehicle Motion Sensor Capable of Frequent Correction for Each Lane Keeping Section Extracted Based on Image Information, and Medium Being Recorded with Program for Executing the Method

Similar Documents

Publication Publication Date Title
JP5798392B2 (en) Parking assistance device
JP4914726B2 (en) Current position calculation device, current position calculation method
JP2009250827A (en) Navigation device, method, and program
JP2013154730A (en) Apparatus and method for processing image, and parking support system
JP2012078273A (en) Information processing apparatus, method and program
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP2011232168A (en) Navigation device
US20120166083A1 (en) Navigation device, navigation method, and navigation program
JP2009162722A (en) Guidance device, guidance technique, and guidance program
JP2008145364A (en) Route guiding device
JP4833384B1 (en) Navigation device, navigation method, navigation program, and recording medium
JP5214355B2 (en) Vehicle traveling locus observation system, vehicle traveling locus observation method, and program thereof
JP2010154304A (en) Mobile camera system and driving method
JP2008032596A (en) Three-dimensional map-matching processor, processing method, and processing program, and navigation apparatus, method, and program, and automobile
JP2008082932A (en) Navigation device, its control method, and control program
JP2008241446A (en) Navigator and control method therefor
JP5702476B2 (en) Display device, control method, program, storage medium
JP5517176B2 (en) Image adjustment apparatus, control method, program, and storage medium
JP6401925B2 (en) Virtual image display device, control method, program, and storage medium
JP4917191B1 (en) Image control apparatus and image control method
TWI472957B (en) Motion detecting device and motion detecting method having rotation calibration function
JP2001289651A (en) Navigation system, map matching method and recording medium
JP4824522B2 (en) In-vehicle device
JP2011198002A (en) Object image recognition apparatus for vehicle, object image recognition method for vehicle, and computer program
JP6597128B2 (en) Vehicle display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140212