JP4700080B2 - Car navigation system and method - Google Patents
Car navigation system and method Download PDFInfo
- Publication number
- JP4700080B2 JP4700080B2 JP2008132185A JP2008132185A JP4700080B2 JP 4700080 B2 JP4700080 B2 JP 4700080B2 JP 2008132185 A JP2008132185 A JP 2008132185A JP 2008132185 A JP2008132185 A JP 2008132185A JP 4700080 B2 JP4700080 B2 JP 4700080B2
- Authority
- JP
- Japan
- Prior art keywords
- target point
- screen
- vehicle
- map
- car navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
Description
本発明は、カーナビゲーションシステムおよび方法に関し、特に、車両に搭載されたカメラを用いてリアルタイムに収集される映像に対象地点(Point of Interest:POI)を表示するカーナビゲーションシステムおよび方法に関する。 The present invention relates to a car navigation system and method, and more particularly, to a car navigation system and method for displaying a point of interest (POI) on an image collected in real time using a camera mounted on a vehicle.
本発明は、大韓民国情報通信部および情報通信研究振興院のIT成長動力革新技術開発事業の一環として行われた研究から導き出されたものである[課題管理番号:2005−S−114−03、課題名:テレマティックスサービス用実現可能コンテンツの構築および管理技術開発(Technology Development for Construction and Management of Tangible Content for Telematics Services)]。 The present invention is derived from research conducted as part of the IT growth dynamic innovation technology development project of the Korea Information and Communication Department and the Institute of Information and Communication Technology [Problem Management Number: 2005-S-114-03, Problem] Name: Technology Development for Construction and Management of Tangible Content for Telematics Services].
2次元の地図形態で車両の進行をナビゲートする地図に基づくカーナビゲーションシステムでは、アイコンやテキストの形態で地図画面に対象地点(POI)を表示する。POIは、建物、公園、施設などのオブジェクトのことをいい、POI情報は、地図座標系上の点または面の形態の座標とテキスト情報とを含むデータを有する。 In a car navigation system based on a map that navigates the progress of a vehicle in a two-dimensional map form, a point of interest (POI) is displayed on a map screen in the form of an icon or text. The POI refers to an object such as a building, a park, or a facility. The POI information includes data including coordinates in the form of points or planes on a map coordinate system and text information.
また、車両に搭載されたカメラを用いてリアルタイムに収集された映像によって車両の走行をナビゲートする映像カーナビゲーションシステムでは、車両の前方映像上に重ねてPOIを表示する。しかし、POIを映像に出力するためには、正確なカメラの位置および姿勢が必要である。2次元の地図に基づくカーナビゲーションシステムでは、車両の概略的な位置さえ確認できれば、経路案内や地図出力などの機能を実行するのに大きな問題はないが、映像カーナビゲーションシステムでは、カメラの位置および姿勢のわずかな誤差が存在するだけで、カーナビゲーション機能に大きな影響を及ぼす。例えば、広い道路の1車線を走行する場合および4車線を走行する場合においては、普通のGPS受信機と、2次元カーナビゲーションシステムの機能とでは区分しにくく、また区分する必要もないが、POI情報の映像出力には大きな差をもたらす。 Further, in a video car navigation system that navigates the running of a vehicle using video collected in real time using a camera mounted on the vehicle, the POI is displayed over the front video of the vehicle. However, in order to output POI to video, an accurate camera position and posture are required. In a car navigation system based on a two-dimensional map, there is no major problem in executing functions such as route guidance and map output as long as the approximate position of the vehicle can be confirmed. The presence of a slight error in posture greatly affects the car navigation function. For example, when traveling on one lane on a wide road and traveling on four lanes, it is difficult to distinguish between ordinary GPS receivers and functions of a two-dimensional car navigation system, and it is not necessary to distinguish them. There is a big difference in video output of information.
従来では、正確なカメラ情報を得るために、ジャイロスコープのような慣性センサを用いてカメラの位置および姿勢情報を補正する技術が知られている。また、従来では、ジャイロスコープのような慣性センサと傾斜計とを用いてカメラの方位角および傾斜角を検出する技術も知られている。 Conventionally, in order to obtain accurate camera information, a technique for correcting camera position and orientation information using an inertial sensor such as a gyroscope is known. Conventionally, a technique for detecting an azimuth angle and an inclination angle of a camera using an inertial sensor such as a gyroscope and an inclinometer is also known.
2次元の地図に基づくカーナビゲーションシステムでは考慮されないが、映像カーナビゲーションシステムにおいて考慮すべき別のことは、道路辺の入口から建物が遠く離れているか、または建物の領域が非常に大きい場合、建物の実際位置とPOIの映像出力位置とに差が生じ得ることである。例えば、建物の中心点だけがPOI座標として記憶されている場合、建物に進入するための入口は、実際に道路辺にあって視野には入るが、建物自体がPOIとして画面に出力されない場合が生じ得る。 Another thing to consider in a video car navigation system that is not considered in a two-dimensional map-based car navigation system is that if the building is far away from the roadside entrance or if the area of the building is very large, There is a possibility that a difference occurs between the actual position of the video and the video output position of the POI. For example, when only the center point of the building is stored as POI coordinates, the entrance for entering the building is actually on the roadside and enters the field of view, but the building itself may not be output as a POI on the screen. Can occur.
従来の映像カーナビゲーションシステムは、正確なカメラ情報を得るために、高価な慣性センサを用いるため、製作単価が増大するという問題点があった。また、従来の映像カーナビゲーションシステムは、POIに関する単一の座標だけしか提供しないため、視野には大型の建物が入るものの、当該建物がPOIとして映像に出力されない場合があり、ドライバに正確なナビゲーションができないという問題点があった。 Since the conventional video car navigation system uses an expensive inertial sensor in order to obtain accurate camera information, there is a problem that the manufacturing unit cost increases. Further, since the conventional video car navigation system provides only a single coordinate related to the POI, a large building may be included in the field of view, but the building may not be output as a POI on the video. There was a problem that could not.
そこで、本発明は、安価でかつ正確なカメラ情報を取得できる映像カーナビゲーションシステムおよび方法を提供することを目的とする。 Accordingly, an object of the present invention is to provide a video car navigation system and method capable of acquiring inexpensive and accurate camera information.
また、本発明は、高価な慣性センサを必要とせず、GPS受信機およびカメラだけを用いて、カメラから取得した映像から認識した結果を利用して、POI情報をリアルタイム映像に重ねて出力できる映像カーナビゲーションシステムおよび方法を提供することを目的とする。 In addition, the present invention does not require an expensive inertial sensor, and uses only the GPS receiver and the camera, and uses the result recognized from the video acquired from the camera, so that the POI information can be superimposed on the real-time video and output. It is an object to provide a car navigation system and method.
さらに、本発明は、従来のPOIデータの構成方式とは異なり、POI座標(点または面)と関連付けられた追加的な点データを用いることにより、建物が画面に表れない場合でも、走行中に道路辺で実際に必要な出入口の位置を画面上に出力してドライバの道探索の手助けとなり得る映像カーナビゲーションシステムおよび方法を提供することを目的とする。 Further, the present invention differs from the conventional POI data construction method by using additional point data associated with POI coordinates (points or faces), so that even when the building does not appear on the screen, it can be An object of the present invention is to provide a video car navigation system and method capable of outputting a position of an actually required entrance / exit on a roadside on a screen to help a driver search for a road.
上記の目的を達成するために、本発明の映像カーナビゲーションシステムは、対象地点を画面に表示するための映像カーナビゲーションシステムであって、車両に搭載されたカメラを用いて前記画面を取得するデータ入力部と、前記画面から基準オブジェクトを認識する映像認識部と、前記対象地点および前記基準オブジェクトの地図上の位置に関する情報を提供する電子地図部と、前記基準オブジェクトの前記地図上の位置と、前記対象地点の前記地図上の位置との間の相対的な位置関係を用いて、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定する演算部と、前記画面上の前記対象地点位置に前記対象地点を表示する出力部とを備えることを特徴とする。 In order to achieve the above object, the video car navigation system of the present invention is a video car navigation system for displaying a target point on a screen, and data for acquiring the screen using a camera mounted on a vehicle. An input unit; a video recognition unit that recognizes a reference object from the screen; an electronic map unit that provides information on the target point and the position of the reference object on the map; and a position of the reference object on the map; A calculation unit that determines a target point position on the screen of the target point based on the reference object, using a relative positional relationship between the position of the target point on the map; And an output unit for displaying the target point at the target point position.
また、上記の目的を達成するために、本発明の映像カーナビゲーション方法は、対象地点を画面に表示するための映像カーナビゲーション方法であって、(a)データ入力部によって、車両に搭載されたカメラを用いて前記画面を取得するステップと、(b)映像認識部によって、前記画面から基準オブジェクトを認識するステップと、(c)電子地図部によって提供される前記基準オブジェクトの地図上の位置と、前記対象地点の地図上の位置との間の相対的な位置関係を用いて、演算部によって、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定するステップと、(d)出力部によって、前記画面上の前記対象地点位置に前記対象地点を表示するステップとを含むことを特徴とする。 In order to achieve the above object, a video car navigation method of the present invention is a video car navigation method for displaying a target point on a screen, and is mounted on a vehicle by (a) a data input unit. Obtaining the screen using a camera; (b) recognizing a reference object from the screen by the video recognition unit; and (c) a position of the reference object on the map provided by the electronic map unit; Determining a target point position on the screen of the target point based on the reference object by a calculation unit using a relative positional relationship between the position on the map of the target point; (D) The step of displaying the target point at the target point position on the screen by the output unit.
ここで、前記基準オブジェクトは信号灯とすることができる。 Here, the reference object may be a signal lamp.
本発明のこの構成によれば、既存の高価な慣性センサを必要とせずに、基準オブジェクトに対する対象地点の相対的な地図上の位置を用いるだけで対象地点を特定することができる。 According to this configuration of the present invention, the target point can be specified only by using the position of the target point relative to the reference object on the map without using an existing expensive inertial sensor.
また、本発明の映像カーナビゲーションシステムおよび方法において、前記演算部は、前記基準オブジェクトを基準にした前記画面を、複数の画面基準領域に分割する画面基準領域設定部を含み、該画面基準領域設定部は、前記対象地点を前記複数の画面基準領域のうちの1つの画面基準領域に対応させることによって、前記対象地点位置を決定する。ここで、画面基準領域に対する対象地点の対応関係は、車両と基準オブジェクトと対象地点との間の位置関係によって決定される。 In the video car navigation system and method of the present invention, the calculation unit includes a screen reference region setting unit that divides the screen based on the reference object into a plurality of screen reference regions, and the screen reference region setting The unit determines the position of the target spot by causing the target spot to correspond to one screen reference area of the plurality of screen reference areas. Here, the correspondence relationship of the target point with respect to the screen reference region is determined by the positional relationship among the vehicle, the reference object, and the target point.
また、本発明の映像カーナビゲーションシステムおよび方法において、前記出力部は、前記対象地点の前記地図上の位置から2次元画像座標を計算し、前記対象地点位置に対応付けられる前記画面基準領域に前記2次元画像座標が含まれない場合には、前記2次元画像座標に前記対象地点を表示する代わりに、前記対象地点位置に前記対象地点を表示する。 Further, in the video car navigation system and method of the present invention, the output unit calculates a two-dimensional image coordinate from a position of the target point on the map, and adds the screen reference region associated with the target point position to the screen reference region. If the two-dimensional image coordinates are not included, the target point is displayed at the target point position instead of displaying the target point at the two-dimensional image coordinates.
本発明のこの構成によれば、3次元地図座標から計算した対象地点の2次元画像座標にエラーがある場合、その2次元画像座標の代わりに、基準領域設定過程で特定された対象地点位置に当該対象地点を表示できるため、画面上のより正確な位置に対象地点を表示することができる。 According to this configuration of the present invention, when there is an error in the two-dimensional image coordinates of the target point calculated from the three-dimensional map coordinates, the target point position specified in the reference region setting process is used instead of the two-dimensional image coordinates. Since the target point can be displayed, the target point can be displayed at a more accurate position on the screen.
また、本発明の映像カーナビゲーションシステムおよび方法において、前記映像認識部は、前記画面から前記車両の前方の車線を認識する車線認識部を含み、前記演算部は、前記車線認識部によって認識された車線に関する情報から、前記車両の車両方位角を演算する方位角演算部を含むことができる。 In the video car navigation system and method of the present invention, the video recognition unit includes a lane recognition unit that recognizes a lane ahead of the vehicle from the screen, and the calculation unit is recognized by the lane recognition unit. An azimuth angle calculating unit that calculates a vehicle azimuth angle of the vehicle from information on the lane can be included.
ここで、前記出力部は、前記対象地点の前記地図上の位置から2次元画像座標を計算するために用いる車両方位角として、前記演算部によって演算された前記車両方位角およびGPS受信機から提供された車両方位角のうちのいずれか1つの車両方位角を選択することができる。 Here, the output unit provides from the vehicle azimuth calculated by the calculation unit and the GPS receiver as a vehicle azimuth used to calculate a two-dimensional image coordinate from the position of the target point on the map. Any one of the vehicle azimuths thus selected can be selected.
本発明のこの構成によれば、GPSデータに関して信頼度の高い車速区間(例えば、20km/h以上)では、GPS受信機からの車両方位角を用い、そうではない場合には、認識された車線から演算した車両方位角を用いることができるため、地図上の対象地点位置から2次元画像座標を計算するために用いられる車両方位角をより正確に特定することができる。 According to this configuration of the present invention, the vehicle azimuth from the GPS receiver is used in a vehicle speed section (eg, 20 km / h or more) with high reliability with respect to GPS data, otherwise the recognized lane Therefore, the vehicle azimuth angle used for calculating the two-dimensional image coordinates from the target point position on the map can be specified more accurately.
また、本発明の映像カーナビゲーションシステムおよび方法において、前記映像認識部は、前記画面から認識した車線に関する情報から前記車両の走行車道を認識する走行車道認識部を含み、前記演算部は、前記走行車道認識部によって認識された前記走行車道に関する情報から前記車両の位置を演算する位置演算部を含むことができる。 In the video car navigation system and method of the present invention, the video recognition unit includes a traveling roadway recognition unit that recognizes a traveling roadway of the vehicle from information on the lane recognized from the screen, and the calculation unit includes the traveling The position calculating part which calculates the position of the said vehicle from the information regarding the said traveling roadway recognized by the roadway recognition part can be included.
ここで、前記データ入力部は、GPS受信機から前記車両の位置情報を受信し、前記位置演算部は、前記GPS受信機から受信した前記車両の前記位置情報を、前記走行車道認識部によって認識された前記走行車道に関する情報を用いて補正することによって、前記車両の位置を演算する。 Here, the data input unit receives position information of the vehicle from a GPS receiver, and the position calculation unit recognizes the position information of the vehicle received from the GPS receiver by the traveling roadway recognition unit. The position of the vehicle is calculated by performing correction using the information related to the traveling roadway.
本発明のこの構成によれば、GPS受信機からの情報により、道路中心線で特定された車両の位置に関して、道路中心線から直角方向の距離誤差を無くすことができる。 According to this configuration of the present invention, it is possible to eliminate a distance error in a direction perpendicular to the road center line with respect to the position of the vehicle specified by the road center line based on information from the GPS receiver.
また、本発明の映像カーナビゲーションシステムおよび方法において、前記対象地点は、地図上の複数の対象地点座標に関連付けられ、前記演算部は、前記相対的な位置関係を決定するために、前記複数の対象地点座標のうちのいずれか1つの対象地点座標を、前記対象地点の前記地図上の位置に特定することができる。 Further, in the video car navigation system and method of the present invention, the target point is associated with a plurality of target point coordinates on a map, and the calculation unit determines the relative positional relationship in order to determine the relative positional relationship. Any one of the target point coordinates can be specified as the position of the target point on the map.
本発明のこの構成によれば、対象地点を代表する座標と、その座標とリンクして当該対象地点の出入口などを表す座標とを含む複数の座標により、必要に応じて対象地点の位置を画面上に表すことができるため、対象地点をより正確に特定することができる。 According to this configuration of the present invention, the position of the target point is displayed on the screen as needed by a plurality of coordinates including coordinates representing the target point and coordinates representing the entrance / exit of the target point linked to the coordinate. Since it can represent above, a target point can be pinpointed more correctly.
本発明によれば、既存の高価な慣性センサを必要とせず、基準オブジェクトに対する対象地点の相対的な地図上の位置だけで、対象地点を特定することが可能となる。 According to the present invention, it is possible to specify the target point only by the relative position of the target point on the map with respect to the reference object without requiring an existing expensive inertial sensor.
また、本発明によれば、3次元地図座標から計算した対象地点の2次元画像座標にエラーがある場合、その2次元画像座標の代わりに、基準領域設定過程で特定された対象地点位置に当該対象地点を表示できるため、画面上でより正確な位置に対象地点を表示することが可能となる。 Further, according to the present invention, when there is an error in the two-dimensional image coordinates of the target point calculated from the three-dimensional map coordinates, the target point position specified in the reference region setting process is used instead of the two-dimensional image coordinates. Since the target point can be displayed, the target point can be displayed at a more accurate position on the screen.
また、本発明によれば、GPSデータに関して信頼度が高い車速区間(例えば20km/h)では、GPS受信機からの車両方位角を用い、そうではない場合には認識された車線から演算した車両方位角を用いることができるため、地図上の対象地点位置から2次元画像座標を計算するために用いられる車両方位角をより正確に特定することが可能となる。 In addition, according to the present invention, in a vehicle speed section (for example, 20 km / h) with high reliability with respect to GPS data, the vehicle azimuth from the GPS receiver is used, and if not, the vehicle calculated from the recognized lane Since the azimuth angle can be used, the vehicle azimuth angle used for calculating the two-dimensional image coordinates from the target point position on the map can be specified more accurately.
また、本発明によれば、GPS受信機からの情報によって、道路中心線で特定された車両の位置に関して、道路中心線から直角方向の距離誤差を無くすことが可能となる。 Further, according to the present invention, it is possible to eliminate a distance error in a direction perpendicular to the road center line with respect to the position of the vehicle specified by the road center line based on information from the GPS receiver.
また、本発明によれば、対象地点を代表する座標と、その座標とリンクして当該対象地点の出入口などを表す座標とを含む複数の座標により、必要に応じて対象地点の位置を画面上に表すことができるため、対象地点をより正確に特定することが可能となる。 Further, according to the present invention, the position of the target point is displayed on the screen as necessary by using a plurality of coordinates including coordinates representing the target point and coordinates representing the entrance and exit of the target point. Therefore, the target point can be specified more accurately.
以下では、添付図面を参照しながら、本発明の実施形態について説明する。
図1は、本発明の実施形態に係る映像カーナビゲーションシステム100を示す構成図であり、図2は、図1の詳細を示す構成図である。映像カーナビゲーションシステム100は、データ入力部10、電子地図部20、映像認識部30、演算部40、および出力部50を含む。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a block diagram showing a video car navigation system 100 according to an embodiment of the present invention, and FIG. 2 is a block diagram showing details of FIG. The video car navigation system 100 includes a
データ入力部10は、図示していないGPS受信機とカメラとを用いて、車両の現在位置および車両前方の映像を取得する。電子地図部20は、POIの位置座標値および当該POIを説明するテキスト(例えば「ABCビル」のような建物の名称)を含むPOIデータ、信号灯の位置座標値を含む信号灯データ、および電子道路地図を含み、車両の現在位置と関連付けられたPOIデータおよび信号灯データを検索して、電子道路地図にマップマッチングする。映像認識部30は、カメラを用いて取得される道路映像から、車線および信号灯を認識して、車両の現在の走行車道位置を計算する。演算部40は、GPS信号から車両方位角を算出し、映像認識部30から受信した車線および信号灯の画像座標と、車両の現在の走行車道位置とによって、車両方位角および現在の車両位置を計算する。出力部50は、車両位置および車両方位角を用いてPOI座標を画像座標に変換し、映像に重ねて出力する。
The
本明細書では、道路で車両が走行する広さを有する領域を「車道」といい、「車道」を区分する線(中央線および道路境界線を含む)を「車線」という。また、「走行車道位置」とは、道路の中央線から順に付与した車道の番号をいい、例えば片側4車線道路では、車両が中央から2番目の車道を走行中であれば、走行車道位置=2となる。「車両方位角」とは、地図座標系のN軸に対して車両の進行方向(カメラの光学軸が向く方向と同一)がなす角度をいう。 In this specification, an area having a width where a vehicle travels on a road is referred to as a “roadway”, and a line (including a center line and a road boundary line) dividing the “roadway” is referred to as a “lane”. The “traveling lane position” refers to the roadway number assigned in order from the center line of the road. For example, in the case of a four-lane road on one side, if the vehicle is traveling on the second lane from the center, the traveling lane position = 2 “Vehicle azimuth” refers to an angle formed by the traveling direction of the vehicle (same as the direction in which the optical axis of the camera faces) with respect to the N axis of the map coordinate system.
また、本実施形態では、POIの映像表示のための基準オブジェクトとして、信号灯を用いているが、他のオブジェクトに対する識別力が高く、かつ配置密度の高いオブジェクトであれば、信号灯以外の他のオブジェクトを基準オブジェクトとして用いてもよい。 In this embodiment, a signal light is used as a reference object for POI video display. However, any object other than the signal light can be used as long as the object has high discrimination power against other objects and high arrangement density. May be used as a reference object.
図2は、図1の映像カーナビゲーションシステム100の詳細な構成図を示している。データ入力部10は、車両前方のリアルタイム映像を取得するためのカメラ11と、車両位置、車両方位角、および車両速度を含むGPSデータを得るためのGPS受信機12とを有する。カメラの方向は、車両の進行方向に平行であると仮定し、本明細書では、車両の進行方向とカメラの方向とは、同一の意味を表すものとして用いられる。また、カメラ11とGPS受信機12との間の距離は、無視できるほど近くに配置されている。
FIG. 2 shows a detailed configuration diagram of the video car navigation system 100 of FIG. The
電子地図部20は、電子道路地図部21、マップマッチング処理部22、POIデータ部23、POI検索部24、信号灯データ部25、および信号灯検索部26を含む。電子道路地図部21は、道路の座標を有する。
The
マップマッチング処理部22は、GPS受信機12からGPS座標を受信して、マップマッチング過程を実行する。マップマッチング過程では、例えば、現在のGPS座標を電子道路地図部21の道路座標と比較演算して、現在のGPS座標と最も近い道路上の位置を計算するが、これに限定されるものではない。すなわち、マップマッチング処理部22は、GPS座標値に存在する誤差を最小化させるために、当該GPS座標値と最も近い道路上の位置として、道路中央線に車両位置をマップマッチングする。したがって、道路中心線と直角方向のGPS誤差が除去される。上記のようなマップマッチング過程を通じて得られた座標値は、演算部40に伝送される。
The map
POIデータ部23は、様々なオブジェクト(建物、公園、施設など)に関する各々のPOI座標値とテキスト属性値とを有している。建物の場合、POI座標は、建物自体の位置を代表的に表すオブジェクト座標値に、当該建物の道路辺の出入口の位置を表す追加座標値がリンクされて構成される。このようなデータの構成については、図3を参照しながらより詳細に説明する。
The
図3(b)は、オブジェクト自体(すなわち、市役所自体)の座標値を含むオブジェクト座標値テーブルである。オブジェクト座標値は、「市役所」などのテキスト属性値によって互いに区別される。図3(c)は、建物の道路辺の出入口位置を追加的に表す座標値を含む追加座標値テーブルである。追加座標値は、「正門」や「東門」などのテキスト属性値によって互いに区別される。オブジェクト座標値テーブルおよび追加座標値テーブルは、「名称」によってリンクされている。「市役所」の場合、「正門」および「東門」の追加座標値が、市役所自体のオブジェクト座標値とリンクされている。 FIG. 3B is an object coordinate value table including coordinate values of the object itself (that is, the city hall itself). The object coordinate values are distinguished from each other by a text attribute value such as “city hall”. FIG. 3C is an additional coordinate value table including coordinate values additionally representing the entrance / exit position of the road side of the building. The additional coordinate values are distinguished from each other by text attribute values such as “main gate” and “east gate”. The object coordinate value table and the additional coordinate value table are linked by “name”. In the case of “city hall”, the additional coordinate values of “main gate” and “east gate” are linked to the object coordinate values of the city hall itself.
POI検索部24は、テキスト属性値や座標値などの条件に応じて、POIデータ部23のPOI情報を検索する。図3(a)において、市役所を目的地としてA方向に車両が走行する場合、POI検索部24は、市役所自体のオブジェクト座標値ではなく、「正門」の追加座標値を検索する。このとき、市役所自体のオブジェクト座標値や「東門」の追加座標値を用いようとしても、画面上にはそのような座標値が現れない。同様に、市役所を目的地としてB方向に車両が走行する場合、POI検索部24は、「東門」の追加座標値を検索する。
The
信号灯データ部25は、道路上の信号灯の座標値を含む信号灯情報を有しており、信号灯検索部26は、信号灯データ部25から、演算部40において必要な信号灯情報を検索して、演算部40に伝送する。
The signal light data unit 25 has signal light information including the coordinate value of the signal light on the road, and the signal
映像認識部30は、車線認識部31、走行車道認識部32、および信号灯認識部33を含む。
The
車線認識部31は、カメラを用いて取得した映像から車線を認識する。例えば、車線認識部31は、車両前方の映像を画像処理して車両の左右にある車線データを抽出した後、この車線データと、予め記憶されている車道認識パターンデータとを比較する公知の方法によって、車線を認識することができる。車線認識部31は、画像座標上においてパラメータで示された直線の形態でそのように認識した値を、走行車道認識部32および演算部40に伝送する。
The
走行車道認識部32は、カメラを用いて取得した映像から認識された車線を用いて現在の走行車道位置を計算し、その結果を演算部40に伝送する。例えば、各車道が他の車道と特徴を有して区分できるように道路上に車線が描かれている場合、例えば、中央線は直線状、1車線の右側車線は破線状、2車線の右側車線は一点鎖線状などとして区分している場合、互いに区分される車道に関する認識パターンデータを予め記憶しておき、車線認識部31が、認識した車線認識パターンと一致する車線認識パターンを、その記憶された認識パターンデータから検索することにより、車両が現在どの走行車道で走行中であるかを判断する公知の方法を用いて、現在の走行車道位置を算出することができる。
The traveling
信号灯認識部33が信号灯を認識する過程は、車線認識部31が車線を認識する過程と類似している。すなわち、信号灯認識部33は、カメラを用いて取得した車両前方映像を処理し、このような処理によって得られた映像データから、予め記憶されている信号灯認識パターンデータと一致する映像データを信号灯として認識し、認識された信号灯の画像座標値を演算部40に伝送する。画像座標値とは、映像カーナビゲーションシステムの画面に表示される映像における座標値をいう。
The process of the signal
演算部40は、マップマッチング処理部22から受信した座標値と映像認識部30から受信した映像認識の結果とから、車両位置および車両方位角を計算する。
The
位置演算部41は、マップマッチング処理部22から受信したマップマッチングデータにより認識された現在の車両位置を、走行車道認識部31から受信した走行車道位置情報によって補正する。前述したように、マップマッチング処理部22は、車両の位置を道路中央線にマップマッチングするため、車両の正確な位置を把握するためには、車両位置に対する補正が必要である。位置演算部41は、走行車道認識部32から受信した走行車道位置によって車両の走行車道位置を認識する。したがって、位置演算部41は、走行車道位置と車道幅とを用いて、車両が道路中心線に対して直角方向に離れている距離を計算することによって、道路中央線にマップマッチングしている車両の位置を実際の車両位置に補正することができる。このとき、各車道幅を表す精密データがある場合には、車道幅には、当該精密データを用い、そうでない場合には、地域別に規格化されている値(例えば、都市地域道路の場合、3.5m)を用いる。
The position calculation unit 41 corrects the current vehicle position recognized by the map matching data received from the map
方位角演算部42は、車線認識部32から受信した車線情報を用いて車両方位角を算出する。多くの場合、車線は道路中央線に平行であるため、車両が道路となす角度は、車両が車線となす角度と同一であるとみなすことができる。しかし、実際に車両が走行している場合には、車線と車両とが平行ではなく、角度を有することがあり、このときには、道路が地図のN軸となす角度と、車両がその道路の車線となす角度とを加えて車両方位角を計算する。
The azimuth calculation unit 42 calculates the vehicle azimuth using the lane information received from the
方位角演算部42によって、車両が車線となす角度を計算する方法は、例えば、次の通りである。車線認識部32が認識した画面上の車両の左右車線から両車線の中央に向かってそれぞれ仮想の法線を引き、その2つの法線が交わる画面上の点を通過する仮想の水平軸を引いたときに、左側車線からの法線と水平軸がなす第1の角度と、右側車線からの法線と水平軸がなす第2の角度が等しければ、車両が車線となす角度は、0度であるといえる。このようにして、第1の角度と第2の角度との差から、車両が車線となす角度を計算することができる。第1の角度と第2の角度との差が大きくなるほど、車両が車線となす角度は、比例的に増大する。このように計算した車両方位角は、GPS受信機12が提供する車両方位角と共に出力部50によって選択的に用いられる。
The method of calculating the angle that the vehicle makes with the lane by the azimuth calculating unit 42 is, for example, as follows. A virtual normal is drawn from the left and right lanes of the vehicle on the screen recognized by the
画面基準領域設定部43は、信号灯認識部33から受信した信号灯の画像座標値を基準座標値として用いて、映像カーナビゲーションシステムの画面を複数の基準領域に分割し、POIが画面上に表される位置を近似するために、POI検索部24から受信したPOIの位置情報(座標値)と、信号灯検索部26から受信した信号灯の位置情報(座標値)とを比較して、POIを、画面上で分割された画面基準領域に対応させる。すなわち、信号灯の位置を基準にしたPOIの相対的な位置に応じて、各POIが画面上に適切に表示されることになる。
The screen reference
次に、図4を参照して、画面基準領域設定部43が、POIを画面上で分割された基準領域に対応させる方法について説明する。図4(a)の地図上において、信号灯の座標と車両位置とを連結した破線(HL)、および現在の進行道路と直角であり、かつ信号灯座標を通過する破線(VL)によって、地図領域が4個の領域に区分されている。地図上のA、B、C、D、およびEは、POIを示している。
Next, with reference to FIG. 4, a method in which the screen reference
図4(b)は、映像カーナビゲーションシステムの画面を示している。画面基準領域設定部43は、まず、信号灯認識部33から受信した信号灯の画像座標値を用いて、画面上に信号灯を表示し、信号灯を基準として4個の画面基準領域S1、S2、S3、およびS4に画面を区分する。
FIG. 4B shows a screen of the video car navigation system. First, the screen reference
次に、画面基準領域設定部43は、車両から見たときに地図上で信号灯より左側に表されるA、C、およびEのPOIを、画面上で信号灯より左側の画面基準領域(S1、S3)に対応させ、BおよびDのPOIを、画面上で信号灯より右側の画面基準領域(S2、S4)に対応させる。また、画面基準領域設定部43は、車両から見たときに信号灯よりも近くにあるAおよびBのPOIを、画面上で信号灯より上側の画面基準領域(S1、S2)に対応させ、C、D、およびEのPOIを、画面上で信号灯より下側の画面基準領域(S3、S4)に対応させる。その結果、A、B、C、D、およびEの各POIは、画面上の4個の画面基準領域のうちの1つの画面基準領域に対応することになる。図4の例の場合、EのPOIは、S3の画面基準領域に配置され、BのPOIは、S2の画面基準領域に配置される。
Next, the screen reference
一方、画面基準領域設定部43は、信号灯の座標値と各POIの座標値とを認識することができるため、信号灯の座標値を基準にした各POIの相対的な座標値を用いて、画面上にある程度正確なPOI表示位置を決定することができる。これにより、画面基準領域設定部43は、画面基準領域を区分することなく、信号灯の座標値に対する各POIの相対的な座標値から、当該POIの画面上の表示位置を決定することができる。しかしながら、本実施形態において基準領域を分割する理由は、後述する出力部50において3次元地図座標を2次元画像座標に投影して計算したPOIの画像座標が、画面基準領域設定部43によって対応する基準領域に対応しなければ、当該画像座標が正確に計算されたものではないということを確認できるためである。
On the other hand, since the screen reference
出力部50は、車両位置、車両方位角、予め知らされたカメラパラメータ、POIデータ、および画面基準領域の入力を受け取り、出力対象POIの3次元地図座標を2次元画像座標に投影して計算したPOIの画像座標を出力する。このとき、出力部50は、GPS受信機12から提供された車両速度に応じて、GPS受信機12から提供された車両方位角および方位角演算部42によって計算した車両方位角のうちのいずれか1つの車両方位角を用いて、POIの画像座標を計算する。
The
具体的に、GPS情報が信頼できるとして知られている20km/h以上の車両速度に対しては、GPS受信機12から提供された車両方位角を用い、車両速度が20km/h未満の場合では、方位角演算部42によって計算した車両方位角を用いる。また、車両前方の混雑などによって車線が正しく認識できない場合には、車両速度に関わらず、GPS受信機12から提供された車両方位角を用いる。 Specifically, for a vehicle speed of 20 km / h or more, which is known to have reliable GPS information, the vehicle azimuth provided by the GPS receiver 12 is used, and the vehicle speed is less than 20 km / h. The vehicle azimuth calculated by the azimuth calculation unit 42 is used. Further, when the lane cannot be correctly recognized due to congestion in front of the vehicle, the vehicle azimuth provided from the GPS receiver 12 is used regardless of the vehicle speed.
また、出力部50は、計算したPOIの画像座標の画面内領域が、画面基準領域設定部43によって対応付けられる画面基準領域と一致するか否かを検査し、一致しない場合には、計算したPOIの画像座標ではない画面基準領域設定部43によって対応付けられる画面基準領域上の画像座標を、当該POIの画像座標として画面に出力する。
Further, the
また、出力部50は、画面の左側に位置するオブジェクト(建物など)に対しては、当該オブジェクトの左側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値(例えば、建物の名称など)を映像に出力し、画面の右側に位置するオブジェクトに対しては、当該オブジェクトの右側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値を映像に出力する。また、映像に出力されるネームボードは、画面上の他の情報を隠さないように、ある程度透明に構成される。
In addition, the
図5は、本実施形態に係る映像カーナビゲーションシステムの動作のフローチャートを示している。システムが開始すると(S61)、データ入力部10のカメラ11が、一定のフレーム率で車両前方の映像を取得し、GPS受信機12が、一定の時間間隔で現在の位置座標値、車両方位角、および車両速度を検出する(S62)。
FIG. 5 shows a flowchart of the operation of the video car navigation system according to the present embodiment. When the system is started (S61), the camera 11 of the
データ入力部10は、映像認識部30および出力部50に映像を伝送し、電子地図部20のマップマッチング処理部22に位置座標値を伝送する。マップマッチング処理部22は、その位置座標値を電子道路地図部21にある道路上の最も近い地点(すなわち、中央線)に近似させるマップマッチングを実行し(S63)、マップマッチングされた位置座標値を演算部40に伝送する。
The
映像認識部30の車線認識部32は、受信した映像から車線を認識して、その結果を走行車道認識部31に伝送し、走行車道認識部31は、受信した映像から、車線認識結果を用いて走行車道位置を計算する(S64)。映像認識部30の信号灯認識部33は受信した映像から信号灯を認識する(S65)。車線は、画像座標の形態で、信号灯認識の結果は、映像に配置される信号灯の画像座標の形態で、走行車道位置は、数字の形態(すなわち、2車線の場合「2」)で、演算部40に伝送される。
The
演算部40は、前述したような方式により、車線の画像座標から車両方位角を算出し、走行車道位置から車両位置を補正して正確な車両位置を算出する(S66)。
The
次いで、POI検索部24が、POIデータから出力対象POIを検索する(S68)。検索方法は、図3に基づいて上記にて説明した通りである。POI検索部24は、検索したPOIデータ(座標値およびテキスト属性値)を、演算部40の画面基準領域設定部43に伝送する。そして、画面基準領域設定部43は、POIデータのうちの座標値と車両位置とを比較演算して、POI座標の出力領域を、画面基準領域のうちの1つの画面基準領域に対応させる。
Next, the
最後に、出力部50は、車両位置、車両方位角、予め知らされたカメラパラメータ、POIデータ、および画面基準領域の入力を受け取り、出力対象POIの3次元地図座標を2次元画像座標に投影して計算したPOIの画像座標を出力する。このとき、出力部50は、GPS受信機12から提供された車両速度に応じて(例えば、20km/hを基準とする)、GPS受信機12から提供された車両方位角および方位角演算部42によって計算した車両方位角のうちのいずれか1つの車両方位角を用いて、POIの画像座標を計算する。また、出力部50は、計算したPOIの画像座標の画面内領域が、画面基準領域設定部43によって対応付けられる画面基準領域と一致するかを検査し、一致しない場合には、計算したPOIの画像座標ではない画面基準領域設定部43によって対応付けられる画面基準領域上の画像座標を、当該POIの画像座標として出力する(S69)。
Finally, the
このとき、出力部50は、画面の左側に位置するオブジェクト(建物など)に対しては、当該オブジェクトの左側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値(例えば、建物の名称など)を映像に出力し、画面の右側に位置するオブジェクトに対しては、当該オブジェクトの右側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値を映像に出力する。また、映像に出力されるネームボードは、画面上の他の情報を隠さないように、ある程度透明に構成される。
At this time, the
このような過程がフレームごとにリアルタイムで繰り返し実行され、システムが終了命令を受けるか、または映像入力が中断すると終了する(S70)。 Such a process is repeatedly executed in real time for each frame, and ends when the system receives an end command or video input is interrupted (S70).
本発明は、上記の方法を実行するためのプログラムを記録したコンピュータ読み取り可能な記録媒体によっても具現化できる。また、前述した本発明の実施形態は、具体的な構成と図面とによって特定されているが、このような具体的な実施形態によって、本発明の範囲が限定されるわけではない。したがって、本発明は、本発明の本質を逸脱しない限り、様々な変形形態およびその均等形態を含むものとして理解すべきである。 The present invention can also be embodied by a computer-readable recording medium on which a program for executing the above method is recorded. The above-described embodiments of the present invention are specified by specific configurations and drawings, but the scope of the present invention is not limited by such specific embodiments. Therefore, the present invention should be understood as including various modifications and equivalents thereof without departing from the essence of the present invention.
10 データ入力部
20 電子地図部
30 映像認識部
40 演算部
50 出力部
11 カメラ
12 GPS受信機
21 電子道路地図部
22 マップマッチング処理部
23 POIデータ部
24 POI検索部
25 信号灯データ部
26 信号灯検索部
31 車線認識部
32 走行車道認識部
33 信号灯認識部
41 位置演算部
42 方位角演算部
43 画面基準領域設定部
DESCRIPTION OF
Claims (16)
車両に搭載されたカメラを用いて、前記画面を取得するデータ入力部と、
前記画面から基準オブジェクトを認識する映像認識部と、
前記対象地点および前記基準オブジェクトの地図上の位置に関する情報を提供する電子地図部と、
前記基準オブジェクトの前記地図上の位置と、前記対象地点の前記地図上の位置との間の相対的な位置関係を用いて、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定する演算部と、
前記画面上の前記対象地点位置に前記対象地点を表示する出力部と
を備えたことを特徴とする映像カーナビゲーションシステム。 A video car navigation system for displaying a target point on a screen,
A data input unit that acquires the screen using a camera mounted on the vehicle;
A video recognition unit for recognizing a reference object from the screen;
An electronic map unit for providing information on a map of the target point and the reference object;
A target point on the screen of the target point based on the reference object using a relative positional relationship between the position of the reference object on the map and the position of the target point on the map A calculation unit for determining the position;
An image car navigation system comprising: an output unit that displays the target point at the target point position on the screen.
該画面基準領域設定部は、前記対象地点を前記複数の画面基準領域のうちの1つの画面基準領域に対応させることによって、前記対象地点位置を決定する
ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。 The calculation unit includes a screen reference region setting unit that divides the screen into a plurality of screen reference regions based on the reference object,
The screen reference area setting unit determines the position of the target spot by associating the target spot with one screen reference area of the plurality of screen reference areas. Video car navigation system.
ことを特徴とする請求項2に記載の映像カーナビゲーションシステム。 The output unit calculates a two-dimensional image coordinate from a position of the target point on the map, and when the two-dimensional image coordinate is not included in a screen reference region associated with the target point, The video car navigation system according to claim 2, wherein the target point is displayed at the target point position instead of displaying the target point in two-dimensional image coordinates.
前記演算部は、前記車線認識部によって認識された前記車線に関する情報から、前記車両の車両方位角を演算する方位角演算部を含む
ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。 Before Symbol image recognition unit may include a recognizing lane recognition unit in front of the lane of the vehicle from the screen,
2. The video car navigation system according to claim 1, wherein the calculation unit includes an azimuth angle calculation unit that calculates a vehicle azimuth angle of the vehicle from information on the lane recognized by the lane recognition unit.
前記演算部は、前記走行車道認識部によって認識された前記走行車道に関する情報から前記車両の位置を演算する位置演算部を含む
ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。 The video recognition unit includes a traveling roadway recognition unit that recognizes a traveling roadway of the vehicle from information on a lane recognized from the screen,
The video car navigation system according to claim 1, wherein the calculation unit includes a position calculation unit that calculates a position of the vehicle from information related to the traveling road recognized by the traveling road recognition unit.
前記位置演算部は、前記GPS受信機から受信した前記車両の前記位置情報を、前記走行車道認識部によって認識された前記走行車道に関する情報を用いて補正することによって前記車両の位置を演算する
ことを特徴とする請求項5に記載の映像カーナビゲーションシステム。 The data input unit receives position information of the vehicle from a GPS receiver,
The position calculation unit calculates the position of the vehicle by correcting the position information of the vehicle received from the GPS receiver using information on the traveling road recognized by the traveling road recognition unit. The video car navigation system according to claim 5.
前記演算部は、前記相対的な位置関係を決定するために、前記複数の対象地点座標のうちのいずれか1つの対象地点座標を、前記対象地点の前記地図上の位置に特定する
ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。 The target point is associated with a plurality of target point coordinates on the map,
The calculation unit specifies any one of the plurality of target point coordinates as a position on the map of the target point in order to determine the relative positional relationship. The video car navigation system according to claim 1.
ことを特徴とする請求項7に記載の映像カーナビゲーションシステム。 The said calculating part specifies the target point coordinate nearest to the current position of the said vehicle among the said several target point coordinates to the position on the said map of the said target point. Video car navigation system.
ことを特徴とする請求項7に記載の映像カーナビゲーションシステム。 The video car navigation system according to claim 7, wherein the plurality of target point coordinates include coordinates of an entrance / exit of the target point.
ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。 The video car navigation system according to claim 1, wherein the reference object is a signal light.
(a)データ入力部によって、車両に搭載されたカメラを用いて、前記画面を取得するステップと、
(b)映像認識部によって、前記画面から基準オブジェクトを認識するステップと、
(c)電子地図部によって提供される前記基準オブジェクトの地図上の位置と、前記対象地点の地図上の位置との間の相対的な位置関係を用いて、演算部によって、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定するステップと、
(d)出力部によって、前記画面上の前記対象地点位置に、前記対象地点を表示するステップと
を含むことを特徴とする映像カーナビゲーション方法。 A video car navigation method for displaying a target point on a screen,
(A) a step of acquiring the screen by a data input unit using a camera mounted on a vehicle;
(B) a step of recognizing a reference object from the screen by the video recognition unit;
(C) Using the relative positional relationship between the position of the reference object on the map provided by the electronic map unit and the position of the target point on the map, the calculation unit uses the relative position relationship as a reference. Determining a target point position on the screen of the target point
And (d) displaying the target point at the target point position on the screen by the output unit.
前記基準オブジェクトを基準として、前記画面を複数の画面基準領域に分割するステップと、
前記対象地点を前記複数の画面基準領域のうちの1つの画面基準領域に対応させることによって、前記対象地点位置を決定するステップと
を含み、
前記ステップ(d)は、
前記対象地点の地図上の位置から2次元画像座標を計算するステップと、
前記対象地点が対応付けられている画面基準領域に前記2次元画像座標が含まれない場合には、前記2次元画像座標に前記対象地点を表示する代わりに、前記対象地点位置に前記対象地点を表示するステップと
を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。 The step (c)
Dividing the screen into a plurality of screen reference areas based on the reference object;
Determining the position of the target point by associating the target point with one screen reference area of the plurality of screen reference areas,
The step (d)
Calculating two-dimensional image coordinates from a position of the target point on a map;
When the two-dimensional image coordinates are not included in the screen reference area associated with the target point, instead of displaying the target point in the two-dimensional image coordinates, the target point is displayed at the target point position. The video car navigation method according to claim 11, further comprising a step of displaying.
前記画面から前記車両の前方の車線を認識するステップ
を含み、
前記ステップ(c)は、
前記認識された車線に関する情報から前記車両の車両方位角を演算するステップ
を含み、
前記ステップ(d)は、
前記対象地点の地図上の位置から2次元画像座標を計算するために用いる車両方位角として、前記ステップ(c)で演算された前記車両方位角およびGPS受信機から提供された車両方位角のうちのいずれか1つの車両方位角を、前記車両の現在速度を基準として選択するステップ
を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。 The step (b)
Recognizing a lane ahead of the vehicle from the screen,
The step (c)
Calculating a vehicle azimuth of the vehicle from information about the recognized lane,
The step (d)
Among the vehicle azimuths calculated in the step (c) and the vehicle azimuths provided from the GPS receiver as the vehicle azimuths used for calculating the two-dimensional image coordinates from the position of the target point on the map The video car navigation method according to claim 11, further comprising: selecting any one of the vehicle azimuth angles based on a current speed of the vehicle.
前記画面から認識された車線に関する情報から前記車両の走行車道を認識するステップ
を含み、
前記ステップ(c)は、
前記認識された走行車道に関する情報から前記車両の位置を演算するステップ
を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。 The step (b)
Recognizing the traveling road of the vehicle from information on the lane recognized from the screen,
The step (c)
The video car navigation method according to claim 11, further comprising: calculating a position of the vehicle from information on the recognized traveling roadway.
前記ステップ(c)は、
前記相対的な位置関係を決定するために、前記複数の対象地点座標のうちのいずれか1つの対象地点座標を、前記対象地点の前記地図上の位置に特定するステップ
を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。 The target point is associated with a plurality of target point coordinates on the map,
The step (c)
In order to determine the relative positional relationship, the method includes the step of specifying any one of the plurality of target point coordinates as a position on the map of the target point. The video car navigation method according to claim 11.
前記画面から、前記基準オブジェクトとして信号灯を認識するステップ
を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。 The step (b)
The video car navigation method according to claim 11, further comprising: recognizing a signal lamp as the reference object from the screen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070120833A KR100887721B1 (en) | 2007-11-26 | 2007-11-26 | Image car navigation system and method |
KR10-2007-0120833 | 2007-11-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009128356A JP2009128356A (en) | 2009-06-11 |
JP4700080B2 true JP4700080B2 (en) | 2011-06-15 |
Family
ID=40697911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008132185A Expired - Fee Related JP4700080B2 (en) | 2007-11-26 | 2008-05-20 | Car navigation system and method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4700080B2 (en) |
KR (1) | KR100887721B1 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5651372B2 (en) * | 2010-05-18 | 2015-01-14 | 株式会社Nttドコモ | Post information control apparatus, post information control system, and post information control method |
JP6165422B2 (en) * | 2012-06-28 | 2017-07-19 | 株式会社ナビタイムジャパン | Information processing system, information processing device, server, terminal device, information processing method, and program |
DE102012110219A1 (en) | 2012-10-25 | 2014-04-30 | Continental Teves Ag & Co. Ohg | Method and device for detecting marked danger and / or construction sites in the area of roadways |
KR101500168B1 (en) * | 2013-10-14 | 2015-03-06 | 현대자동차주식회사 | Method for Recognizing Side Boundary of Road during Driving |
CN105333878A (en) * | 2015-11-26 | 2016-02-17 | 深圳如果技术有限公司 | Road condition video navigation system and method |
KR102441053B1 (en) * | 2016-11-21 | 2022-09-06 | 현대자동차주식회사 | Apparatus and method for estimating driving lane of vehicle |
JP7132704B2 (en) * | 2017-09-21 | 2022-09-07 | 株式会社Subaru | Position detector |
US20200326202A1 (en) * | 2017-12-21 | 2020-10-15 | Bayerische Motoren Werke Aktiengesellschaft | Method, Device and System for Displaying Augmented Reality POI Information |
KR101871441B1 (en) * | 2018-02-27 | 2018-06-27 | 뉴비전엔지니어링(주) | Voice recognition field survey and road linear generation system for high definition electronic map production for autonomous vehicle |
WO2023008444A1 (en) * | 2021-07-27 | 2023-02-02 | Ultimatrust株式会社 | Information processing device, program, and positioning method |
CN113781893A (en) * | 2021-09-18 | 2021-12-10 | 万翼科技有限公司 | Traffic route three-dimensional model generation method, device, equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004045227A (en) * | 2002-07-12 | 2004-02-12 | Alpine Electronics Inc | Instrument and method for measuring position of vehicle |
JP2006105640A (en) * | 2004-10-01 | 2006-04-20 | Hitachi Ltd | Navigation system |
JP2007011937A (en) * | 2005-07-04 | 2007-01-18 | Nissan Motor Co Ltd | Signal detection system, signal detection device, information center, and signal detection method |
JP2007272511A (en) * | 2006-03-31 | 2007-10-18 | Casio Comput Co Ltd | Information transmission system, imaging device, information output method, and information output program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050081492A (en) * | 2004-02-13 | 2005-08-19 | 디브이에스 코리아 주식회사 | Car navigation device using forward real video and control method therefor |
KR100685790B1 (en) * | 2004-10-25 | 2007-02-22 | 한국전자통신연구원 | System and Method for Real Image based Navigation |
KR100682976B1 (en) * | 2004-12-16 | 2007-02-15 | 한국전자통신연구원 | System and method for Generation of Image-Based Route Information |
-
2007
- 2007-11-26 KR KR1020070120833A patent/KR100887721B1/en active IP Right Grant
-
2008
- 2008-05-20 JP JP2008132185A patent/JP4700080B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004045227A (en) * | 2002-07-12 | 2004-02-12 | Alpine Electronics Inc | Instrument and method for measuring position of vehicle |
JP2006105640A (en) * | 2004-10-01 | 2006-04-20 | Hitachi Ltd | Navigation system |
JP2007011937A (en) * | 2005-07-04 | 2007-01-18 | Nissan Motor Co Ltd | Signal detection system, signal detection device, information center, and signal detection method |
JP2007272511A (en) * | 2006-03-31 | 2007-10-18 | Casio Comput Co Ltd | Information transmission system, imaging device, information output method, and information output program |
Also Published As
Publication number | Publication date |
---|---|
KR100887721B1 (en) | 2009-03-12 |
JP2009128356A (en) | 2009-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4700080B2 (en) | Car navigation system and method | |
US8239131B2 (en) | Navigation device, navigation method, and navigation program | |
JP5062497B2 (en) | Vehicle position detection system using landscape image recognition | |
US7948397B2 (en) | Image recognition apparatuses, methods and programs | |
KR100266882B1 (en) | Navigation device | |
US8134480B2 (en) | Image processing system and method | |
US20180045516A1 (en) | Information processing device and vehicle position detecting method | |
US7463974B2 (en) | Systems, methods, and programs for determining whether a vehicle is on-road or off-road | |
JP5505723B2 (en) | Image processing system and positioning system | |
JP3568768B2 (en) | Vehicle position identification device | |
KR20180088149A (en) | Method and apparatus for guiding vehicle route | |
US20070021912A1 (en) | Current position information management systems, methods, and programs | |
US20110242311A1 (en) | Image processing system and position measurement system | |
EP2482036B1 (en) | Course guidance system, course guidance method, and course guidance program | |
JP4596566B2 (en) | Self-vehicle information recognition device and self-vehicle information recognition method | |
JP2004226341A (en) | Map matching method | |
JP4760274B2 (en) | Map update device | |
JP4936070B2 (en) | Navigation device and navigation program | |
EP1674827A1 (en) | System for detecting a lane change of a vehicle | |
JP4953015B2 (en) | Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same | |
JP2914111B2 (en) | Route guidance device | |
JP2007140992A (en) | Method and device for supporting driving at intersection | |
JP2009058430A (en) | Navigation apparatus and program | |
JP7024871B2 (en) | Route calculation method, operation control method and route calculation device | |
JP2013050411A (en) | Vehicle itself position recognition system, vehicle itself position recognition program, and vehicle itself position recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100813 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101115 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110303 |
|
LAPS | Cancellation because of no payment of annual fees |