JP4700080B2 - Car navigation system and method - Google Patents

Car navigation system and method Download PDF

Info

Publication number
JP4700080B2
JP4700080B2 JP2008132185A JP2008132185A JP4700080B2 JP 4700080 B2 JP4700080 B2 JP 4700080B2 JP 2008132185 A JP2008132185 A JP 2008132185A JP 2008132185 A JP2008132185 A JP 2008132185A JP 4700080 B2 JP4700080 B2 JP 4700080B2
Authority
JP
Japan
Prior art keywords
target point
screen
vehicle
map
car navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008132185A
Other languages
Japanese (ja)
Other versions
JP2009128356A (en
Inventor
スン ヨン イ
イン ハク チュ
ソン イク チョ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2009128356A publication Critical patent/JP2009128356A/en
Application granted granted Critical
Publication of JP4700080B2 publication Critical patent/JP4700080B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Description

本発明は、カーナビゲーションシステムおよび方法に関し、特に、車両に搭載されたカメラを用いてリアルタイムに収集される映像に対象地点(Point of Interest:POI)を表示するカーナビゲーションシステムおよび方法に関する。   The present invention relates to a car navigation system and method, and more particularly, to a car navigation system and method for displaying a point of interest (POI) on an image collected in real time using a camera mounted on a vehicle.

本発明は、大韓民国情報通信部および情報通信研究振興院のIT成長動力革新技術開発事業の一環として行われた研究から導き出されたものである[課題管理番号:2005−S−114−03、課題名:テレマティックスサービス用実現可能コンテンツの構築および管理技術開発(Technology Development for Construction and Management of Tangible Content for Telematics Services)]。   The present invention is derived from research conducted as part of the IT growth dynamic innovation technology development project of the Korea Information and Communication Department and the Institute of Information and Communication Technology [Problem Management Number: 2005-S-114-03, Problem] Name: Technology Development for Construction and Management of Tangible Content for Telematics Services].

2次元の地図形態で車両の進行をナビゲートする地図に基づくカーナビゲーションシステムでは、アイコンやテキストの形態で地図画面に対象地点(POI)を表示する。POIは、建物、公園、施設などのオブジェクトのことをいい、POI情報は、地図座標系上の点または面の形態の座標とテキスト情報とを含むデータを有する。   In a car navigation system based on a map that navigates the progress of a vehicle in a two-dimensional map form, a point of interest (POI) is displayed on a map screen in the form of an icon or text. The POI refers to an object such as a building, a park, or a facility. The POI information includes data including coordinates in the form of points or planes on a map coordinate system and text information.

また、車両に搭載されたカメラを用いてリアルタイムに収集された映像によって車両の走行をナビゲートする映像カーナビゲーションシステムでは、車両の前方映像上に重ねてPOIを表示する。しかし、POIを映像に出力するためには、正確なカメラの位置および姿勢が必要である。2次元の地図に基づくカーナビゲーションシステムでは、車両の概略的な位置さえ確認できれば、経路案内や地図出力などの機能を実行するのに大きな問題はないが、映像カーナビゲーションシステムでは、カメラの位置および姿勢のわずかな誤差が存在するだけで、カーナビゲーション機能に大きな影響を及ぼす。例えば、広い道路の1車線を走行する場合および4車線を走行する場合においては、普通のGPS受信機と、2次元カーナビゲーションシステムの機能とでは区分しにくく、また区分する必要もないが、POI情報の映像出力には大きな差をもたらす。   Further, in a video car navigation system that navigates the running of a vehicle using video collected in real time using a camera mounted on the vehicle, the POI is displayed over the front video of the vehicle. However, in order to output POI to video, an accurate camera position and posture are required. In a car navigation system based on a two-dimensional map, there is no major problem in executing functions such as route guidance and map output as long as the approximate position of the vehicle can be confirmed. The presence of a slight error in posture greatly affects the car navigation function. For example, when traveling on one lane on a wide road and traveling on four lanes, it is difficult to distinguish between ordinary GPS receivers and functions of a two-dimensional car navigation system, and it is not necessary to distinguish them. There is a big difference in video output of information.

従来では、正確なカメラ情報を得るために、ジャイロスコープのような慣性センサを用いてカメラの位置および姿勢情報を補正する技術が知られている。また、従来では、ジャイロスコープのような慣性センサと傾斜計とを用いてカメラの方位角および傾斜角を検出する技術も知られている。   Conventionally, in order to obtain accurate camera information, a technique for correcting camera position and orientation information using an inertial sensor such as a gyroscope is known. Conventionally, a technique for detecting an azimuth angle and an inclination angle of a camera using an inertial sensor such as a gyroscope and an inclinometer is also known.

2次元の地図に基づくカーナビゲーションシステムでは考慮されないが、映像カーナビゲーションシステムにおいて考慮すべき別のことは、道路辺の入口から建物が遠く離れているか、または建物の領域が非常に大きい場合、建物の実際位置とPOIの映像出力位置とに差が生じ得ることである。例えば、建物の中心点だけがPOI座標として記憶されている場合、建物に進入するための入口は、実際に道路辺にあって視野には入るが、建物自体がPOIとして画面に出力されない場合が生じ得る。   Another thing to consider in a video car navigation system that is not considered in a two-dimensional map-based car navigation system is that if the building is far away from the roadside entrance or if the area of the building is very large, There is a possibility that a difference occurs between the actual position of the video and the video output position of the POI. For example, when only the center point of the building is stored as POI coordinates, the entrance for entering the building is actually on the roadside and enters the field of view, but the building itself may not be output as a POI on the screen. Can occur.

従来の映像カーナビゲーションシステムは、正確なカメラ情報を得るために、高価な慣性センサを用いるため、製作単価が増大するという問題点があった。また、従来の映像カーナビゲーションシステムは、POIに関する単一の座標だけしか提供しないため、視野には大型の建物が入るものの、当該建物がPOIとして映像に出力されない場合があり、ドライバに正確なナビゲーションができないという問題点があった。   Since the conventional video car navigation system uses an expensive inertial sensor in order to obtain accurate camera information, there is a problem that the manufacturing unit cost increases. Further, since the conventional video car navigation system provides only a single coordinate related to the POI, a large building may be included in the field of view, but the building may not be output as a POI on the video. There was a problem that could not.

そこで、本発明は、安価でかつ正確なカメラ情報を取得できる映像カーナビゲーションシステムおよび方法を提供することを目的とする。   Accordingly, an object of the present invention is to provide a video car navigation system and method capable of acquiring inexpensive and accurate camera information.

また、本発明は、高価な慣性センサを必要とせず、GPS受信機およびカメラだけを用いて、カメラから取得した映像から認識した結果を利用して、POI情報をリアルタイム映像に重ねて出力できる映像カーナビゲーションシステムおよび方法を提供することを目的とする。   In addition, the present invention does not require an expensive inertial sensor, and uses only the GPS receiver and the camera, and uses the result recognized from the video acquired from the camera, so that the POI information can be superimposed on the real-time video and output. It is an object to provide a car navigation system and method.

さらに、本発明は、従来のPOIデータの構成方式とは異なり、POI座標(点または面)と関連付けられた追加的な点データを用いることにより、建物が画面に表れない場合でも、走行中に道路辺で実際に必要な出入口の位置を画面上に出力してドライバの道探索の手助けとなり得る映像カーナビゲーションシステムおよび方法を提供することを目的とする。   Further, the present invention differs from the conventional POI data construction method by using additional point data associated with POI coordinates (points or faces), so that even when the building does not appear on the screen, it can be An object of the present invention is to provide a video car navigation system and method capable of outputting a position of an actually required entrance / exit on a roadside on a screen to help a driver search for a road.

上記の目的を達成するために、本発明の映像カーナビゲーションシステムは、対象地点を画面に表示するための映像カーナビゲーションシステムであって、車両に搭載されたカメラを用いて前記画面を取得するデータ入力部と、前記画面から基準オブジェクトを認識する映像認識部と、前記対象地点および前記基準オブジェクトの地図上の位置に関する情報を提供する電子地図部と、前記基準オブジェクトの前記地図上の位置と、前記対象地点の前記地図上の位置との間の相対的な位置関係を用いて、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定する演算部と、前記画面上の前記対象地点位置に前記対象地点を表示する出力部とを備えることを特徴とする。   In order to achieve the above object, the video car navigation system of the present invention is a video car navigation system for displaying a target point on a screen, and data for acquiring the screen using a camera mounted on a vehicle. An input unit; a video recognition unit that recognizes a reference object from the screen; an electronic map unit that provides information on the target point and the position of the reference object on the map; and a position of the reference object on the map; A calculation unit that determines a target point position on the screen of the target point based on the reference object, using a relative positional relationship between the position of the target point on the map; And an output unit for displaying the target point at the target point position.

また、上記の目的を達成するために、本発明の映像カーナビゲーション方法は、対象地点を画面に表示するための映像カーナビゲーション方法であって、(a)データ入力部によって、車両に搭載されたカメラを用いて前記画面を取得するステップと、(b)映像認識部によって、前記画面から基準オブジェクトを認識するステップと、(c)電子地図部によって提供される前記基準オブジェクトの地図上の位置と、前記対象地点の地図上の位置との間の相対的な位置関係を用いて、演算部によって、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定するステップと、(d)出力部によって、前記画面上の前記対象地点位置に前記対象地点を表示するステップとを含むことを特徴とする。   In order to achieve the above object, a video car navigation method of the present invention is a video car navigation method for displaying a target point on a screen, and is mounted on a vehicle by (a) a data input unit. Obtaining the screen using a camera; (b) recognizing a reference object from the screen by the video recognition unit; and (c) a position of the reference object on the map provided by the electronic map unit; Determining a target point position on the screen of the target point based on the reference object by a calculation unit using a relative positional relationship between the position on the map of the target point; (D) The step of displaying the target point at the target point position on the screen by the output unit.

ここで、前記基準オブジェクトは信号灯とすることができる。   Here, the reference object may be a signal lamp.

本発明のこの構成によれば、既存の高価な慣性センサを必要とせずに、基準オブジェクトに対する対象地点の相対的な地図上の位置を用いるだけで対象地点を特定することができる。   According to this configuration of the present invention, the target point can be specified only by using the position of the target point relative to the reference object on the map without using an existing expensive inertial sensor.

また、本発明の映像カーナビゲーションシステムおよび方法において、前記演算部は、前記基準オブジェクトを基準にした前記画面を、複数の画面基準領域に分割する画面基準領域設定部を含み、該画面基準領域設定部は、前記対象地点を前記複数の画面基準領域のうちの1つの画面基準領域に対応させることによって、前記対象地点位置を決定する。ここで、画面基準領域に対する対象地点の対応関係は、車両と基準オブジェクトと対象地点との間の位置関係によって決定される。   In the video car navigation system and method of the present invention, the calculation unit includes a screen reference region setting unit that divides the screen based on the reference object into a plurality of screen reference regions, and the screen reference region setting The unit determines the position of the target spot by causing the target spot to correspond to one screen reference area of the plurality of screen reference areas. Here, the correspondence relationship of the target point with respect to the screen reference region is determined by the positional relationship among the vehicle, the reference object, and the target point.

また、本発明の映像カーナビゲーションシステムおよび方法において、前記出力部は、前記対象地点の前記地図上の位置から2次元画像座標を計算し、前記対象地点位置に対応付けられる前記画面基準領域に前記2次元画像座標が含まれない場合には、前記2次元画像座標に前記対象地点を表示する代わりに、前記対象地点位置に前記対象地点を表示する。   Further, in the video car navigation system and method of the present invention, the output unit calculates a two-dimensional image coordinate from a position of the target point on the map, and adds the screen reference region associated with the target point position to the screen reference region. If the two-dimensional image coordinates are not included, the target point is displayed at the target point position instead of displaying the target point at the two-dimensional image coordinates.

本発明のこの構成によれば、3次元地図座標から計算した対象地点の2次元画像座標にエラーがある場合、その2次元画像座標の代わりに、基準領域設定過程で特定された対象地点位置に当該対象地点を表示できるため、画面上のより正確な位置に対象地点を表示することができる。   According to this configuration of the present invention, when there is an error in the two-dimensional image coordinates of the target point calculated from the three-dimensional map coordinates, the target point position specified in the reference region setting process is used instead of the two-dimensional image coordinates. Since the target point can be displayed, the target point can be displayed at a more accurate position on the screen.

また、本発明の映像カーナビゲーションシステムおよび方法において、前記映像認識部は、前記画面から前記車両の前方の車線を認識する車線認識部を含み、前記演算部は、前記車線認識部によって認識された車線に関する情報から、前記車両の車両方位角を演算する方位角演算部を含むことができる。   In the video car navigation system and method of the present invention, the video recognition unit includes a lane recognition unit that recognizes a lane ahead of the vehicle from the screen, and the calculation unit is recognized by the lane recognition unit. An azimuth angle calculating unit that calculates a vehicle azimuth angle of the vehicle from information on the lane can be included.

ここで、前記出力部は、前記対象地点の前記地図上の位置から2次元画像座標を計算するために用いる車両方位角として、前記演算部によって演算された前記車両方位角およびGPS受信機から提供された車両方位角のうちのいずれか1つの車両方位角を選択することができる。   Here, the output unit provides from the vehicle azimuth calculated by the calculation unit and the GPS receiver as a vehicle azimuth used to calculate a two-dimensional image coordinate from the position of the target point on the map. Any one of the vehicle azimuths thus selected can be selected.

本発明のこの構成によれば、GPSデータに関して信頼度の高い車速区間(例えば、20km/h以上)では、GPS受信機からの車両方位角を用い、そうではない場合には、認識された車線から演算した車両方位角を用いることができるため、地図上の対象地点位置から2次元画像座標を計算するために用いられる車両方位角をより正確に特定することができる。   According to this configuration of the present invention, the vehicle azimuth from the GPS receiver is used in a vehicle speed section (eg, 20 km / h or more) with high reliability with respect to GPS data, otherwise the recognized lane Therefore, the vehicle azimuth angle used for calculating the two-dimensional image coordinates from the target point position on the map can be specified more accurately.

また、本発明の映像カーナビゲーションシステムおよび方法において、前記映像認識部は、前記画面から認識した車線に関する情報から前記車両の走行車道を認識する走行車道認識部を含み、前記演算部は、前記走行車道認識部によって認識された前記走行車道に関する情報から前記車両の位置を演算する位置演算部を含むことができる。   In the video car navigation system and method of the present invention, the video recognition unit includes a traveling roadway recognition unit that recognizes a traveling roadway of the vehicle from information on the lane recognized from the screen, and the calculation unit includes the traveling The position calculating part which calculates the position of the said vehicle from the information regarding the said traveling roadway recognized by the roadway recognition part can be included.

ここで、前記データ入力部は、GPS受信機から前記車両の位置情報を受信し、前記位置演算部は、前記GPS受信機から受信した前記車両の前記位置情報を、前記走行車道認識部によって認識された前記走行車道に関する情報を用いて補正することによって、前記車両の位置を演算する。   Here, the data input unit receives position information of the vehicle from a GPS receiver, and the position calculation unit recognizes the position information of the vehicle received from the GPS receiver by the traveling roadway recognition unit. The position of the vehicle is calculated by performing correction using the information related to the traveling roadway.

本発明のこの構成によれば、GPS受信機からの情報により、道路中心線で特定された車両の位置に関して、道路中心線から直角方向の距離誤差を無くすことができる。   According to this configuration of the present invention, it is possible to eliminate a distance error in a direction perpendicular to the road center line with respect to the position of the vehicle specified by the road center line based on information from the GPS receiver.

また、本発明の映像カーナビゲーションシステムおよび方法において、前記対象地点は、地図上の複数の対象地点座標に関連付けられ、前記演算部は、前記相対的な位置関係を決定するために、前記複数の対象地点座標のうちのいずれか1つの対象地点座標を、前記対象地点の前記地図上の位置に特定することができる。   Further, in the video car navigation system and method of the present invention, the target point is associated with a plurality of target point coordinates on a map, and the calculation unit determines the relative positional relationship in order to determine the relative positional relationship. Any one of the target point coordinates can be specified as the position of the target point on the map.

本発明のこの構成によれば、対象地点を代表する座標と、その座標とリンクして当該対象地点の出入口などを表す座標とを含む複数の座標により、必要に応じて対象地点の位置を画面上に表すことができるため、対象地点をより正確に特定することができる。   According to this configuration of the present invention, the position of the target point is displayed on the screen as needed by a plurality of coordinates including coordinates representing the target point and coordinates representing the entrance / exit of the target point linked to the coordinate. Since it can represent above, a target point can be pinpointed more correctly.

本発明によれば、既存の高価な慣性センサを必要とせず、基準オブジェクトに対する対象地点の相対的な地図上の位置だけで、対象地点を特定することが可能となる。   According to the present invention, it is possible to specify the target point only by the relative position of the target point on the map with respect to the reference object without requiring an existing expensive inertial sensor.

また、本発明によれば、3次元地図座標から計算した対象地点の2次元画像座標にエラーがある場合、その2次元画像座標の代わりに、基準領域設定過程で特定された対象地点位置に当該対象地点を表示できるため、画面上でより正確な位置に対象地点を表示することが可能となる。   Further, according to the present invention, when there is an error in the two-dimensional image coordinates of the target point calculated from the three-dimensional map coordinates, the target point position specified in the reference region setting process is used instead of the two-dimensional image coordinates. Since the target point can be displayed, the target point can be displayed at a more accurate position on the screen.

また、本発明によれば、GPSデータに関して信頼度が高い車速区間(例えば20km/h)では、GPS受信機からの車両方位角を用い、そうではない場合には認識された車線から演算した車両方位角を用いることができるため、地図上の対象地点位置から2次元画像座標を計算するために用いられる車両方位角をより正確に特定することが可能となる。   In addition, according to the present invention, in a vehicle speed section (for example, 20 km / h) with high reliability with respect to GPS data, the vehicle azimuth from the GPS receiver is used, and if not, the vehicle calculated from the recognized lane Since the azimuth angle can be used, the vehicle azimuth angle used for calculating the two-dimensional image coordinates from the target point position on the map can be specified more accurately.

また、本発明によれば、GPS受信機からの情報によって、道路中心線で特定された車両の位置に関して、道路中心線から直角方向の距離誤差を無くすことが可能となる。   Further, according to the present invention, it is possible to eliminate a distance error in a direction perpendicular to the road center line with respect to the position of the vehicle specified by the road center line based on information from the GPS receiver.

また、本発明によれば、対象地点を代表する座標と、その座標とリンクして当該対象地点の出入口などを表す座標とを含む複数の座標により、必要に応じて対象地点の位置を画面上に表すことができるため、対象地点をより正確に特定することが可能となる。   Further, according to the present invention, the position of the target point is displayed on the screen as necessary by using a plurality of coordinates including coordinates representing the target point and coordinates representing the entrance and exit of the target point. Therefore, the target point can be specified more accurately.

以下では、添付図面を参照しながら、本発明の実施形態について説明する。
図1は、本発明の実施形態に係る映像カーナビゲーションシステム100を示す構成図であり、図2は、図1の詳細を示す構成図である。映像カーナビゲーションシステム100は、データ入力部10、電子地図部20、映像認識部30、演算部40、および出力部50を含む。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a block diagram showing a video car navigation system 100 according to an embodiment of the present invention, and FIG. 2 is a block diagram showing details of FIG. The video car navigation system 100 includes a data input unit 10, an electronic map unit 20, a video recognition unit 30, a calculation unit 40, and an output unit 50.

データ入力部10は、図示していないGPS受信機とカメラとを用いて、車両の現在位置および車両前方の映像を取得する。電子地図部20は、POIの位置座標値および当該POIを説明するテキスト(例えば「ABCビル」のような建物の名称)を含むPOIデータ、信号灯の位置座標値を含む信号灯データ、および電子道路地図を含み、車両の現在位置と関連付けられたPOIデータおよび信号灯データを検索して、電子道路地図にマップマッチングする。映像認識部30は、カメラを用いて取得される道路映像から、車線および信号灯を認識して、車両の現在の走行車道位置を計算する。演算部40は、GPS信号から車両方位角を算出し、映像認識部30から受信した車線および信号灯の画像座標と、車両の現在の走行車道位置とによって、車両方位角および現在の車両位置を計算する。出力部50は、車両位置および車両方位角を用いてPOI座標を画像座標に変換し、映像に重ねて出力する。   The data input unit 10 acquires a current position of the vehicle and an image ahead of the vehicle using a GPS receiver and a camera (not shown). The electronic map unit 20 includes POI data including POI position coordinate values and text describing the POI (for example, a building name such as “ABC building”), signal lamp data including signal lamp position coordinate values, and an electronic road map. The POI data and the signal light data associated with the current position of the vehicle are retrieved and map-matched with the electronic road map. The image recognizing unit 30 recognizes the lane and the signal light from the road image acquired using the camera, and calculates the current traveling road position of the vehicle. The calculation unit 40 calculates the vehicle azimuth angle from the GPS signal, and calculates the vehicle azimuth angle and the current vehicle position from the image coordinates of the lane and the signal light received from the video recognition unit 30 and the current traveling road position of the vehicle. To do. The output unit 50 converts the POI coordinates into image coordinates using the vehicle position and the vehicle azimuth angle, and outputs them by superimposing them on the video.

本明細書では、道路で車両が走行する広さを有する領域を「車道」といい、「車道」を区分する線(中央線および道路境界線を含む)を「車線」という。また、「走行車道位置」とは、道路の中央線から順に付与した車道の番号をいい、例えば片側4車線道路では、車両が中央から2番目の車道を走行中であれば、走行車道位置=2となる。「車両方位角」とは、地図座標系のN軸に対して車両の進行方向(カメラの光学軸が向く方向と同一)がなす角度をいう。   In this specification, an area having a width where a vehicle travels on a road is referred to as a “roadway”, and a line (including a center line and a road boundary line) dividing the “roadway” is referred to as a “lane”. The “traveling lane position” refers to the roadway number assigned in order from the center line of the road. For example, in the case of a four-lane road on one side, if the vehicle is traveling on the second lane from the center, the traveling lane position = 2 “Vehicle azimuth” refers to an angle formed by the traveling direction of the vehicle (same as the direction in which the optical axis of the camera faces) with respect to the N axis of the map coordinate system.

また、本実施形態では、POIの映像表示のための基準オブジェクトとして、信号灯を用いているが、他のオブジェクトに対する識別力が高く、かつ配置密度の高いオブジェクトであれば、信号灯以外の他のオブジェクトを基準オブジェクトとして用いてもよい。   In this embodiment, a signal light is used as a reference object for POI video display. However, any object other than the signal light can be used as long as the object has high discrimination power against other objects and high arrangement density. May be used as a reference object.

図2は、図1の映像カーナビゲーションシステム100の詳細な構成図を示している。データ入力部10は、車両前方のリアルタイム映像を取得するためのカメラ11と、車両位置、車両方位角、および車両速度を含むGPSデータを得るためのGPS受信機12とを有する。カメラの方向は、車両の進行方向に平行であると仮定し、本明細書では、車両の進行方向とカメラの方向とは、同一の意味を表すものとして用いられる。また、カメラ11とGPS受信機12との間の距離は、無視できるほど近くに配置されている。   FIG. 2 shows a detailed configuration diagram of the video car navigation system 100 of FIG. The data input unit 10 includes a camera 11 for acquiring a real-time video ahead of the vehicle and a GPS receiver 12 for acquiring GPS data including a vehicle position, a vehicle azimuth angle, and a vehicle speed. The direction of the camera is assumed to be parallel to the traveling direction of the vehicle, and in this specification, the traveling direction of the vehicle and the direction of the camera are used to represent the same meaning. Further, the distance between the camera 11 and the GPS receiver 12 is arranged so as to be negligible.

電子地図部20は、電子道路地図部21、マップマッチング処理部22、POIデータ部23、POI検索部24、信号灯データ部25、および信号灯検索部26を含む。電子道路地図部21は、道路の座標を有する。   The electronic map unit 20 includes an electronic road map unit 21, a map matching processing unit 22, a POI data unit 23, a POI search unit 24, a signal lamp data unit 25, and a signal lamp search unit 26. The electronic road map unit 21 has road coordinates.

マップマッチング処理部22は、GPS受信機12からGPS座標を受信して、マップマッチング過程を実行する。マップマッチング過程では、例えば、現在のGPS座標を電子道路地図部21の道路座標と比較演算して、現在のGPS座標と最も近い道路上の位置を計算するが、これに限定されるものではない。すなわち、マップマッチング処理部22は、GPS座標値に存在する誤差を最小化させるために、当該GPS座標値と最も近い道路上の位置として、道路中央線に車両位置をマップマッチングする。したがって、道路中心線と直角方向のGPS誤差が除去される。上記のようなマップマッチング過程を通じて得られた座標値は、演算部40に伝送される。   The map matching processing unit 22 receives GPS coordinates from the GPS receiver 12 and executes a map matching process. In the map matching process, for example, the current GPS coordinates are compared with the road coordinates of the electronic road map unit 21, and the position on the road closest to the current GPS coordinates is calculated. However, the present invention is not limited to this. . That is, the map matching processing unit 22 maps the vehicle position to the road center line as the position on the road closest to the GPS coordinate value in order to minimize an error existing in the GPS coordinate value. Therefore, the GPS error in the direction perpendicular to the road center line is removed. The coordinate values obtained through the map matching process as described above are transmitted to the calculation unit 40.

POIデータ部23は、様々なオブジェクト(建物、公園、施設など)に関する各々のPOI座標値とテキスト属性値とを有している。建物の場合、POI座標は、建物自体の位置を代表的に表すオブジェクト座標値に、当該建物の道路辺の出入口の位置を表す追加座標値がリンクされて構成される。このようなデータの構成については、図3を参照しながらより詳細に説明する。   The POI data section 23 has respective POI coordinate values and text attribute values related to various objects (buildings, parks, facilities, etc.). In the case of a building, the POI coordinates are configured by linking an object coordinate value representatively representing the position of the building itself with an additional coordinate value representing the position of the entrance / exit on the roadside of the building. The configuration of such data will be described in more detail with reference to FIG.

図3(b)は、オブジェクト自体(すなわち、市役所自体)の座標値を含むオブジェクト座標値テーブルである。オブジェクト座標値は、「市役所」などのテキスト属性値によって互いに区別される。図3(c)は、建物の道路辺の出入口位置を追加的に表す座標値を含む追加座標値テーブルである。追加座標値は、「正門」や「東門」などのテキスト属性値によって互いに区別される。オブジェクト座標値テーブルおよび追加座標値テーブルは、「名称」によってリンクされている。「市役所」の場合、「正門」および「東門」の追加座標値が、市役所自体のオブジェクト座標値とリンクされている。   FIG. 3B is an object coordinate value table including coordinate values of the object itself (that is, the city hall itself). The object coordinate values are distinguished from each other by a text attribute value such as “city hall”. FIG. 3C is an additional coordinate value table including coordinate values additionally representing the entrance / exit position of the road side of the building. The additional coordinate values are distinguished from each other by text attribute values such as “main gate” and “east gate”. The object coordinate value table and the additional coordinate value table are linked by “name”. In the case of “city hall”, the additional coordinate values of “main gate” and “east gate” are linked to the object coordinate values of the city hall itself.

POI検索部24は、テキスト属性値や座標値などの条件に応じて、POIデータ部23のPOI情報を検索する。図3(a)において、市役所を目的地としてA方向に車両が走行する場合、POI検索部24は、市役所自体のオブジェクト座標値ではなく、「正門」の追加座標値を検索する。このとき、市役所自体のオブジェクト座標値や「東門」の追加座標値を用いようとしても、画面上にはそのような座標値が現れない。同様に、市役所を目的地としてB方向に車両が走行する場合、POI検索部24は、「東門」の追加座標値を検索する。   The POI search unit 24 searches for POI information in the POI data unit 23 according to conditions such as text attribute values and coordinate values. In FIG. 3A, when the vehicle travels in the direction A with the city hall as the destination, the POI search unit 24 searches for the additional coordinate value of “main gate”, not the object coordinate value of the city hall itself. At this time, even if an object coordinate value of the city hall itself or an additional coordinate value of “East Gate” is used, such a coordinate value does not appear on the screen. Similarly, when the vehicle travels in the direction B with the city hall as the destination, the POI search unit 24 searches for additional coordinate values of “East Gate”.

信号灯データ部25は、道路上の信号灯の座標値を含む信号灯情報を有しており、信号灯検索部26は、信号灯データ部25から、演算部40において必要な信号灯情報を検索して、演算部40に伝送する。   The signal light data unit 25 has signal light information including the coordinate value of the signal light on the road, and the signal light search unit 26 searches the signal light data unit 25 for necessary signal light information in the calculation unit 40 and calculates the calculation unit. 40.

映像認識部30は、車線認識部31、走行車道認識部32、および信号灯認識部33を含む。   The image recognition unit 30 includes a lane recognition unit 31, a traveling roadway recognition unit 32, and a signal light recognition unit 33.

車線認識部31は、カメラを用いて取得した映像から車線を認識する。例えば、車線認識部31は、車両前方の映像を画像処理して車両の左右にある車線データを抽出した後、この車線データと、予め記憶されている車道認識パターンデータとを比較する公知の方法によって、車線を認識することができる。車線認識部31は、画像座標上においてパラメータで示された直線の形態でそのように認識した値を、走行車道認識部32および演算部40に伝送する。   The lane recognition unit 31 recognizes a lane from an image acquired using a camera. For example, the lane recognition unit 31 performs image processing on a video in front of the vehicle and extracts lane data on the left and right sides of the vehicle, and then compares the lane data with prestored roadway recognition pattern data. By this, the lane can be recognized. The lane recognition unit 31 transmits the value recognized as such in the form of a straight line indicated by parameters on the image coordinates to the traveling roadway recognition unit 32 and the calculation unit 40.

走行車道認識部32は、カメラを用いて取得した映像から認識された車線を用いて現在の走行車道位置を計算し、その結果を演算部40に伝送する。例えば、各車道が他の車道と特徴を有して区分できるように道路上に車線が描かれている場合、例えば、中央線は直線状、1車線の右側車線は破線状、2車線の右側車線は一点鎖線状などとして区分している場合、互いに区分される車道に関する認識パターンデータを予め記憶しておき、車線認識部31が、認識した車線認識パターンと一致する車線認識パターンを、その記憶された認識パターンデータから検索することにより、車両が現在どの走行車道で走行中であるかを判断する公知の方法を用いて、現在の走行車道位置を算出することができる。   The traveling roadway recognition unit 32 calculates the current traveling roadway position using the lane recognized from the video acquired using the camera, and transmits the result to the calculation unit 40. For example, when a lane is drawn on the road so that each roadway can be distinguished from other roadways, for example, the center line is straight, the right lane of the lane is broken, the right side of the lane When the lane is classified as a one-dot chain line, etc., recognition pattern data related to the roadways to be distinguished from each other is stored in advance, and the lane recognition pattern that matches the lane recognition pattern recognized by the lane recognition unit 31 is stored. By searching from the recognized pattern data, it is possible to calculate the current traveling road position using a known method for determining which traveling road the vehicle is currently traveling.

信号灯認識部33が信号灯を認識する過程は、車線認識部31が車線を認識する過程と類似している。すなわち、信号灯認識部33は、カメラを用いて取得した車両前方映像を処理し、このような処理によって得られた映像データから、予め記憶されている信号灯認識パターンデータと一致する映像データを信号灯として認識し、認識された信号灯の画像座標値を演算部40に伝送する。画像座標値とは、映像カーナビゲーションシステムの画面に表示される映像における座標値をいう。   The process of the signal light recognition unit 33 recognizing the signal light is similar to the process of the lane recognition unit 31 recognizing the lane. That is, the signal lamp recognition unit 33 processes the vehicle front image acquired using the camera, and uses video data that matches the signal lamp recognition pattern data stored in advance as the signal lamp from the video data obtained by such processing. Recognize and transmit the recognized image coordinate value of the signal lamp to the calculation unit 40. The image coordinate value is a coordinate value in an image displayed on the screen of the image car navigation system.

演算部40は、マップマッチング処理部22から受信した座標値と映像認識部30から受信した映像認識の結果とから、車両位置および車両方位角を計算する。   The computing unit 40 calculates the vehicle position and the vehicle azimuth from the coordinate values received from the map matching processing unit 22 and the video recognition result received from the video recognition unit 30.

位置演算部41は、マップマッチング処理部22から受信したマップマッチングデータにより認識された現在の車両位置を、走行車道認識部31から受信した走行車道位置情報によって補正する。前述したように、マップマッチング処理部22は、車両の位置を道路中央線にマップマッチングするため、車両の正確な位置を把握するためには、車両位置に対する補正が必要である。位置演算部41は、走行車道認識部32から受信した走行車道位置によって車両の走行車道位置を認識する。したがって、位置演算部41は、走行車道位置と車道幅とを用いて、車両が道路中心線に対して直角方向に離れている距離を計算することによって、道路中央線にマップマッチングしている車両の位置を実際の車両位置に補正することができる。このとき、各車道幅を表す精密データがある場合には、車道幅には、当該精密データを用い、そうでない場合には、地域別に規格化されている値(例えば、都市地域道路の場合、3.5m)を用いる。   The position calculation unit 41 corrects the current vehicle position recognized by the map matching data received from the map matching processing unit 22 based on the traveling road position information received from the traveling road recognition unit 31. As described above, since the map matching processing unit 22 performs map matching on the vehicle position to the road center line, correction of the vehicle position is necessary in order to grasp the exact position of the vehicle. The position calculation unit 41 recognizes the traveling road position of the vehicle based on the traveling road position received from the traveling road recognition unit 32. Therefore, the position calculation unit 41 uses the traveling roadway position and the roadway width to calculate the distance at which the vehicle is away from the road centerline in a direction perpendicular to the road centerline, thereby matching the road centerline with the vehicle. Can be corrected to the actual vehicle position. At this time, if there is precise data representing the width of each roadway, the precise data is used for the roadway width; otherwise, a value that is standardized by region (for example, in the case of an urban road, 3.5 m) is used.

方位角演算部42は、車線認識部32から受信した車線情報を用いて車両方位角を算出する。多くの場合、車線は道路中央線に平行であるため、車両が道路となす角度は、車両が車線となす角度と同一であるとみなすことができる。しかし、実際に車両が走行している場合には、車線と車両とが平行ではなく、角度を有することがあり、このときには、道路が地図のN軸となす角度と、車両がその道路の車線となす角度とを加えて車両方位角を計算する。   The azimuth calculation unit 42 calculates the vehicle azimuth using the lane information received from the lane recognition unit 32. In many cases, since the lane is parallel to the road center line, the angle that the vehicle makes with the road can be considered to be the same as the angle that the vehicle makes with the lane. However, when the vehicle is actually traveling, the lane and the vehicle are not parallel and may have an angle. In this case, the angle between the road and the N axis of the map and the lane of the road The vehicle azimuth is calculated by adding the angle between

方位角演算部42によって、車両が車線となす角度を計算する方法は、例えば、次の通りである。車線認識部32が認識した画面上の車両の左右車線から両車線の中央に向かってそれぞれ仮想の法線を引き、その2つの法線が交わる画面上の点を通過する仮想の水平軸を引いたときに、左側車線からの法線と水平軸がなす第1の角度と、右側車線からの法線と水平軸がなす第2の角度が等しければ、車両が車線となす角度は、0度であるといえる。このようにして、第1の角度と第2の角度との差から、車両が車線となす角度を計算することができる。第1の角度と第2の角度との差が大きくなるほど、車両が車線となす角度は、比例的に増大する。このように計算した車両方位角は、GPS受信機12が提供する車両方位角と共に出力部50によって選択的に用いられる。   The method of calculating the angle that the vehicle makes with the lane by the azimuth calculating unit 42 is, for example, as follows. A virtual normal is drawn from the left and right lanes of the vehicle on the screen recognized by the lane recognition unit 32 toward the center of both lanes, and a virtual horizontal axis passing through a point on the screen where the two normals intersect is drawn. If the first angle formed by the normal line from the left lane and the horizontal axis is equal to the second angle formed by the normal line from the right lane and the horizontal axis, the angle formed by the vehicle with the lane is 0 degrees. You can say that. In this way, the angle that the vehicle makes with the lane can be calculated from the difference between the first angle and the second angle. As the difference between the first angle and the second angle increases, the angle that the vehicle makes with the lane increases proportionally. The vehicle azimuth angle calculated in this way is selectively used by the output unit 50 together with the vehicle azimuth angle provided by the GPS receiver 12.

画面基準領域設定部43は、信号灯認識部33から受信した信号灯の画像座標値を基準座標値として用いて、映像カーナビゲーションシステムの画面を複数の基準領域に分割し、POIが画面上に表される位置を近似するために、POI検索部24から受信したPOIの位置情報(座標値)と、信号灯検索部26から受信した信号灯の位置情報(座標値)とを比較して、POIを、画面上で分割された画面基準領域に対応させる。すなわち、信号灯の位置を基準にしたPOIの相対的な位置に応じて、各POIが画面上に適切に表示されることになる。   The screen reference area setting unit 43 divides the screen of the video car navigation system into a plurality of reference areas using the image coordinate value of the signal lamp received from the signal lamp recognition unit 33 as a reference coordinate value, and the POI is displayed on the screen. In order to approximate the position, the POI position information (coordinate value) received from the POI search unit 24 is compared with the signal lamp position information (coordinate value) received from the signal lamp search unit 26, and the POI is displayed on the screen. Correspond to the screen reference area divided above. That is, each POI is appropriately displayed on the screen according to the relative position of the POI with respect to the position of the signal lamp.

次に、図4を参照して、画面基準領域設定部43が、POIを画面上で分割された基準領域に対応させる方法について説明する。図4(a)の地図上において、信号灯の座標と車両位置とを連結した破線(HL)、および現在の進行道路と直角であり、かつ信号灯座標を通過する破線(VL)によって、地図領域が4個の領域に区分されている。地図上のA、B、C、D、およびEは、POIを示している。   Next, with reference to FIG. 4, a method in which the screen reference area setting unit 43 associates the POI with the reference area divided on the screen will be described. On the map of FIG. 4A, a map area is represented by a broken line (HL) connecting the coordinates of the signal light and the vehicle position, and a broken line (VL) perpendicular to the current traveling road and passing through the signal light coordinates. It is divided into four areas. A, B, C, D, and E on the map indicate POI.

図4(b)は、映像カーナビゲーションシステムの画面を示している。画面基準領域設定部43は、まず、信号灯認識部33から受信した信号灯の画像座標値を用いて、画面上に信号灯を表示し、信号灯を基準として4個の画面基準領域S1、S2、S3、およびS4に画面を区分する。   FIG. 4B shows a screen of the video car navigation system. First, the screen reference area setting unit 43 displays the signal lamp on the screen using the image coordinate value of the signal lamp received from the signal lamp recognition unit 33, and the four screen reference areas S1, S2, S3, And divide the screen into S4.

次に、画面基準領域設定部43は、車両から見たときに地図上で信号灯より左側に表されるA、C、およびEのPOIを、画面上で信号灯より左側の画面基準領域(S1、S3)に対応させ、BおよびDのPOIを、画面上で信号灯より右側の画面基準領域(S2、S4)に対応させる。また、画面基準領域設定部43は、車両から見たときに信号灯よりも近くにあるAおよびBのPOIを、画面上で信号灯より上側の画面基準領域(S1、S2)に対応させ、C、D、およびEのPOIを、画面上で信号灯より下側の画面基準領域(S3、S4)に対応させる。その結果、A、B、C、D、およびEの各POIは、画面上の4個の画面基準領域のうちの1つの画面基準領域に対応することになる。図4の例の場合、EのPOIは、S3の画面基準領域に配置され、BのPOIは、S2の画面基準領域に配置される。   Next, the screen reference area setting unit 43 displays the POIs of A, C, and E displayed on the left side of the signal light on the map when viewed from the vehicle, and the screen reference area (S1, Corresponding to S3), the POIs of B and D are made to correspond to the screen reference area (S2, S4) on the right side of the signal lamp on the screen. Further, the screen reference area setting unit 43 associates the POIs of A and B that are closer to the signal lamp when viewed from the vehicle with the screen reference areas (S1, S2) above the signal lamp on the screen, and C, The POIs of D and E are made to correspond to the screen reference area (S3, S4) below the signal lamp on the screen. As a result, each POI of A, B, C, D, and E corresponds to one screen reference area among the four screen reference areas on the screen. In the example of FIG. 4, the POI of E is arranged in the screen reference area of S3, and the POI of B is arranged in the screen reference area of S2.

一方、画面基準領域設定部43は、信号灯の座標値と各POIの座標値とを認識することができるため、信号灯の座標値を基準にした各POIの相対的な座標値を用いて、画面上にある程度正確なPOI表示位置を決定することができる。これにより、画面基準領域設定部43は、画面基準領域を区分することなく、信号灯の座標値に対する各POIの相対的な座標値から、当該POIの画面上の表示位置を決定することができる。しかしながら、本実施形態において基準領域を分割する理由は、後述する出力部50において3次元地図座標を2次元画像座標に投影して計算したPOIの画像座標が、画面基準領域設定部43によって対応する基準領域に対応しなければ、当該画像座標が正確に計算されたものではないということを確認できるためである。   On the other hand, since the screen reference area setting unit 43 can recognize the coordinate value of the signal lamp and the coordinate value of each POI, the screen reference area setting unit 43 uses the relative coordinate value of each POI based on the coordinate value of the signal lamp. A somewhat accurate POI display position can be determined on the top. Thereby, the screen reference area setting unit 43 can determine the display position of the POI on the screen from the relative coordinate value of each POI with respect to the coordinate value of the signal light without dividing the screen reference area. However, the reason why the reference area is divided in this embodiment is that the screen reference area setting unit 43 corresponds to the POI image coordinates calculated by projecting the 3D map coordinates onto the 2D image coordinates in the output unit 50 described later. This is because if it does not correspond to the reference region, it can be confirmed that the image coordinates are not accurately calculated.

出力部50は、車両位置、車両方位角、予め知らされたカメラパラメータ、POIデータ、および画面基準領域の入力を受け取り、出力対象POIの3次元地図座標を2次元画像座標に投影して計算したPOIの画像座標を出力する。このとき、出力部50は、GPS受信機12から提供された車両速度に応じて、GPS受信機12から提供された車両方位角および方位角演算部42によって計算した車両方位角のうちのいずれか1つの車両方位角を用いて、POIの画像座標を計算する。   The output unit 50 receives the input of the vehicle position, the vehicle azimuth angle, the camera parameters known in advance, the POI data, and the screen reference area, and calculates the 3D map coordinates of the output target POI by projecting to the 2D image coordinates. Outputs the POI image coordinates. At this time, the output unit 50 is one of the vehicle azimuth provided from the GPS receiver 12 and the vehicle azimuth calculated by the azimuth calculation unit 42 according to the vehicle speed provided from the GPS receiver 12. The image coordinates of the POI are calculated using one vehicle azimuth.

具体的に、GPS情報が信頼できるとして知られている20km/h以上の車両速度に対しては、GPS受信機12から提供された車両方位角を用い、車両速度が20km/h未満の場合では、方位角演算部42によって計算した車両方位角を用いる。また、車両前方の混雑などによって車線が正しく認識できない場合には、車両速度に関わらず、GPS受信機12から提供された車両方位角を用いる。   Specifically, for a vehicle speed of 20 km / h or more, which is known to have reliable GPS information, the vehicle azimuth provided by the GPS receiver 12 is used, and the vehicle speed is less than 20 km / h. The vehicle azimuth calculated by the azimuth calculation unit 42 is used. Further, when the lane cannot be correctly recognized due to congestion in front of the vehicle, the vehicle azimuth provided from the GPS receiver 12 is used regardless of the vehicle speed.

また、出力部50は、計算したPOIの画像座標の画面内領域が、画面基準領域設定部43によって対応付けられる画面基準領域と一致するか否かを検査し、一致しない場合には、計算したPOIの画像座標ではない画面基準領域設定部43によって対応付けられる画面基準領域上の画像座標を、当該POIの画像座標として画面に出力する。   Further, the output unit 50 checks whether or not the in-screen area of the calculated POI image coordinates matches the screen reference area associated by the screen reference area setting unit 43. The image coordinates on the screen reference area associated by the screen reference area setting unit 43 that are not the POI image coordinates are output to the screen as the POI image coordinates.

また、出力部50は、画面の左側に位置するオブジェクト(建物など)に対しては、当該オブジェクトの左側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値(例えば、建物の名称など)を映像に出力し、画面の右側に位置するオブジェクトに対しては、当該オブジェクトの右側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値を映像に出力する。また、映像に出力されるネームボードは、画面上の他の情報を隠さないように、ある程度透明に構成される。   In addition, the output unit 50 outputs a text attribute value of POI data (for example, a building name) in the form of a three-dimensional nameboard with a tag on the left side of the object (such as a building) on the left side of the screen. Name) is output to the video, and for the object located on the right side of the screen, the text attribute value of the POI data is output to the video in the form of a three-dimensional nameboard with a tag on the right side of the object. Further, the name board output to the video is configured to be transparent to some extent so as not to hide other information on the screen.

図5は、本実施形態に係る映像カーナビゲーションシステムの動作のフローチャートを示している。システムが開始すると(S61)、データ入力部10のカメラ11が、一定のフレーム率で車両前方の映像を取得し、GPS受信機12が、一定の時間間隔で現在の位置座標値、車両方位角、および車両速度を検出する(S62)。   FIG. 5 shows a flowchart of the operation of the video car navigation system according to the present embodiment. When the system is started (S61), the camera 11 of the data input unit 10 acquires an image ahead of the vehicle at a constant frame rate, and the GPS receiver 12 detects the current position coordinate value and the vehicle azimuth at regular time intervals. The vehicle speed is detected (S62).

データ入力部10は、映像認識部30および出力部50に映像を伝送し、電子地図部20のマップマッチング処理部22に位置座標値を伝送する。マップマッチング処理部22は、その位置座標値を電子道路地図部21にある道路上の最も近い地点(すなわち、中央線)に近似させるマップマッチングを実行し(S63)、マップマッチングされた位置座標値を演算部40に伝送する。   The data input unit 10 transmits the video to the video recognition unit 30 and the output unit 50, and transmits the position coordinate value to the map matching processing unit 22 of the electronic map unit 20. The map matching processing unit 22 executes map matching that approximates the position coordinate value to the closest point (that is, the center line) on the road in the electronic road map unit 21 (S63), and the map coordinated position coordinate value Is transmitted to the arithmetic unit 40.

映像認識部30の車線認識部32は、受信した映像から車線を認識して、その結果を走行車道認識部31に伝送し、走行車道認識部31は、受信した映像から、車線認識結果を用いて走行車道位置を計算する(S64)。映像認識部30の信号灯認識部33は受信した映像から信号灯を認識する(S65)。車線は、画像座標の形態で、信号灯認識の結果は、映像に配置される信号灯の画像座標の形態で、走行車道位置は、数字の形態(すなわち、2車線の場合「2」)で、演算部40に伝送される。   The lane recognition unit 32 of the video recognition unit 30 recognizes the lane from the received video and transmits the result to the traveling roadway recognition unit 31. The traveling roadway recognition unit 31 uses the lane recognition result from the received video. The travel roadway position is calculated (S64). The signal lamp recognition unit 33 of the video recognition unit 30 recognizes the signal lamp from the received video (S65). The lane is in the form of image coordinates, the result of signal light recognition is in the form of image coordinates of the signal light arranged in the video, and the traveling road position is calculated in the form of numbers (that is, “2” in the case of two lanes). Is transmitted to the unit 40.

演算部40は、前述したような方式により、車線の画像座標から車両方位角を算出し、走行車道位置から車両位置を補正して正確な車両位置を算出する(S66)。   The calculation unit 40 calculates the vehicle azimuth from the image coordinates of the lane, corrects the vehicle position from the traveling road position, and calculates the accurate vehicle position by the method described above (S66).

次いで、POI検索部24が、POIデータから出力対象POIを検索する(S68)。検索方法は、図3に基づいて上記にて説明した通りである。POI検索部24は、検索したPOIデータ(座標値およびテキスト属性値)を、演算部40の画面基準領域設定部43に伝送する。そして、画面基準領域設定部43は、POIデータのうちの座標値と車両位置とを比較演算して、POI座標の出力領域を、画面基準領域のうちの1つの画面基準領域に対応させる。   Next, the POI search unit 24 searches the output target POI from the POI data (S68). The search method is as described above based on FIG. The POI search unit 24 transmits the searched POI data (coordinate values and text attribute values) to the screen reference area setting unit 43 of the calculation unit 40. The screen reference area setting unit 43 compares the coordinate value in the POI data with the vehicle position, and associates the POI coordinate output area with one screen reference area in the screen reference area.

最後に、出力部50は、車両位置、車両方位角、予め知らされたカメラパラメータ、POIデータ、および画面基準領域の入力を受け取り、出力対象POIの3次元地図座標を2次元画像座標に投影して計算したPOIの画像座標を出力する。このとき、出力部50は、GPS受信機12から提供された車両速度に応じて(例えば、20km/hを基準とする)、GPS受信機12から提供された車両方位角および方位角演算部42によって計算した車両方位角のうちのいずれか1つの車両方位角を用いて、POIの画像座標を計算する。また、出力部50は、計算したPOIの画像座標の画面内領域が、画面基準領域設定部43によって対応付けられる画面基準領域と一致するかを検査し、一致しない場合には、計算したPOIの画像座標ではない画面基準領域設定部43によって対応付けられる画面基準領域上の画像座標を、当該POIの画像座標として出力する(S69)。   Finally, the output unit 50 receives the input of the vehicle position, the vehicle azimuth angle, the previously known camera parameters, the POI data, and the screen reference area, and projects the 3D map coordinates of the output target POI onto the 2D image coordinates. The image coordinates of the POI calculated in this way are output. At this time, the output unit 50 determines the vehicle azimuth and azimuth calculation unit 42 provided from the GPS receiver 12 according to the vehicle speed provided from the GPS receiver 12 (for example, based on 20 km / h). The image coordinates of the POI are calculated using any one of the vehicle azimuths calculated by the above. Further, the output unit 50 checks whether the calculated in-screen area of the image coordinates of the POI matches the screen reference area associated by the screen reference area setting unit 43, and if not, the calculated POI The image coordinates on the screen reference area associated by the screen reference area setting unit 43 that are not image coordinates are output as the image coordinates of the POI (S69).

このとき、出力部50は、画面の左側に位置するオブジェクト(建物など)に対しては、当該オブジェクトの左側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値(例えば、建物の名称など)を映像に出力し、画面の右側に位置するオブジェクトに対しては、当該オブジェクトの右側にタグが付いた3次元ネームボードの形態でPOIデータのテキスト属性値を映像に出力する。また、映像に出力されるネームボードは、画面上の他の情報を隠さないように、ある程度透明に構成される。   At this time, the output unit 50, for an object (such as a building) located on the left side of the screen, in the form of a three-dimensional nameboard with a tag on the left side of the object (for example, a building) For the object located on the right side of the screen, the text attribute value of the POI data is output to the video in the form of a three-dimensional nameboard with a tag on the right side of the object. Further, the name board output to the video is configured to be transparent to some extent so as not to hide other information on the screen.

このような過程がフレームごとにリアルタイムで繰り返し実行され、システムが終了命令を受けるか、または映像入力が中断すると終了する(S70)。   Such a process is repeatedly executed in real time for each frame, and ends when the system receives an end command or video input is interrupted (S70).

本発明は、上記の方法を実行するためのプログラムを記録したコンピュータ読み取り可能な記録媒体によっても具現化できる。また、前述した本発明の実施形態は、具体的な構成と図面とによって特定されているが、このような具体的な実施形態によって、本発明の範囲が限定されるわけではない。したがって、本発明は、本発明の本質を逸脱しない限り、様々な変形形態およびその均等形態を含むものとして理解すべきである。   The present invention can also be embodied by a computer-readable recording medium on which a program for executing the above method is recorded. The above-described embodiments of the present invention are specified by specific configurations and drawings, but the scope of the present invention is not limited by such specific embodiments. Therefore, the present invention should be understood as including various modifications and equivalents thereof without departing from the essence of the present invention.

本発明の実施形態に係る映像カーナビゲーションシステムを示す構成図である。1 is a configuration diagram illustrating a video car navigation system according to an embodiment of the present invention. 図1の映像カーナビゲーションシステムの詳細を示す構成図である。It is a block diagram which shows the detail of the image | video car navigation system of FIG. POIデータの構成および検索を説明するための概念図である。It is a conceptual diagram for demonstrating a structure and search of POI data. 画面基準領域設定を説明するための概念図である。It is a conceptual diagram for demonstrating screen reference area | region setting. 本発明の実施形態に係る映像カーナビゲーションシステムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the video car navigation system which concerns on embodiment of this invention.

符号の説明Explanation of symbols

10 データ入力部
20 電子地図部
30 映像認識部
40 演算部
50 出力部
11 カメラ
12 GPS受信機
21 電子道路地図部
22 マップマッチング処理部
23 POIデータ部
24 POI検索部
25 信号灯データ部
26 信号灯検索部
31 車線認識部
32 走行車道認識部
33 信号灯認識部
41 位置演算部
42 方位角演算部
43 画面基準領域設定部
DESCRIPTION OF SYMBOLS 10 Data input part 20 Electronic map part 30 Image | video recognition part 40 Calculation part 50 Output part 11 Camera 12 GPS receiver 21 Electronic road map part 22 Map matching process part 23 POI data part 24 POI search part 25 Signal lamp data part 26 Signal lamp search part 31 Lane recognition unit 32 Traveling road recognition unit 33 Signal lamp recognition unit 41 Position calculation unit 42 Azimuth angle calculation unit 43 Screen reference area setting unit

Claims (16)

対象地点を画面に表示するための映像カーナビゲーションシステムであって、
車両に搭載されたカメラを用いて、前記画面を取得するデータ入力部と、
前記画面から基準オブジェクトを認識する映像認識部と、
前記対象地点および前記基準オブジェクトの地図上の位置に関する情報を提供する電子地図部と、
前記基準オブジェクトの前記地図上の位置と、前記対象地点の前記地図上の位置との間の相対的な位置関係を用いて、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定する演算部と、
前記画面上の前記対象地点位置に前記対象地点を表示する出力部と
を備えたことを特徴とする映像カーナビゲーションシステム。
A video car navigation system for displaying a target point on a screen,
A data input unit that acquires the screen using a camera mounted on the vehicle;
A video recognition unit for recognizing a reference object from the screen;
An electronic map unit for providing information on a map of the target point and the reference object;
A target point on the screen of the target point based on the reference object using a relative positional relationship between the position of the reference object on the map and the position of the target point on the map A calculation unit for determining the position;
An image car navigation system comprising: an output unit that displays the target point at the target point position on the screen.
前記演算部は、前記基準オブジェクトを基準として、前記画面を複数の画面基準領域に分割する画面基準領域設定部を含み、
該画面基準領域設定部は、前記対象地点を前記複数の画面基準領域のうちの1つの画面基準領域に対応させることによって、前記対象地点位置を決定する
ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。
The calculation unit includes a screen reference region setting unit that divides the screen into a plurality of screen reference regions based on the reference object,
The screen reference area setting unit determines the position of the target spot by associating the target spot with one screen reference area of the plurality of screen reference areas. Video car navigation system.
前記出力部は、前記対象地点の前記地図上の位置から2次元画像座標を計算し、前記対象地点が対応付けられている画面基準領域に前記2次元画像座標が含まれない場合には、前記2次元画像座標に前記対象地点を表示する代わりに、前記対象地点位置に前記対象地点を表示する
ことを特徴とする請求項2に記載の映像カーナビゲーションシステム。
The output unit calculates a two-dimensional image coordinate from a position of the target point on the map, and when the two-dimensional image coordinate is not included in a screen reference region associated with the target point, The video car navigation system according to claim 2, wherein the target point is displayed at the target point position instead of displaying the target point in two-dimensional image coordinates.
記映像認識部は、前記画面から前記車両の前方の車線を認識する車線認識部を含み、
前記演算部は、前記車線認識部によって認識された前記車線に関する情報から、前記車両の車両方位角を演算する方位角演算部を含む
ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。
Before Symbol image recognition unit may include a recognizing lane recognition unit in front of the lane of the vehicle from the screen,
2. The video car navigation system according to claim 1, wherein the calculation unit includes an azimuth angle calculation unit that calculates a vehicle azimuth angle of the vehicle from information on the lane recognized by the lane recognition unit.
前記映像認識部は、前記画面から認識した車線に関する情報から前記車両の走行車道を認識する走行車道認識部を含み、
前記演算部は、前記走行車道認識部によって認識された前記走行車道に関する情報から前記車両の位置を演算する位置演算部を含む
ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。
The video recognition unit includes a traveling roadway recognition unit that recognizes a traveling roadway of the vehicle from information on a lane recognized from the screen,
The video car navigation system according to claim 1, wherein the calculation unit includes a position calculation unit that calculates a position of the vehicle from information related to the traveling road recognized by the traveling road recognition unit.
前記データ入力部は、GPS受信機から前記車両の位置情報を受信し、
前記位置演算部は、前記GPS受信機から受信した前記車両の前記位置情報を、前記走行車道認識部によって認識された前記走行車道に関する情報を用いて補正することによって前記車両の位置を演算する
ことを特徴とする請求項5に記載の映像カーナビゲーションシステム。
The data input unit receives position information of the vehicle from a GPS receiver,
The position calculation unit calculates the position of the vehicle by correcting the position information of the vehicle received from the GPS receiver using information on the traveling road recognized by the traveling road recognition unit. The video car navigation system according to claim 5.
前記対象地点は、地図上の複数の対象地点座標に関連付けられ、
前記演算部は、前記相対的な位置関係を決定するために、前記複数の対象地点座標のうちのいずれか1つの対象地点座標を、前記対象地点の前記地図上の位置に特定する
ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。
The target point is associated with a plurality of target point coordinates on the map,
The calculation unit specifies any one of the plurality of target point coordinates as a position on the map of the target point in order to determine the relative positional relationship. The video car navigation system according to claim 1.
前記演算部は、前記複数の対象地点座標のうち、前記車両の現在位置と最も近い対象地点座標を、前記対象地点の前記地図上の位置に特定する
ことを特徴とする請求項7に記載の映像カーナビゲーションシステム。
The said calculating part specifies the target point coordinate nearest to the current position of the said vehicle among the said several target point coordinates to the position on the said map of the said target point. Video car navigation system.
前記複数の対象地点座標は、前記対象地点の出入口の座標を含む
ことを特徴とする請求項7に記載の映像カーナビゲーションシステム。
The video car navigation system according to claim 7, wherein the plurality of target point coordinates include coordinates of an entrance / exit of the target point.
前記基準オブジェクトは信号灯である
ことを特徴とする請求項1に記載の映像カーナビゲーションシステム。
The video car navigation system according to claim 1, wherein the reference object is a signal light.
対象地点を画面に表示するための映像カーナビゲーション方法であって、
(a)データ入力部によって、車両に搭載されたカメラを用いて、前記画面を取得するステップと、
(b)映像認識部によって、前記画面から基準オブジェクトを認識するステップと、
(c)電子地図部によって提供される前記基準オブジェクトの地図上の位置と、前記対象地点の地図上の位置との間の相対的な位置関係を用いて、演算部によって、前記基準オブジェクトを基準にした前記対象地点の前記画面上の対象地点位置を決定するステップと、
(d)出力部によって、前記画面上の前記対象地点位置に、前記対象地点を表示するステップと
を含むことを特徴とする映像カーナビゲーション方法。
A video car navigation method for displaying a target point on a screen,
(A) a step of acquiring the screen by a data input unit using a camera mounted on a vehicle;
(B) a step of recognizing a reference object from the screen by the video recognition unit;
(C) Using the relative positional relationship between the position of the reference object on the map provided by the electronic map unit and the position of the target point on the map, the calculation unit uses the relative position relationship as a reference. Determining a target point position on the screen of the target point
And (d) displaying the target point at the target point position on the screen by the output unit.
前記ステップ(c)は、
前記基準オブジェクトを基準として、前記画面を複数の画面基準領域に分割するステップと、
前記対象地点を前記複数の画面基準領域のうちの1つの画面基準領域に対応させることによって、前記対象地点位置を決定するステップと
を含み、
前記ステップ(d)は、
前記対象地点の地図上の位置から2次元画像座標を計算するステップと、
前記対象地点が対応付けられている画面基準領域に前記2次元画像座標が含まれない場合には、前記2次元画像座標に前記対象地点を表示する代わりに、前記対象地点位置に前記対象地点を表示するステップと
を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。
The step (c)
Dividing the screen into a plurality of screen reference areas based on the reference object;
Determining the position of the target point by associating the target point with one screen reference area of the plurality of screen reference areas,
The step (d)
Calculating two-dimensional image coordinates from a position of the target point on a map;
When the two-dimensional image coordinates are not included in the screen reference area associated with the target point, instead of displaying the target point in the two-dimensional image coordinates, the target point is displayed at the target point position. The video car navigation method according to claim 11, further comprising a step of displaying.
前記ステップ(b)は、
前記画面から前記車両の前方の車線を認識するステップ
を含み、
前記ステップ(c)は、
前記認識された車線に関する情報から前記車両の車両方位角を演算するステップ
を含み、
前記ステップ(d)は、
前記対象地点の地図上の位置から2次元画像座標を計算するために用いる車両方位角として、前記ステップ(c)で演算された前記車両方位角およびGPS受信機から提供された車両方位角のうちのいずれか1つの車両方位角を、前記車両の現在速度を基準として選択するステップ
を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。
The step (b)
Recognizing a lane ahead of the vehicle from the screen,
The step (c)
Calculating a vehicle azimuth of the vehicle from information about the recognized lane,
The step (d)
Among the vehicle azimuths calculated in the step (c) and the vehicle azimuths provided from the GPS receiver as the vehicle azimuths used for calculating the two-dimensional image coordinates from the position of the target point on the map The video car navigation method according to claim 11, further comprising: selecting any one of the vehicle azimuth angles based on a current speed of the vehicle.
前記ステップ(b)は、
前記画面から認識された車線に関する情報から前記車両の走行車道を認識するステップ
を含み、
前記ステップ(c)は、
前記認識された走行車道に関する情報から前記車両の位置を演算するステップ
を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。
The step (b)
Recognizing the traveling road of the vehicle from information on the lane recognized from the screen,
The step (c)
The video car navigation method according to claim 11, further comprising: calculating a position of the vehicle from information on the recognized traveling roadway.
前記対象地点は、地図上の複数の対象地点座標に関連付けられ、
前記ステップ(c)は、
前記相対的な位置関係を決定するために、前記複数の対象地点座標のうちのいずれか1つの対象地点座標を、前記対象地点の前記地図上の位置に特定するステップ
を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。
The target point is associated with a plurality of target point coordinates on the map,
The step (c)
In order to determine the relative positional relationship, the method includes the step of specifying any one of the plurality of target point coordinates as a position on the map of the target point. The video car navigation method according to claim 11.
前記ステップ(b)は、
前記画面から、前記基準オブジェクトとして信号灯を認識するステップ
を含むことを特徴とする請求項11に記載の映像カーナビゲーション方法。
The step (b)
The video car navigation method according to claim 11, further comprising: recognizing a signal lamp as the reference object from the screen.
JP2008132185A 2007-11-26 2008-05-20 Car navigation system and method Expired - Fee Related JP4700080B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020070120833A KR100887721B1 (en) 2007-11-26 2007-11-26 Image car navigation system and method
KR10-2007-0120833 2007-11-26

Publications (2)

Publication Number Publication Date
JP2009128356A JP2009128356A (en) 2009-06-11
JP4700080B2 true JP4700080B2 (en) 2011-06-15

Family

ID=40697911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008132185A Expired - Fee Related JP4700080B2 (en) 2007-11-26 2008-05-20 Car navigation system and method

Country Status (2)

Country Link
JP (1) JP4700080B2 (en)
KR (1) KR100887721B1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5651372B2 (en) * 2010-05-18 2015-01-14 株式会社Nttドコモ Post information control apparatus, post information control system, and post information control method
JP6165422B2 (en) * 2012-06-28 2017-07-19 株式会社ナビタイムジャパン Information processing system, information processing device, server, terminal device, information processing method, and program
DE102012110219A1 (en) 2012-10-25 2014-04-30 Continental Teves Ag & Co. Ohg Method and device for detecting marked danger and / or construction sites in the area of roadways
KR101500168B1 (en) * 2013-10-14 2015-03-06 현대자동차주식회사 Method for Recognizing Side Boundary of Road during Driving
CN105333878A (en) * 2015-11-26 2016-02-17 深圳如果技术有限公司 Road condition video navigation system and method
KR102441053B1 (en) * 2016-11-21 2022-09-06 현대자동차주식회사 Apparatus and method for estimating driving lane of vehicle
JP7132704B2 (en) * 2017-09-21 2022-09-07 株式会社Subaru Position detector
US20200326202A1 (en) * 2017-12-21 2020-10-15 Bayerische Motoren Werke Aktiengesellschaft Method, Device and System for Displaying Augmented Reality POI Information
KR101871441B1 (en) * 2018-02-27 2018-06-27 뉴비전엔지니어링(주) Voice recognition field survey and road linear generation system for high definition electronic map production for autonomous vehicle
WO2023008444A1 (en) * 2021-07-27 2023-02-02 Ultimatrust株式会社 Information processing device, program, and positioning method
CN113781893A (en) * 2021-09-18 2021-12-10 万翼科技有限公司 Traffic route three-dimensional model generation method, device, equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004045227A (en) * 2002-07-12 2004-02-12 Alpine Electronics Inc Instrument and method for measuring position of vehicle
JP2006105640A (en) * 2004-10-01 2006-04-20 Hitachi Ltd Navigation system
JP2007011937A (en) * 2005-07-04 2007-01-18 Nissan Motor Co Ltd Signal detection system, signal detection device, information center, and signal detection method
JP2007272511A (en) * 2006-03-31 2007-10-18 Casio Comput Co Ltd Information transmission system, imaging device, information output method, and information output program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050081492A (en) * 2004-02-13 2005-08-19 디브이에스 코리아 주식회사 Car navigation device using forward real video and control method therefor
KR100685790B1 (en) * 2004-10-25 2007-02-22 한국전자통신연구원 System and Method for Real Image based Navigation
KR100682976B1 (en) * 2004-12-16 2007-02-15 한국전자통신연구원 System and method for Generation of Image-Based Route Information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004045227A (en) * 2002-07-12 2004-02-12 Alpine Electronics Inc Instrument and method for measuring position of vehicle
JP2006105640A (en) * 2004-10-01 2006-04-20 Hitachi Ltd Navigation system
JP2007011937A (en) * 2005-07-04 2007-01-18 Nissan Motor Co Ltd Signal detection system, signal detection device, information center, and signal detection method
JP2007272511A (en) * 2006-03-31 2007-10-18 Casio Comput Co Ltd Information transmission system, imaging device, information output method, and information output program

Also Published As

Publication number Publication date
KR100887721B1 (en) 2009-03-12
JP2009128356A (en) 2009-06-11

Similar Documents

Publication Publication Date Title
JP4700080B2 (en) Car navigation system and method
US8239131B2 (en) Navigation device, navigation method, and navigation program
JP5062497B2 (en) Vehicle position detection system using landscape image recognition
US7948397B2 (en) Image recognition apparatuses, methods and programs
KR100266882B1 (en) Navigation device
US8134480B2 (en) Image processing system and method
US20180045516A1 (en) Information processing device and vehicle position detecting method
US7463974B2 (en) Systems, methods, and programs for determining whether a vehicle is on-road or off-road
JP5505723B2 (en) Image processing system and positioning system
JP3568768B2 (en) Vehicle position identification device
KR20180088149A (en) Method and apparatus for guiding vehicle route
US20070021912A1 (en) Current position information management systems, methods, and programs
US20110242311A1 (en) Image processing system and position measurement system
EP2482036B1 (en) Course guidance system, course guidance method, and course guidance program
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
JP2004226341A (en) Map matching method
JP4760274B2 (en) Map update device
JP4936070B2 (en) Navigation device and navigation program
EP1674827A1 (en) System for detecting a lane change of a vehicle
JP4953015B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same
JP2914111B2 (en) Route guidance device
JP2007140992A (en) Method and device for supporting driving at intersection
JP2009058430A (en) Navigation apparatus and program
JP7024871B2 (en) Route calculation method, operation control method and route calculation device
JP2013050411A (en) Vehicle itself position recognition system, vehicle itself position recognition program, and vehicle itself position recognition method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100813

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110303

LAPS Cancellation because of no payment of annual fees