JP2010176645A - Image recognition method and image recognition device - Google Patents

Image recognition method and image recognition device Download PDF

Info

Publication number
JP2010176645A
JP2010176645A JP2009022018A JP2009022018A JP2010176645A JP 2010176645 A JP2010176645 A JP 2010176645A JP 2009022018 A JP2009022018 A JP 2009022018A JP 2009022018 A JP2009022018 A JP 2009022018A JP 2010176645 A JP2010176645 A JP 2010176645A
Authority
JP
Japan
Prior art keywords
stationary object
image
data
map data
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009022018A
Other languages
Japanese (ja)
Inventor
Kenji Takahashi
顕士 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009022018A priority Critical patent/JP2010176645A/en
Publication of JP2010176645A publication Critical patent/JP2010176645A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To properly recognize a static object in an image captured by a camera mounted on a running vehicle. <P>SOLUTION: An image recognition method includes: a step (S5002) for recognizing the position of a road on image data according to the image data created when a camera images the outside of a vehicle; a step (S5009) for comparing the recognized position of the road with the position of the road on map data obtained by seeing the vehicle from a predetermined point of view, the map data being stored in a navigation device for specifying the position of the vehicle, to calculate an amount of distortion between the image data and the map data; steps (S5011, S5012) for converting, based on the amount of distortion, either the image data or the map data into data as seen from the point of view of the other data; and a static object recognition step (S5014) for recognizing a static object by determining whether or not the static object exists in the same positions in the image data and the map data. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両外部を撮影した画像より静止対象物の認識を行うための画像認識方法および画像認識装置に関する。   The present invention relates to an image recognition method and an image recognition apparatus for recognizing a stationary object from an image taken from the outside of a vehicle.

近年、デジタル技術の進歩と自動車の普及に伴い、ナビゲーション装置の技術は急速に進歩している。ナビゲーション装置は、ナビゲーション装置に保持された地図データに基づき、予め設定した目的地までの最適な誘導経路を求める。その上で、自車両の走行に伴い、経路中の交差点等の重要地点で、左折または右折の案内をディスプレイに表示させるものである。   In recent years, with the advancement of digital technology and the spread of automobiles, the technology of navigation devices has rapidly advanced. The navigation device obtains an optimum guidance route to a preset destination based on the map data held in the navigation device. In addition, as the vehicle travels, guidance for turning left or right is displayed on the display at important points such as intersections in the route.

また、ナビゲーション装置は、ディスプレイに表示する地図上に、各種施設を特定できる看板、道路交通標識および案内標識などを表示する。   In addition, the navigation device displays a signboard, road traffic sign, guide sign, and the like that can identify various facilities on a map displayed on the display.

しかし、実際にはナビゲーション装置の出荷後に、新しい看板または標識等が道路上に設置され、ナビゲーション装置のメモリに格納された地図データが常に最新のものであるとは限らないという課題があった。   However, in reality, after the navigation device is shipped, a new signboard or sign is installed on the road, and the map data stored in the memory of the navigation device is not always the latest.

これに対し、地図データを自動的に更新することにより、地図データを常に最新のものに維持するカーナビゲーション技術が知られている(例えば、特許文献1参照)。この方法は、走行する車両に取り付けられたカメラによって撮影された画像からランドマークを検出し、検出されたランドマークの位置を推定し、推定された位置を含む所定の範囲内に、検出されたランドマークに対応する地図上のランドマークが存在するか否かを判断し、地図上にランドマークが存在しないと判定された場合には検出されたランドマークを地図上に追加するものである。
特開2004−45051号公報
On the other hand, car navigation technology is known in which map data is automatically updated to always keep the map data up-to-date (see, for example, Patent Document 1). In this method, a landmark is detected from an image taken by a camera attached to a traveling vehicle, a position of the detected landmark is estimated, and is detected within a predetermined range including the estimated position. It is determined whether or not there is a landmark on the map corresponding to the landmark. If it is determined that there is no landmark on the map, the detected landmark is added to the map.
Japanese Patent Laid-Open No. 2004-45051

しかしながら、カメラによって撮影された画像と、地図とでは、視点が異なる。このため、カメラによって撮影された画像から検出されたランドマーク等の静止対象物が、地図上に存在するか否かを正確に判断できないという課題がある。   However, the viewpoint differs between the image photographed by the camera and the map. For this reason, there exists a subject that it cannot judge correctly whether stationary objects, such as a landmark detected from the picture photoed with the camera, exist on a map.

このような課題に伴い、検出されたランドマーク等の静止対象物が、正確に該当する位置として地図上に追加されるとは限らないという課題もある。   Along with such a problem, there is a problem that a stationary object such as a detected landmark is not always added to the map as a corresponding position.

本発明は、上述の課題に鑑みてなされたものであり、走行する車両に取り付けられたカメラが撮影した画像中から、静止対象物を正確に認識することができる画像認識方法を提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides an image recognition method capable of accurately recognizing a stationary object from images captured by a camera attached to a traveling vehicle. Objective.

また、走行する車両に取り付けられたカメラが撮影した画像中から検出されたランドマーク等の静止対象物を、ナビゲーション装置が備える地図データ上の正確な位置に追加したり、存在しない静止対象物を地図データ上から削除したりすることができる画像認識方法を提供することも目的とする。   In addition, a stationary object such as a landmark detected from an image captured by a camera attached to a traveling vehicle is added to an accurate position on map data provided in the navigation device, or a stationary object that does not exist is added. It is another object of the present invention to provide an image recognition method that can be deleted from map data.

上記目的を達成するために、本発明に係る画像認識方法は、車両に取り付けられたカメラで撮影された画像に含まれる静止対象物を認識する画像認識方法であって、前記カメラが前記車両の外部を撮影することにより生成される画像データより、当該画像データ上での道路の位置を認識する道路認識ステップと、前記道路認識ステップにおいて認識された前記道路の位置と、前記車両の位置を特定するナビゲーション装置に蓄積された前記車両を所定の視点から見た地図データ上での前記道路の位置とを比較することにより、前記画像データと前記地図データとの間の歪み量を算出する歪み量算出ステップと、前記歪み量に基づいて、前記画像データおよび前記地図データのいずれか一方を、他方のデータの視点から見たデータに変換する変換ステップと、前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、両データの互いに対応する位置に静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する静止対象物認識ステップとを含む。   In order to achieve the above object, an image recognition method according to the present invention is an image recognition method for recognizing a stationary object included in an image captured by a camera attached to a vehicle, wherein the camera The road recognition step for recognizing the position of the road on the image data, the position of the road recognized in the road recognition step, and the position of the vehicle are identified from image data generated by photographing the outside. A distortion amount for calculating a distortion amount between the image data and the map data by comparing the position of the road on the map data when the vehicle stored in the navigation device is viewed from a predetermined viewpoint Based on the calculation step and the amount of distortion, one of the image data and the map data is converted into data viewed from the viewpoint of the other data. Determining whether there is a stationary object at a position corresponding to each other based on the image data and the map data, one of which is converted in the step and the converting step, A stationary object recognition step for recognizing the stationary object in the data.

この構成によると、画像データの道路位置と地図データの道路位置とを比較することにより、両データの歪み量を求めている。道路位置自体は、静止対象物に比べて変化しにくく、道路が交差する位置等では、注目座標が抽出しやすい。このため、歪み量を正確に算出することが可能となる。よって、この歪み量に基づいて、画像変換を行い、両データにおいて静止対象物が存在するか否かを判断することによって、静止対象物を正確に認識することが可能となる。   According to this configuration, the distortion amount of both data is obtained by comparing the road position of the image data with the road position of the map data. The road position itself is less likely to change than a stationary object, and the coordinates of interest are easily extracted at a position where the road intersects. For this reason, it becomes possible to calculate the amount of distortion accurately. Therefore, it is possible to accurately recognize a stationary object by performing image conversion based on this distortion amount and determining whether or not a stationary object exists in both data.

好ましくは、前記静止対象物認識ステップは、前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、前記地図データ上での前記静止対象物の位置に対応する前記画像データ上での位置を含む所定領域を、前記画像データ上での前記静止対象物の探索領域と決定する探索領域決定ステップと、前記画像データの前記探索領域内に前記静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む。   Preferably, in the stationary object recognition step, the image corresponding to the position of the stationary object on the map data based on the image data and the map data, one of which is converted in the conversion step. A search area determining step for determining a predetermined area including a position on the data as a search area for the stationary object on the image data; and whether the stationary object exists in the search area of the image data And recognizing the stationary object in the image data by determining whether or not.

このような画像認識方法により、カメラ画像から静止対象物が存在しうる領域を優先して探索することができる。   By such an image recognition method, it is possible to preferentially search an area where a stationary object can exist from a camera image.

さらに好ましくは、前記静止対象物認識ステップは、前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、前記道路認識ステップで認識された道路の位置を除外した前記画像データの領域を、前記画像データ上での前記静止対象物の探索領域と決定する探索領域決定ステップと、前記画像データの前記探索領域内に前記静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む。   More preferably, the stationary object recognition step excludes the position of the road recognized in the road recognition step based on the image data and the map data, one of which is converted in the conversion step. A search area determining step for determining an area of data as a search area for the stationary object on the image data; and determining whether or not the stationary object exists in the search area of the image data. And recognizing the stationary object in the image data.

このような画像認識方法により、カメラ画像から一部の領域(道路領域)除外した領域を優先して静止対象物を探索することができる。   By such an image recognition method, it is possible to search for a stationary object by giving priority to an area that is excluded from a part of the area (road area) from the camera image.

さらに好ましくは、前記静止対象物認識ステップは、前記変換ステップにおける変換後の前記画像データから道路の輪郭を抽出する道路輪郭抽出ステップと、時間的に連続する複数の前記画像データであって、かつ前記変換ステップにおける変換後の複数の前記画像データより前記静止対象物を抽出し、前記静止対象物が前記道路の輪郭に沿って移動しているか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む。   More preferably, the stationary object recognition step includes a road contour extraction step for extracting a road contour from the image data after the conversion in the conversion step, and a plurality of the image data temporally continuous, and Extracting the stationary object from the plurality of image data after conversion in the conversion step, and determining whether the stationary object is moving along the contour of the road, Recognizing the stationary object.

道路輪郭に沿って、静止対象物が存在するという条件を用いることにより、静止対象物を正確に認識することが可能となる。また、検出された静止対象物に対して動き補償を行うことができる。   By using the condition that the stationary object exists along the road contour, the stationary object can be accurately recognized. Further, motion compensation can be performed on the detected stationary object.

さらに好ましくは、前記静止対象物認識ステップは、さらに、前記画像データおよび前記地図データのいずれか一方のみにおいて、前記静止対象物が存在すると判断された場合には、前記地図データの前記静止対象物に関するデータを更新する。   More preferably, the stationary object recognition step further includes the stationary object of the map data when it is determined that the stationary object exists only in either one of the image data and the map data. Update data about.

このような画像認識方法により、ランドマーク等の静止対象物を、ナビゲーション装置が備える地図データ上の正確な位置に追加したり、存在しない静止対象物を地図データ上から削除したりすることができる。よって、ナビゲーション装置で用いられる地図データを最新のものに更新することができる。   By such an image recognition method, a stationary object such as a landmark can be added to an accurate position on the map data provided in the navigation device, or a non-existing stationary object can be deleted from the map data. . Therefore, the map data used in the navigation device can be updated to the latest one.

さらに好ましくは、前記静止対象物認識ステップでは、前記画像データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記地図データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データに追加する。   More preferably, in the stationary object recognition step, a condition that the stationary object is detected from the image data and a stationary object corresponding to the detected stationary object is not detected from the map data is satisfied. If it is determined that the condition is satisfied a specified number of times or more, information on the stationary object is added to the map data.

上記条件が指定回数以上満たされるか否かを判断することにより、静止対象物のご認識を防止することができ、精度よく静止対象物に関する情報を地図データに追加することができる。   By determining whether or not the above condition is satisfied a specified number of times or more, recognition of a stationary object can be prevented, and information regarding the stationary object can be accurately added to the map data.

さらに好ましくは、前記静止対象物認識ステップでは、前記地図データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記画像データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データから削除する。   More preferably, in the stationary object recognition step, a condition that the stationary object is detected from the map data and a stationary object corresponding to the detected stationary object is not detected from the image data is satisfied. If it is determined that the condition is satisfied a specified number of times or more, information on the stationary object is deleted from the map data.

上記条件が指定回数以上満たされるか否かを判断することにより、静止対象物のご認識を防止することができ、精度よく静止対象物に関する情報を地図データから削除することができる。   By determining whether or not the above condition is satisfied a specified number of times or more, recognition of a stationary object can be prevented, and information regarding the stationary object can be accurately deleted from the map data.

さらに好ましくは、前記静止対象物認識ステップは、さらに、前記画像データおよび前記地図データのいずれか一方のみにおいて、前記静止対象物が存在すると判断された場合には、前記地図データの前記静止対象物に関するデータの更新要求を、前記地図データを管理するサーバに送信する。   More preferably, the stationary object recognition step further includes the stationary object of the map data when it is determined that the stationary object exists only in either one of the image data and the map data. A data update request is transmitted to the server that manages the map data.

地図データをサーバが管理している場合には、ランドマーク等の静止対象物を、サーバが備える地図データ上の正確な位置に追加したり、存在しない静止対象物を地図データ上から削除したりすることができる。よって、サーバで管理される地図データを最新のものに更新することができる。   When the map data is managed by the server, stationary objects such as landmarks are added to the exact location on the map data provided by the server, or stationary objects that do not exist are deleted from the map data. can do. Therefore, the map data managed by the server can be updated to the latest one.

さらに好ましくは、前記静止対象物認識ステップでは、前記画像データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記地図データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データに追加する要求を、前記サーバに送信する。   More preferably, in the stationary object recognition step, a condition that the stationary object is detected from the image data and a stationary object corresponding to the detected stationary object is not detected from the map data is satisfied. If it is determined that the condition is satisfied a specified number of times or more, a request for adding information on the stationary object to the map data is transmitted to the server.

上記条件が指定回数以上満たされるか否かを判断することにより、静止対象物のご認識を防止することができ、精度よく静止対象物に関する情報をサーバが管理する地図データに追加することができる。   By determining whether or not the above condition is satisfied a specified number of times or more, recognition of a stationary object can be prevented, and information regarding the stationary object can be accurately added to the map data managed by the server. .

さらに好ましくは、前記静止対象物認識ステップでは、前記地図データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記画像データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データから削除する要求を、前記サーバに送信する。   More preferably, in the stationary object recognition step, a condition that the stationary object is detected from the map data and a stationary object corresponding to the detected stationary object is not detected from the image data is satisfied. And when it is determined that the condition is satisfied a specified number of times or more, a request to delete the information related to the stationary object from the map data is transmitted to the server.

上記条件が指定回数以上満たされるか否かを判断することにより、静止対象物のご認識を防止することができ、精度よく静止対象物に関する情報をサーバが管理する地図データから削除することができる。   By determining whether or not the above condition is satisfied a specified number of times or more, recognition of a stationary object can be prevented, and information regarding the stationary object can be accurately deleted from the map data managed by the server. .

さらに好ましくは、上述の画像認識方法は、さらに、前記サーバより、更新後の地図データを受信する受信ステップを含む。   More preferably, the above-described image recognition method further includes a receiving step of receiving updated map data from the server.

これにより、ナビゲーション装置は、最新の地図データを車両の運転者に提示することが可能となる。   As a result, the navigation device can present the latest map data to the driver of the vehicle.

なお、本発明は、このような特徴的なステップを含む画像認識方法として実現することができるだけでなく、画像認識方法に含まれる特徴的なステップを処理部とする画像認識装置として実現することができる。また、画像認識方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムは、CD−ROM(Compact Disc-Read Only Memory)等の記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは言うまでもない。   The present invention can be realized not only as an image recognition method including such characteristic steps, but also as an image recognition apparatus using the characteristic steps included in the image recognition method as a processing unit. it can. It can also be realized as a program that causes a computer to execute characteristic steps included in the image recognition method. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet.

本発明によると、走行する車両に取り付けられたカメラが撮影した画像中から、静止対象物を正確に認識することができる。   According to the present invention, a stationary object can be accurately recognized from an image taken by a camera attached to a traveling vehicle.

また、走行する車両に取り付けられたカメラが撮影した画像中から検出されたランドマーク等の静止対象物を、ナビゲーション装置が備える地図データ上の正確な位置に追加したり、存在しない静止対象物を地図データ上から削除したりすることができる。   In addition, a stationary object such as a landmark detected from an image captured by a camera attached to a traveling vehicle is added to an accurate position on map data provided in the navigation device, or a stationary object that does not exist is added. It can be deleted from the map data.

以下、本発明を実施するための最良の形態について、図面を参照しながら説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

なお、以下の実施の形態では、ハードウェアおよびソフトウェアの実施態様は各種変更可能である。このため、まず、各実施の形態に共通するナビゲーション装置の構成について説明し、その後に、各実施の形態について説明する。なお、以下の各実施の形態は、特許発明を限定するものではなく、各実施の形態で説明されている特徴の全てが、発明の必須構成要件とは限らない。   In the following embodiments, various modifications can be made to the hardware and software implementations. Therefore, first, the configuration of the navigation device common to each embodiment will be described, and then each embodiment will be described. The following embodiments do not limit the patented invention, and all the features described in the embodiments are not necessarily essential constituent elements of the invention.

図1は、ナビゲーション装置の構成を示す機能ブロック図である。   FIG. 1 is a functional block diagram showing the configuration of the navigation device.

本ナビゲーション装置は、自動車などの車両に取り付けられ、ランドマーク等の静止対象物の情報を、あらかじめ用意された地図データに基づいて探索および設定し、その該当位置を示した地図データを表示する装置であり、通信制御部101と、自立航法制御部102と、GPS(Global Positioning System)制御部103と、道路交通情報受信部104と、音声出力部105と、ナビゲーション制御部106と、地図データ記憶部107と、更新データ記憶部108と、撮像部109と、画像処理部110と、画像合成処理部111と、画像表示処理部112とを含む。   This navigation device is attached to a vehicle such as an automobile, searches for and sets information on stationary objects such as landmarks based on map data prepared in advance, and displays map data indicating the corresponding position. A communication control unit 101, a self-contained navigation control unit 102, a GPS (Global Positioning System) control unit 103, a road traffic information receiving unit 104, an audio output unit 105, a navigation control unit 106, and a map data storage Unit 107, update data storage unit 108, imaging unit 109, image processing unit 110, image composition processing unit 111, and image display processing unit 112.

通信制御部101は、無線または有線によるデータ通信を制御する。なお、通信機能は、ナビゲーション装置に内蔵されていても良いし、外部に設けられていてもよい。例えば、通信機能を有する携帯電話などの移動体通信端末と通信制御部101とが接続され、移動体通信端末を介してデータ通信を行うものであってもよい。このような構成により、ユーザは、通信制御部101を介して外部サーバへアクセスすることが可能となる。   The communication control unit 101 controls wireless or wired data communication. The communication function may be built in the navigation device or may be provided outside. For example, a mobile communication terminal such as a mobile phone having a communication function and the communication control unit 101 may be connected to perform data communication via the mobile communication terminal. With such a configuration, the user can access the external server via the communication control unit 101.

自立航法制御部102は、自車両の移動速度を検出する車速度センサや自車両の回転角度を検出する角度センサなどからなる。   The self-contained navigation control unit 102 includes a vehicle speed sensor that detects a moving speed of the host vehicle, an angle sensor that detects a rotation angle of the host vehicle, and the like.

GPS制御部103は、GPS受信機によって地球の高度約2万kmにおける所定の軌道に複数個配置された人工衛星(GPS衛星)から伝送されるGPS電波を受信し、GPS信号に含まれた情報を利用して地球上での自車両の現在位置と現在方位を測定する。   The GPS control unit 103 receives GPS radio waves transmitted from a plurality of artificial satellites (GPS satellites) arranged in a predetermined orbit at an altitude of about 20,000 km on the earth by a GPS receiver, and information included in the GPS signal Measure the current position and direction of the vehicle on the earth.

道路交通情報受信部104は、外部アンテナを介して自車両外部の現在の道路交通情報を逐次受信する。   The road traffic information receiving unit 104 sequentially receives current road traffic information outside the host vehicle via an external antenna.

ナビゲーション制御部106は、本ナビゲーション装置の各処理部を制御する制御回路の役割を果たす。   The navigation control unit 106 serves as a control circuit that controls each processing unit of the navigation device.

地図データ記憶部107は、本装置の動作に必要な各種データを記憶しているメモリであり、予め記録された地図データおよびランドマーク等の静止対象物や施設データなどに関する各種データを保持する。必要な地図データをナビゲーション制御部106から読み出される。ここにおける地図データ記憶部107におけるメモリは、CD−ROM、DVD−ROMまたはハードディスクドライブ(HDD)であってもよい。   The map data storage unit 107 is a memory that stores various types of data necessary for the operation of the apparatus, and holds various types of data related to stationary objects such as map data and landmarks, facility data, and the like. Necessary map data is read from the navigation control unit 106. The memory in the map data storage unit 107 here may be a CD-ROM, a DVD-ROM, or a hard disk drive (HDD).

更新データ記憶部108は、地図データ記憶部107に記憶されている地図データと、その地図データからから更新された地図データとの差分を示す更新データを記憶しているメモリである。更新データは、ナビゲーション制御部106により設定される。   The update data storage unit 108 is a memory that stores update data indicating the difference between the map data stored in the map data storage unit 107 and the map data updated from the map data. The update data is set by the navigation control unit 106.

音声出力部105は、スピーカを含み、例えば、経路誘導時に交差点案内などの音声を出力する。   The voice output unit 105 includes a speaker, and outputs a voice such as an intersection guide during route guidance, for example.

撮像部109は、自車両の前方に設置された、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子を備えたカメラである。   The imaging unit 109 is a camera provided with an imaging element such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor installed in front of the host vehicle.

画像処理部110は、撮像部109から出力される画像データを、他の形式の画像データに変換する。また、画像処理部110は、ナビゲーション制御部106から地図データを入力として受け、地図データに対して画像処理を施す。さらに、画像処理部110は、ナビゲーション制御部106から静止対象物情報(静止対象物の位置情報および静止対象物の画像情報を含む情報)を受け、静止対象物情報に対して画像処理を施し、画像処理を行った結果の静止対象物情報をナビゲーション制御部106へ出力する。   The image processing unit 110 converts the image data output from the imaging unit 109 into image data of another format. The image processing unit 110 receives map data from the navigation control unit 106 as input, and performs image processing on the map data. Further, the image processing unit 110 receives stationary object information (information including position information of the stationary object and image information of the stationary object) from the navigation control unit 106, performs image processing on the stationary object information, The stationary object information obtained as a result of the image processing is output to the navigation control unit 106.

画像合成処理部111は、自車両の現在位置を含む地図データを、ナビゲーション制御部106から入力として受け、画像処理部110から出力されるカメラ画像(撮像部109で撮像された画像)と合成する。   The image composition processing unit 111 receives map data including the current position of the host vehicle as an input from the navigation control unit 106 and composes it with a camera image output from the image processing unit 110 (an image captured by the image capturing unit 109). .

そして、画像表示処理部112により、画像合成処理部111により合成された後の画像データをナビゲーション装置のディスプレイ等に表示する。   Then, the image display processing unit 112 displays the image data combined by the image combining processing unit 111 on a display or the like of the navigation device.

(実施の形態1)
本発明の実施の形態1に係るナビゲーション装置について、図面を参照しながら説明する。
(Embodiment 1)
A navigation apparatus according to Embodiment 1 of the present invention will be described with reference to the drawings.

ナビゲーション装置の全体構成は、図1を参照して説明した通りである。   The overall configuration of the navigation device is as described with reference to FIG.

図2は、画像処理部110の詳細な内部構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a detailed internal configuration of the image processing unit 110.

画像処理部110は、輝度信号色差信号分離処理部202と、輝度信号処理部203と、色差信号処理部204と、道路認識処理部205と、注目座標抽出部206と、セレクタ208と、座標変換処理部209と、セレクタ210と、静止対象物認識処理部213とを含む。   The image processing unit 110 includes a luminance signal color difference signal separation processing unit 202, a luminance signal processing unit 203, a color difference signal processing unit 204, a road recognition processing unit 205, a target coordinate extraction unit 206, a selector 208, and coordinate conversion. A processing unit 209, a selector 210, and a stationary object recognition processing unit 213 are included.

以下、画像処理部110を構成する各処理部について説明する。   Hereinafter, each processing unit constituting the image processing unit 110 will be described.

<輝度信号色差信号分離処理部202>
輝度信号色差信号分離処理部202は、撮像部109からカメラ画像の画像データを入力として受ける。輝度信号色差信号分離処理部202は、撮像部109から、赤(R)・緑(G)・青(B)の三色(光の三原色)からなる画像データを入力として受けた場合には、一般的な色空間変換式(次式(1)〜(3))を用いて、YUV色形式の画像データに変換する。
<Luminance Signal Color Difference Signal Separation Processing Unit 202>
The luminance signal color difference signal separation processing unit 202 receives image data of a camera image from the imaging unit 109 as an input. When the luminance signal chrominance signal separation processing unit 202 receives image data consisting of three colors (three primary colors of light) of red (R), green (G), and blue (B) from the imaging unit 109 as input, The image data is converted into YUV color format image data using a general color space conversion formula (the following formulas (1) to (3)).

Y=0.29891×R+0.58661×G+0.11448×B … (1)
U=−0.16874×R−0.33126×G+0.50000×B …(2)
V=0.50000×R−0.41869×G−0.08131×B …(3)
Y = 0.29891 × R + 0.58661 × G + 1.14848 × B (1)
U = −0.16874 × R−0.33126 × G + 0.50000 × B (2)
V = 0.50,000 × R−0.41869 × G−0.0811 × B (3)

また、次式(4)〜(6)を用いて、ITU−R BT.601に規定のYCbCr色形式の画像データに変換してもよい。   Also, using the following equations (4) to (6), ITU-R BT. The image data may be converted into image data in the YCbCr color format defined in 601.

Y=0.257R+0.504G+0.098B+16 …(4)
Cb=−0.148R−0.291G+0.439B+128 …(5)
Cr=0.439R−0.368G−0.071B+128 …(6)
Y = 0.257R + 0.504G + 0.098B + 16 (4)
Cb = −0.148R−0.291G + 0.439B + 128 (5)
Cr = 0.439R−0.368G−0.071B + 128 (6)

ここで、Yは、輝度信号(明るさ)を示し、Cb(U)は、青の差分信号、Cr(V)は、赤の差分信号を示す。また、撮像部109からシアン(C)・マゼンタ(M)・イエロー(Y)の三色(色料の三原色)からなる画像データを入力として受けた場合には、輝度信号色差信号分離処理部202は、一般的な変換式(次式(7)〜(9))を用いて、RGB形式の画像データに変換した後、式(1)〜(3)、または式(4)〜(6)を用いて、YUV形式、またはYCbCr形式の画像データへの変換を行う。輝度信号色差信号分離処理部202は、変換後の画像データを出力する。   Here, Y indicates a luminance signal (brightness), Cb (U) indicates a blue differential signal, and Cr (V) indicates a red differential signal. Further, when image data including three colors of cyan (C), magenta (M), and yellow (Y) (the three primary colors) is received as an input from the imaging unit 109, the luminance signal color difference signal separation processing unit 202 is received. Is converted into RGB format image data using a general conversion formula (following formulas (7) to (9)), and then converted into formula (1) to (3) or formulas (4) to (6). Is used to convert the image data into YUV format or YCbCr format image data. The luminance signal color difference signal separation processing unit 202 outputs the converted image data.

R=1.0−C …(7)
G=1.0−M …(8)
B=1.0−Y …(9)
R = 1.0-C (7)
G = 1.0-M (8)
B = 1.0−Y (9)

また、撮像部109からYUV形式の画像データ入力される場合、輝度信号色差信号分離処理部202は特に画像データの変換は行わず、YUVの信号分離だけを行う。   In addition, when YUV format image data is input from the imaging unit 109, the luminance signal color difference signal separation processing unit 202 does not particularly convert image data, but only performs YUV signal separation.

<輝度信号処理部203>
輝度信号処理部203は、輝度信号色差信号分離処理部202から出力される輝度信号(Y)の画像データを入力として受け、輝度に応じた信号処理を行い、出力する。さらに、輝度信号処理部203は、輪郭画素の判定処理を行う。例えば、簡易的に注目画素の周辺の8画素を用いて、注目画素が輪郭画素か否かの判定を行ってもよい。つまり、図3に示すように、3×3の注目画素D35と、その周辺の8画素D31〜D34およびD36〜D39を考える。注目画素D35の輝度と、周辺画素D31〜D34およびD36〜D39のそれぞれ輝度とを比較し、輝度差の絶対値の和が予め設定した値よりも大きければ、注目画素D35を輪郭画素として判断する。図3に示すような3×3のウィンドウを、輝度信号色差信号分離処理部202から出力される画像データ上で走査することにより、画像データの各画素について輪郭画素の判定処理を行う。例えば、図4のようなカメラ画像の画像データが入力された場合、輝度情報を基に輪郭画素を抽出すると、図5のような画像データに変換される。図5に示す画像データにおいて、黒い画素が、輪郭画素である。
<Luminance signal processing unit 203>
The luminance signal processing unit 203 receives the image data of the luminance signal (Y) output from the luminance signal color difference signal separation processing unit 202 as input, performs signal processing according to the luminance, and outputs it. Furthermore, the luminance signal processing unit 203 performs a contour pixel determination process. For example, it may be determined whether the pixel of interest is a contour pixel by simply using the eight pixels around the pixel of interest. That is, as shown in FIG. 3, a 3 × 3 target pixel D35 and its surrounding eight pixels D31 to D34 and D36 to D39 are considered. The luminance of the pixel of interest D35 is compared with the luminance of each of the surrounding pixels D31 to D34 and D36 to D39, and if the sum of absolute values of luminance differences is greater than a preset value, the pixel of interest D35 is determined as a contour pixel. . By scanning a 3 × 3 window as shown in FIG. 3 on the image data output from the luminance signal color difference signal separation processing unit 202, a contour pixel determination process is performed for each pixel of the image data. For example, when image data of a camera image as shown in FIG. 4 is input, if contour pixels are extracted based on luminance information, the image data is converted into image data as shown in FIG. In the image data shown in FIG. 5, black pixels are contour pixels.

<色差信号処理部204>
色差信号処理部204は、輝度信号色差信号分離処理部202から出力される色差信号を入力として受け、色差に応じた信号処理を行い、出力する。さらに、色差信号処理部204は、予め設定した特定領域と同等の色差を有する画素の判定処理を行う。例えば、色差信号処理部204は、自車両が走行している道路の色差を認識する。つまり、撮像部109が自車両の前方中央に設置されている場合、自車両は必ず道路上に存在しているため、カメラ画像の下方中央は道路である。よって、図6に示すカメラ画像に対し、特定領域A601を下方中央に設定する。色差信号処理部204は、特定領域A601を代表する色差を算出する。例えば、色差の平均値を代表する色差としてもよい。色差信号処理部204は、カメラ画像の画像データの中から、算出された色差と同等の色差を有する画素を、特定領域A601と同等の色差を有する画素として特定する。その結果、図7に示すような道路の色差信号のみからなる画像データが得られる。道路の色差信号からなる領域を、道路色差信号領域A701とする。
<Color difference signal processing unit 204>
The color difference signal processing unit 204 receives the color difference signal output from the luminance signal color difference signal separation processing unit 202 as input, performs signal processing according to the color difference, and outputs the signal. Further, the color difference signal processing unit 204 performs a determination process for pixels having a color difference equivalent to that of a predetermined specific area. For example, the color difference signal processing unit 204 recognizes the color difference of a road on which the host vehicle is traveling. That is, when the imaging unit 109 is installed at the front center of the host vehicle, the host vehicle is always present on the road, so the lower center of the camera image is the road. Therefore, the specific area A601 is set at the lower center with respect to the camera image shown in FIG. The color difference signal processing unit 204 calculates a color difference representing the specific area A601. For example, a color difference that represents an average value of color differences may be used. The color difference signal processing unit 204 identifies a pixel having a color difference equivalent to the calculated color difference as a pixel having a color difference equivalent to that of the specific area A601 from the image data of the camera image. As a result, image data consisting only of road color difference signals as shown in FIG. 7 is obtained. An area composed of road color difference signals is referred to as a road color difference signal area A701.

<道路認識処理部205>
道路認識処理部205は、輝度信号処理部203からの輪郭成分の画像データと、色差信号処理部204からの色差成分の画像データとを入力として受ける。例えば、道路認識処理部205は、図5に示す輪郭成分の画像データと、図7に示す色差信号の画像データとを入力として受ける。この場合、道路認識処理部205は、道路色差信号領域A701に隣接している輪郭成分の画像信号、または道路色差信号領域A701に隣接はしないが隣接に順ずる輪郭成分の画像信号(道路色差信号領域A701から所定距離内にある輪郭成分の画像信号)を認識し、該当する輪郭画素のみを抽出する。そして、輪郭画素と、道路色差信号領域A701とを合成し、合成した結果を道路画像データとして認識することで、図8に示すような道路画像データを出力する。これにより、自車両から外部の画像を撮像するカメラの画像から道路を認識することができる。
<Road recognition processing unit 205>
The road recognition processing unit 205 receives the contour component image data from the luminance signal processing unit 203 and the color difference component image data from the color difference signal processing unit 204 as inputs. For example, the road recognition processing unit 205 receives the image data of the contour component shown in FIG. 5 and the image data of the color difference signal shown in FIG. 7 as inputs. In this case, the road recognition processing unit 205 outputs an image signal of a contour component adjacent to the road color difference signal area A701, or an image signal of a contour component that is not adjacent to the road color difference signal area A701 but is adjacent to the road color difference signal area A701 (road color difference signal). (Image signal of a contour component within a predetermined distance from the area A701) is recognized, and only the corresponding contour pixel is extracted. Then, by synthesizing the contour pixel and the road color difference signal area A701 and recognizing the synthesized result as road image data, road image data as shown in FIG. 8 is output. Thereby, a road can be recognized from an image of a camera that captures an external image from the host vehicle.

<注目座標抽出部206>
注目座標抽出部206は、道路認識処理部205で認識された道路画像データ(図8)と、ナビゲーション制御部106から地図データ(図9)とを入力として受ける。まず、注目座標抽出部206は、道路画像データにおいて、道路輪郭の屈折している箇所を算出し、検出箇所を交差点としての注目点として検知する。例えば、図10に示すように座標P1001〜座標P1004の箇所が注目点として検出される。
<Attention coordinate extraction unit 206>
The attention coordinate extraction unit 206 receives the road image data (FIG. 8) recognized by the road recognition processing unit 205 and the map data (FIG. 9) from the navigation control unit 106 as inputs. First, the attention coordinate extraction unit 206 calculates a portion where the road contour is refracted in the road image data, and detects the detected portion as an attention point as an intersection. For example, as shown in FIG. 10, the coordinates P1001 to P1004 are detected as points of interest.

次に、道路画像データ上の道路輪郭の屈折箇所の算出方法について説明する。図10を参照して、基線L1005に基づいて道路画像データを左右に分ける。左側の道路画像データにおいて道路輪郭のベクトル(道路輪郭ベクトル)V1006を求める。これは、遠近法に基づき、図11におけるベクトルV1102のように第一象限の方向ベクトルに限る。また、右側の道路画像データにおいて道路輪郭のベクトルV1007を求める。これは、遠近法に基づき、図11におけるベクトルV1101のように第二象限の方向ベクトルに限る。ベクトルの求め方は、道路輪郭の画素を並びに対して、線形近似直線を算出することで求めることができる。これら、ベクトルV1006とベクトルV1007とにそれぞれ順ずる(ベクトルV1006とベクトルV1007とにそれぞれ連続する)道路輪郭の屈折する輪郭座標を注目点として算出する。   Next, a method for calculating the refracted portion of the road contour on the road image data will be described. Referring to FIG. 10, road image data is divided into left and right based on a base line L1005. A road contour vector (road contour vector) V1006 is obtained from the road image data on the left side. This is based on the perspective method and limited to the direction vector in the first quadrant as the vector V1102 in FIG. Also, a road contour vector V1007 is obtained from the right road image data. This is based on the perspective method and limited to the direction vector in the second quadrant as the vector V1101 in FIG. The vector can be obtained by calculating a linear approximation straight line with respect to the pixels of the road outline. The refracting contour coordinates of the road contour that follow the vector V1006 and the vector V1007 (continuous to the vector V1006 and the vector V1007, respectively) are calculated as the attention points.

また、注目座標抽出部206は、図12に示す地図データにおいても同様に、道路輪郭の屈折している箇所を算出し、該当する座標P1201〜座標P1204を交差点としての注目点として検知する。次に、地図データ上の道路輪郭の屈折箇所の算出方法について説明する。図12を参照して、基線L1205に基づいて、地図データを左右に分ける。左側の地図データにおいて道路輪郭のベクトルV1206を求める。これは、図11におけるベクトルV1102のように第一象限の方向ベクトルに限る。また、右側の地図データにおいて道路輪郭のベクトルV1207を求める。これは、図11におけるベクトルV1101のように第二象限の方向ベクトルに限る。これら、ベクトルV1206とベクトルV1207とにそれぞれ順ずる(ベクトルV1206とベクトルV1207とにそれぞれ連続する)道路輪郭の屈折する輪郭座標(座標P1201〜座標P1204)を注目点の座標として算出する。そして、注目座標抽出部206は、カメラ画像と地図データの各々について算出された注目点の座標を出力する。   Similarly, the attention coordinate extraction unit 206 calculates a portion where the road outline is refracted in the map data shown in FIG. 12, and detects the corresponding coordinates P1201 to P1204 as attention points as intersections. Next, a method for calculating the refracted portion of the road contour on the map data will be described. Referring to FIG. 12, map data is divided into left and right based on a base line L1205. A road contour vector V1206 is obtained from the map data on the left side. This is limited to the direction vector of the first quadrant as the vector V1102 in FIG. Also, a road contour vector V1207 is obtained from the map data on the right side. This is limited to the direction vector in the second quadrant as the vector V1101 in FIG. The contour coordinates (coordinates P1201 to P1204) that refract the road contour that follow the vectors V1206 and V1207 (continue to the vectors V1206 and V1207, respectively) are calculated as the coordinates of the attention point. Then, the attention coordinate extraction unit 206 outputs the coordinates of the attention point calculated for each of the camera image and the map data.

このように2次元の地図データを例としてあげたが、3次元の地図データでも同様の処理で注目点を算出することができる。   As described above, the two-dimensional map data is taken as an example, but the attention point can be calculated by the same processing with the three-dimensional map data.

しかし、他車両、障害物等が算出すべき注目点に存在した場合には、注目座標抽出部206は、道路画像データにおける交差点としての注目点を検知することができない。例えば、図13に示すように、道路画像データにおいて、4つある注目点の座標のうち、2つの座標P1002、P1003しか検知することができない。このような場合には、以下の方法により交差点座標を算出してもよい。   However, when another vehicle, an obstacle, or the like exists at the point of interest to be calculated, the point-of-interest extraction unit 206 cannot detect the point of interest as an intersection in the road image data. For example, as shown in FIG. 13, in the road image data, only two coordinates P1002 and P1003 can be detected among the coordinates of the four points of interest. In such a case, the intersection coordinates may be calculated by the following method.

つまり、図14に示すように、道路輪郭のベクトルV1006、V1007、V1407、V1408と、交差点座標P1002、P1003とに基づいて、方向ベクトルV1409、V1410を用いて交差点座標P1403を算出する。ここで、方向ベクトルV1409は、ベクトルV1006と同じ向きであり、始点が座標P1003のベクトルである。方向ベクトルV1410は道路輪郭ベクトルV1407に対し、逆ベクトルであり、始点が座標P1002のベクトルである。ベクトルV1409とベクトルV1410との交点の座標が、交差点座標P1403として求められる。   That is, as shown in FIG. 14, based on road contour vectors V1006, V1007, V1407, and V1408 and intersection coordinates P1002 and P1003, intersection coordinates P1403 are calculated using direction vectors V1409 and V1410. Here, the direction vector V1409 is in the same direction as the vector V1006, and the start point is a vector having the coordinates P1003. The direction vector V1410 is an inverse vector with respect to the road contour vector V1407, and the start point is a vector of coordinates P1002. The coordinates of the intersection of the vector V1409 and the vector V1410 are obtained as the intersection coordinate P1403.

同様に、道路輪郭のベクトルV1006、V1007、V1407、V1408と、交差点座標P1002、P1003とに基づいて、方向ベクトルV1411、V1412を用いて交差点座標P1404を算出する。ここで、方向ベクトルV1411は道路輪郭ベクトルV1007に対し、逆ベクトルであり、始点が座標P1002のベクトルである。また、方向ベクトルV1412は、始点が座標P1003であり、方向がベクトルV1408と同じベクトルである。ベクトルV1411とベクトルV1412との交点の座標が、交差点座標P1404として求められる。そして、カメラ画像と地図データの各々について算出された注目点の座標を出力する。   Similarly, based on the road contour vectors V1006, V1007, V1407, V1408 and the intersection coordinates P1002, P1003, the intersection coordinates P1404 are calculated using the direction vectors V1411, V1412. Here, the direction vector V1411 is an inverse vector with respect to the road contour vector V1007, and the start point is a vector of coordinates P1002. In the direction vector V1412, the start point is the coordinate P1003 and the direction is the same vector as the vector V1408. The coordinates of the intersection of the vector V1411 and the vector V1412 are obtained as the intersection coordinate P1404. And the coordinate of the attention point calculated about each of a camera image and map data is output.

さらに、注目座標抽出部206は、道路輪郭のベクトルから交差点としての注目点を算出するようにしてもよい。つまり、注目座標抽出部206は、図15に示すように、道路画像データにおいて、道路輪郭のベクトルの交点を算出し、交差する座標P1505〜座標P1508を交差点としての注目点として検知する。ベクトルの交点の算出方法は、まず、道路画像データを、基線L1005に基づいて左右に分け、左側の道路画像データより道路輪郭のベクトルV1501を求める。これは、遠近法に基づき、図11におけるV1102のように第一象限の方向ベクトルに限る。また、右側の道路画像データより道路輪郭のベクトルV1502を求める。これは、遠近法に基づき、図11におけるV1101のように第二象限の方向ベクトルに限る。これら、ベクトルV1501とベクトルV1502とは別に、道路輪郭ベクトルV1503とV1504を求める。そして、これら道路輪郭ベクトルV1501〜V1504にそれぞれ交差する座標を交差点としての注目点として検知することができる。そして、注目座標抽出部206は、カメラ画像と地図データの各々について算出された、注目点の座標および道路輪郭ベクトルを出力する。   Further, the attention coordinate extraction unit 206 may calculate the attention point as an intersection from the road contour vector. That is, as shown in FIG. 15, the attention coordinate extraction unit 206 calculates intersections of road contour vectors in the road image data, and detects intersecting coordinates P1505 to coordinates P1508 as attention points as intersections. In the vector intersection calculation method, road image data is first divided into left and right based on a base line L1005, and a road contour vector V1501 is obtained from the left road image data. This is based on the perspective method and is limited to the direction vector in the first quadrant as shown in V1102 in FIG. Further, a road contour vector V1502 is obtained from the road image data on the right side. This is based on the perspective method and is limited to the direction vector in the second quadrant as in V1101 in FIG. Separately from these vectors V1501 and V1502, road contour vectors V1503 and V1504 are obtained. Then, coordinates intersecting with each of the road contour vectors V1501 to V1504 can be detected as attention points as intersections. Then, the attention coordinate extraction unit 206 outputs the coordinates of the attention point and the road contour vector calculated for each of the camera image and the map data.

この構成と方法により、カメラ画像において、道路輪郭の屈折している箇所を交差点としての注目点として検知することができる。また、ナビゲーション装置に予め記憶されている地図データにおいて、道路輪郭の屈折している箇所を交差点としての注目点として検知することができる。さらに、他車両、障害物等で交差点としての注目点が検知されなかった場合に、カメラ画像の検知された注目点を中心に注目点を変更させることができる。   With this configuration and method, in a camera image, a portion where the road contour is refracted can be detected as a point of interest as an intersection. Further, in the map data stored in advance in the navigation device, a portion where the road contour is refracted can be detected as a point of interest as an intersection. Furthermore, when an attention point as an intersection is not detected by another vehicle, an obstacle, or the like, the attention point can be changed around the detected attention point of the camera image.

<座標変換処理部209>
座標変換処理部209は、注目座標抽出部206から出力される、カメラ画像および地図データの各々の注目点の座標と、輝度信号処理部203および色差信号処理部204からのカメラ画像と、ナビゲーション制御部106からの地図データとを入力として受ける。カメラ画像と地図データとの切り替えはセレクタ208により行われる。
<Coordinate conversion processing unit 209>
The coordinate conversion processing unit 209 outputs the coordinates of the attention points of the camera image and the map data output from the attention coordinate extraction unit 206, the camera images from the luminance signal processing unit 203 and the color difference signal processing unit 204, and navigation control. The map data from the unit 106 is received as input. Switching between the camera image and the map data is performed by the selector 208.

まず、座標変換処理部209は、地図データの注目点の座標として、図16に示すような座標P1601〜座標P1604を入力として受ける。また、座標変換処理部209は、カメラで撮像された道路画像の注目点の座標として、座標P1605〜座標P1608を入力として受ける。そして、座標変換処理部209は、座標P1601が座標P1605へ、座標P1602が座標P1606へ、座標P1603が座標P1607へ、座標P1604が座標P1608へ、移動するように歪み量を算出する。そして、座標変換処理部209は、入力された地図データに対して歪み量に応じた画像変形を行う。この画像変形には画像の拡大縮小によく使われるバイリニア法(線形補間)や、バイキュービック法などを用いてもよい。また、任意の四角形を変形するための手法などを用いてもよい。例えば、図16において、座標P1601〜座標P1604、および座標P1605〜座標P1608をそれぞれ点線で繋げることで四角形を表現しており、座標P1601〜座標P1604からなる四角形を、座標P1605〜座標P1608からなる四角形に変形する。なお、この図は、四角形による画像変形を表したものであり、歪み量を算出するために四角形は必要なものではない。   First, the coordinate conversion processing unit 209 receives, as inputs, coordinates P1601 to P1604 as shown in FIG. In addition, the coordinate conversion processing unit 209 receives coordinates P1605 to P1608 as input as the coordinates of the target point of the road image captured by the camera. Then, the coordinate conversion processing unit 209 calculates the distortion amount so that the coordinate P1601 moves to the coordinate P1605, the coordinate P1602 moves to the coordinate P1606, the coordinate P1603 moves to the coordinate P1607, and the coordinate P1604 moves to the coordinate P1608. Then, the coordinate conversion processing unit 209 performs image deformation according to the distortion amount on the input map data. For this image deformation, a bilinear method (linear interpolation) or a bicubic method often used for enlarging / reducing an image may be used. Also, a technique for deforming an arbitrary quadrangle may be used. For example, in FIG. 16, a rectangle is represented by connecting coordinates P1601 to P1604 and coordinates P1605 to P1608 with dotted lines, and a rectangle composed of coordinates P1601 to P1604 is represented as a rectangle composed of coordinates P1605 to P1608. Transforms into This figure shows the image deformation by a square, and the square is not necessary to calculate the distortion amount.

この構成と方法により、地図データの注目点座標とカメラ画像の注目点座標とが一致するように歪み量を算出し、歪み量に応じた座標変換により地図データを変形することができる。例えば、図16に従い求められた歪み量に基づいて、図9に示すような地図データを変形すると、図17のような画像データが得られる。   With this configuration and method, it is possible to calculate the distortion amount so that the attention point coordinates of the map data match the attention point coordinates of the camera image, and to transform the map data by coordinate conversion according to the distortion amount. For example, when the map data as shown in FIG. 9 is deformed based on the amount of distortion obtained according to FIG. 16, image data as shown in FIG. 17 is obtained.

また、座標変換処理部209は、道路輪郭のベクトルから歪み量を求めて、画像変形を行ってもよい。つまり、座標変換処理部209は、注目座標抽出部206から出力される、カメラ画像および地図データの各々の道路輪郭のベクトルと、輝度信号処理部203および色差信号処理部204からのカメラ画像と、ナビゲーション制御部106からの地図データとを入力として受ける。カメラ画像と地図データとの切り替えはセレクタ208により行われる。   In addition, the coordinate conversion processing unit 209 may perform image deformation by obtaining a distortion amount from a road contour vector. That is, the coordinate conversion processing unit 209 outputs the road contour vectors of the camera image and map data output from the target coordinate extraction unit 206, the camera images from the luminance signal processing unit 203 and the color difference signal processing unit 204, and The map data from the navigation control unit 106 is received as an input. Switching between the camera image and the map data is performed by the selector 208.

まず、座標変換処理部209は、地図データの道路輪郭のベクトルとして、図18に示すようなベクトルV1801〜ベクトルV1804を入力として受ける。また、座標変換処理部209は、カメラで撮影された道路画像の道路輪郭のベクトルとして、ベクトルV1805〜ベクトルV1808を入力として受ける。そして、座標変換処理部209は、ベクトルV1801がベクトルV1805へ、ベクトルV1802がベクトルV1806へ、ベクトルV1803がベクトルV1807へ、ベクトルV1804がベクトルV1808へ、移動するように歪み量を算出する。そして、座標変換処理部209は、入力された地図データに対して歪み量に応じた画像変形を行う。この画像変形には画像の拡大縮小によく使われるバイリニア法(線形補間)や、バイキュービック法などを用いてもよい。また、任意の四角形を変形するための手法などを用いてもよい。   First, the coordinate conversion processing unit 209 receives, as inputs, vectors V1801 to V1804 as shown in FIG. 18 as road contour vectors of map data. Also, the coordinate conversion processing unit 209 receives as input a vector V1805 to a vector V1808 as a vector of the road contour of the road image taken by the camera. The coordinate conversion processing unit 209 calculates the distortion amount so that the vector V1801 moves to the vector V1805, the vector V1802 moves to the vector V1806, the vector V1803 moves to the vector V1807, and the vector V1804 moves to the vector V1808. Then, the coordinate conversion processing unit 209 performs image deformation according to the distortion amount on the input map data. For this image deformation, a bilinear method (linear interpolation) or a bicubic method often used for enlarging / reducing an image may be used. Also, a technique for deforming an arbitrary quadrangle may be used.

この構成と方法により、地図データの注目点座標とカメラ画像の注目点座標の一致するように歪み量を算出し、歪み量に応じた座標変換により地図データを変形することができる。例えば、図16での歪み量を図9のような地図データに対して画像変形を行うと、図17のようになる。   With this configuration and method, it is possible to calculate the distortion amount so that the attention point coordinates of the map data coincide with the attention point coordinates of the camera image, and to deform the map data by coordinate conversion according to the distortion amount. For example, when the image deformation is performed on the map data as shown in FIG. 9, the distortion amount in FIG. 16 is as shown in FIG.

なお、座標変換処理部209は、同様に、歪み量に応じた座標変換によりカメラ画像を変形することもできる。つまり、座標変換処理部209は、セレクタ208を介して入力されたカメラ画像に対して歪み量に応じた画像変形を行う。例えば、この画像変形は、図16において算出された歪み量に基づいた変形を、図16に示した4つのベクトルと逆の方向に行う。これにより、図4のようなカメラ画像に対して画像変形を行うことにより、図19に示すような画像データが得られる。   Similarly, the coordinate transformation processing unit 209 can also transform the camera image by coordinate transformation corresponding to the distortion amount. That is, the coordinate conversion processing unit 209 performs image deformation corresponding to the amount of distortion on the camera image input via the selector 208. For example, the image deformation is performed based on the distortion amount calculated in FIG. 16 in the direction opposite to the four vectors illustrated in FIG. Thus, image data as shown in FIG. 19 is obtained by performing image deformation on the camera image as shown in FIG.

また、座標変換処理部209は、ナビゲーション制御部106から、地図データと同時に、図20に示すようなランドマーク等の静止対象物M2001の情報を入力として受ける。この例では“6”という企業マークを表した静止対象物の情報を入力として受ける。入力される情報は、地図データ記憶部107に保持されている静止対象物のマーク情報と、地図上での座標を示す座標データとである。座標変換処理部209は、図21に示すように、地図上での静止対象物M2101の座標を、図22に示すように、座標A2201に変換する。座標の変換は、上述した画像データの変換と同様に行なわれる。座標変換処理部209は、座標A2201の情報を、静止対象物認識処理部213に出力する。   Further, the coordinate conversion processing unit 209 receives, from the navigation control unit 106, information on a stationary object M2001 such as a landmark as shown in FIG. In this example, information on a stationary object representing a company mark “6” is received as an input. The input information is the mark information of the stationary object held in the map data storage unit 107 and the coordinate data indicating the coordinates on the map. As shown in FIG. 21, the coordinate conversion processing unit 209 converts the coordinates of the stationary object M2101 on the map into coordinates A2201 as shown in FIG. The coordinate conversion is performed in the same manner as the image data conversion described above. The coordinate conversion processing unit 209 outputs information on the coordinates A2201 to the stationary object recognition processing unit 213.

<静止対象物認識処理部213>
静止対象物認識処理部213は、座標変換処理部209より出力される、地図データより得られる静止対象物の座標(図22の座標A2201)を入力として受ける。また、静止対象物認識処理部213は、輝度信号処理部203からの輪郭成分の画像データと、色差信号処理部204からの色差成分の画像データとを入力として受ける。そして、静止対象物認識処理部213は、ナビゲーション制御部106から、ランドマーク等の静止対象物M2001の情報を入力として受ける。静止対象物認識処理部213は、図23に示すような、輝度信号処理部203および色差信号処理部204から受けた画像データの座標A2201から所定の距離内にある探索領域A2301内に、静止対象物M2001に該当する画像情報を探索する。ランドマーク、看板、交通標識、道路案内標識等の静止対象物を探索、検出、認識する手法は問わず、任意の手法を採用しうる。例えば、画像データおよび地図データの互いに対応する位置に静止対象物が存在すれば、確かに静止対象物が存在すると認識できる。また、画像データのみに静止対象物が存在すれば、新たに静止対象物ができたと判断することができる。また、地図データのみに静止対象物が存在すれば、静止対象物がなくなったと判断することができる。
<Still Object Recognition Processing Unit 213>
The stationary object recognition processing unit 213 receives the coordinates of the stationary object (coordinate A2201 in FIG. 22) obtained from the map data output from the coordinate conversion processing unit 209 as input. The stationary object recognition processing unit 213 receives the contour component image data from the luminance signal processing unit 203 and the color difference component image data from the color difference signal processing unit 204 as inputs. Then, the stationary object recognition processing unit 213 receives information about the stationary object M2001 such as a landmark from the navigation control unit 106 as an input. As shown in FIG. 23, the stationary object recognition processing unit 213 includes a stationary object in a search area A2301 within a predetermined distance from the coordinates A2201 of the image data received from the luminance signal processing unit 203 and the color difference signal processing unit 204. The image information corresponding to the object M2001 is searched. Any method can be employed regardless of a method for searching, detecting, and recognizing a stationary object such as a landmark, a signboard, a traffic sign, and a road guide sign. For example, if there is a stationary object at a position corresponding to each other in the image data and the map data, it can be recognized that the stationary object exists. If a stationary object exists only in the image data, it can be determined that a new stationary object has been created. Further, if there is a stationary object only in the map data, it can be determined that the stationary object has disappeared.

なお、静止対象物認識処理部213は、図24に示すように、道路画像領域A2401を除外した領域A2402に対して、静止対象物M2001に該当する画像情報を探索するようにしてもよい。   Note that the stationary object recognition processing unit 213 may search for image information corresponding to the stationary object M2001 in an area A2402 excluding the road image area A2401, as illustrated in FIG.

また、静止対象物認識処理部213は、時間的に連続する2つのカメラ画像を用いて、静止対象物を探索してもよい。つまり、静止対象物認識処理部213は、座標変換処理部209より、カメラ画像および地図データの各々について算出された注目点の座標を入力として受ける。また、静止対象物認識処理部213は、座標変換処理部209より道路輪郭のベクトルを受ける。   The stationary object recognition processing unit 213 may search for a stationary object using two camera images that are temporally continuous. That is, the stationary object recognition processing unit 213 receives the coordinates of the attention point calculated for each of the camera image and the map data from the coordinate conversion processing unit 209 as input. The stationary object recognition processing unit 213 receives a road contour vector from the coordinate conversion processing unit 209.

図25に示すように、ある時刻のカメラ画像より道路輪郭ベクトルV2501およびV2502が得られたものとする。これらの道路輪郭ベクトルV2501およびV2502は、それぞれベクトルV1501およびベクトルV1502は同じものである。静止対象物認識処理部213は、道路輪郭ベクトルV2501およびV2502の交点M2503を求める。この交点M2503は遠近法における中心座標となる。   As shown in FIG. 25, it is assumed that road contour vectors V2501 and V2502 are obtained from a camera image at a certain time. These road contour vectors V2501 and V2502 are the same as vector V1501 and vector V1502, respectively. The stationary object recognition processing unit 213 obtains an intersection M2503 between the road contour vectors V2501 and V2502. This intersection M2503 is the center coordinate in perspective.

次に、静止対象物認識処理部213は、時間的に連続する2つの画像データに対して、静止対象物認識処理部213において検出された静止対象物M2504およびM2505の座標の情報を保持する。つまり、自動車が前進しているとすれば、現時刻における静止対象物が静止対象物M2505であり、過去の時刻における静止対象物が静止対象物M2504となる。   Next, the stationary object recognition processing unit 213 holds the coordinate information of the stationary objects M2504 and M2505 detected by the stationary object recognition processing unit 213 with respect to two temporally continuous image data. That is, if the automobile is moving forward, the stationary object at the current time is the stationary object M2505, and the stationary object at the past time is the stationary object M2504.

そして、静止対象物認識処理部213は、静止対象物M2504およびM2505の座標間を繋げるベクトルV2506を算出する。静止対象物認識処理部213は、ベクトルV2506と、交点M2503を基準とするベクトル(ベクトルV2501またはV2502)との間の距離を算出する。静止対象物認識処理部213は、算出した距離があらかじめ指定した誤差以内か否かを判断し、誤差以内であれば、静止対象物M2504およびM2505が確かに静止対象物であると判断する。つまり、道路の輪郭に沿って移動している静止対象物が、所望の静止対象物であると判断される。この例では2枚の画像データより得られる静止対象物の座標情報を用いて、静止対象物か否かの判断を行なったが、画像データの枚数は、この限りではない。   Then, the stationary object recognition processing unit 213 calculates a vector V2506 that connects the coordinates of the stationary objects M2504 and M2505. The stationary object recognition processing unit 213 calculates a distance between the vector V2506 and a vector (vector V2501 or V2502) based on the intersection M2503. The stationary object recognition processing unit 213 determines whether or not the calculated distance is within an error specified in advance, and determines that the stationary objects M2504 and M2505 are surely stationary objects if within the error. That is, it is determined that the stationary object moving along the contour of the road is a desired stationary object. In this example, the coordinate information of the stationary object obtained from the two pieces of image data is used to determine whether or not the object is a stationary object. However, the number of image data is not limited to this.

なお、セレクタ210は、ナビゲーション制御部106からの出力と、輝度信号処理部203および色差信号処理部204からの出力とを入力として受け、一方を出力する。   The selector 210 receives the output from the navigation control unit 106 and the outputs from the luminance signal processing unit 203 and the color difference signal processing unit 204 as inputs, and outputs one of them.

次に、以上説明したナビゲーション装置を用いた画像認識方法について、図26に示すフローチャートを用いて説明する。   Next, an image recognition method using the navigation device described above will be described using the flowchart shown in FIG.

撮像部109は、自車両から外部の画像(カメラ画像)を撮像する(ステップS5001)。   The imaging unit 109 captures an external image (camera image) from the host vehicle (step S5001).

輝度信号色差信号分離処理部202と輝度信号処理部203と色差信号処理部204と道路認識処理部205によって、カメラ画像中の道路が認識される(ステップS5002)。   The road in the camera image is recognized by the luminance signal color difference signal separation processing unit 202, the luminance signal processing unit 203, the color difference signal processing unit 204, and the road recognition processing unit 205 (step S5002).

注目座標抽出部206は、地図データを取得する(ステップS5003)。   The attention coordinate extraction unit 206 acquires map data (step S5003).

方向ベクトル算出するとの指定がある場合には(S5004でYES)、注目座標抽出部206は、道路輪郭の方向ベクトルを算出する(ステップS5005)。   If there is an instruction to calculate the direction vector (YES in S5004), the attention coordinate extraction unit 206 calculates a direction vector of the road contour (step S5005).

注目座標抽出部206は、交差点としての注目点を検出する(ステップS5006)。   The attention coordinate extraction unit 206 detects an attention point as an intersection (step S5006).

注目点が検出できなかった場合は(ステップS5007でNO)、注目座標を変更する(ステップS5008)。つまり、交差点の他の注目点の抽出を試みる。   If the attention point cannot be detected (NO in step S5007), the attention coordinate is changed (step S5008). That is, it tries to extract other attention points of the intersection.

注目点が検出できた場合には(ステップS5007でYES)、座標変換処理部209は、歪み量を算出する(S5009)。   If an attention point has been detected (YES in step S5007), the coordinate conversion processing unit 209 calculates a distortion amount (S5009).

次に、座標変換処理部209は、画像変形の対象がカメラ画像か地図データかを判定する(ステップS5010)。画像変形の対象は予め指定されているものとする。   Next, the coordinate conversion processing unit 209 determines whether the object of image deformation is a camera image or map data (step S5010). It is assumed that an image transformation target is designated in advance.

画像変形の対象が地図データの場合には(ステップS5010でYES)、座標変換処理部209は、地図データを変形させ、図17に示すような画像データを生成する(ステップS5011)。   If the object of image deformation is map data (YES in step S5010), the coordinate conversion processing unit 209 deforms the map data and generates image data as shown in FIG. 17 (step S5011).

画像変形の対象がカメラ画像の場合には(ステップS5010でNO)、座標変換処理部209は、カメラ画像を変形させ、図19に示すような画像を生成する(ステップS5012)。   When the image deformation target is a camera image (NO in step S5010), the coordinate conversion processing unit 209 deforms the camera image and generates an image as shown in FIG. 19 (step S5012).

座標変換処理部209は、地図データに基づいて静止対象物の探索領域を決定することが指定されているか否かを判断する(S5013a)。この指定は、予め行なわれているものとする。   The coordinate conversion processing unit 209 determines whether or not it is designated to determine a stationary object search region based on the map data (S5013a). This designation is assumed to have been made in advance.

地図データに基づいて静止対象物の探索領域を決定することが指定されている場合には(S5013aでYES)、図21および図22を用いて説明したように、座標変換処理部209は、地図データから得られる静止対象物M2101の座標を、図22に示すように、座標A2201に変換する(S5013)。つまり、カメラ画像上での座標A2201に変換する。   When it is specified that the search area for the stationary object is determined based on the map data (YES in S5013a), as described with reference to FIGS. 21 and 22, the coordinate conversion processing unit 209 performs the map conversion process. The coordinates of the stationary object M2101 obtained from the data are converted into coordinates A2201 as shown in FIG. 22 (S5013). That is, the coordinates are converted into coordinates A2201 on the camera image.

次に、図23を用いて説明したように、静止対象物認識処理部213は、カメラ画像における探索領域A2301を決定する(S5014)。その上で、静止対象物認識処理部213は、静止対象物の認識を行なう。   Next, as described with reference to FIG. 23, the stationary object recognition processing unit 213 determines a search area A2301 in the camera image (S5014). After that, the stationary object recognition processing unit 213 recognizes the stationary object.

静止対象物認識処理部213は、道路画像領域に基づいて静止対象物の探索領域を決定することが指定されているか否かを判断する(S5015a)。この指定は、予め行なわれているものとする。   The stationary object recognition processing unit 213 determines whether it is designated to determine a search area for a stationary object based on the road image area (S5015a). This designation is assumed to have been made in advance.

道路画像領域に基づいて静止対象物の探索領域を決定することが指定されている場合には(S5015aでYES)、静止対象物認識処理部213は、図24に示したように、カメラ画像から道路画像領域A2401を除外した領域A2402を、静止対象物の探索領域として決定する(ステップS5015)。その上で、静止対象物認識処理部213は、静止対象物の認識を行なう。   If it is specified that the search area for the stationary object is determined based on the road image area (YES in S5015a), the stationary object recognition processing unit 213 uses the camera image as shown in FIG. A region A2402 excluding the road image region A2401 is determined as a stationary object search region (step S5015). After that, the stationary object recognition processing unit 213 recognizes the stationary object.

静止対象物認識処理部213は、ここまでの処理で静止対象物が検出されているか否かを判断する(S5016)。静止対象物が検出されている場合(ステップS5016でYES)、静止対象物認識処理部213は、検出された静止対象物の情報を保持する(S5017)。そして、自車両が目的地に到達していなければ(ステップS5018でNO)、S5001からの処理が繰り返し実行される。   The stationary object recognition processing unit 213 determines whether a stationary object has been detected in the processes so far (S5016). When a stationary object is detected (YES in step S5016), the stationary object recognition processing unit 213 holds information on the detected stationary object (S5017). If the host vehicle has not reached the destination (NO in step S5018), the processing from S5001 is repeatedly executed.

ステップS5017において、静止対象物の情報が時々刻々蓄積される。静止対象物認識処理部213は、図25を用いて説明した方法により、蓄積された静止対象物が道路の輪郭に沿って移動しているか否かを判断する。静止対象物認識処理部213は、道路の輪郭に沿って移動している静止対象物を、所望の静止対象物であると判断する。   In step S5017, information on the stationary object is accumulated from moment to moment. The stationary object recognition processing unit 213 determines whether or not the accumulated stationary object is moving along the contour of the road by the method described with reference to FIG. The stationary object recognition processing unit 213 determines that the stationary object moving along the road outline is a desired stationary object.

以上説明したように、本実施の形態によると、ナビゲーション装置から静止対象物情報を読み出し、変形させた地図データとカメラ画像とから静止対象物を認識することができる。また、地図上での静止対象物の位置と、歪み量とから、カメラ画像上での静止対象物の探索領域を決定することができる。   As described above, according to the present embodiment, it is possible to read stationary object information from the navigation device and recognize the stationary object from the deformed map data and the camera image. Further, the search area for the stationary object on the camera image can be determined from the position of the stationary object on the map and the amount of distortion.

また、カメラ画像から、道路領域を除外した領域を静止対象物の探索領域として決定することができる。   In addition, an area excluding the road area can be determined as a stationary object search area from the camera image.

さらに、複数の時刻において道路輪郭に沿って検出された静止対象物を検出することができる。このため、道路輪郭ベクトルから検索された基準点から動き補償を行うことができる。   Furthermore, it is possible to detect stationary objects detected along the road contour at a plurality of times. For this reason, motion compensation can be performed from the reference point searched from the road contour vector.

(実施の形態2)
本発明の実施の形態2に係るナビゲーション装置について、図面を参照しながら説明する。実施の形態1では、静止対象物の認識を行なった。本実施の形態では、静止対象物の認識結果に基づいて、地図データに静止対象物を追加したり、地図データから静止対象物を削除したりする処理を行なう。
(Embodiment 2)
A navigation device according to Embodiment 2 of the present invention will be described with reference to the drawings. In the first embodiment, the stationary object is recognized. In the present embodiment, processing for adding a stationary object to map data or deleting a stationary object from map data is performed based on the recognition result of the stationary object.

ナビゲーション装置の構成は、図1および図2を参照して説明したものと同様である。このため、その詳細な説明はここでは繰り返さない。以下、実施の形態1と異なる点を中心に説明する。本実施の形態では、実施の形態1と同様に、カメラ画像から道路が認識され、交差点としての注目点が検知され、歪み量に基づいて画像の変形が行なわれる。   The configuration of the navigation device is the same as that described with reference to FIGS. Therefore, detailed description thereof will not be repeated here. Hereinafter, a description will be given focusing on differences from the first embodiment. In the present embodiment, as in the first embodiment, a road is recognized from a camera image, a point of interest as an intersection is detected, and the image is deformed based on the amount of distortion.

それに加え、以下の処理が実行される。つまり、座標変換処理部209は、静止対象物認識処理部213により検出された静止対象物の情報と、輝度信号処理部203および色差信号処理部204からの画像データとを入力として受ける。   In addition, the following processing is executed. That is, the coordinate conversion processing unit 209 receives the information on the stationary object detected by the stationary object recognition processing unit 213 and the image data from the luminance signal processing unit 203 and the color difference signal processing unit 204 as inputs.

座標変換処理部209は、図27に示すように、カメラ画像上で検出された静止対象物M2704を、図9に示すような地図データと同じ始点から見た画像データに座標変換を行なうと、図28に示すような画像データが得られる。このとき、静止対象物M2704は、静止対象物M2801に変換される。このとき、図9に示すような地図データの所望座標上(静止対象物M2801の座標上)に静止対象物が存在しない場合には、座標変換処理部209は、図29に示すように、地図データの静止対象物M2801の座標に、静止対象物M2901を新たに追加するために、静止対象物M2901の情報をナビゲーション制御部106に出力する。ナビゲーション制御部106は静止対象物の情報を更新データとして更新データ記憶部108に記憶する。   As shown in FIG. 27, the coordinate conversion processing unit 209 performs coordinate conversion of the stationary object M2704 detected on the camera image into image data viewed from the same starting point as the map data as shown in FIG. Image data as shown in FIG. 28 is obtained. At this time, the stationary object M2704 is converted into a stationary object M2801. At this time, if there is no stationary object on the desired coordinates of the map data as shown in FIG. 9 (on the coordinates of the stationary object M2801), the coordinate conversion processing unit 209 displays the map as shown in FIG. In order to newly add a stationary object M2901 to the coordinates of the stationary object M2801 in the data, information on the stationary object M2901 is output to the navigation control unit 106. The navigation control unit 106 stores information on the stationary object in the update data storage unit 108 as update data.

また、ナビゲーション制御部106から静止対象物があるものとして静止対象物の情報が静止対象物認識処理部213に入力されたにも係らず、静止対象物が検出されなかった場合には、静止対象物認識処理部213は、ナビゲーション制御部106に静止対象物を削除する指示を出力する。ナビゲーション制御部106は静止対象物が削除されたことを示す情報を、更新データとして更新データ記憶部108に記憶する。   In addition, when information on a stationary object is input from the navigation control unit 106 to the stationary object recognition processing unit 213 assuming that there is a stationary object, the stationary object is not detected. The object recognition processing unit 213 outputs an instruction to delete the stationary object to the navigation control unit 106. The navigation control unit 106 stores information indicating that the stationary object has been deleted in the update data storage unit 108 as update data.

次に、以上説明したナビゲーション装置を用いた画像認識方法について、図30に示すフローチャートを用いて説明する。   Next, an image recognition method using the navigation device described above will be described using the flowchart shown in FIG.

撮像部109は、自車両から外部の画像(カメラ画像)を撮像する(ステップS5101)。   The imaging unit 109 captures an external image (camera image) from the host vehicle (step S5101).

静止対象物認識処理部213は、カメラ画像より静止対象物を検出する(ステップS5102)。   The stationary object recognition processing unit 213 detects a stationary object from the camera image (step S5102).

静止対象物が検出された場合(ステップS5103でYES)、座標変換処理部209は、静止対象物の座標を地図データ上の座標に変換する(ステップS5104)。静止対象物認識処理部213は、地図データ上の変換後の座標上に、静止対象物があるか否かを判断し、かつ、静止対象物があるとの判断が指定回数以上なされたか否か(時間的に連続する指定枚数のカメラ画像において静止対象物があると判断されたか否か)を判断する(ステップS5112)。つまり、静止対象物の誤検出を防ぐために、ステップS5112において指定回数を設け、静止対象物があるとの判断が指定回数以上なされた場合には、検出された静止対象物が実際に存在するとみなす。   If a stationary object is detected (YES in step S5103), the coordinate conversion processing unit 209 converts the coordinates of the stationary object into coordinates on map data (step S5104). The stationary object recognition processing unit 213 determines whether or not there is a stationary object on the converted coordinates on the map data, and whether or not the determination that there is a stationary object has been made a specified number of times or more. It is determined (whether or not it is determined that there is a stationary object in a specified number of camera images continuous in time) (step S5112). That is, in order to prevent erroneous detection of a stationary object, a specified number of times is provided in step S5112, and if the determination that there is a stationary object is made more than the specified number of times, it is considered that the detected stationary object actually exists. .

静止対象物があるとの判断が指定回数以上なされた場合には(ステップS5112でYES)、座標変換処理部209は、地図データ上における静止対象物の位置を示す情報を、ナビゲーション制御部106に出力する。ナビゲーション制御部106は、追加すべき静止対象物の位置を示す情報を更新データとして更新データ記憶部108に記憶する(ステップS5105)。これにより、地図データに静止対象物の追加が行なわれる。   If it is determined that there is a stationary object more than the specified number of times (YES in step S5112), the coordinate conversion processing unit 209 sends information indicating the position of the stationary object on the map data to the navigation control unit 106. Output. The navigation control unit 106 stores information indicating the position of the stationary object to be added as update data in the update data storage unit 108 (step S5105). As a result, the stationary object is added to the map data.

静止対象物が検出されなかった場合には(ステップS5103でNO)、座標変換処理部209は、静止対象物の検出漏れを防ぐために、静止対象物の探索範囲を変更する(ステップS5106)。探索範囲があらかじめ指定した対象の範囲内であれば(ステップS5107でYES)、座標変換処理部209は、その探索範囲内において、静止対象物の再検出を行なう(S5102)。   If no stationary object is detected (NO in step S5103), the coordinate conversion processing unit 209 changes the search range of the stationary object in order to prevent detection of the stationary object (step S5106). If the search range is within the range of the target specified in advance (YES in step S5107), the coordinate conversion processing unit 209 performs redetection of the stationary target object within the search range (S5102).

静止対象物の探索範囲がこれ以上ない場合には(ステップS5107でNO)、静止対象物認識処理部213は、静止対象物が存在しないとみなす(ステップS5108)。静止対象物認識処理部213は、静止対象物が存在しないとの判断が指定回数なされたか否か(時間的に連続する指定枚数のカメラ画像において静止対象物が存在しないとの判断がなされたか否か)を判断する(ステップS5109)。つまり、静止対象物の誤検出を防ぐために、ステップS5109において指定回数を設け、静止対象物がないとの判断が指定回数以上なされた場合には、検出された静止対象物が確かに存在しないと判断する。   If there is no more search range for the stationary object (NO in step S5107), the stationary object recognition processing unit 213 considers that there is no stationary object (step S5108). The stationary object recognition processing unit 213 determines whether or not the determination that the stationary object does not exist has been made a specified number of times (whether or not it has been determined that the stationary object does not exist in the specified number of camera images that are temporally continuous). Is determined (step S5109). In other words, in order to prevent erroneous detection of a stationary object, the designated number of times is set in step S5109, and if it is determined that there is no stationary object, the detected stationary object does not exist. to decide.

静止対象物が存在しないとの判断が指定回数なされた場合には(ステップS5109でYES)、座標変換処理部209は、ナビゲーション制御部106に、静止対象物を削除を指示するデータを出力する。ナビゲーション制御部106は、静止対象物の削除を指示するデータを更新データとして更新データ記憶部108に記憶することにより、地図データから静止対象物の削除を行う(ステップS5110)。   If the determination that the stationary object does not exist is made the designated number of times (YES in step S5109), the coordinate conversion processing unit 209 outputs data that instructs the navigation control unit 106 to delete the stationary object. The navigation control unit 106 deletes the stationary object from the map data by storing the data instructing the deletion of the stationary object as update data in the update data storage unit 108 (step S5110).

ナビゲーション制御部106は、地図データ記憶部107に記憶された地図データおよび更新データ記憶部108に記憶された更新データに基づいて、画像表示処理部112に表示する地図情報を更新する(S5111)。S5101〜S5112の処理が、目的地に到着するまで繰り返し実行される(ステップS5113)。   The navigation control unit 106 updates the map information displayed on the image display processing unit 112 based on the map data stored in the map data storage unit 107 and the update data stored in the update data storage unit 108 (S5111). The processing of S5101 to S5112 is repeatedly executed until the destination is reached (step S5113).

以上説明したように、本実施の形態によると、カメラ画像より検出された静止対象物の位置を、地図データ上の位置に変換し、地図データ上の該当する位置に静止対象物の位置情報がなく、カメラ画像に静止対象物が検出された場合に、検出が指定回数を上回ると、地図データに静止対象物の情報を追加することができる。   As described above, according to the present embodiment, the position of the stationary object detected from the camera image is converted into the position on the map data, and the position information of the stationary object is displayed at the corresponding position on the map data. If a stationary object is detected in the camera image and the number of detections exceeds the specified number, information on the stationary object can be added to the map data.

また、地図データ上に静止対象物の位置情報があるにもかかわらず、カメラ画像の対応する位置に静止対象物が検出されなかった場合に、検出されなかったことが指定回数を上回ると、地図データから静止対象物の情報を削除することができる。   In addition, even if there is position information of a stationary object on the map data, if the stationary object is not detected at the corresponding position in the camera image and the number of times that it was not detected exceeds the specified number of times, Information on stationary objects can be deleted from the data.

(実施の形態3)
本発明の実施の形態3に係るナビゲーション装置について、図面を参照しながら説明する。実施の形態2では、地図データに静止対象物を追加したり、地図データから静止対象物を削除したりするために、更新データを更新データ記憶部108に記憶した。本実施の形態では、更新データをサーバに送信することにより、地図データを管理するサーバによる静止対象物の追加や削除を可能とするものである。
(Embodiment 3)
A navigation device according to Embodiment 3 of the present invention will be described with reference to the drawings. In the second embodiment, update data is stored in the update data storage unit 108 in order to add a stationary object to map data or delete a stationary object from map data. In the present embodiment, the update data is transmitted to the server, so that the stationary object can be added or deleted by the server that manages the map data.

以下の説明では、実施の形態1および2と異なる点について中心に説明する。   In the following description, differences from the first and second embodiments will be mainly described.

本実施の形態に係るナビゲーション装置の構成は、図1および図2を参照して説明したものと同様である。このため、その詳細な説明はここでは繰り返さない。   The configuration of the navigation device according to the present embodiment is the same as that described with reference to FIGS. Therefore, detailed description thereof will not be repeated here.

実施の形態2では、静止対象物を地図データに追加する際、または静止対象物を地図データから削除する際に、座標変換処理部209または静止対象物認識処理部213が、更新データをナビゲーション制御部106に通知していた。本実施の形態では、ナビゲーション制御部106に通知された更新データを、通信制御部101が、基地局サーバ等に送信する。基地局サーバは、地図データを管理している。このため、基地局サーバが更新データに基づいて、地図データを更新することができる。   In Embodiment 2, when a stationary object is added to map data or when a stationary object is deleted from map data, the coordinate conversion processing unit 209 or the stationary object recognition processing unit 213 performs navigation control on the update data. To the part 106. In the present embodiment, the communication control unit 101 transmits the update data notified to the navigation control unit 106 to a base station server or the like. The base station server manages map data. For this reason, the base station server can update the map data based on the update data.

次に、以上説明したナビゲーション装置を用いた画像認識方法について、図31に示すフローチャートを用いて説明する。   Next, an image recognition method using the navigation device described above will be described using the flowchart shown in FIG.

なお、ここでは、実施の形態2と同様に、新たに静止対象物が検出されると、ナビゲーション制御部106に対して静止対象物の追加要求(更新データ)が送信され、静止対象物が削除されたことが検出されると、ナビゲーション制御部106に対して静止対象物の削除要求(更新データ)が送信されているものとする。   Here, as in the second embodiment, when a new stationary object is detected, a request for adding a stationary object (update data) is transmitted to the navigation control unit 106, and the stationary object is deleted. When it is detected that a deletion has been detected, a stationary object deletion request (update data) is transmitted to the navigation control unit 106.

ナビゲーション制御部106は、静止対象物の追加要求を受け取った場合には(ステップS5201でYES)、誤検出を防ぐために、同一の静止対象物について追加要求を指定回数以上受け取ったか否かを判断する(ステップS5202)。追加要求を指定回数以上受け取ったと判断した場合には(ステップS5202でYES)、ナビゲーション制御部106は、通信制御部101を介して、基地局サーバに静止対象物の追加要求を送信する(S5203)。追加要求を受信した基地局サーバは、追加要求に基づいて、自身が管理する地図データに静止対象物を追加することにより、地図データを更新する。更新後の地図データは、基地局サーバからナビゲーション装置に送信される。ナビゲーション制御部106は、通信制御部101を介して更新後の地図データを受信し、地図データ記憶部107に記憶する。   When the navigation control unit 106 receives a request for adding a stationary object (YES in step S5201), the navigation control unit 106 determines whether or not an additional request for the same stationary object has been received a specified number of times or more in order to prevent erroneous detection. (Step S5202). If it is determined that the addition request has been received more than the specified number of times (YES in step S5202), the navigation control unit 106 transmits a request for adding a stationary object to the base station server via the communication control unit 101 (S5203). . The base station server that has received the addition request updates the map data by adding a stationary object to the map data managed by the base station server based on the addition request. The updated map data is transmitted from the base station server to the navigation device. The navigation control unit 106 receives the updated map data via the communication control unit 101 and stores it in the map data storage unit 107.

一方、ナビゲーション制御部106は、静止対象物の削除要求を受け取った場合には(ステップS5204でYES)、誤検出を防ぐために、同一の静止対象物について削除要求を指定回数以上受け取ったか否かを判断する(ステップS5205)。削除要求を指定回数以上受け取ったと判断した場合には(ステップS5205でYES)、ナビゲーション制御部106は、通信制御部101を介して、基地局サーバに静止対象物の削除要求を送信する(S5206)。削除要求を受信した基地局サーバは、削除要求に基づいて、自身が管理する地図データから静止対象物を削除することにより、地図データを更新する。   On the other hand, when the navigation control unit 106 receives a request for deleting a stationary object (YES in step S5204), in order to prevent erroneous detection, the navigation control unit 106 determines whether or not a deletion request for the same stationary object has been received a specified number of times or more. Judgment is made (step S5205). If it is determined that the deletion request has been received more than the specified number of times (YES in step S5205), the navigation control unit 106 transmits a deletion request for the stationary object to the base station server via the communication control unit 101 (S5206). . The base station server that has received the deletion request updates the map data by deleting the stationary object from the map data managed by the base station server based on the deletion request.

以上説明したように、本実施の形態によると、カメラ画像より検出された静止対象物の位置を、地図データ上の位置に変換し、地図データ上の該当する位置に静止対象物の位置情報がなく、カメラ画像に静止対象物が検出された場合に、検出が指定回数を上回ると、静止対象物の追加要求を基地局サーバに送信することができる。このため、基地局サーバは、自身が管理する地図データに静止対象物の情報を追加することができる。更新後の地図データは、基地局サーバからナビゲーション装置に送信される。ナビゲーション制御部106は、通信制御部101を介して更新後の地図データを受信し、地図データ記憶部107に記憶する。   As described above, according to the present embodiment, the position of the stationary object detected from the camera image is converted into the position on the map data, and the position information of the stationary object is displayed at the corresponding position on the map data. If a stationary object is detected in the camera image and the number of detections exceeds the specified number, a request for adding the stationary object can be transmitted to the base station server. For this reason, the base station server can add the information of the stationary object to the map data managed by itself. The updated map data is transmitted from the base station server to the navigation device. The navigation control unit 106 receives the updated map data via the communication control unit 101 and stores it in the map data storage unit 107.

また、地図データ上に静止対象物の位置情報があるにもかかわらず、カメラ画像の対応する位置に静止対象物が検出されなかった場合に、検出されなかったことが指定回数を上回ると、地図データから静止対象物の情報を削除するための削除要求を基地局サーバに送信することができる。このため、基地局サーバは、自身が管理する地図データから静止対象物の情報を削除することができる。   In addition, even if there is position information of a stationary object on the map data, if the stationary object is not detected at the corresponding position in the camera image and the number of times that it was not detected exceeds the specified number of times, A deletion request for deleting the information of the stationary object from the data can be transmitted to the base station server. For this reason, the base station server can delete the stationary object information from the map data managed by itself.

以上、本発明の実施の形態に係るナビゲーション装置について説明したが、本発明は、これらの実施の形態に限定されるものではない。   Although the navigation apparatus according to the embodiments of the present invention has been described above, the present invention is not limited to these embodiments.

例えば、上述の実施の形態では、静止対象物を特定施設のマークを用いて例示したが、無論、これ以外のマーク、交通標識、道路標識、さらには信号器等の静止している対象物であってもよい。   For example, in the above-described embodiment, the stationary object is exemplified using the mark of the specific facility. Of course, other stationary objects such as marks, traffic signs, road signs, and traffic lights are used. There may be.

また、十字路のような交差点を例示として用いたが、無論、これ以外のT字路や三叉路、さらには複数分岐した交差点であってもよい。また、道路種別は、優先道路と非優先道路との交差点に限られず、信号機が設置された交差点であってもよいし、複数車線を有する道路の交差点であってもよい。   In addition, although an intersection such as a crossroad is used as an example, it goes without saying that other intersections such as a T-shaped road, a three-way road, and a plurality of branches may be used. The road type is not limited to the intersection between the priority road and the non-priority road, and may be an intersection where a traffic light is installed or an intersection of a road having a plurality of lanes.

さらに、上述の実施の形態では、ナビゲーション装置が二次元の地図データを用いるものとして説明したが、鳥瞰図のような三次元の地図データを用いても、本発明は実現が可能である。   Furthermore, in the above-described embodiment, the navigation apparatus has been described as using two-dimensional map data. However, the present invention can also be realized using three-dimensional map data such as a bird's-eye view.

さらに、上述の実施の形態では、通信制御部によりデータを基地局サーバと送受信しているが、専用の無線通信機を用いることなく、一般的な携帯電話や携帯型端末機器のようなインターネットに接続可能な機器を介して、データを送受信することも可能である。   Furthermore, in the above-described embodiment, the communication control unit transmits / receives data to / from the base station server, but without using a dedicated wireless communication device, it can be connected to the Internet such as a general mobile phone or a portable terminal device. Data can also be transmitted and received via a connectable device.

また、図1を用いて説明したナビゲーション装置のうち、撮像部109と画像処理部110とナビゲーション制御部106とは、1チップLSI(Large Scale Integration:大規模集積回路)で構成されていてもよい。さらに他のブロックにおける他の組み合わせについても同様なことが言える。   In the navigation device described with reference to FIG. 1, the imaging unit 109, the image processing unit 110, and the navigation control unit 106 may be configured by a single chip LSI (Large Scale Integration). . The same applies to other combinations in other blocks.

また、上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクドライブ、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムとして構成されても良い。RAMまたはハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。   Further, each of the above devices may be specifically configured as a computer system including a microprocessor, ROM, RAM, hard disk drive, display unit, keyboard, mouse, and the like. A computer program is stored in the RAM or hard disk drive. Each device achieves its functions by the microprocessor operating according to the computer program. Here, the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.

さらに、上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSIから構成されているとしても良い。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。   Further, some or all of the constituent elements constituting each of the above-described devices may be configured by one system LSI. The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.

さらにまた、上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしても良い。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしても良い。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしても良い。   Furthermore, some or all of the constituent elements constituting each of the above-described devices may be configured from an IC card that can be attached to and detached from each device or a single module. The IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.

また、本発明は、上記に示す方法であるとしても良い。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしても良いし、前記コンピュータプログラムからなるデジタル信号であるとしても良い。   Further, the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.

さらに、本発明は、上記コンピュータプログラムまたは上記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc(登録商標))、半導体メモリなどに記録したものとしても良い。また、これらの記録媒体に記録されている上記デジタル信号であるとしても良い。   Furthermore, the present invention provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). (Registered trademark)), or recorded in a semiconductor memory or the like. Further, the digital signal may be recorded on these recording media.

また、本発明は、上記コンピュータプログラムまたは上記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしても良い。   In the present invention, the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.

また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしても良い。   The present invention may be a computer system including a microprocessor and a memory, wherein the memory stores the computer program, and the microprocessor operates according to the computer program.

また、上記プログラムまたは上記デジタル信号を上記記録媒体に記録して移送することにより、または上記プログラムまたは上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。   In addition, the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and is executed by another independent computer system. It is also good.

さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしても良い。   Furthermore, the above embodiment and the above modification examples may be combined.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明にかかる画像認識方法および画像認識装置は、ナビゲーション機能を備えたコンピュータ装置等において利用することができる。また、ナビゲーション機能に加えて、オーディオ機能やビデオ機能等を含むものであってもよい。また、ナビゲーション機能を備えた車両に限らず移動体全般において利用することができる。   The image recognition method and the image recognition apparatus according to the present invention can be used in a computer apparatus or the like having a navigation function. Further, in addition to the navigation function, an audio function or a video function may be included. Further, it can be used not only for vehicles having a navigation function but also for all moving objects.

ナビゲーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of a navigation apparatus. 画像処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an image process part. 輪郭画素を判断する際に用いられる画素の構成を示す図である。It is a figure which shows the structure of the pixel used when judging a contour pixel. カメラで撮影された画像の一例を示す図である。It is a figure which shows an example of the image image | photographed with the camera. 輪郭成分を抽出したカメラ画像の一例を示す図である。It is a figure which shows an example of the camera image which extracted the outline component. 特定領域を示したカメラ画像の一例を示す図である。It is a figure which shows an example of the camera image which showed the specific area | region. 道路の色差信号のみからなる画像の一例を示す図である。It is a figure which shows an example of the image which consists only of a color difference signal of a road. 認識された道路画像の一例を示す図である。It is a figure which shows an example of the recognized road image. 地図データの一例を示す図である。It is a figure which shows an example of map data. カメラ画像での道路輪郭の屈折している箇所の一例を示す図である。It is a figure which shows an example of the location where the road outline in the camera image is refracting. 道路輪郭ベクトルの一例を示す図である。It is a figure which shows an example of a road outline vector. 地図データでの道路輪郭の屈折している箇所の一例を示す図である。It is a figure which shows an example of the location where the road outline is refracting in map data. カメラ画像での道路輪郭の屈折している箇所の一例を示す図である。It is a figure which shows an example of the location where the road outline in the camera image is refracting. カメラ画像での道路輪郭ベクトルの一例を示す図である。It is a figure which shows an example of the road outline vector in a camera image. カメラ画像での道路輪郭ベクトルの一例を示す図である。It is a figure which shows an example of the road outline vector in a camera image. 座標変換処理を説明するための図である。It is a figure for demonstrating a coordinate transformation process. 画像変形後の地図データの一例を示す図である。It is a figure which shows an example of the map data after image deformation. 道路輪郭ベクトルの一例を示す図である。It is a figure which shows an example of a road outline vector. 画像変形後のカメラ画像の一例を示す図である。It is a figure which shows an example of the camera image after an image deformation | transformation. 静止対象物と地図データの一例を示す図である。It is a figure which shows an example of a stationary object and map data. 静止対象物座標と地図データの一例を示す図である。It is a figure which shows an example of a stationary object coordinate and map data. 画像変形後の、静止対象物座標を含む地図データの一例を示す図である。It is a figure which shows an example of the map data containing a stationary target object coordinate after image deformation. カメラ画像における静止対象物の探索範囲の一例を示す図である。It is a figure which shows an example of the search range of the stationary target object in a camera image. カメラ画像における静止対象物の探索範囲の一例を示す図である。It is a figure which shows an example of the search range of the stationary target object in a camera image. 静止対象物の動きベクトルの一例を示す図である。It is a figure which shows an example of the motion vector of a stationary target object. 本発明の実施の形態1に係る画像変形方法のフローチャートである。It is a flowchart of the image deformation | transformation method which concerns on Embodiment 1 of this invention. 静止対象物とカメラ画像の一例を示す図である。It is a figure which shows an example of a stationary target object and a camera image. 画像変形後の、静止対象物を含むカメラ画像の一例を示す図である。It is a figure which shows an example of the camera image containing a stationary target object after image deformation. 静止対象物が付与された地図データの一例を示す図である。It is a figure which shows an example of the map data to which the stationary target object was provided. 本発明の実施の形態2に係る画像表示方法のフローチャートである。It is a flowchart of the image display method which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る画像表示方法のフローチャートである。It is a flowchart of the image display method which concerns on Embodiment 3 of this invention.

101 通信制御部
102 自立航法制御部
103 GPS制御部
104 道路交通情報受信部
105 音声出力部
106 ナビゲーション制御部
107 地図データ記憶部
108 更新データ記憶部
109 撮像部
110 画像処理部
111 画像合成処理部
112 画像表示処理部
202 輝度信号色差信号分離処理部
203 輝度信号処理部
204 色差信号処理部
205 道路認識処理部
206 注目座標抽出部
208、210 セレクタ
209 座標変換処理部
213 静止対象物認識処理部
DESCRIPTION OF SYMBOLS 101 Communication control part 102 Autonomous navigation control part 103 GPS control part 104 Road traffic information receiving part 105 Audio | voice output part 106 Navigation control part 107 Map data memory | storage part 108 Update data memory | storage part 109 Imaging part 110 Image processing part 111 Image composition process part 112 Image display processing unit 202 Luminance signal color difference signal separation processing unit 203 Luminance signal processing unit 204 Color difference signal processing unit 205 Road recognition processing unit 206 Attention coordinate extraction unit 208, 210 Selector 209 Coordinate conversion processing unit 213 Stationary object recognition processing unit

Claims (13)

車両に取り付けられたカメラで撮影された画像に含まれる静止対象物を認識する画像認識方法であって、
前記カメラが前記車両の外部を撮影することにより生成される画像データより、当該画像データ上での道路の位置を認識する道路認識ステップと、
前記道路認識ステップにおいて認識された前記道路の位置と、前記車両の位置を特定するナビゲーション装置に蓄積された前記車両を所定の視点から見た地図データ上での前記道路の位置とを比較することにより、前記画像データと前記地図データとの間の歪み量を算出する歪み量算出ステップと、
前記歪み量に基づいて、前記画像データおよび前記地図データのいずれか一方を、他方のデータの視点から見たデータに変換する変換ステップと、
前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、両データの互いに対応する位置に静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する静止対象物認識ステップと
を含む画像認識方法。
An image recognition method for recognizing a stationary object included in an image taken by a camera attached to a vehicle,
A road recognition step for recognizing a position of a road on the image data from image data generated by the camera photographing the outside of the vehicle;
Comparing the position of the road recognized in the road recognition step with the position of the road on map data when the vehicle stored in a navigation device for specifying the position of the vehicle is viewed from a predetermined viewpoint. A distortion amount calculating step of calculating a distortion amount between the image data and the map data;
A conversion step of converting either one of the image data and the map data into data viewed from the viewpoint of the other data based on the amount of distortion;
Based on the image data and the map data, one of which has been converted in the conversion step, by determining whether or not a stationary object exists at a position corresponding to each other in the data, A stationary object recognition step of recognizing the stationary object.
前記静止対象物認識ステップは、
前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、前記地図データ上での前記静止対象物の位置に対応する前記画像データ上での位置を含む所定領域を、前記画像データ上での前記静止対象物の探索領域と決定する探索領域決定ステップと、
前記画像データの前記探索領域内に前記静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む
請求項1記載の画像認識方法。
The stationary object recognition step includes:
A predetermined area including a position on the image data corresponding to a position of the stationary object on the map data, based on the image data and the map data, one of which is converted in the conversion step, A search area determination step for determining a search area for the stationary object on the image data;
The image recognition method according to claim 1, further comprising a recognition step of recognizing the stationary object in the image data by determining whether or not the stationary object exists in the search area of the image data. .
前記静止対象物認識ステップは、
前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、前記道路認識ステップで認識された道路の位置を除外した前記画像データの領域を、前記画像データ上での前記静止対象物の探索領域と決定する探索領域決定ステップと、
前記画像データの前記探索領域内に前記静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む
請求項1記載の画像認識方法。
The stationary object recognition step includes:
Based on the image data and the map data, one of which is converted in the conversion step, the area of the image data excluding the road position recognized in the road recognition step is the image data on the image data. A search area determination step for determining a search area for a stationary object; and
The image recognition method according to claim 1, further comprising a recognition step of recognizing the stationary object in the image data by determining whether or not the stationary object exists in the search area of the image data. .
前記静止対象物認識ステップは、
前記変換ステップにおける変換後の前記画像データから道路の輪郭を抽出する道路輪郭抽出ステップと、
時間的に連続する複数の前記画像データであって、かつ前記変換ステップにおける変換後の複数の前記画像データより前記静止対象物を抽出し、前記静止対象物が前記道路の輪郭に沿って移動しているか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む
請求項1記載の画像認識方法。
The stationary object recognition step includes:
A road contour extracting step for extracting a road contour from the image data after the conversion in the converting step;
The stationary object is extracted from a plurality of the image data that are temporally continuous and are converted in the conversion step, and the stationary object moves along the contour of the road. The image recognition method according to claim 1, further comprising: a recognition step of recognizing the stationary object in the image data by determining whether or not the image is present.
前記静止対象物認識ステップは、さらに、前記画像データおよび前記地図データのいずれか一方のみにおいて、前記静止対象物が存在すると判断された場合には、前記地図データの前記静止対象物に関するデータを更新する
請求項1記載の画像認識方法。
The stationary object recognition step further updates data related to the stationary object in the map data when it is determined that the stationary object exists in only one of the image data and the map data. The image recognition method according to claim 1.
前記静止対象物認識ステップでは、前記画像データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記地図データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データに追加する
請求項5記載の画像認識方法。
In the stationary object recognition step, whether or not a condition that the stationary object is detected from the image data and a stationary object corresponding to the detected stationary object is not detected from the map data is satisfied. The image recognition method according to claim 5, wherein when the condition is determined to be satisfied more than a specified number of times, information on the stationary object is added to the map data.
前記静止対象物認識ステップでは、前記地図データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記画像データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データから削除する
請求項5記載の画像認識方法。
In the stationary object recognition step, whether or not a condition that the stationary object is detected from the map data and a stationary object corresponding to the detected stationary object is not detected from the image data is satisfied. The image recognition method according to claim 5, wherein when the condition is determined to be satisfied a specified number of times or more, information on the stationary object is deleted from the map data.
前記静止対象物認識ステップは、さらに、前記画像データおよび前記地図データのいずれか一方のみにおいて、前記静止対象物が存在すると判断された場合には、前記地図データの前記静止対象物に関するデータの更新要求を、前記地図データを管理するサーバに送信する
請求項1記載の画像認識方法。
In the stationary object recognition step, when it is determined that the stationary object exists in only one of the image data and the map data, the map data is updated with respect to the stationary object. The image recognition method according to claim 1, wherein the request is transmitted to a server that manages the map data.
前記静止対象物認識ステップでは、前記画像データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記地図データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データに追加する要求を、前記サーバに送信する
請求項8記載の画像認識方法。
In the stationary object recognition step, whether or not a condition that the stationary object is detected from the image data and a stationary object corresponding to the detected stationary object is not detected from the map data is satisfied. The image recognition method according to claim 8, wherein a request for adding information related to the stationary object to the map data is transmitted to the server when it is determined that the condition is satisfied a specified number of times or more.
前記静止対象物認識ステップでは、前記地図データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記画像データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データから削除する要求を、前記サーバに送信する
請求項8記載の画像認識方法。
In the stationary object recognition step, whether or not a condition that the stationary object is detected from the map data and a stationary object corresponding to the detected stationary object is not detected from the image data is satisfied. The image recognition method according to claim 8, wherein a request for deleting information related to the stationary object from the map data is transmitted to the server when it is determined that the condition is satisfied a specified number of times or more.
さらに、前記サーバより、更新後の地図データを受信する受信ステップを含む
請求項8記載の画像認識方法。
The image recognition method according to claim 8, further comprising a receiving step of receiving updated map data from the server.
車両に取り付けられたカメラで撮影された画像に含まれる静止対象物を認識する画像認識装置であって、
前記カメラが前記車両の外部を撮影することにより生成される画像データより、当該画像データ上での道路の位置を認識する道路認識部と、
前記道路認識部において認識された前記道路の位置と、前記車両の位置を特定するナビゲーション装置に蓄積された前記車両を所定の視点から見た地図データ上での前記道路の位置とを比較することにより、前記画像データと前記地図データとの間の歪み量を算出する歪み量算出部と、
前記歪み量に基づいて、前記画像データおよび前記地図データのいずれか一方を、他方のデータの視点から見たデータに変換する変換部と、
前記変換部においていずれか一方が変換された前記画像データおよび前記地図データに基づいて、両データの互いに対応する位置に静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する静止対象物認識部と
を含む画像認識装置。
An image recognition device for recognizing a stationary object included in an image taken by a camera attached to a vehicle,
A road recognition unit that recognizes a position of a road on the image data from image data generated by the camera photographing the outside of the vehicle;
Comparing the position of the road recognized by the road recognition unit with the position of the road on map data when the vehicle stored in a navigation device for specifying the position of the vehicle is viewed from a predetermined viewpoint. A distortion amount calculation unit that calculates a distortion amount between the image data and the map data,
Based on the distortion amount, a conversion unit that converts any one of the image data and the map data into data viewed from the viewpoint of the other data;
Based on the image data and the map data, one of which is converted by the conversion unit, by determining whether or not a stationary object exists at a position corresponding to each other, An image recognition apparatus comprising: a stationary object recognition unit that recognizes the stationary object.
車両に取り付けられたカメラで撮影された画像に含まれる静止対象物を認識するプログラムであって、
前記カメラが前記車両の外部を撮影することにより生成される画像データより、当該画像データ上での道路の位置を認識する道路認識ステップと、
前記道路認識ステップにおいて認識された前記道路の位置と、前記車両の位置を特定するナビゲーション装置に蓄積された前記車両を所定の視点から見た地図データ上での前記道路の位置とを比較することにより、前記画像データと前記地図データとの間の歪み量を算出する歪み量算出ステップと、
前記歪み量に基づいて、前記画像データおよび前記地図データのいずれか一方を、他方のデータの視点から見たデータに変換する変換ステップと、
前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、両データの互いに対応する位置に静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する静止対象物認識ステップと
をコンピュータに実行させるためのプログラム。
A program for recognizing a stationary object included in an image taken by a camera attached to a vehicle,
A road recognition step for recognizing a position of a road on the image data from image data generated by the camera photographing the outside of the vehicle;
Comparing the position of the road recognized in the road recognition step with the position of the road on map data when the vehicle stored in a navigation device for specifying the position of the vehicle is viewed from a predetermined viewpoint. A distortion amount calculating step of calculating a distortion amount between the image data and the map data;
A conversion step of converting either one of the image data and the map data into data viewed from the viewpoint of the other data based on the amount of distortion;
Based on the image data and the map data, one of which has been converted in the conversion step, by determining whether or not a stationary object exists at a position corresponding to each other in the data, A program for causing a computer to execute the stationary object recognition step for recognizing the stationary object.
JP2009022018A 2009-02-02 2009-02-02 Image recognition method and image recognition device Pending JP2010176645A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009022018A JP2010176645A (en) 2009-02-02 2009-02-02 Image recognition method and image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009022018A JP2010176645A (en) 2009-02-02 2009-02-02 Image recognition method and image recognition device

Publications (1)

Publication Number Publication Date
JP2010176645A true JP2010176645A (en) 2010-08-12

Family

ID=42707509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009022018A Pending JP2010176645A (en) 2009-02-02 2009-02-02 Image recognition method and image recognition device

Country Status (1)

Country Link
JP (1) JP2010176645A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113160581A (en) * 2020-01-23 2021-07-23 宝马股份公司 Method and device for recognizing road condition change
JP2021124633A (en) * 2020-02-06 2021-08-30 トヨタ自動車株式会社 Map generation system and map generation program
US11408740B2 (en) 2016-05-30 2022-08-09 Mitsubishi Electric Corporation Map data update apparatus, map data update method, and computer readable medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11408740B2 (en) 2016-05-30 2022-08-09 Mitsubishi Electric Corporation Map data update apparatus, map data update method, and computer readable medium
CN113160581A (en) * 2020-01-23 2021-07-23 宝马股份公司 Method and device for recognizing road condition change
CN113160581B (en) * 2020-01-23 2023-05-23 宝马股份公司 Method and device for recognizing road condition change
JP2021124633A (en) * 2020-02-06 2021-08-30 トヨタ自動車株式会社 Map generation system and map generation program
JP7238821B2 (en) 2020-02-06 2023-03-14 トヨタ自動車株式会社 Map generation system and map generation program

Similar Documents

Publication Publication Date Title
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
WO2009087716A1 (en) Image transformation method, image display method, image transformation apparatus and image display apparatus
JP4309920B2 (en) Car navigation system, road marking identification program, and road marking identification method
US9410810B2 (en) Method and apparatus for providing service using a sensor and image recognition in a portable terminal
KR101147748B1 (en) A mobile telecommunication device having a geographic information providing function and the method thereof
KR100873474B1 (en) Vehicle location estimation device and method using pixel size and location of traffic facilities on image
US8103442B2 (en) Navigation device and its method
US20060228000A1 (en) Image recognition apparatus and image recognition method
US20170236015A1 (en) Image processing device, alarming apparatus, image processing system, and image processing method
US11815359B2 (en) Method, device and system for processing positioning information
CN103398717A (en) Panoramic map database acquisition system and vision-based positioning and navigating method
JPH10339646A (en) Guide display system for car
JP2013154730A (en) Apparatus and method for processing image, and parking support system
CN110998684B (en) Image collection system, image collection method, image collection device, and recording medium
JPH09243389A (en) On-vehicle navigation system
US20140002655A1 (en) Lane departure warning system and lane departure warning method
CN109883433B (en) Vehicle positioning method in structured environment based on 360-degree panoramic view
JP2011152865A (en) On-vehicle image pickup device
WO2009084129A1 (en) Navigation device
JP4852905B2 (en) Image processing apparatus and image processing method
WO2016031229A1 (en) Road map creation system, data processing device, and on-board device
CN110895821A (en) Image processing device, storage medium storing image processing program, and driving support system
JP2014106739A (en) In-vehicle image processing device
JP2014106740A (en) In-vehicle parking frame recognizing device
JP2010176645A (en) Image recognition method and image recognition device