JP2010176645A - Image recognition method and image recognition device - Google Patents
Image recognition method and image recognition device Download PDFInfo
- Publication number
- JP2010176645A JP2010176645A JP2009022018A JP2009022018A JP2010176645A JP 2010176645 A JP2010176645 A JP 2010176645A JP 2009022018 A JP2009022018 A JP 2009022018A JP 2009022018 A JP2009022018 A JP 2009022018A JP 2010176645 A JP2010176645 A JP 2010176645A
- Authority
- JP
- Japan
- Prior art keywords
- stationary object
- image
- data
- map data
- road
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両外部を撮影した画像より静止対象物の認識を行うための画像認識方法および画像認識装置に関する。 The present invention relates to an image recognition method and an image recognition apparatus for recognizing a stationary object from an image taken from the outside of a vehicle.
近年、デジタル技術の進歩と自動車の普及に伴い、ナビゲーション装置の技術は急速に進歩している。ナビゲーション装置は、ナビゲーション装置に保持された地図データに基づき、予め設定した目的地までの最適な誘導経路を求める。その上で、自車両の走行に伴い、経路中の交差点等の重要地点で、左折または右折の案内をディスプレイに表示させるものである。 In recent years, with the advancement of digital technology and the spread of automobiles, the technology of navigation devices has rapidly advanced. The navigation device obtains an optimum guidance route to a preset destination based on the map data held in the navigation device. In addition, as the vehicle travels, guidance for turning left or right is displayed on the display at important points such as intersections in the route.
また、ナビゲーション装置は、ディスプレイに表示する地図上に、各種施設を特定できる看板、道路交通標識および案内標識などを表示する。 In addition, the navigation device displays a signboard, road traffic sign, guide sign, and the like that can identify various facilities on a map displayed on the display.
しかし、実際にはナビゲーション装置の出荷後に、新しい看板または標識等が道路上に設置され、ナビゲーション装置のメモリに格納された地図データが常に最新のものであるとは限らないという課題があった。 However, in reality, after the navigation device is shipped, a new signboard or sign is installed on the road, and the map data stored in the memory of the navigation device is not always the latest.
これに対し、地図データを自動的に更新することにより、地図データを常に最新のものに維持するカーナビゲーション技術が知られている(例えば、特許文献1参照)。この方法は、走行する車両に取り付けられたカメラによって撮影された画像からランドマークを検出し、検出されたランドマークの位置を推定し、推定された位置を含む所定の範囲内に、検出されたランドマークに対応する地図上のランドマークが存在するか否かを判断し、地図上にランドマークが存在しないと判定された場合には検出されたランドマークを地図上に追加するものである。
しかしながら、カメラによって撮影された画像と、地図とでは、視点が異なる。このため、カメラによって撮影された画像から検出されたランドマーク等の静止対象物が、地図上に存在するか否かを正確に判断できないという課題がある。 However, the viewpoint differs between the image photographed by the camera and the map. For this reason, there exists a subject that it cannot judge correctly whether stationary objects, such as a landmark detected from the picture photoed with the camera, exist on a map.
このような課題に伴い、検出されたランドマーク等の静止対象物が、正確に該当する位置として地図上に追加されるとは限らないという課題もある。 Along with such a problem, there is a problem that a stationary object such as a detected landmark is not always added to the map as a corresponding position.
本発明は、上述の課題に鑑みてなされたものであり、走行する車両に取り付けられたカメラが撮影した画像中から、静止対象物を正確に認識することができる画像認識方法を提供することを目的とする。 The present invention has been made in view of the above-described problems, and provides an image recognition method capable of accurately recognizing a stationary object from images captured by a camera attached to a traveling vehicle. Objective.
また、走行する車両に取り付けられたカメラが撮影した画像中から検出されたランドマーク等の静止対象物を、ナビゲーション装置が備える地図データ上の正確な位置に追加したり、存在しない静止対象物を地図データ上から削除したりすることができる画像認識方法を提供することも目的とする。 In addition, a stationary object such as a landmark detected from an image captured by a camera attached to a traveling vehicle is added to an accurate position on map data provided in the navigation device, or a stationary object that does not exist is added. It is another object of the present invention to provide an image recognition method that can be deleted from map data.
上記目的を達成するために、本発明に係る画像認識方法は、車両に取り付けられたカメラで撮影された画像に含まれる静止対象物を認識する画像認識方法であって、前記カメラが前記車両の外部を撮影することにより生成される画像データより、当該画像データ上での道路の位置を認識する道路認識ステップと、前記道路認識ステップにおいて認識された前記道路の位置と、前記車両の位置を特定するナビゲーション装置に蓄積された前記車両を所定の視点から見た地図データ上での前記道路の位置とを比較することにより、前記画像データと前記地図データとの間の歪み量を算出する歪み量算出ステップと、前記歪み量に基づいて、前記画像データおよび前記地図データのいずれか一方を、他方のデータの視点から見たデータに変換する変換ステップと、前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、両データの互いに対応する位置に静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する静止対象物認識ステップとを含む。 In order to achieve the above object, an image recognition method according to the present invention is an image recognition method for recognizing a stationary object included in an image captured by a camera attached to a vehicle, wherein the camera The road recognition step for recognizing the position of the road on the image data, the position of the road recognized in the road recognition step, and the position of the vehicle are identified from image data generated by photographing the outside. A distortion amount for calculating a distortion amount between the image data and the map data by comparing the position of the road on the map data when the vehicle stored in the navigation device is viewed from a predetermined viewpoint Based on the calculation step and the amount of distortion, one of the image data and the map data is converted into data viewed from the viewpoint of the other data. Determining whether there is a stationary object at a position corresponding to each other based on the image data and the map data, one of which is converted in the step and the converting step, A stationary object recognition step for recognizing the stationary object in the data.
この構成によると、画像データの道路位置と地図データの道路位置とを比較することにより、両データの歪み量を求めている。道路位置自体は、静止対象物に比べて変化しにくく、道路が交差する位置等では、注目座標が抽出しやすい。このため、歪み量を正確に算出することが可能となる。よって、この歪み量に基づいて、画像変換を行い、両データにおいて静止対象物が存在するか否かを判断することによって、静止対象物を正確に認識することが可能となる。 According to this configuration, the distortion amount of both data is obtained by comparing the road position of the image data with the road position of the map data. The road position itself is less likely to change than a stationary object, and the coordinates of interest are easily extracted at a position where the road intersects. For this reason, it becomes possible to calculate the amount of distortion accurately. Therefore, it is possible to accurately recognize a stationary object by performing image conversion based on this distortion amount and determining whether or not a stationary object exists in both data.
好ましくは、前記静止対象物認識ステップは、前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、前記地図データ上での前記静止対象物の位置に対応する前記画像データ上での位置を含む所定領域を、前記画像データ上での前記静止対象物の探索領域と決定する探索領域決定ステップと、前記画像データの前記探索領域内に前記静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む。 Preferably, in the stationary object recognition step, the image corresponding to the position of the stationary object on the map data based on the image data and the map data, one of which is converted in the conversion step. A search area determining step for determining a predetermined area including a position on the data as a search area for the stationary object on the image data; and whether the stationary object exists in the search area of the image data And recognizing the stationary object in the image data by determining whether or not.
このような画像認識方法により、カメラ画像から静止対象物が存在しうる領域を優先して探索することができる。 By such an image recognition method, it is possible to preferentially search an area where a stationary object can exist from a camera image.
さらに好ましくは、前記静止対象物認識ステップは、前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、前記道路認識ステップで認識された道路の位置を除外した前記画像データの領域を、前記画像データ上での前記静止対象物の探索領域と決定する探索領域決定ステップと、前記画像データの前記探索領域内に前記静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む。 More preferably, the stationary object recognition step excludes the position of the road recognized in the road recognition step based on the image data and the map data, one of which is converted in the conversion step. A search area determining step for determining an area of data as a search area for the stationary object on the image data; and determining whether or not the stationary object exists in the search area of the image data. And recognizing the stationary object in the image data.
このような画像認識方法により、カメラ画像から一部の領域(道路領域)除外した領域を優先して静止対象物を探索することができる。 By such an image recognition method, it is possible to search for a stationary object by giving priority to an area that is excluded from a part of the area (road area) from the camera image.
さらに好ましくは、前記静止対象物認識ステップは、前記変換ステップにおける変換後の前記画像データから道路の輪郭を抽出する道路輪郭抽出ステップと、時間的に連続する複数の前記画像データであって、かつ前記変換ステップにおける変換後の複数の前記画像データより前記静止対象物を抽出し、前記静止対象物が前記道路の輪郭に沿って移動しているか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む。 More preferably, the stationary object recognition step includes a road contour extraction step for extracting a road contour from the image data after the conversion in the conversion step, and a plurality of the image data temporally continuous, and Extracting the stationary object from the plurality of image data after conversion in the conversion step, and determining whether the stationary object is moving along the contour of the road, Recognizing the stationary object.
道路輪郭に沿って、静止対象物が存在するという条件を用いることにより、静止対象物を正確に認識することが可能となる。また、検出された静止対象物に対して動き補償を行うことができる。 By using the condition that the stationary object exists along the road contour, the stationary object can be accurately recognized. Further, motion compensation can be performed on the detected stationary object.
さらに好ましくは、前記静止対象物認識ステップは、さらに、前記画像データおよび前記地図データのいずれか一方のみにおいて、前記静止対象物が存在すると判断された場合には、前記地図データの前記静止対象物に関するデータを更新する。 More preferably, the stationary object recognition step further includes the stationary object of the map data when it is determined that the stationary object exists only in either one of the image data and the map data. Update data about.
このような画像認識方法により、ランドマーク等の静止対象物を、ナビゲーション装置が備える地図データ上の正確な位置に追加したり、存在しない静止対象物を地図データ上から削除したりすることができる。よって、ナビゲーション装置で用いられる地図データを最新のものに更新することができる。 By such an image recognition method, a stationary object such as a landmark can be added to an accurate position on the map data provided in the navigation device, or a non-existing stationary object can be deleted from the map data. . Therefore, the map data used in the navigation device can be updated to the latest one.
さらに好ましくは、前記静止対象物認識ステップでは、前記画像データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記地図データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データに追加する。 More preferably, in the stationary object recognition step, a condition that the stationary object is detected from the image data and a stationary object corresponding to the detected stationary object is not detected from the map data is satisfied. If it is determined that the condition is satisfied a specified number of times or more, information on the stationary object is added to the map data.
上記条件が指定回数以上満たされるか否かを判断することにより、静止対象物のご認識を防止することができ、精度よく静止対象物に関する情報を地図データに追加することができる。 By determining whether or not the above condition is satisfied a specified number of times or more, recognition of a stationary object can be prevented, and information regarding the stationary object can be accurately added to the map data.
さらに好ましくは、前記静止対象物認識ステップでは、前記地図データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記画像データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データから削除する。 More preferably, in the stationary object recognition step, a condition that the stationary object is detected from the map data and a stationary object corresponding to the detected stationary object is not detected from the image data is satisfied. If it is determined that the condition is satisfied a specified number of times or more, information on the stationary object is deleted from the map data.
上記条件が指定回数以上満たされるか否かを判断することにより、静止対象物のご認識を防止することができ、精度よく静止対象物に関する情報を地図データから削除することができる。 By determining whether or not the above condition is satisfied a specified number of times or more, recognition of a stationary object can be prevented, and information regarding the stationary object can be accurately deleted from the map data.
さらに好ましくは、前記静止対象物認識ステップは、さらに、前記画像データおよび前記地図データのいずれか一方のみにおいて、前記静止対象物が存在すると判断された場合には、前記地図データの前記静止対象物に関するデータの更新要求を、前記地図データを管理するサーバに送信する。 More preferably, the stationary object recognition step further includes the stationary object of the map data when it is determined that the stationary object exists only in either one of the image data and the map data. A data update request is transmitted to the server that manages the map data.
地図データをサーバが管理している場合には、ランドマーク等の静止対象物を、サーバが備える地図データ上の正確な位置に追加したり、存在しない静止対象物を地図データ上から削除したりすることができる。よって、サーバで管理される地図データを最新のものに更新することができる。 When the map data is managed by the server, stationary objects such as landmarks are added to the exact location on the map data provided by the server, or stationary objects that do not exist are deleted from the map data. can do. Therefore, the map data managed by the server can be updated to the latest one.
さらに好ましくは、前記静止対象物認識ステップでは、前記画像データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記地図データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データに追加する要求を、前記サーバに送信する。 More preferably, in the stationary object recognition step, a condition that the stationary object is detected from the image data and a stationary object corresponding to the detected stationary object is not detected from the map data is satisfied. If it is determined that the condition is satisfied a specified number of times or more, a request for adding information on the stationary object to the map data is transmitted to the server.
上記条件が指定回数以上満たされるか否かを判断することにより、静止対象物のご認識を防止することができ、精度よく静止対象物に関する情報をサーバが管理する地図データに追加することができる。 By determining whether or not the above condition is satisfied a specified number of times or more, recognition of a stationary object can be prevented, and information regarding the stationary object can be accurately added to the map data managed by the server. .
さらに好ましくは、前記静止対象物認識ステップでは、前記地図データより前記静止対象物が検出され、かつ検出された前記静止対象物に対応する静止対象物が前記画像データより検出されないとの条件が満たされるか否かを判断し、当該条件が指定回数以上満たされたと判断した場合には、前記静止対象物に関する情報を前記地図データから削除する要求を、前記サーバに送信する。 More preferably, in the stationary object recognition step, a condition that the stationary object is detected from the map data and a stationary object corresponding to the detected stationary object is not detected from the image data is satisfied. And when it is determined that the condition is satisfied a specified number of times or more, a request to delete the information related to the stationary object from the map data is transmitted to the server.
上記条件が指定回数以上満たされるか否かを判断することにより、静止対象物のご認識を防止することができ、精度よく静止対象物に関する情報をサーバが管理する地図データから削除することができる。 By determining whether or not the above condition is satisfied a specified number of times or more, recognition of a stationary object can be prevented, and information regarding the stationary object can be accurately deleted from the map data managed by the server. .
さらに好ましくは、上述の画像認識方法は、さらに、前記サーバより、更新後の地図データを受信する受信ステップを含む。 More preferably, the above-described image recognition method further includes a receiving step of receiving updated map data from the server.
これにより、ナビゲーション装置は、最新の地図データを車両の運転者に提示することが可能となる。 As a result, the navigation device can present the latest map data to the driver of the vehicle.
なお、本発明は、このような特徴的なステップを含む画像認識方法として実現することができるだけでなく、画像認識方法に含まれる特徴的なステップを処理部とする画像認識装置として実現することができる。また、画像認識方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムは、CD−ROM(Compact Disc-Read Only Memory)等の記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは言うまでもない。 The present invention can be realized not only as an image recognition method including such characteristic steps, but also as an image recognition apparatus using the characteristic steps included in the image recognition method as a processing unit. it can. It can also be realized as a program that causes a computer to execute characteristic steps included in the image recognition method. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet.
本発明によると、走行する車両に取り付けられたカメラが撮影した画像中から、静止対象物を正確に認識することができる。 According to the present invention, a stationary object can be accurately recognized from an image taken by a camera attached to a traveling vehicle.
また、走行する車両に取り付けられたカメラが撮影した画像中から検出されたランドマーク等の静止対象物を、ナビゲーション装置が備える地図データ上の正確な位置に追加したり、存在しない静止対象物を地図データ上から削除したりすることができる。 In addition, a stationary object such as a landmark detected from an image captured by a camera attached to a traveling vehicle is added to an accurate position on map data provided in the navigation device, or a stationary object that does not exist is added. It can be deleted from the map data.
以下、本発明を実施するための最良の形態について、図面を参照しながら説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
なお、以下の実施の形態では、ハードウェアおよびソフトウェアの実施態様は各種変更可能である。このため、まず、各実施の形態に共通するナビゲーション装置の構成について説明し、その後に、各実施の形態について説明する。なお、以下の各実施の形態は、特許発明を限定するものではなく、各実施の形態で説明されている特徴の全てが、発明の必須構成要件とは限らない。 In the following embodiments, various modifications can be made to the hardware and software implementations. Therefore, first, the configuration of the navigation device common to each embodiment will be described, and then each embodiment will be described. The following embodiments do not limit the patented invention, and all the features described in the embodiments are not necessarily essential constituent elements of the invention.
図1は、ナビゲーション装置の構成を示す機能ブロック図である。 FIG. 1 is a functional block diagram showing the configuration of the navigation device.
本ナビゲーション装置は、自動車などの車両に取り付けられ、ランドマーク等の静止対象物の情報を、あらかじめ用意された地図データに基づいて探索および設定し、その該当位置を示した地図データを表示する装置であり、通信制御部101と、自立航法制御部102と、GPS(Global Positioning System)制御部103と、道路交通情報受信部104と、音声出力部105と、ナビゲーション制御部106と、地図データ記憶部107と、更新データ記憶部108と、撮像部109と、画像処理部110と、画像合成処理部111と、画像表示処理部112とを含む。
This navigation device is attached to a vehicle such as an automobile, searches for and sets information on stationary objects such as landmarks based on map data prepared in advance, and displays map data indicating the corresponding position. A
通信制御部101は、無線または有線によるデータ通信を制御する。なお、通信機能は、ナビゲーション装置に内蔵されていても良いし、外部に設けられていてもよい。例えば、通信機能を有する携帯電話などの移動体通信端末と通信制御部101とが接続され、移動体通信端末を介してデータ通信を行うものであってもよい。このような構成により、ユーザは、通信制御部101を介して外部サーバへアクセスすることが可能となる。
The
自立航法制御部102は、自車両の移動速度を検出する車速度センサや自車両の回転角度を検出する角度センサなどからなる。
The self-contained
GPS制御部103は、GPS受信機によって地球の高度約2万kmにおける所定の軌道に複数個配置された人工衛星(GPS衛星)から伝送されるGPS電波を受信し、GPS信号に含まれた情報を利用して地球上での自車両の現在位置と現在方位を測定する。
The
道路交通情報受信部104は、外部アンテナを介して自車両外部の現在の道路交通情報を逐次受信する。
The road traffic
ナビゲーション制御部106は、本ナビゲーション装置の各処理部を制御する制御回路の役割を果たす。
The
地図データ記憶部107は、本装置の動作に必要な各種データを記憶しているメモリであり、予め記録された地図データおよびランドマーク等の静止対象物や施設データなどに関する各種データを保持する。必要な地図データをナビゲーション制御部106から読み出される。ここにおける地図データ記憶部107におけるメモリは、CD−ROM、DVD−ROMまたはハードディスクドライブ(HDD)であってもよい。
The map
更新データ記憶部108は、地図データ記憶部107に記憶されている地図データと、その地図データからから更新された地図データとの差分を示す更新データを記憶しているメモリである。更新データは、ナビゲーション制御部106により設定される。
The update
音声出力部105は、スピーカを含み、例えば、経路誘導時に交差点案内などの音声を出力する。
The
撮像部109は、自車両の前方に設置された、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子を備えたカメラである。
The
画像処理部110は、撮像部109から出力される画像データを、他の形式の画像データに変換する。また、画像処理部110は、ナビゲーション制御部106から地図データを入力として受け、地図データに対して画像処理を施す。さらに、画像処理部110は、ナビゲーション制御部106から静止対象物情報(静止対象物の位置情報および静止対象物の画像情報を含む情報)を受け、静止対象物情報に対して画像処理を施し、画像処理を行った結果の静止対象物情報をナビゲーション制御部106へ出力する。
The
画像合成処理部111は、自車両の現在位置を含む地図データを、ナビゲーション制御部106から入力として受け、画像処理部110から出力されるカメラ画像(撮像部109で撮像された画像)と合成する。
The image
そして、画像表示処理部112により、画像合成処理部111により合成された後の画像データをナビゲーション装置のディスプレイ等に表示する。
Then, the image
(実施の形態1)
本発明の実施の形態1に係るナビゲーション装置について、図面を参照しながら説明する。
(Embodiment 1)
A navigation apparatus according to
ナビゲーション装置の全体構成は、図1を参照して説明した通りである。 The overall configuration of the navigation device is as described with reference to FIG.
図2は、画像処理部110の詳細な内部構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a detailed internal configuration of the
画像処理部110は、輝度信号色差信号分離処理部202と、輝度信号処理部203と、色差信号処理部204と、道路認識処理部205と、注目座標抽出部206と、セレクタ208と、座標変換処理部209と、セレクタ210と、静止対象物認識処理部213とを含む。
The
以下、画像処理部110を構成する各処理部について説明する。
Hereinafter, each processing unit constituting the
<輝度信号色差信号分離処理部202>
輝度信号色差信号分離処理部202は、撮像部109からカメラ画像の画像データを入力として受ける。輝度信号色差信号分離処理部202は、撮像部109から、赤(R)・緑(G)・青(B)の三色(光の三原色)からなる画像データを入力として受けた場合には、一般的な色空間変換式(次式(1)〜(3))を用いて、YUV色形式の画像データに変換する。
<Luminance Signal Color Difference Signal
The luminance signal color difference signal
Y=0.29891×R+0.58661×G+0.11448×B … (1)
U=−0.16874×R−0.33126×G+0.50000×B …(2)
V=0.50000×R−0.41869×G−0.08131×B …(3)
Y = 0.29891 × R + 0.58661 × G + 1.14848 × B (1)
U = −0.16874 × R−0.33126 × G + 0.50000 × B (2)
V = 0.50,000 × R−0.41869 × G−0.0811 × B (3)
また、次式(4)〜(6)を用いて、ITU−R BT.601に規定のYCbCr色形式の画像データに変換してもよい。 Also, using the following equations (4) to (6), ITU-R BT. The image data may be converted into image data in the YCbCr color format defined in 601.
Y=0.257R+0.504G+0.098B+16 …(4)
Cb=−0.148R−0.291G+0.439B+128 …(5)
Cr=0.439R−0.368G−0.071B+128 …(6)
Y = 0.257R + 0.504G + 0.098B + 16 (4)
Cb = −0.148R−0.291G + 0.439B + 128 (5)
Cr = 0.439R−0.368G−0.071B + 128 (6)
ここで、Yは、輝度信号(明るさ)を示し、Cb(U)は、青の差分信号、Cr(V)は、赤の差分信号を示す。また、撮像部109からシアン(C)・マゼンタ(M)・イエロー(Y)の三色(色料の三原色)からなる画像データを入力として受けた場合には、輝度信号色差信号分離処理部202は、一般的な変換式(次式(7)〜(9))を用いて、RGB形式の画像データに変換した後、式(1)〜(3)、または式(4)〜(6)を用いて、YUV形式、またはYCbCr形式の画像データへの変換を行う。輝度信号色差信号分離処理部202は、変換後の画像データを出力する。
Here, Y indicates a luminance signal (brightness), Cb (U) indicates a blue differential signal, and Cr (V) indicates a red differential signal. Further, when image data including three colors of cyan (C), magenta (M), and yellow (Y) (the three primary colors) is received as an input from the
R=1.0−C …(7)
G=1.0−M …(8)
B=1.0−Y …(9)
R = 1.0-C (7)
G = 1.0-M (8)
B = 1.0−Y (9)
また、撮像部109からYUV形式の画像データ入力される場合、輝度信号色差信号分離処理部202は特に画像データの変換は行わず、YUVの信号分離だけを行う。
In addition, when YUV format image data is input from the
<輝度信号処理部203>
輝度信号処理部203は、輝度信号色差信号分離処理部202から出力される輝度信号(Y)の画像データを入力として受け、輝度に応じた信号処理を行い、出力する。さらに、輝度信号処理部203は、輪郭画素の判定処理を行う。例えば、簡易的に注目画素の周辺の8画素を用いて、注目画素が輪郭画素か否かの判定を行ってもよい。つまり、図3に示すように、3×3の注目画素D35と、その周辺の8画素D31〜D34およびD36〜D39を考える。注目画素D35の輝度と、周辺画素D31〜D34およびD36〜D39のそれぞれ輝度とを比較し、輝度差の絶対値の和が予め設定した値よりも大きければ、注目画素D35を輪郭画素として判断する。図3に示すような3×3のウィンドウを、輝度信号色差信号分離処理部202から出力される画像データ上で走査することにより、画像データの各画素について輪郭画素の判定処理を行う。例えば、図4のようなカメラ画像の画像データが入力された場合、輝度情報を基に輪郭画素を抽出すると、図5のような画像データに変換される。図5に示す画像データにおいて、黒い画素が、輪郭画素である。
<Luminance
The luminance
<色差信号処理部204>
色差信号処理部204は、輝度信号色差信号分離処理部202から出力される色差信号を入力として受け、色差に応じた信号処理を行い、出力する。さらに、色差信号処理部204は、予め設定した特定領域と同等の色差を有する画素の判定処理を行う。例えば、色差信号処理部204は、自車両が走行している道路の色差を認識する。つまり、撮像部109が自車両の前方中央に設置されている場合、自車両は必ず道路上に存在しているため、カメラ画像の下方中央は道路である。よって、図6に示すカメラ画像に対し、特定領域A601を下方中央に設定する。色差信号処理部204は、特定領域A601を代表する色差を算出する。例えば、色差の平均値を代表する色差としてもよい。色差信号処理部204は、カメラ画像の画像データの中から、算出された色差と同等の色差を有する画素を、特定領域A601と同等の色差を有する画素として特定する。その結果、図7に示すような道路の色差信号のみからなる画像データが得られる。道路の色差信号からなる領域を、道路色差信号領域A701とする。
<Color difference
The color difference
<道路認識処理部205>
道路認識処理部205は、輝度信号処理部203からの輪郭成分の画像データと、色差信号処理部204からの色差成分の画像データとを入力として受ける。例えば、道路認識処理部205は、図5に示す輪郭成分の画像データと、図7に示す色差信号の画像データとを入力として受ける。この場合、道路認識処理部205は、道路色差信号領域A701に隣接している輪郭成分の画像信号、または道路色差信号領域A701に隣接はしないが隣接に順ずる輪郭成分の画像信号(道路色差信号領域A701から所定距離内にある輪郭成分の画像信号)を認識し、該当する輪郭画素のみを抽出する。そして、輪郭画素と、道路色差信号領域A701とを合成し、合成した結果を道路画像データとして認識することで、図8に示すような道路画像データを出力する。これにより、自車両から外部の画像を撮像するカメラの画像から道路を認識することができる。
<Road
The road
<注目座標抽出部206>
注目座標抽出部206は、道路認識処理部205で認識された道路画像データ(図8)と、ナビゲーション制御部106から地図データ(図9)とを入力として受ける。まず、注目座標抽出部206は、道路画像データにおいて、道路輪郭の屈折している箇所を算出し、検出箇所を交差点としての注目点として検知する。例えば、図10に示すように座標P1001〜座標P1004の箇所が注目点として検出される。
<Attention coordinate
The attention coordinate
次に、道路画像データ上の道路輪郭の屈折箇所の算出方法について説明する。図10を参照して、基線L1005に基づいて道路画像データを左右に分ける。左側の道路画像データにおいて道路輪郭のベクトル(道路輪郭ベクトル)V1006を求める。これは、遠近法に基づき、図11におけるベクトルV1102のように第一象限の方向ベクトルに限る。また、右側の道路画像データにおいて道路輪郭のベクトルV1007を求める。これは、遠近法に基づき、図11におけるベクトルV1101のように第二象限の方向ベクトルに限る。ベクトルの求め方は、道路輪郭の画素を並びに対して、線形近似直線を算出することで求めることができる。これら、ベクトルV1006とベクトルV1007とにそれぞれ順ずる(ベクトルV1006とベクトルV1007とにそれぞれ連続する)道路輪郭の屈折する輪郭座標を注目点として算出する。 Next, a method for calculating the refracted portion of the road contour on the road image data will be described. Referring to FIG. 10, road image data is divided into left and right based on a base line L1005. A road contour vector (road contour vector) V1006 is obtained from the road image data on the left side. This is based on the perspective method and limited to the direction vector in the first quadrant as the vector V1102 in FIG. Also, a road contour vector V1007 is obtained from the right road image data. This is based on the perspective method and limited to the direction vector in the second quadrant as the vector V1101 in FIG. The vector can be obtained by calculating a linear approximation straight line with respect to the pixels of the road outline. The refracting contour coordinates of the road contour that follow the vector V1006 and the vector V1007 (continuous to the vector V1006 and the vector V1007, respectively) are calculated as the attention points.
また、注目座標抽出部206は、図12に示す地図データにおいても同様に、道路輪郭の屈折している箇所を算出し、該当する座標P1201〜座標P1204を交差点としての注目点として検知する。次に、地図データ上の道路輪郭の屈折箇所の算出方法について説明する。図12を参照して、基線L1205に基づいて、地図データを左右に分ける。左側の地図データにおいて道路輪郭のベクトルV1206を求める。これは、図11におけるベクトルV1102のように第一象限の方向ベクトルに限る。また、右側の地図データにおいて道路輪郭のベクトルV1207を求める。これは、図11におけるベクトルV1101のように第二象限の方向ベクトルに限る。これら、ベクトルV1206とベクトルV1207とにそれぞれ順ずる(ベクトルV1206とベクトルV1207とにそれぞれ連続する)道路輪郭の屈折する輪郭座標(座標P1201〜座標P1204)を注目点の座標として算出する。そして、注目座標抽出部206は、カメラ画像と地図データの各々について算出された注目点の座標を出力する。
Similarly, the attention coordinate
このように2次元の地図データを例としてあげたが、3次元の地図データでも同様の処理で注目点を算出することができる。 As described above, the two-dimensional map data is taken as an example, but the attention point can be calculated by the same processing with the three-dimensional map data.
しかし、他車両、障害物等が算出すべき注目点に存在した場合には、注目座標抽出部206は、道路画像データにおける交差点としての注目点を検知することができない。例えば、図13に示すように、道路画像データにおいて、4つある注目点の座標のうち、2つの座標P1002、P1003しか検知することができない。このような場合には、以下の方法により交差点座標を算出してもよい。
However, when another vehicle, an obstacle, or the like exists at the point of interest to be calculated, the point-of-
つまり、図14に示すように、道路輪郭のベクトルV1006、V1007、V1407、V1408と、交差点座標P1002、P1003とに基づいて、方向ベクトルV1409、V1410を用いて交差点座標P1403を算出する。ここで、方向ベクトルV1409は、ベクトルV1006と同じ向きであり、始点が座標P1003のベクトルである。方向ベクトルV1410は道路輪郭ベクトルV1407に対し、逆ベクトルであり、始点が座標P1002のベクトルである。ベクトルV1409とベクトルV1410との交点の座標が、交差点座標P1403として求められる。 That is, as shown in FIG. 14, based on road contour vectors V1006, V1007, V1407, and V1408 and intersection coordinates P1002 and P1003, intersection coordinates P1403 are calculated using direction vectors V1409 and V1410. Here, the direction vector V1409 is in the same direction as the vector V1006, and the start point is a vector having the coordinates P1003. The direction vector V1410 is an inverse vector with respect to the road contour vector V1407, and the start point is a vector of coordinates P1002. The coordinates of the intersection of the vector V1409 and the vector V1410 are obtained as the intersection coordinate P1403.
同様に、道路輪郭のベクトルV1006、V1007、V1407、V1408と、交差点座標P1002、P1003とに基づいて、方向ベクトルV1411、V1412を用いて交差点座標P1404を算出する。ここで、方向ベクトルV1411は道路輪郭ベクトルV1007に対し、逆ベクトルであり、始点が座標P1002のベクトルである。また、方向ベクトルV1412は、始点が座標P1003であり、方向がベクトルV1408と同じベクトルである。ベクトルV1411とベクトルV1412との交点の座標が、交差点座標P1404として求められる。そして、カメラ画像と地図データの各々について算出された注目点の座標を出力する。 Similarly, based on the road contour vectors V1006, V1007, V1407, V1408 and the intersection coordinates P1002, P1003, the intersection coordinates P1404 are calculated using the direction vectors V1411, V1412. Here, the direction vector V1411 is an inverse vector with respect to the road contour vector V1007, and the start point is a vector of coordinates P1002. In the direction vector V1412, the start point is the coordinate P1003 and the direction is the same vector as the vector V1408. The coordinates of the intersection of the vector V1411 and the vector V1412 are obtained as the intersection coordinate P1404. And the coordinate of the attention point calculated about each of a camera image and map data is output.
さらに、注目座標抽出部206は、道路輪郭のベクトルから交差点としての注目点を算出するようにしてもよい。つまり、注目座標抽出部206は、図15に示すように、道路画像データにおいて、道路輪郭のベクトルの交点を算出し、交差する座標P1505〜座標P1508を交差点としての注目点として検知する。ベクトルの交点の算出方法は、まず、道路画像データを、基線L1005に基づいて左右に分け、左側の道路画像データより道路輪郭のベクトルV1501を求める。これは、遠近法に基づき、図11におけるV1102のように第一象限の方向ベクトルに限る。また、右側の道路画像データより道路輪郭のベクトルV1502を求める。これは、遠近法に基づき、図11におけるV1101のように第二象限の方向ベクトルに限る。これら、ベクトルV1501とベクトルV1502とは別に、道路輪郭ベクトルV1503とV1504を求める。そして、これら道路輪郭ベクトルV1501〜V1504にそれぞれ交差する座標を交差点としての注目点として検知することができる。そして、注目座標抽出部206は、カメラ画像と地図データの各々について算出された、注目点の座標および道路輪郭ベクトルを出力する。
Further, the attention coordinate
この構成と方法により、カメラ画像において、道路輪郭の屈折している箇所を交差点としての注目点として検知することができる。また、ナビゲーション装置に予め記憶されている地図データにおいて、道路輪郭の屈折している箇所を交差点としての注目点として検知することができる。さらに、他車両、障害物等で交差点としての注目点が検知されなかった場合に、カメラ画像の検知された注目点を中心に注目点を変更させることができる。 With this configuration and method, in a camera image, a portion where the road contour is refracted can be detected as a point of interest as an intersection. Further, in the map data stored in advance in the navigation device, a portion where the road contour is refracted can be detected as a point of interest as an intersection. Furthermore, when an attention point as an intersection is not detected by another vehicle, an obstacle, or the like, the attention point can be changed around the detected attention point of the camera image.
<座標変換処理部209>
座標変換処理部209は、注目座標抽出部206から出力される、カメラ画像および地図データの各々の注目点の座標と、輝度信号処理部203および色差信号処理部204からのカメラ画像と、ナビゲーション制御部106からの地図データとを入力として受ける。カメラ画像と地図データとの切り替えはセレクタ208により行われる。
<Coordinate
The coordinate
まず、座標変換処理部209は、地図データの注目点の座標として、図16に示すような座標P1601〜座標P1604を入力として受ける。また、座標変換処理部209は、カメラで撮像された道路画像の注目点の座標として、座標P1605〜座標P1608を入力として受ける。そして、座標変換処理部209は、座標P1601が座標P1605へ、座標P1602が座標P1606へ、座標P1603が座標P1607へ、座標P1604が座標P1608へ、移動するように歪み量を算出する。そして、座標変換処理部209は、入力された地図データに対して歪み量に応じた画像変形を行う。この画像変形には画像の拡大縮小によく使われるバイリニア法(線形補間)や、バイキュービック法などを用いてもよい。また、任意の四角形を変形するための手法などを用いてもよい。例えば、図16において、座標P1601〜座標P1604、および座標P1605〜座標P1608をそれぞれ点線で繋げることで四角形を表現しており、座標P1601〜座標P1604からなる四角形を、座標P1605〜座標P1608からなる四角形に変形する。なお、この図は、四角形による画像変形を表したものであり、歪み量を算出するために四角形は必要なものではない。
First, the coordinate
この構成と方法により、地図データの注目点座標とカメラ画像の注目点座標とが一致するように歪み量を算出し、歪み量に応じた座標変換により地図データを変形することができる。例えば、図16に従い求められた歪み量に基づいて、図9に示すような地図データを変形すると、図17のような画像データが得られる。 With this configuration and method, it is possible to calculate the distortion amount so that the attention point coordinates of the map data match the attention point coordinates of the camera image, and to transform the map data by coordinate conversion according to the distortion amount. For example, when the map data as shown in FIG. 9 is deformed based on the amount of distortion obtained according to FIG. 16, image data as shown in FIG. 17 is obtained.
また、座標変換処理部209は、道路輪郭のベクトルから歪み量を求めて、画像変形を行ってもよい。つまり、座標変換処理部209は、注目座標抽出部206から出力される、カメラ画像および地図データの各々の道路輪郭のベクトルと、輝度信号処理部203および色差信号処理部204からのカメラ画像と、ナビゲーション制御部106からの地図データとを入力として受ける。カメラ画像と地図データとの切り替えはセレクタ208により行われる。
In addition, the coordinate
まず、座標変換処理部209は、地図データの道路輪郭のベクトルとして、図18に示すようなベクトルV1801〜ベクトルV1804を入力として受ける。また、座標変換処理部209は、カメラで撮影された道路画像の道路輪郭のベクトルとして、ベクトルV1805〜ベクトルV1808を入力として受ける。そして、座標変換処理部209は、ベクトルV1801がベクトルV1805へ、ベクトルV1802がベクトルV1806へ、ベクトルV1803がベクトルV1807へ、ベクトルV1804がベクトルV1808へ、移動するように歪み量を算出する。そして、座標変換処理部209は、入力された地図データに対して歪み量に応じた画像変形を行う。この画像変形には画像の拡大縮小によく使われるバイリニア法(線形補間)や、バイキュービック法などを用いてもよい。また、任意の四角形を変形するための手法などを用いてもよい。
First, the coordinate
この構成と方法により、地図データの注目点座標とカメラ画像の注目点座標の一致するように歪み量を算出し、歪み量に応じた座標変換により地図データを変形することができる。例えば、図16での歪み量を図9のような地図データに対して画像変形を行うと、図17のようになる。 With this configuration and method, it is possible to calculate the distortion amount so that the attention point coordinates of the map data coincide with the attention point coordinates of the camera image, and to deform the map data by coordinate conversion according to the distortion amount. For example, when the image deformation is performed on the map data as shown in FIG. 9, the distortion amount in FIG. 16 is as shown in FIG.
なお、座標変換処理部209は、同様に、歪み量に応じた座標変換によりカメラ画像を変形することもできる。つまり、座標変換処理部209は、セレクタ208を介して入力されたカメラ画像に対して歪み量に応じた画像変形を行う。例えば、この画像変形は、図16において算出された歪み量に基づいた変形を、図16に示した4つのベクトルと逆の方向に行う。これにより、図4のようなカメラ画像に対して画像変形を行うことにより、図19に示すような画像データが得られる。
Similarly, the coordinate
また、座標変換処理部209は、ナビゲーション制御部106から、地図データと同時に、図20に示すようなランドマーク等の静止対象物M2001の情報を入力として受ける。この例では“6”という企業マークを表した静止対象物の情報を入力として受ける。入力される情報は、地図データ記憶部107に保持されている静止対象物のマーク情報と、地図上での座標を示す座標データとである。座標変換処理部209は、図21に示すように、地図上での静止対象物M2101の座標を、図22に示すように、座標A2201に変換する。座標の変換は、上述した画像データの変換と同様に行なわれる。座標変換処理部209は、座標A2201の情報を、静止対象物認識処理部213に出力する。
Further, the coordinate
<静止対象物認識処理部213>
静止対象物認識処理部213は、座標変換処理部209より出力される、地図データより得られる静止対象物の座標(図22の座標A2201)を入力として受ける。また、静止対象物認識処理部213は、輝度信号処理部203からの輪郭成分の画像データと、色差信号処理部204からの色差成分の画像データとを入力として受ける。そして、静止対象物認識処理部213は、ナビゲーション制御部106から、ランドマーク等の静止対象物M2001の情報を入力として受ける。静止対象物認識処理部213は、図23に示すような、輝度信号処理部203および色差信号処理部204から受けた画像データの座標A2201から所定の距離内にある探索領域A2301内に、静止対象物M2001に該当する画像情報を探索する。ランドマーク、看板、交通標識、道路案内標識等の静止対象物を探索、検出、認識する手法は問わず、任意の手法を採用しうる。例えば、画像データおよび地図データの互いに対応する位置に静止対象物が存在すれば、確かに静止対象物が存在すると認識できる。また、画像データのみに静止対象物が存在すれば、新たに静止対象物ができたと判断することができる。また、地図データのみに静止対象物が存在すれば、静止対象物がなくなったと判断することができる。
<Still Object
The stationary object
なお、静止対象物認識処理部213は、図24に示すように、道路画像領域A2401を除外した領域A2402に対して、静止対象物M2001に該当する画像情報を探索するようにしてもよい。
Note that the stationary object
また、静止対象物認識処理部213は、時間的に連続する2つのカメラ画像を用いて、静止対象物を探索してもよい。つまり、静止対象物認識処理部213は、座標変換処理部209より、カメラ画像および地図データの各々について算出された注目点の座標を入力として受ける。また、静止対象物認識処理部213は、座標変換処理部209より道路輪郭のベクトルを受ける。
The stationary object
図25に示すように、ある時刻のカメラ画像より道路輪郭ベクトルV2501およびV2502が得られたものとする。これらの道路輪郭ベクトルV2501およびV2502は、それぞれベクトルV1501およびベクトルV1502は同じものである。静止対象物認識処理部213は、道路輪郭ベクトルV2501およびV2502の交点M2503を求める。この交点M2503は遠近法における中心座標となる。
As shown in FIG. 25, it is assumed that road contour vectors V2501 and V2502 are obtained from a camera image at a certain time. These road contour vectors V2501 and V2502 are the same as vector V1501 and vector V1502, respectively. The stationary object
次に、静止対象物認識処理部213は、時間的に連続する2つの画像データに対して、静止対象物認識処理部213において検出された静止対象物M2504およびM2505の座標の情報を保持する。つまり、自動車が前進しているとすれば、現時刻における静止対象物が静止対象物M2505であり、過去の時刻における静止対象物が静止対象物M2504となる。
Next, the stationary object
そして、静止対象物認識処理部213は、静止対象物M2504およびM2505の座標間を繋げるベクトルV2506を算出する。静止対象物認識処理部213は、ベクトルV2506と、交点M2503を基準とするベクトル(ベクトルV2501またはV2502)との間の距離を算出する。静止対象物認識処理部213は、算出した距離があらかじめ指定した誤差以内か否かを判断し、誤差以内であれば、静止対象物M2504およびM2505が確かに静止対象物であると判断する。つまり、道路の輪郭に沿って移動している静止対象物が、所望の静止対象物であると判断される。この例では2枚の画像データより得られる静止対象物の座標情報を用いて、静止対象物か否かの判断を行なったが、画像データの枚数は、この限りではない。
Then, the stationary object
なお、セレクタ210は、ナビゲーション制御部106からの出力と、輝度信号処理部203および色差信号処理部204からの出力とを入力として受け、一方を出力する。
The
次に、以上説明したナビゲーション装置を用いた画像認識方法について、図26に示すフローチャートを用いて説明する。 Next, an image recognition method using the navigation device described above will be described using the flowchart shown in FIG.
撮像部109は、自車両から外部の画像(カメラ画像)を撮像する(ステップS5001)。
The
輝度信号色差信号分離処理部202と輝度信号処理部203と色差信号処理部204と道路認識処理部205によって、カメラ画像中の道路が認識される(ステップS5002)。
The road in the camera image is recognized by the luminance signal color difference signal
注目座標抽出部206は、地図データを取得する(ステップS5003)。
The attention coordinate
方向ベクトル算出するとの指定がある場合には(S5004でYES)、注目座標抽出部206は、道路輪郭の方向ベクトルを算出する(ステップS5005)。
If there is an instruction to calculate the direction vector (YES in S5004), the attention coordinate
注目座標抽出部206は、交差点としての注目点を検出する(ステップS5006)。
The attention coordinate
注目点が検出できなかった場合は(ステップS5007でNO)、注目座標を変更する(ステップS5008)。つまり、交差点の他の注目点の抽出を試みる。 If the attention point cannot be detected (NO in step S5007), the attention coordinate is changed (step S5008). That is, it tries to extract other attention points of the intersection.
注目点が検出できた場合には(ステップS5007でYES)、座標変換処理部209は、歪み量を算出する(S5009)。
If an attention point has been detected (YES in step S5007), the coordinate
次に、座標変換処理部209は、画像変形の対象がカメラ画像か地図データかを判定する(ステップS5010)。画像変形の対象は予め指定されているものとする。
Next, the coordinate
画像変形の対象が地図データの場合には(ステップS5010でYES)、座標変換処理部209は、地図データを変形させ、図17に示すような画像データを生成する(ステップS5011)。
If the object of image deformation is map data (YES in step S5010), the coordinate
画像変形の対象がカメラ画像の場合には(ステップS5010でNO)、座標変換処理部209は、カメラ画像を変形させ、図19に示すような画像を生成する(ステップS5012)。
When the image deformation target is a camera image (NO in step S5010), the coordinate
座標変換処理部209は、地図データに基づいて静止対象物の探索領域を決定することが指定されているか否かを判断する(S5013a)。この指定は、予め行なわれているものとする。
The coordinate
地図データに基づいて静止対象物の探索領域を決定することが指定されている場合には(S5013aでYES)、図21および図22を用いて説明したように、座標変換処理部209は、地図データから得られる静止対象物M2101の座標を、図22に示すように、座標A2201に変換する(S5013)。つまり、カメラ画像上での座標A2201に変換する。
When it is specified that the search area for the stationary object is determined based on the map data (YES in S5013a), as described with reference to FIGS. 21 and 22, the coordinate
次に、図23を用いて説明したように、静止対象物認識処理部213は、カメラ画像における探索領域A2301を決定する(S5014)。その上で、静止対象物認識処理部213は、静止対象物の認識を行なう。
Next, as described with reference to FIG. 23, the stationary object
静止対象物認識処理部213は、道路画像領域に基づいて静止対象物の探索領域を決定することが指定されているか否かを判断する(S5015a)。この指定は、予め行なわれているものとする。
The stationary object
道路画像領域に基づいて静止対象物の探索領域を決定することが指定されている場合には(S5015aでYES)、静止対象物認識処理部213は、図24に示したように、カメラ画像から道路画像領域A2401を除外した領域A2402を、静止対象物の探索領域として決定する(ステップS5015)。その上で、静止対象物認識処理部213は、静止対象物の認識を行なう。
If it is specified that the search area for the stationary object is determined based on the road image area (YES in S5015a), the stationary object
静止対象物認識処理部213は、ここまでの処理で静止対象物が検出されているか否かを判断する(S5016)。静止対象物が検出されている場合(ステップS5016でYES)、静止対象物認識処理部213は、検出された静止対象物の情報を保持する(S5017)。そして、自車両が目的地に到達していなければ(ステップS5018でNO)、S5001からの処理が繰り返し実行される。
The stationary object
ステップS5017において、静止対象物の情報が時々刻々蓄積される。静止対象物認識処理部213は、図25を用いて説明した方法により、蓄積された静止対象物が道路の輪郭に沿って移動しているか否かを判断する。静止対象物認識処理部213は、道路の輪郭に沿って移動している静止対象物を、所望の静止対象物であると判断する。
In step S5017, information on the stationary object is accumulated from moment to moment. The stationary object
以上説明したように、本実施の形態によると、ナビゲーション装置から静止対象物情報を読み出し、変形させた地図データとカメラ画像とから静止対象物を認識することができる。また、地図上での静止対象物の位置と、歪み量とから、カメラ画像上での静止対象物の探索領域を決定することができる。 As described above, according to the present embodiment, it is possible to read stationary object information from the navigation device and recognize the stationary object from the deformed map data and the camera image. Further, the search area for the stationary object on the camera image can be determined from the position of the stationary object on the map and the amount of distortion.
また、カメラ画像から、道路領域を除外した領域を静止対象物の探索領域として決定することができる。 In addition, an area excluding the road area can be determined as a stationary object search area from the camera image.
さらに、複数の時刻において道路輪郭に沿って検出された静止対象物を検出することができる。このため、道路輪郭ベクトルから検索された基準点から動き補償を行うことができる。 Furthermore, it is possible to detect stationary objects detected along the road contour at a plurality of times. For this reason, motion compensation can be performed from the reference point searched from the road contour vector.
(実施の形態2)
本発明の実施の形態2に係るナビゲーション装置について、図面を参照しながら説明する。実施の形態1では、静止対象物の認識を行なった。本実施の形態では、静止対象物の認識結果に基づいて、地図データに静止対象物を追加したり、地図データから静止対象物を削除したりする処理を行なう。
(Embodiment 2)
A navigation device according to Embodiment 2 of the present invention will be described with reference to the drawings. In the first embodiment, the stationary object is recognized. In the present embodiment, processing for adding a stationary object to map data or deleting a stationary object from map data is performed based on the recognition result of the stationary object.
ナビゲーション装置の構成は、図1および図2を参照して説明したものと同様である。このため、その詳細な説明はここでは繰り返さない。以下、実施の形態1と異なる点を中心に説明する。本実施の形態では、実施の形態1と同様に、カメラ画像から道路が認識され、交差点としての注目点が検知され、歪み量に基づいて画像の変形が行なわれる。 The configuration of the navigation device is the same as that described with reference to FIGS. Therefore, detailed description thereof will not be repeated here. Hereinafter, a description will be given focusing on differences from the first embodiment. In the present embodiment, as in the first embodiment, a road is recognized from a camera image, a point of interest as an intersection is detected, and the image is deformed based on the amount of distortion.
それに加え、以下の処理が実行される。つまり、座標変換処理部209は、静止対象物認識処理部213により検出された静止対象物の情報と、輝度信号処理部203および色差信号処理部204からの画像データとを入力として受ける。
In addition, the following processing is executed. That is, the coordinate
座標変換処理部209は、図27に示すように、カメラ画像上で検出された静止対象物M2704を、図9に示すような地図データと同じ始点から見た画像データに座標変換を行なうと、図28に示すような画像データが得られる。このとき、静止対象物M2704は、静止対象物M2801に変換される。このとき、図9に示すような地図データの所望座標上(静止対象物M2801の座標上)に静止対象物が存在しない場合には、座標変換処理部209は、図29に示すように、地図データの静止対象物M2801の座標に、静止対象物M2901を新たに追加するために、静止対象物M2901の情報をナビゲーション制御部106に出力する。ナビゲーション制御部106は静止対象物の情報を更新データとして更新データ記憶部108に記憶する。
As shown in FIG. 27, the coordinate
また、ナビゲーション制御部106から静止対象物があるものとして静止対象物の情報が静止対象物認識処理部213に入力されたにも係らず、静止対象物が検出されなかった場合には、静止対象物認識処理部213は、ナビゲーション制御部106に静止対象物を削除する指示を出力する。ナビゲーション制御部106は静止対象物が削除されたことを示す情報を、更新データとして更新データ記憶部108に記憶する。
In addition, when information on a stationary object is input from the
次に、以上説明したナビゲーション装置を用いた画像認識方法について、図30に示すフローチャートを用いて説明する。 Next, an image recognition method using the navigation device described above will be described using the flowchart shown in FIG.
撮像部109は、自車両から外部の画像(カメラ画像)を撮像する(ステップS5101)。
The
静止対象物認識処理部213は、カメラ画像より静止対象物を検出する(ステップS5102)。
The stationary object
静止対象物が検出された場合(ステップS5103でYES)、座標変換処理部209は、静止対象物の座標を地図データ上の座標に変換する(ステップS5104)。静止対象物認識処理部213は、地図データ上の変換後の座標上に、静止対象物があるか否かを判断し、かつ、静止対象物があるとの判断が指定回数以上なされたか否か(時間的に連続する指定枚数のカメラ画像において静止対象物があると判断されたか否か)を判断する(ステップS5112)。つまり、静止対象物の誤検出を防ぐために、ステップS5112において指定回数を設け、静止対象物があるとの判断が指定回数以上なされた場合には、検出された静止対象物が実際に存在するとみなす。
If a stationary object is detected (YES in step S5103), the coordinate
静止対象物があるとの判断が指定回数以上なされた場合には(ステップS5112でYES)、座標変換処理部209は、地図データ上における静止対象物の位置を示す情報を、ナビゲーション制御部106に出力する。ナビゲーション制御部106は、追加すべき静止対象物の位置を示す情報を更新データとして更新データ記憶部108に記憶する(ステップS5105)。これにより、地図データに静止対象物の追加が行なわれる。
If it is determined that there is a stationary object more than the specified number of times (YES in step S5112), the coordinate
静止対象物が検出されなかった場合には(ステップS5103でNO)、座標変換処理部209は、静止対象物の検出漏れを防ぐために、静止対象物の探索範囲を変更する(ステップS5106)。探索範囲があらかじめ指定した対象の範囲内であれば(ステップS5107でYES)、座標変換処理部209は、その探索範囲内において、静止対象物の再検出を行なう(S5102)。
If no stationary object is detected (NO in step S5103), the coordinate
静止対象物の探索範囲がこれ以上ない場合には(ステップS5107でNO)、静止対象物認識処理部213は、静止対象物が存在しないとみなす(ステップS5108)。静止対象物認識処理部213は、静止対象物が存在しないとの判断が指定回数なされたか否か(時間的に連続する指定枚数のカメラ画像において静止対象物が存在しないとの判断がなされたか否か)を判断する(ステップS5109)。つまり、静止対象物の誤検出を防ぐために、ステップS5109において指定回数を設け、静止対象物がないとの判断が指定回数以上なされた場合には、検出された静止対象物が確かに存在しないと判断する。
If there is no more search range for the stationary object (NO in step S5107), the stationary object
静止対象物が存在しないとの判断が指定回数なされた場合には(ステップS5109でYES)、座標変換処理部209は、ナビゲーション制御部106に、静止対象物を削除を指示するデータを出力する。ナビゲーション制御部106は、静止対象物の削除を指示するデータを更新データとして更新データ記憶部108に記憶することにより、地図データから静止対象物の削除を行う(ステップS5110)。
If the determination that the stationary object does not exist is made the designated number of times (YES in step S5109), the coordinate
ナビゲーション制御部106は、地図データ記憶部107に記憶された地図データおよび更新データ記憶部108に記憶された更新データに基づいて、画像表示処理部112に表示する地図情報を更新する(S5111)。S5101〜S5112の処理が、目的地に到着するまで繰り返し実行される(ステップS5113)。
The
以上説明したように、本実施の形態によると、カメラ画像より検出された静止対象物の位置を、地図データ上の位置に変換し、地図データ上の該当する位置に静止対象物の位置情報がなく、カメラ画像に静止対象物が検出された場合に、検出が指定回数を上回ると、地図データに静止対象物の情報を追加することができる。 As described above, according to the present embodiment, the position of the stationary object detected from the camera image is converted into the position on the map data, and the position information of the stationary object is displayed at the corresponding position on the map data. If a stationary object is detected in the camera image and the number of detections exceeds the specified number, information on the stationary object can be added to the map data.
また、地図データ上に静止対象物の位置情報があるにもかかわらず、カメラ画像の対応する位置に静止対象物が検出されなかった場合に、検出されなかったことが指定回数を上回ると、地図データから静止対象物の情報を削除することができる。 In addition, even if there is position information of a stationary object on the map data, if the stationary object is not detected at the corresponding position in the camera image and the number of times that it was not detected exceeds the specified number of times, Information on stationary objects can be deleted from the data.
(実施の形態3)
本発明の実施の形態3に係るナビゲーション装置について、図面を参照しながら説明する。実施の形態2では、地図データに静止対象物を追加したり、地図データから静止対象物を削除したりするために、更新データを更新データ記憶部108に記憶した。本実施の形態では、更新データをサーバに送信することにより、地図データを管理するサーバによる静止対象物の追加や削除を可能とするものである。
(Embodiment 3)
A navigation device according to Embodiment 3 of the present invention will be described with reference to the drawings. In the second embodiment, update data is stored in the update
以下の説明では、実施の形態1および2と異なる点について中心に説明する。 In the following description, differences from the first and second embodiments will be mainly described.
本実施の形態に係るナビゲーション装置の構成は、図1および図2を参照して説明したものと同様である。このため、その詳細な説明はここでは繰り返さない。 The configuration of the navigation device according to the present embodiment is the same as that described with reference to FIGS. Therefore, detailed description thereof will not be repeated here.
実施の形態2では、静止対象物を地図データに追加する際、または静止対象物を地図データから削除する際に、座標変換処理部209または静止対象物認識処理部213が、更新データをナビゲーション制御部106に通知していた。本実施の形態では、ナビゲーション制御部106に通知された更新データを、通信制御部101が、基地局サーバ等に送信する。基地局サーバは、地図データを管理している。このため、基地局サーバが更新データに基づいて、地図データを更新することができる。
In Embodiment 2, when a stationary object is added to map data or when a stationary object is deleted from map data, the coordinate
次に、以上説明したナビゲーション装置を用いた画像認識方法について、図31に示すフローチャートを用いて説明する。 Next, an image recognition method using the navigation device described above will be described using the flowchart shown in FIG.
なお、ここでは、実施の形態2と同様に、新たに静止対象物が検出されると、ナビゲーション制御部106に対して静止対象物の追加要求(更新データ)が送信され、静止対象物が削除されたことが検出されると、ナビゲーション制御部106に対して静止対象物の削除要求(更新データ)が送信されているものとする。
Here, as in the second embodiment, when a new stationary object is detected, a request for adding a stationary object (update data) is transmitted to the
ナビゲーション制御部106は、静止対象物の追加要求を受け取った場合には(ステップS5201でYES)、誤検出を防ぐために、同一の静止対象物について追加要求を指定回数以上受け取ったか否かを判断する(ステップS5202)。追加要求を指定回数以上受け取ったと判断した場合には(ステップS5202でYES)、ナビゲーション制御部106は、通信制御部101を介して、基地局サーバに静止対象物の追加要求を送信する(S5203)。追加要求を受信した基地局サーバは、追加要求に基づいて、自身が管理する地図データに静止対象物を追加することにより、地図データを更新する。更新後の地図データは、基地局サーバからナビゲーション装置に送信される。ナビゲーション制御部106は、通信制御部101を介して更新後の地図データを受信し、地図データ記憶部107に記憶する。
When the
一方、ナビゲーション制御部106は、静止対象物の削除要求を受け取った場合には(ステップS5204でYES)、誤検出を防ぐために、同一の静止対象物について削除要求を指定回数以上受け取ったか否かを判断する(ステップS5205)。削除要求を指定回数以上受け取ったと判断した場合には(ステップS5205でYES)、ナビゲーション制御部106は、通信制御部101を介して、基地局サーバに静止対象物の削除要求を送信する(S5206)。削除要求を受信した基地局サーバは、削除要求に基づいて、自身が管理する地図データから静止対象物を削除することにより、地図データを更新する。
On the other hand, when the
以上説明したように、本実施の形態によると、カメラ画像より検出された静止対象物の位置を、地図データ上の位置に変換し、地図データ上の該当する位置に静止対象物の位置情報がなく、カメラ画像に静止対象物が検出された場合に、検出が指定回数を上回ると、静止対象物の追加要求を基地局サーバに送信することができる。このため、基地局サーバは、自身が管理する地図データに静止対象物の情報を追加することができる。更新後の地図データは、基地局サーバからナビゲーション装置に送信される。ナビゲーション制御部106は、通信制御部101を介して更新後の地図データを受信し、地図データ記憶部107に記憶する。
As described above, according to the present embodiment, the position of the stationary object detected from the camera image is converted into the position on the map data, and the position information of the stationary object is displayed at the corresponding position on the map data. If a stationary object is detected in the camera image and the number of detections exceeds the specified number, a request for adding the stationary object can be transmitted to the base station server. For this reason, the base station server can add the information of the stationary object to the map data managed by itself. The updated map data is transmitted from the base station server to the navigation device. The
また、地図データ上に静止対象物の位置情報があるにもかかわらず、カメラ画像の対応する位置に静止対象物が検出されなかった場合に、検出されなかったことが指定回数を上回ると、地図データから静止対象物の情報を削除するための削除要求を基地局サーバに送信することができる。このため、基地局サーバは、自身が管理する地図データから静止対象物の情報を削除することができる。 In addition, even if there is position information of a stationary object on the map data, if the stationary object is not detected at the corresponding position in the camera image and the number of times that it was not detected exceeds the specified number of times, A deletion request for deleting the information of the stationary object from the data can be transmitted to the base station server. For this reason, the base station server can delete the stationary object information from the map data managed by itself.
以上、本発明の実施の形態に係るナビゲーション装置について説明したが、本発明は、これらの実施の形態に限定されるものではない。 Although the navigation apparatus according to the embodiments of the present invention has been described above, the present invention is not limited to these embodiments.
例えば、上述の実施の形態では、静止対象物を特定施設のマークを用いて例示したが、無論、これ以外のマーク、交通標識、道路標識、さらには信号器等の静止している対象物であってもよい。 For example, in the above-described embodiment, the stationary object is exemplified using the mark of the specific facility. Of course, other stationary objects such as marks, traffic signs, road signs, and traffic lights are used. There may be.
また、十字路のような交差点を例示として用いたが、無論、これ以外のT字路や三叉路、さらには複数分岐した交差点であってもよい。また、道路種別は、優先道路と非優先道路との交差点に限られず、信号機が設置された交差点であってもよいし、複数車線を有する道路の交差点であってもよい。 In addition, although an intersection such as a crossroad is used as an example, it goes without saying that other intersections such as a T-shaped road, a three-way road, and a plurality of branches may be used. The road type is not limited to the intersection between the priority road and the non-priority road, and may be an intersection where a traffic light is installed or an intersection of a road having a plurality of lanes.
さらに、上述の実施の形態では、ナビゲーション装置が二次元の地図データを用いるものとして説明したが、鳥瞰図のような三次元の地図データを用いても、本発明は実現が可能である。 Furthermore, in the above-described embodiment, the navigation apparatus has been described as using two-dimensional map data. However, the present invention can also be realized using three-dimensional map data such as a bird's-eye view.
さらに、上述の実施の形態では、通信制御部によりデータを基地局サーバと送受信しているが、専用の無線通信機を用いることなく、一般的な携帯電話や携帯型端末機器のようなインターネットに接続可能な機器を介して、データを送受信することも可能である。 Furthermore, in the above-described embodiment, the communication control unit transmits / receives data to / from the base station server, but without using a dedicated wireless communication device, it can be connected to the Internet such as a general mobile phone or a portable terminal device. Data can also be transmitted and received via a connectable device.
また、図1を用いて説明したナビゲーション装置のうち、撮像部109と画像処理部110とナビゲーション制御部106とは、1チップLSI(Large Scale Integration:大規模集積回路)で構成されていてもよい。さらに他のブロックにおける他の組み合わせについても同様なことが言える。
In the navigation device described with reference to FIG. 1, the
また、上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクドライブ、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムとして構成されても良い。RAMまたはハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。 Further, each of the above devices may be specifically configured as a computer system including a microprocessor, ROM, RAM, hard disk drive, display unit, keyboard, mouse, and the like. A computer program is stored in the RAM or hard disk drive. Each device achieves its functions by the microprocessor operating according to the computer program. Here, the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
さらに、上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSIから構成されているとしても良い。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。 Further, some or all of the constituent elements constituting each of the above-described devices may be configured by one system LSI. The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.
さらにまた、上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしても良い。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしても良い。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしても良い。 Furthermore, some or all of the constituent elements constituting each of the above-described devices may be configured from an IC card that can be attached to and detached from each device or a single module. The IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
また、本発明は、上記に示す方法であるとしても良い。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしても良いし、前記コンピュータプログラムからなるデジタル信号であるとしても良い。 Further, the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
さらに、本発明は、上記コンピュータプログラムまたは上記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc(登録商標))、半導体メモリなどに記録したものとしても良い。また、これらの記録媒体に記録されている上記デジタル信号であるとしても良い。 Furthermore, the present invention provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). (Registered trademark)), or recorded in a semiconductor memory or the like. Further, the digital signal may be recorded on these recording media.
また、本発明は、上記コンピュータプログラムまたは上記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしても良い。 In the present invention, the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしても良い。 The present invention may be a computer system including a microprocessor and a memory, wherein the memory stores the computer program, and the microprocessor operates according to the computer program.
また、上記プログラムまたは上記デジタル信号を上記記録媒体に記録して移送することにより、または上記プログラムまたは上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。 In addition, the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and is executed by another independent computer system. It is also good.
さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしても良い。 Furthermore, the above embodiment and the above modification examples may be combined.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
本発明にかかる画像認識方法および画像認識装置は、ナビゲーション機能を備えたコンピュータ装置等において利用することができる。また、ナビゲーション機能に加えて、オーディオ機能やビデオ機能等を含むものであってもよい。また、ナビゲーション機能を備えた車両に限らず移動体全般において利用することができる。 The image recognition method and the image recognition apparatus according to the present invention can be used in a computer apparatus or the like having a navigation function. Further, in addition to the navigation function, an audio function or a video function may be included. Further, it can be used not only for vehicles having a navigation function but also for all moving objects.
101 通信制御部
102 自立航法制御部
103 GPS制御部
104 道路交通情報受信部
105 音声出力部
106 ナビゲーション制御部
107 地図データ記憶部
108 更新データ記憶部
109 撮像部
110 画像処理部
111 画像合成処理部
112 画像表示処理部
202 輝度信号色差信号分離処理部
203 輝度信号処理部
204 色差信号処理部
205 道路認識処理部
206 注目座標抽出部
208、210 セレクタ
209 座標変換処理部
213 静止対象物認識処理部
DESCRIPTION OF
Claims (13)
前記カメラが前記車両の外部を撮影することにより生成される画像データより、当該画像データ上での道路の位置を認識する道路認識ステップと、
前記道路認識ステップにおいて認識された前記道路の位置と、前記車両の位置を特定するナビゲーション装置に蓄積された前記車両を所定の視点から見た地図データ上での前記道路の位置とを比較することにより、前記画像データと前記地図データとの間の歪み量を算出する歪み量算出ステップと、
前記歪み量に基づいて、前記画像データおよび前記地図データのいずれか一方を、他方のデータの視点から見たデータに変換する変換ステップと、
前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、両データの互いに対応する位置に静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する静止対象物認識ステップと
を含む画像認識方法。 An image recognition method for recognizing a stationary object included in an image taken by a camera attached to a vehicle,
A road recognition step for recognizing a position of a road on the image data from image data generated by the camera photographing the outside of the vehicle;
Comparing the position of the road recognized in the road recognition step with the position of the road on map data when the vehicle stored in a navigation device for specifying the position of the vehicle is viewed from a predetermined viewpoint. A distortion amount calculating step of calculating a distortion amount between the image data and the map data;
A conversion step of converting either one of the image data and the map data into data viewed from the viewpoint of the other data based on the amount of distortion;
Based on the image data and the map data, one of which has been converted in the conversion step, by determining whether or not a stationary object exists at a position corresponding to each other in the data, A stationary object recognition step of recognizing the stationary object.
前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、前記地図データ上での前記静止対象物の位置に対応する前記画像データ上での位置を含む所定領域を、前記画像データ上での前記静止対象物の探索領域と決定する探索領域決定ステップと、
前記画像データの前記探索領域内に前記静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む
請求項1記載の画像認識方法。 The stationary object recognition step includes:
A predetermined area including a position on the image data corresponding to a position of the stationary object on the map data, based on the image data and the map data, one of which is converted in the conversion step, A search area determination step for determining a search area for the stationary object on the image data;
The image recognition method according to claim 1, further comprising a recognition step of recognizing the stationary object in the image data by determining whether or not the stationary object exists in the search area of the image data. .
前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、前記道路認識ステップで認識された道路の位置を除外した前記画像データの領域を、前記画像データ上での前記静止対象物の探索領域と決定する探索領域決定ステップと、
前記画像データの前記探索領域内に前記静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む
請求項1記載の画像認識方法。 The stationary object recognition step includes:
Based on the image data and the map data, one of which is converted in the conversion step, the area of the image data excluding the road position recognized in the road recognition step is the image data on the image data. A search area determination step for determining a search area for a stationary object; and
The image recognition method according to claim 1, further comprising a recognition step of recognizing the stationary object in the image data by determining whether or not the stationary object exists in the search area of the image data. .
前記変換ステップにおける変換後の前記画像データから道路の輪郭を抽出する道路輪郭抽出ステップと、
時間的に連続する複数の前記画像データであって、かつ前記変換ステップにおける変換後の複数の前記画像データより前記静止対象物を抽出し、前記静止対象物が前記道路の輪郭に沿って移動しているか否かを判断することにより、前記画像データ中の前記静止対象物を認識する認識ステップとを含む
請求項1記載の画像認識方法。 The stationary object recognition step includes:
A road contour extracting step for extracting a road contour from the image data after the conversion in the converting step;
The stationary object is extracted from a plurality of the image data that are temporally continuous and are converted in the conversion step, and the stationary object moves along the contour of the road. The image recognition method according to claim 1, further comprising: a recognition step of recognizing the stationary object in the image data by determining whether or not the image is present.
請求項1記載の画像認識方法。 The stationary object recognition step further updates data related to the stationary object in the map data when it is determined that the stationary object exists in only one of the image data and the map data. The image recognition method according to claim 1.
請求項5記載の画像認識方法。 In the stationary object recognition step, whether or not a condition that the stationary object is detected from the image data and a stationary object corresponding to the detected stationary object is not detected from the map data is satisfied. The image recognition method according to claim 5, wherein when the condition is determined to be satisfied more than a specified number of times, information on the stationary object is added to the map data.
請求項5記載の画像認識方法。 In the stationary object recognition step, whether or not a condition that the stationary object is detected from the map data and a stationary object corresponding to the detected stationary object is not detected from the image data is satisfied. The image recognition method according to claim 5, wherein when the condition is determined to be satisfied a specified number of times or more, information on the stationary object is deleted from the map data.
請求項1記載の画像認識方法。 In the stationary object recognition step, when it is determined that the stationary object exists in only one of the image data and the map data, the map data is updated with respect to the stationary object. The image recognition method according to claim 1, wherein the request is transmitted to a server that manages the map data.
請求項8記載の画像認識方法。 In the stationary object recognition step, whether or not a condition that the stationary object is detected from the image data and a stationary object corresponding to the detected stationary object is not detected from the map data is satisfied. The image recognition method according to claim 8, wherein a request for adding information related to the stationary object to the map data is transmitted to the server when it is determined that the condition is satisfied a specified number of times or more.
請求項8記載の画像認識方法。 In the stationary object recognition step, whether or not a condition that the stationary object is detected from the map data and a stationary object corresponding to the detected stationary object is not detected from the image data is satisfied. The image recognition method according to claim 8, wherein a request for deleting information related to the stationary object from the map data is transmitted to the server when it is determined that the condition is satisfied a specified number of times or more.
請求項8記載の画像認識方法。 The image recognition method according to claim 8, further comprising a receiving step of receiving updated map data from the server.
前記カメラが前記車両の外部を撮影することにより生成される画像データより、当該画像データ上での道路の位置を認識する道路認識部と、
前記道路認識部において認識された前記道路の位置と、前記車両の位置を特定するナビゲーション装置に蓄積された前記車両を所定の視点から見た地図データ上での前記道路の位置とを比較することにより、前記画像データと前記地図データとの間の歪み量を算出する歪み量算出部と、
前記歪み量に基づいて、前記画像データおよび前記地図データのいずれか一方を、他方のデータの視点から見たデータに変換する変換部と、
前記変換部においていずれか一方が変換された前記画像データおよび前記地図データに基づいて、両データの互いに対応する位置に静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する静止対象物認識部と
を含む画像認識装置。 An image recognition device for recognizing a stationary object included in an image taken by a camera attached to a vehicle,
A road recognition unit that recognizes a position of a road on the image data from image data generated by the camera photographing the outside of the vehicle;
Comparing the position of the road recognized by the road recognition unit with the position of the road on map data when the vehicle stored in a navigation device for specifying the position of the vehicle is viewed from a predetermined viewpoint. A distortion amount calculation unit that calculates a distortion amount between the image data and the map data,
Based on the distortion amount, a conversion unit that converts any one of the image data and the map data into data viewed from the viewpoint of the other data;
Based on the image data and the map data, one of which is converted by the conversion unit, by determining whether or not a stationary object exists at a position corresponding to each other, An image recognition apparatus comprising: a stationary object recognition unit that recognizes the stationary object.
前記カメラが前記車両の外部を撮影することにより生成される画像データより、当該画像データ上での道路の位置を認識する道路認識ステップと、
前記道路認識ステップにおいて認識された前記道路の位置と、前記車両の位置を特定するナビゲーション装置に蓄積された前記車両を所定の視点から見た地図データ上での前記道路の位置とを比較することにより、前記画像データと前記地図データとの間の歪み量を算出する歪み量算出ステップと、
前記歪み量に基づいて、前記画像データおよび前記地図データのいずれか一方を、他方のデータの視点から見たデータに変換する変換ステップと、
前記変換ステップにおいていずれか一方が変換された前記画像データおよび前記地図データに基づいて、両データの互いに対応する位置に静止対象物が存在するか否かを判断することにより、前記画像データ中の前記静止対象物を認識する静止対象物認識ステップと
をコンピュータに実行させるためのプログラム。 A program for recognizing a stationary object included in an image taken by a camera attached to a vehicle,
A road recognition step for recognizing a position of a road on the image data from image data generated by the camera photographing the outside of the vehicle;
Comparing the position of the road recognized in the road recognition step with the position of the road on map data when the vehicle stored in a navigation device for specifying the position of the vehicle is viewed from a predetermined viewpoint. A distortion amount calculating step of calculating a distortion amount between the image data and the map data;
A conversion step of converting either one of the image data and the map data into data viewed from the viewpoint of the other data based on the amount of distortion;
Based on the image data and the map data, one of which has been converted in the conversion step, by determining whether or not a stationary object exists at a position corresponding to each other in the data, A program for causing a computer to execute the stationary object recognition step for recognizing the stationary object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009022018A JP2010176645A (en) | 2009-02-02 | 2009-02-02 | Image recognition method and image recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009022018A JP2010176645A (en) | 2009-02-02 | 2009-02-02 | Image recognition method and image recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010176645A true JP2010176645A (en) | 2010-08-12 |
Family
ID=42707509
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009022018A Pending JP2010176645A (en) | 2009-02-02 | 2009-02-02 | Image recognition method and image recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010176645A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113160581A (en) * | 2020-01-23 | 2021-07-23 | 宝马股份公司 | Method and device for recognizing road condition change |
JP2021124633A (en) * | 2020-02-06 | 2021-08-30 | トヨタ自動車株式会社 | Map generation system and map generation program |
US11408740B2 (en) | 2016-05-30 | 2022-08-09 | Mitsubishi Electric Corporation | Map data update apparatus, map data update method, and computer readable medium |
-
2009
- 2009-02-02 JP JP2009022018A patent/JP2010176645A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11408740B2 (en) | 2016-05-30 | 2022-08-09 | Mitsubishi Electric Corporation | Map data update apparatus, map data update method, and computer readable medium |
CN113160581A (en) * | 2020-01-23 | 2021-07-23 | 宝马股份公司 | Method and device for recognizing road condition change |
CN113160581B (en) * | 2020-01-23 | 2023-05-23 | 宝马股份公司 | Method and device for recognizing road condition change |
JP2021124633A (en) * | 2020-02-06 | 2021-08-30 | トヨタ自動車株式会社 | Map generation system and map generation program |
JP7238821B2 (en) | 2020-02-06 | 2023-03-14 | トヨタ自動車株式会社 | Map generation system and map generation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5663352B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2009087716A1 (en) | Image transformation method, image display method, image transformation apparatus and image display apparatus | |
JP4309920B2 (en) | Car navigation system, road marking identification program, and road marking identification method | |
US9410810B2 (en) | Method and apparatus for providing service using a sensor and image recognition in a portable terminal | |
KR101147748B1 (en) | A mobile telecommunication device having a geographic information providing function and the method thereof | |
KR100873474B1 (en) | Vehicle location estimation device and method using pixel size and location of traffic facilities on image | |
US8103442B2 (en) | Navigation device and its method | |
US20060228000A1 (en) | Image recognition apparatus and image recognition method | |
US20170236015A1 (en) | Image processing device, alarming apparatus, image processing system, and image processing method | |
US11815359B2 (en) | Method, device and system for processing positioning information | |
CN103398717A (en) | Panoramic map database acquisition system and vision-based positioning and navigating method | |
JPH10339646A (en) | Guide display system for car | |
JP2013154730A (en) | Apparatus and method for processing image, and parking support system | |
CN110998684B (en) | Image collection system, image collection method, image collection device, and recording medium | |
JPH09243389A (en) | On-vehicle navigation system | |
US20140002655A1 (en) | Lane departure warning system and lane departure warning method | |
CN109883433B (en) | Vehicle positioning method in structured environment based on 360-degree panoramic view | |
JP2011152865A (en) | On-vehicle image pickup device | |
WO2009084129A1 (en) | Navigation device | |
JP4852905B2 (en) | Image processing apparatus and image processing method | |
WO2016031229A1 (en) | Road map creation system, data processing device, and on-board device | |
CN110895821A (en) | Image processing device, storage medium storing image processing program, and driving support system | |
JP2014106739A (en) | In-vehicle image processing device | |
JP2014106740A (en) | In-vehicle parking frame recognizing device | |
JP2010176645A (en) | Image recognition method and image recognition device |