JP5353199B2 - Map information collection system - Google Patents

Map information collection system Download PDF

Info

Publication number
JP5353199B2
JP5353199B2 JP2008296432A JP2008296432A JP5353199B2 JP 5353199 B2 JP5353199 B2 JP 5353199B2 JP 2008296432 A JP2008296432 A JP 2008296432A JP 2008296432 A JP2008296432 A JP 2008296432A JP 5353199 B2 JP5353199 B2 JP 5353199B2
Authority
JP
Japan
Prior art keywords
vehicle
image
outside
information
travel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008296432A
Other languages
Japanese (ja)
Other versions
JP2010122486A (en
Inventor
昭嘉 内田
雅一 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008296432A priority Critical patent/JP5353199B2/en
Publication of JP2010122486A publication Critical patent/JP2010122486A/en
Application granted granted Critical
Publication of JP5353199B2 publication Critical patent/JP5353199B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a map information collecting system for accurately collecting map information as much as possible. <P>SOLUTION: The map information collecting system A1 includes: an image recognition means 14 recognizing a prescribed object from a vehicle outside image of a plurality of viewpoints; a vector information calculation means 15 calculating the vector information of the movement of an object in the vehicle outside image corresponding to at least one viewpoint out of the plurality of viewpoints; an object location estimation means 16 estimating the location of the object on the basis of the vector information of the object and the traveling information/position information of a vehicle; an object appearance estimation means 17 estimating the appearance of the object in a prescribed range of the other vehicle outside image on the basis of the location of the object estimated from one vehicle outside image; a same object determination means 18 for determining that the object recognized in the one vehicle outside image and the other vehicle outside images is one and the same object when an object is recognized within a prescribed range in the other estimated vehicle outside image. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、車両に搭載されたカメラからの画像を画像認識することによって地図情報を収集する地図情報収集システムに関する。   The present invention relates to a map information collection system that collects map information by recognizing an image from a camera mounted on a vehicle.

この種の地図情報収集システムとしては、特許文献1に開示されたものがある。この地図情報収集システムは、車両に搭載されたカメラ、そのカメラで撮影した画像から所定の対象物としてランドマークを認識する画像認識手段、その画像認識の困難さを各種の撮影条件から評価する撮影条件評価手段、画像認識結果として得られたランドマークに関する地図情報が過去一定期間に地図センタに送信されていないか送信履歴から確認する送信履歴管理手段、ランドマークの認識スコア、撮影条件、および送信履歴を考慮して地図情報を地図センタに送信するか否かを判断する送信条件判定手段を有している。このような地図情報収集システムによれば、撮影条件が良好で、送信履歴が無く、かつ、高い認識スコアで地図情報を取得した場合、その地図情報を更新情報として地図センタに送信することができる。これにより、更新情報の確度を向上させ、送信回数を低減することができる。   As this type of map information collection system, there is one disclosed in Patent Document 1. This map information collection system includes a camera mounted on a vehicle, image recognition means for recognizing a landmark as a predetermined object from an image photographed by the camera, and photographing for evaluating difficulty of the image recognition from various photographing conditions. Condition evaluation means, transmission history management means for confirming from the transmission history whether map information related to the landmark obtained as an image recognition result has been transmitted to the map center in a certain period in the past, landmark recognition score, photographing condition, and transmission There is a transmission condition determining means for determining whether or not to transmit the map information to the map center in consideration of the history. According to such a map information collection system, when the shooting conditions are good, there is no transmission history, and map information is acquired with a high recognition score, the map information can be transmitted as update information to the map center. . Thereby, the accuracy of update information can be improved and the number of transmissions can be reduced.

特開2008−51612号公報JP 2008-51612 A

しかしながら、上記従来の地図情報収集システムでは、基本的に一つのカメラからの画像についてしか画像認識されないので、カメラの向きや視点などの制限からランドマークに関する地図情報をそれほど多く収集することができない。   However, since the conventional map information collecting system basically recognizes only an image from one camera, it cannot collect so much map information related to landmarks due to limitations such as camera direction and viewpoint.

仮に情報収集量を増やすには、複数のカメラを車両に搭載し、各カメラからの画像についてランドマークを画像認識すればよい。ところが、たとえば異なる視点で捉えた複数の画像に同じランドマークが撮影されている場合もある。そのような場合、複数の画像において画像認識された複数のランドマークを同一物と判別することができないので、ランドマークに関する地図情報を正しく収集することができず、同一の地図情報が重複して送信や登録されるおそれがあった。   To increase the amount of information collected, a plurality of cameras may be mounted on the vehicle, and landmarks may be image-recognized for images from the cameras. However, for example, the same landmark may be captured in a plurality of images captured from different viewpoints. In such a case, since the plurality of landmarks recognized in the images in the plurality of images cannot be determined as the same object, the map information related to the landmarks cannot be collected correctly, and the same map information is duplicated. There was a risk of being sent or registered.

本発明は、上記した事情のもとで考え出されたものであって、地図情報をできる限り多くかつ正確に収集することができる地図情報収集システムを提供することをその課題としている。   The present invention has been conceived under the circumstances described above, and an object thereof is to provide a map information collecting system capable of collecting as much and as accurately map information as possible.

上記課題を解決するため、本発明では、次の技術的手段を講じている。   In order to solve the above problems, the present invention takes the following technical means.

本発明の第1の側面によれば、車両に搭載され、この車両の外方を複数の視点で捉えて連続的に撮影する複数の撮影手段と、上記車両の走行速度および走行方向に関する走行情報を逐次取得する走行情報取得手段と、上記車両の地上位置に関する位置情報を逐次取得する位置情報取得手段と、上記複数の撮影手段によって得られた複数視点の車外画像ならびに上記車両の走行情報および位置情報を時系列に記録する記録手段と、上記複数視点の車外画像から所定の対象物を認識する画像認識手段と、上記複数視点のうち少なくとも一つの視点に対応する車外画像を参照し、その車外画像における上記対象物の動き方についてのベクトル情報を算出するベクトル情報算出手段と、上記対象物のベクトル情報ならびに上記車両の走行情報および位置情報に基づき、上記対象物の所在地を推定する対象物所在地推定手段と、上記複数視点の車外画像について、一の車外画像から推定された上記対象物の所在地と上記車両の走行情報および位置情報とに基づき、他の車外画像の所定範囲に上記対象物が出現するであろうことを予測する対象物出現予測手段と、予測された上記他の車外画像の所定範囲に上記対象物が認識された場合、上記一の車外画像と他の車外画像において認識された上記対象物を同一物と判定する同一物判定手段と、を備えている地図情報収集システムが提供される。   According to the first aspect of the present invention, a plurality of photographing means that are mounted on a vehicle and continuously capture the outside of the vehicle from a plurality of viewpoints, and traveling information on the traveling speed and traveling direction of the vehicle. Travel information acquisition means for sequentially acquiring position information acquisition means for sequentially acquiring position information relating to the ground position of the vehicle, images of a plurality of viewpoints obtained by the plurality of photographing means, and travel information and position of the vehicle A recording means for recording information in time series, an image recognition means for recognizing a predetermined object from the outside image of the plurality of viewpoints, and an outside image corresponding to at least one of the plurality of viewpoints. Vector information calculating means for calculating vector information about how the object moves in the image, vector information of the object, and travel information and position of the vehicle Object location estimating means for estimating the location of the object based on the information; for the outside image of the plurality of viewpoints, the location of the object estimated from one outside image, and the traveling information and position information of the vehicle; Based on the above, the object appearance predicting means for predicting that the object will appear in a predetermined range of another outside image, and the object is recognized in the predetermined range of the predicted other outside image. In this case, there is provided a map information collection system comprising: an identical object determination unit that determines that the object recognized in the one vehicle exterior image and the other vehicle exterior image is the same object.

本発明の第2の側面によれば、車両に搭載され、この車両の外方を複数の視点で捉えて連続的に撮影するとともに、少なくとも撮影範囲が重複する組を含む複数の撮影手段と、上記車両の走行速度および走行方向に関する走行情報を逐次取得する走行情報取得手段と、上記車両の地上位置に関する位置情報を逐次取得する位置情報取得手段と、上記複数の撮影手段によって得られた複数視点の車外画像ならびに上記車両の走行情報および位置情報を時系列に記録する記録手段と、上記複数視点の車外画像から所定の対象物を認識する画像認識手段と、上記複数視点の車外画像のうち撮影範囲が重複する組の車外画像を参照し、これらの車外画像における上記対象物の見え方の違いに関した視差情報を算出する視差情報算出手段と、上記対象物の視差情報ならびに上記車両の走行情報および位置情報に基づき、上記対象物の所在地を推定する対象物所在地推定手段と、上記複数視点の車外画像について、撮影範囲が重複する組の車外画像から推定された上記対象物の所在地と上記車両の走行情報および位置情報とに基づき、他の車外画像の所定範囲に上記対象物が出現するであろうことを予測する対象物出現予測手段と、予測された上記他の車外画像の所定範囲に上記対象物が認識された場合、上記一の車外画像と他の車外画像において認識された上記対象物を同一物と判定する同一物判定手段と、を備えている地図情報収集システムが提供される。   According to a second aspect of the present invention, a plurality of photographing means mounted on a vehicle, capturing the outside of the vehicle from a plurality of viewpoints and continuously photographing, and including at least a pair of photographing ranges, A plurality of viewpoints obtained by the traveling information acquisition means for sequentially acquiring the traveling information regarding the traveling speed and the traveling direction of the vehicle, the position information acquisition means for sequentially acquiring the position information regarding the ground position of the vehicle, and the plurality of photographing means. A recording means for recording the vehicle outside image and the travel information and position information of the vehicle in time series, an image recognition means for recognizing a predetermined object from the outside image of the plurality of viewpoints, and photographing among the outside images of the plurality of viewpoints Disparity information calculating means for calculating disparity information related to the difference in appearance of the object in the images outside the vehicle with reference to a set of images outside the vehicle with overlapping ranges; and the object Based on the parallax information and the travel information and position information of the vehicle, the object location estimation means for estimating the location of the object and the outside images of the multiple viewpoints were estimated from a set of outside images with overlapping shooting ranges. Based on the location of the object and the travel information and position information of the vehicle, the object appearance prediction means for predicting that the object will appear in a predetermined range of another outside image, and the predicted When the object is recognized within a predetermined range of another vehicle outside image, the same object determining means is provided that determines the object recognized in the one vehicle outside image and the other vehicle outside image as the same object. A map information collection system is provided.

本発明の第3の側面によれば、車両に搭載され、この車両の外方を複数の視点で捉えて連続的に撮影する複数の撮影手段と、上記車両の走行速度および走行方向に関する走行情報を逐次取得する走行情報取得手段と、上記車両の地上位置に関する位置情報を逐次取得する位置情報取得手段と、上記複数の撮影手段によって得られた複数視点の車外画像ならびに上記車両の走行情報および位置情報を時系列に記録する記録手段と、上記複数視点の車外画像から所定の対象物を認識する画像認識手段と、上記複数視点の車外画像のうち少なくとも一つの視点に対応する車外画像を参照し、その車外画像において認識された上記対象物までの距離および方向を測定する対象物測位手段と、上記対象物までの距離および方向を測定して得られた測位情報ならびに上記車両の走行情報および位置情報に基づき、上記対象物の所在地を推定する対象物所在地推定手段と、上記複数視点の車外画像について、一の車外画像から推定された上記対象物の所在地と上記車両の走行情報および位置情報とに基づき、他の車外画像の所定範囲に上記対象物が出現するであろうことを予測する対象物出現予測手段と、予測された上記他の車外画像の所定範囲に上記対象物が認識された場合、上記一の車外画像と他の車外画像において認識された上記対象物を同一物と判定する同一物判定手段と、を備えている地図情報収集システムが提供される。   According to the third aspect of the present invention, a plurality of imaging means mounted on a vehicle and capturing continuously the outside of the vehicle from a plurality of viewpoints, and travel information on the travel speed and travel direction of the vehicle. Travel information acquisition means for sequentially acquiring position information acquisition means for sequentially acquiring position information relating to the ground position of the vehicle, images of a plurality of viewpoints obtained by the plurality of photographing means, and travel information and position of the vehicle A recording means for recording information in time series, an image recognition means for recognizing a predetermined object from the multiple-viewpoint exterior image, and an exterior image corresponding to at least one of the multiple-viewpoint exterior images. , Object positioning means for measuring the distance and direction to the object recognized in the image outside the vehicle, and positioning information obtained by measuring the distance and direction to the object And the object location estimating means for estimating the location of the object based on the travel information and the position information of the vehicle, and the location of the object estimated from a single exterior image and the location of the plurality of viewpoints Object appearance prediction means for predicting that the object will appear in a predetermined range of another outside image based on the travel information and position information of the vehicle, and a predetermined range of the predicted other outside image When the object is recognized, there is provided a map information collecting system comprising: an identical object judging means for judging that the object recognized in the one outside image and the other outside image is the same object. The

本発明により開示された技術によれば、たとえば複数視点の車外画像から所定の対象物を画像認識し、一方の車外画像からその対象物の所在地を推定して他方の画像における対象物の出現を予測する。これにより、異なる視点の車外画像に撮影された対象物であっても、これらの対象物が同一物か否かを判定することができるので、この種の対象物に関する地図情報をできる限り多くかつ正確に収集することができる。   According to the technology disclosed by the present invention, for example, a predetermined object is image-recognized from a plurality of viewpoints of an outside vehicle image, the location of the object is estimated from one outside vehicle image, and the appearance of the object in the other image is detected. Predict. Thereby, even if it is the target object image | photographed in the image outside a vehicle of a different viewpoint, since it can determine whether these target objects are the same objects, as much map information regarding this kind of target object as possible and It can be collected accurately.

本発明のその他の特徴および利点は、添付図面を参照して以下に行う詳細な説明によって、より明らかとなろう。   Other features and advantages of the present invention will become more apparent from the detailed description given below with reference to the accompanying drawings.

以下、本発明の好ましい実施の形態を、図面を参照して具体的に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1〜5は、本発明に係る地図情報収集システムの一実施形態を示している。本実施形態の地図情報収集システムA1は、いわゆるナビゲーションシステムBと組み合わせて用いられるものであり、このナビゲーションシステムBとともに図示しない車両に装備されている。   1 to 5 show an embodiment of a map information collecting system according to the present invention. The map information collection system A1 of the present embodiment is used in combination with a so-called navigation system B, and is installed in a vehicle (not shown) together with the navigation system B.

地図情報収集システムA1は、A視点のカメラ1a、B視点のカメラ1b、画像処理部10、走行情報取得部11、位置情報取得部12、記録部13、画像認識部14、ベクトル情報算出部15、対象物所在地推定部16、対象物出現予測部17、および同一物判定部18を有している。ナビゲーションシステムBは、ナビゲーション制御部20、ナビゲーションデータ蓄積部21、および表示部22を有している。画像処理部10、走行情報取得部11、位置情報取得部12、画像認識部14、ベクトル情報算出部15、対象物所在地推定部16、対象物出現予測部17、同一物判定部18、およびナビゲーション制御部20は、CPUやROMを備えたマイクロコンピュータにより実現される。記録部13およびナビゲーションデータ蓄積部21は、たとえばハードディスク装置により実現される。表示部22は、たとえば液晶表示装置により実現される。   The map information collection system A1 includes an A-view camera 1a, a B-view camera 1b, an image processing unit 10, a travel information acquisition unit 11, a position information acquisition unit 12, a recording unit 13, an image recognition unit 14, and a vector information calculation unit 15. , An object location estimation unit 16, an object appearance prediction unit 17, and an identical object determination unit 18. The navigation system B includes a navigation control unit 20, a navigation data storage unit 21, and a display unit 22. Image processing unit 10, travel information acquisition unit 11, position information acquisition unit 12, image recognition unit 14, vector information calculation unit 15, object location estimation unit 16, object appearance prediction unit 17, identical object determination unit 18, and navigation The control unit 20 is realized by a microcomputer including a CPU and a ROM. The recording unit 13 and the navigation data storage unit 21 are realized by a hard disk device, for example. The display unit 22 is realized by a liquid crystal display device, for example.

図2に示すように、A視点のカメラ1aは、車両の前方を向く視点が設定されており、その車両前方を所定の時間間隔で連続的に撮影する。このA視点のカメラ1aで撮影された画像をA視点の車外画像と称する。B視点のカメラ1bは、たとえば車両の左側方を向く視点が設定されており、車両左側方を所定の時間間隔で連続的に撮影する。このB視点のカメラ1bで撮影された画像をB視点の車外画像と称する。B視点のカメラ1bは、標準画質モードおよび高画質モードといった撮影モードの切り替えが可能である。A視点およびB視点の車外画像は、図3に一例として図示するような画像内容となる。   As shown in FIG. 2, the A viewpoint camera 1a is set with a viewpoint facing the front of the vehicle, and continuously captures the front of the vehicle at predetermined time intervals. An image taken by the A-viewpoint camera 1a is referred to as an A-viewpoint outside-vehicle image. The B viewpoint camera 1b has a viewpoint that faces the left side of the vehicle, for example, and continuously captures the left side of the vehicle at predetermined time intervals. An image photographed by the B-viewpoint camera 1b is referred to as a B-viewpoint outside-vehicle image. The B-viewpoint camera 1b can switch shooting modes such as a standard image quality mode and a high image quality mode. The A-viewpoint and B-viewpoint external images have image contents as illustrated in FIG. 3 as an example.

画像処理部10は、A視点およびB視点のカメラ1a,1bからの車外画像について各種の画像処理を行い、これらの車外画像を記録部13に転送する。この画像処理部10には、B視点のカメラ1bの撮影モードを切り替え制御する撮影モード切り替え手段としての機能がある。   The image processing unit 10 performs various types of image processing on the outside images from the A viewpoint and B viewpoint cameras 1 a and 1 b, and transfers these outside images to the recording unit 13. The image processing unit 10 has a function as shooting mode switching means for switching and controlling the shooting mode of the B-viewpoint camera 1b.

走行情報取得部11は、車両の走行速度および走行方向に関する走行情報を所定の時間間隔で逐次取得し、この走行情報を記録部13に転送する。走行速度は、車両に装備された速度計で計測され、走行方向は、車両に装備されたジャイロセンサにより検知される。   The travel information acquisition unit 11 sequentially acquires travel information regarding the travel speed and the travel direction of the vehicle at predetermined time intervals, and transfers the travel information to the recording unit 13. The traveling speed is measured by a speedometer installed in the vehicle, and the traveling direction is detected by a gyro sensor installed in the vehicle.

位置情報取得部12は、車両の地上位置に関する位置情報を所定の時間間隔で逐次取得し、この位置情報を記録部13に転送する。位置情報は、GPS衛星からのGPS信号を受信することで作成される。   The position information acquisition unit 12 sequentially acquires position information regarding the ground position of the vehicle at predetermined time intervals, and transfers this position information to the recording unit 13. The position information is created by receiving a GPS signal from a GPS satellite.

記録部13には、A視点およびB視点の車外画像、ならびに車両の走行情報および位置情報が時系列の順に互いに対応づけて記録される。図4に一例として図示するように、A視点およびB視点の車外画像は、上から下への時間経過順に記録される。走行情報は、たとえば東方向に速度30kmで走行していた場合、「E30」というように記録される。位置情報は、たとえば緯度経度によって「E134.56.4.0 N34.41.3.3」というように記録される。後述する所在地情報も、たとえば緯度経度によって記録される。   In the recording unit 13, the A-viewpoint and B-viewpoint outside-vehicle images, vehicle travel information, and position information are recorded in association with each other in time series. As illustrated in FIG. 4 as an example, the outside image of the A viewpoint and the B viewpoint is recorded in order of time passage from top to bottom. For example, when traveling at a speed of 30 km in the east direction, the traveling information is recorded as “E30”. The location information is recorded as “E134.56.4.0 N34.41.3.3.3” by, for example, latitude and longitude. Location information to be described later is also recorded by, for example, latitude and longitude.

画像認識部14は、A視点およびB視点の車外画像から、たとえば建造物、店舗、道路といった静的な対象物を画像認識処理によって認識する。この画像認識処理は、たとえば車外画像から特徴的な対象物の輪郭やパターン形状を抽出し、それを予めデータベースに保持された対象物モデルとパターンマッチングを行うことでどのような対象物かを特定する。このような画像認識処理においては、たとえば看板や標識の文字でも認識することができ、対象物の画像情報だけでなくテキスト情報も付随的に得ることできる。   The image recognition unit 14 recognizes, for example, a static object such as a building, a store, or a road from the images outside the A viewpoint and the B viewpoint by image recognition processing. In this image recognition process, for example, the contour or pattern shape of a characteristic object is extracted from the image outside the vehicle, and the object is identified by performing pattern matching with the object model stored in the database in advance. To do. In such an image recognition process, for example, a sign or a sign can be recognized, and not only image information of the object but also text information can be obtained incidentally.

ベクトル情報算出部15は、複数の連続したA視点の車外画像を参照し、これらの車外画像における対象物の動き方に関するベクトル情報を算出する。具体的には図5に示すように、ベクトル情報算出部15は、対象物が画像認識された後、所定の時間間隔となる複数の画像間でその対象物が見かけ上ずれたようにみえる相対移動量とその方向をベクトル情報として算出する。ベクトル情報は、図中に白抜きの矢印で示すようなものとなる。たとえばベクトル情報を示す矢印が大きいと、車両から比較的近くの距離に対象物が存在することが分かり、この矢印が小さいと、車両から比較的遠くの距離に対象物が存在することになる。このようなベクトル情報からは、車両の位置を基準位置とした対象物までの大凡の距離と方向が判明する。   The vector information calculation unit 15 refers to a plurality of continuous A-view images outside the vehicle, and calculates vector information regarding how the object moves in these out-of-vehicle images. Specifically, as shown in FIG. 5, the vector information calculation unit 15 performs relative processing in which the target object appears to be apparently shifted between a plurality of images having a predetermined time interval after the target object is image-recognized. The amount of movement and its direction are calculated as vector information. The vector information is as shown by a white arrow in the figure. For example, if the arrow indicating the vector information is large, it can be seen that the object exists at a relatively close distance from the vehicle. If the arrow is small, the object exists at a relatively far distance from the vehicle. From such vector information, the approximate distance and direction to the object with the vehicle position as the reference position can be determined.

対象物所在地推定部16は、対象物のベクトル情報、ならびにそのベクトル情報の算出対象となったA視点の車外画像に対応する車両の走行情報および位置情報に基づき、対象物が現に存在するであろう地上の所在地を推定する。このような所在地の推定は、ベクトル情報ならびに走行情報および位置情報について所定の演算を行い、走行位置が判明している車両から対象物までの距離と方向を求めることで行われる。推定結果として得られた所在地情報は、対応するA視点の車外画像と関連づけて記録部13に記録される。また、所在地情報が得られると、その基になったA視点の車外画像にフラグ「#F」がたてられる。   The object location estimation unit 16 indicates that the object actually exists based on the vector information of the object and the traveling information and position information of the vehicle corresponding to the outside image of the A viewpoint from which the vector information is calculated. Estimate the location on the waxy ground. Such location estimation is performed by performing predetermined calculations on the vector information, the travel information, and the position information, and determining the distance and direction from the vehicle whose travel position is known to the object. The location information obtained as the estimation result is recorded in the recording unit 13 in association with the corresponding outside image of the A viewpoint. Further, when the location information is obtained, the flag “#F” is set in the outside image of the viewpoint A based on the location information.

対象物出現予測部17は、A視点の車外画像から推定結果として得られた対象物の所在地情報と車両の走行情報および位置情報とに基づき、B視点の車外画像のある時点における画像に同じ対象物が出現するであろうことを予測する。このような対象物の出現予測は、所在地情報ならびに走行情報および位置情報について所定の演算を行い、現在走行中の車両が一定方向に所定時間だけ走行すると、B視点のカメラ1bの撮影範囲に対象物が入ってくることを予測することで行われる。予測結果としては、フラグ「#F」がたてられたA視点の車外画像を撮影した時点からの予測経過時間が求められる。この予測経過時間が過ぎると、対象物出現予測部17から高画質モード切り替え信号が画像処理部10に発信される。高画質モード切り替え信号を受信した画像処理部10は、B視点のカメラ1bの撮影モードを標準画質モードから高画質モードに切り替える。高画質モードは、たとえば予め定められた規定時間にわたって継続され、規定時間後は、B視点のカメラ1bの撮影モードが再び標準画質モードに切り替えられる。   The object appearance prediction unit 17 uses the same object as the image at a certain point of the B-view outside image based on the location information of the object obtained from the A-view image and the travel information and position information of the vehicle. Predict that an object will appear. Prediction of the appearance of such an object is performed by performing predetermined calculations on location information, travel information, and position information, and when the currently traveling vehicle travels in a certain direction for a predetermined time, the target is captured in the shooting range of the B viewpoint camera 1b. This is done by predicting that an object will come in. As a prediction result, a predicted elapsed time from the time when the image of the A viewpoint outside the vehicle with the flag “#F” is set is obtained. When the predicted elapsed time has passed, a high image quality mode switching signal is transmitted from the object appearance prediction unit 17 to the image processing unit 10. The image processing unit 10 that has received the high image quality mode switching signal switches the shooting mode of the B-viewpoint camera 1b from the standard image quality mode to the high image quality mode. The high image quality mode is continued for, for example, a predetermined time, and after the predetermined time, the shooting mode of the B-viewpoint camera 1b is switched to the standard image quality mode again.

同一物判定部18は、予測されたB視点の車外画像に対象物が認識された場合、その対象物が予測の基になったA視点の車外画像において認識された対象物と同一であるか否かを判定する。判定結果として同一物であると判定された場合、その対象物に関する所在地情報のほか、それに対応する画像や名称を示す情報を地図情報としてナビゲーション制御部20に転送する。判定結果として同一物でないと判定された場合、A視点の車外画像で撮影された対象物とB視点の車外画像で撮影された対象物とは異なるものと判断し、それぞれの対象物に関する地図情報をナビゲーション制御部20に転送する。   If the object is recognized in the predicted B-view vehicle outside image, the same object determination unit 18 is the same as the object recognized in the A-view vehicle image based on the prediction. Determine whether or not. When it is determined that the objects are the same as the determination result, in addition to the location information regarding the object, information indicating the corresponding image and name is transferred to the navigation control unit 20 as map information. When it is determined that the objects are not the same as the determination result, it is determined that the object photographed with the A-viewpoint outside image and the object photographed with the B-viewpoint exterior image are different from each other, and map information regarding each object Is transferred to the navigation control unit 20.

ナビゲーション制御部20は、たとえばナビゲーションデータ蓄積部21から表示用の地図画像に関するナビゲーションデータを読み出し、このナビゲーションデータならびに車両の走行情報や位置情報に基づき、現在車両が走行中の周辺地図と自車マークを表示部22に表示させる。地図情報収集システムA1から地図情報が転送されてきた場合、ナビゲーション制御部20は、その地図情報に基づいてナビゲーションデータを更新する。たとえば新設された建造物や店舗といった対象物が画像認識されて地図情報が転送されてきた場合、その対象物に関するランドマークがナビゲーションデータに反映され、表示部22には、それまでに無かったランドマークが周辺地図内に表示される。   The navigation control unit 20 reads, for example, navigation data related to a map image for display from the navigation data storage unit 21, and based on this navigation data and vehicle travel information and position information, a surrounding map and the vehicle mark that the vehicle is currently traveling are read. Is displayed on the display unit 22. When map information is transferred from the map information collection system A1, the navigation control unit 20 updates navigation data based on the map information. For example, when an object such as a newly constructed building or store is image-recognized and map information is transferred, a landmark relating to the object is reflected in the navigation data, and the display unit 22 has a land that has not existed before. The mark is displayed in the surrounding map.

次に、図6を参照して地図情報収集システムA1の動作手順について説明する。   Next, the operation procedure of the map information collection system A1 will be described with reference to FIG.

まず、画像処理部10は、A視点およびB視点のカメラ1a,1bから車外画像を取得する(S1)。   First, the image processing unit 10 acquires images outside the vehicle from the cameras 1a and 1b of the A viewpoint and the B viewpoint (S1).

車外画像の取得と同時に、走行情報取得部11および位置情報取得部12は、車両の走行情報および位置情報を取得する(S2,S3)   Simultaneously with the acquisition of the outside image, the travel information acquisition unit 11 and the position information acquisition unit 12 acquire the travel information and position information of the vehicle (S2, S3).

記録部13には、たとえば取得日時を示すタイムスタンプとともに、A視点およびB視点の車外画像、ならびに走行情報および位置情報が記録される(S4)。   The recording unit 13 records, for example, a time-stamp indicating acquisition date and time, an A-side image and a B-viewpoint outside-vehicle image, travel information, and position information (S4).

次に、画像認識部14は、記録されたA視点の車外画像について画像認識処理を行う(S5)。これにより、A視点の車外画像からは、対象物モデルに合致した所定の対象物が認識される。なお、画像認識処理は、A視点の車外画像と同時にB視点の車外画像についても行うようにしてもよい。また、車外画像の記録と同時に行うようにしてもよい。   Next, the image recognizing unit 14 performs image recognition processing on the recorded A-viewpoint outside-vehicle image (S5). As a result, a predetermined object that matches the object model is recognized from the outside image of the A viewpoint. Note that the image recognition process may be performed on the A-side image and the B-side image. Further, it may be performed simultaneously with the recording of the outside image.

次に、ベクトル情報算出部15は、複数の連続したA視点の車外画像から対象物のベクトル情報を算出する(S6)。   Next, the vector information calculation unit 15 calculates the vector information of the object from a plurality of continuous images of the A viewpoint outside the vehicle (S6).

次に、対象物所在地推定部16は、算出されたベクトル情報とその基になったA視点の車外画像に対応する車両の走行情報および位置情報に基づき、対象物の所在地を推定する(S7)。このとき、記録部13には、対応するA視点の車外画像と関連づけて対象物の所在地情報が記録され、基準となるA視点の車外画像にフラグ「#F」がたてられる。なお、対象物の所在地を推定する処理は、B視点の車外画像から対象物のベクトル情報を算出することにより、B視点の車外画像で認識された対象物について行うようにしてもよい。この場合、B視点の車外画像にも関連づけて対象物の所在地情報が記録される。   Next, the target object location estimation unit 16 estimates the location of the target object based on the calculated vector information and the travel information and position information of the vehicle corresponding to the vehicle outside image of the viewpoint A based on the calculated vector information (S7). . At this time, the location information of the object is recorded in the recording unit 13 in association with the corresponding outside image of the A viewpoint, and the flag “#F” is set on the outside image of the A viewpoint serving as a reference. Note that the process of estimating the location of the object may be performed on the object recognized in the B-viewpoint outside vehicle image by calculating the vector information of the object from the B-viewpoint outside-vehicle image. In this case, the location information of the object is recorded in association with the B-viewpoint outside-vehicle image.

次に、対象物出現予測部17は、対象物の所在地情報と車両の走行情報および位置情報とに基づき、フラグ「#F」のある車外画像から所定の時間経過後にB視点の車外画像に同じ対象物が出現するであろうことを予測する(S8)。予測結果としては、フラグ「#F」に対応するタイムスタンプからの予測経過時間が算出される。このような対象物の所在地推定や出現予測は、車外画像の記録と同時にリアルタイムに実行される。   Next, the object appearance prediction unit 17 is the same as the vehicle-outside image at the B viewpoint after a predetermined time has elapsed from the vehicle-outside image with the flag “#F” based on the location information of the object and the travel information and position information of the vehicle. It is predicted that an object will appear (S8). As the prediction result, the predicted elapsed time from the time stamp corresponding to the flag “#F” is calculated. Such location estimation and appearance prediction of the object are executed in real time simultaneously with the recording of the outside image.

予測経過時間を経てその予測時点になると(S9:YES)、画像処理部10は、B視点のカメラ1bの撮影モードを高画質モードに切り替える(S10)。これにより、B視点のカメラ1bからは、高画質の車外画像が得られる。予測時点が到来するまでの間は(S9:NO)、S1に戻ってS8までの処理が繰り返し実行される。このS1〜S8までの処理中は、標準画質からなるB視点の車外画像が取得される。なお、S1に戻って繰り返し処理を行う際には、B視点の車外画像について対象物の画像認識処理を行い、その対象物の所在地情報を記録するようにしてもよい。   When the predicted elapsed time is reached (S9: YES), the image processing unit 10 switches the shooting mode of the B-viewpoint camera 1b to the high image quality mode (S10). As a result, a high-quality vehicle exterior image can be obtained from the B-viewpoint camera 1b. Until the predicted time point comes (S9: NO), the process returns to S1 and the processes up to S8 are repeatedly executed. During the processing from S1 to S8, a B-viewpoint outside-vehicle image having standard image quality is acquired. When the process is repeated after returning to S1, the object recognition process may be performed on the B-viewpoint outside-vehicle image, and the location information of the object may be recorded.

その後、画像認識部14は、記録されたB視点の車外画像について画像認識処理を行う(S11)。このとき、予測時点におけるB視点の車外画像は、撮影モードの切り替えによって高画質で記録されている。そのため、特に予測時点のB視点の車外画像については、画像認識処理による対象物の認識率が高められる。   Thereafter, the image recognition unit 14 performs image recognition processing on the recorded B-viewpoint outside-vehicle image (S11). At this time, the in-vehicle image of the B viewpoint at the time of prediction is recorded with high image quality by switching the shooting mode. Therefore, the recognition rate of the object by the image recognition process is increased particularly for the B viewpoint external image at the time of prediction.

次に、同一物判定部18は、予測時点のB視点の車外画像において認識された対象物と、A視点の車外画像において認識された対象物とが同一であるか否かについて判定する(S12)。判定処理としては、特定された対象物の種類や名称が一致するか否かを基準にして容易に判定される。   Next, the same object determination unit 18 determines whether or not the object recognized in the B-view outside image at the prediction time point is the same as the object recognized in the A-view outside image (S12). ). As the determination process, it is easily determined based on whether or not the types and names of the identified objects match.

判定結果として同一物であると判定した場合(S12:YES)、同一物判定部18は、その対象物に関して記録された所在地情報、および対応する対象物モデルの画像や名称を示す情報を地図情報としてナビゲーション制御部20に転送する(S13)。   When it is determined that the objects are the same as the determination result (S12: YES), the same object determination unit 18 displays the location information recorded for the object and information indicating the image and name of the corresponding object model as map information. To the navigation control unit 20 (S13).

S12において、A視点の車外画像で認識された対象物とB視点の車外画像で認識された対象物とを異なるものと判定した場合(S12:NO)、同一物判定部18は、それぞれの対象物に関する地図情報をナビゲーション制御部20に転送する(S14)。このようなS1〜S14までの一連の処理は、繰り返し行われる。   In S12, when it is determined that the object recognized in the A-side image and the object recognized in the B-side image are different (S12: NO), the same object determination unit 18 Map information relating to the object is transferred to the navigation control unit 20 (S14). Such a series of processing from S1 to S14 is repeatedly performed.

したがって、本実施形態の地図情報収集システムA1によれば、A視点の車外画像で認識された対象物とB視点の車外画像で認識された対象物との同一性を判定し、正しい地図情報のみを取捨選択してナビゲーションシステムBに転送することができるので、この種の対象物に関する地図情報をできる限り多くかつ正確に収集することができる。   Therefore, according to the map information collection system A1 of the present embodiment, the identity of the object recognized by the A-side image and the object recognized by the B-side image is determined, and only correct map information is obtained. Since it can be selected and transferred to the navigation system B, it is possible to collect as much and as accurately map information about this type of object as possible.

図7〜14は、本発明に係る地図情報収集システムの他の実施形態を示している。なお、先述した実施形態によるものと同一または類似の構成要素や各種処理については、同一符号を付してその説明を省略する。   7 to 14 show other embodiments of the map information collecting system according to the present invention. Note that the same or similar components and various processes as those according to the above-described embodiment are denoted by the same reference numerals and description thereof is omitted.

図7の地図情報収集システムA2には、図8に示すようにA視点のカメラ1aと撮影範囲が重複するようにA’視点のカメラ1a’が設けられている。また、地図情報収集システムA2には、A視点およびA’視点の車外画像から対象物の所在地を推定するために視差情報を算出する視差情報算出部15’が設けられている。   As shown in FIG. 8, the map information collection system A2 in FIG. 7 is provided with an A ′ viewpoint camera 1a ′ so that the shooting range overlaps with the A viewpoint camera 1a. In addition, the map information collection system A2 is provided with a parallax information calculation unit 15 'that calculates parallax information in order to estimate the location of the object from the images outside the vehicle at the A viewpoint and the A' viewpoint.

A’視点のカメラ1a’で撮影されたA’視点の車外画像は、図9に破線で示すような画像内容となり、A視点の車外画像に対して若干ずれている。このA’視点の車外画像も、車両の走行情報および位置情報と対応づけて記録部13に記録される。   The A ′ viewpoint outside vehicle image captured by the A ′ viewpoint camera 1a ′ has an image content as indicated by a broken line in FIG. 9, and is slightly shifted from the A viewpoint vehicle outside image. The outside image of the A ′ viewpoint is also recorded in the recording unit 13 in association with the travel information and position information of the vehicle.

視差情報算出部15’は、A視点およびA’視点の車外画像を参照し、これらの車外画像で認識された対象物の見え方に関する視差情報を算出する。具体的に視差情報算出部15’は、A視点およびA’視点の車外画像から対象物が画像認識された後、これらの画像間で対象物がずれたようにみえる相対ずれ量とその方向を視差情報として算出する。この視差情報は、先述した実施形態におけるベクトル情報に類似したものとなり、ベクトルデータとして求められる。たとえば視差情報のベクトル値が大きいと、車両から比較的近くの距離に対象物が存在することが分かり、ベクトル値が小さいと、車両から比較的遠くの距離に対象物が存在することになる。このベクトルデータとしての視差情報からは、車両の位置を基準位置とした対象物までの大凡の距離と方向が判明する。このような対象物の視差情報、ならびにその視差情報の算出対象となったA視点およびA’視点の車外画像に対応する車両の走行情報および位置情報に基づき、対象物所在地推定部16は、対象物が現に存在するであろう地上の所在地を推定する。   The disparity information calculation unit 15 ′ refers to the A viewpoint and the outside image of the A ′ viewpoint, and calculates disparity information related to the appearance of the object recognized from these outside images. Specifically, the parallax information calculation unit 15 ′ calculates the relative shift amount and the direction in which the target object appears to be shifted between these images after the target object is image-recognized from the A viewpoint and the outside image of the A ′ viewpoint. Calculated as parallax information. This disparity information is similar to the vector information in the above-described embodiment, and is obtained as vector data. For example, when the vector value of the parallax information is large, it can be seen that the object is present at a relatively close distance from the vehicle, and when the vector value is small, the object is present at a relatively distant distance from the vehicle. From the parallax information as the vector data, the approximate distance and direction to the object with the vehicle position as the reference position can be determined. Based on the parallax information of the target object and the traveling information and the position information of the vehicle corresponding to the outside image of the A viewpoint and the A ′ viewpoint that are the calculation target of the parallax information, the target object location estimation unit 16 Estimate the ground location where the object will actually exist.

図10を参照して地図情報収集システムA2の動作手順について説明する。   The operation procedure of the map information collection system A2 will be described with reference to FIG.

まず、画像処理部10は、A視点およびA’視点ならびにB視点のカメラ1a,1a’,1bから車外画像を取得する(S21)。その後、図6のS2〜S4までの処理と同様に、S22〜S24の処理が実行される。   First, the image processing unit 10 acquires images outside the vehicle from the A viewpoint, the A ′ viewpoint, and the B viewpoint cameras 1a, 1a ′, and 1b (S21). Thereafter, similarly to the processes from S2 to S4 in FIG. 6, the processes from S22 to S24 are executed.

次に、画像認識部14は、記録されたA視点およびA’視点の車外画像について画像認識処理を行う(S25)。これにより、A視点およびA’視点の両方の車外画像からは、対象物モデルに合致した所定の対象物が認識される。   Next, the image recognition unit 14 performs an image recognition process on the recorded A-viewpoint and A′-viewpoint external images (S25). Thus, a predetermined object that matches the object model is recognized from the images outside the A viewpoint and the A ′ viewpoint.

次に、視差情報算出部15は、対象物が認識されたA視点およびA’視点の車外画像から対象物の視差情報を算出する(S26)。   Next, the parallax information calculation unit 15 calculates the parallax information of the target object from the outside images of the A viewpoint and the A ′ viewpoint in which the target object is recognized (S26).

次に、対象物所在地推定部16は、算出された視差情報とその算出対象となったA視点およびA’視点の車外画像に対応する車両の走行情報および位置情報とに基づき、対象物の所在地を推定する(S27)。その後、図6のS8〜S14までの処理と同様に、S28〜S34の処理が実行される。   Next, the object location estimating unit 16 determines the location of the object based on the calculated disparity information and the travel information and position information of the vehicle corresponding to the outside image of the A viewpoint and the A ′ viewpoint that are the calculation targets. Is estimated (S27). Thereafter, similarly to the processing from S8 to S14 in FIG. 6, the processing from S28 to S34 is executed.

したがって、本実施形態の地図情報収集システムA2によっても、先述した実施形態によるものと同様に、対象物に関する地図情報をできる限り多くかつ正確に収集することができる。また、対象物の所在地を推定する際には、ある瞬間にA視点とA’視点で撮影された一組の車外画像を参照するだけよいので、対象物の認識とほぼ同時に所在地情報の取得や対象物の出現予測を行うことができ、一連の処理をスムーズに実行することができる。   Therefore, the map information collection system A2 of the present embodiment can collect as much and as accurately the map information regarding the object as possible according to the embodiment described above. In addition, when estimating the location of an object, it is only necessary to refer to a set of images outside the vehicle taken at an A viewpoint and an A ′ viewpoint at a certain moment. Appearance prediction of an object can be performed and a series of processing can be performed smoothly.

図11の地図情報収集システムA3には、図12に示すようにA視点のカメラ1aの撮影範囲に向けてレーダ波を発信し、その反射波を受信するレーダ1cが設けられている。また、地図情報収集システムA3には、レーダ1cからの信号に応じて対象物までの距離と方向を測位する対象物測位部19が設けられている。図12および図13に示すように、レーダ1cからは、所定の範囲内で首振り状にレーダ波が発信されることにより、レーダ波が反射した対象物までの距離だけでなく方向も測定される。   As shown in FIG. 12, the map information collecting system A3 in FIG. 11 is provided with a radar 1c that transmits a radar wave toward the photographing range of the camera 1a at the A viewpoint and receives the reflected wave. Further, the map information collection system A3 is provided with an object positioning unit 19 that measures the distance and direction to the object in accordance with a signal from the radar 1c. As shown in FIG. 12 and FIG. 13, the radar 1 c oscillates a radar wave within a predetermined range, thereby measuring not only the distance to the object reflected by the radar wave but also the direction. The

対象物測位部19は、A視点の車外画像を参照し、この車外画像で認識された対象物の方向とレーダ1cからの信号に基づく方向とが合致した場合、レーダ1cからの信号に基づく対象物までの距離と方向を測位情報として作成する。この測位情報は、そのまま対象物の所在地推定に用いられ、対象物所在地推定部16は、レーダ1cによる測位情報ならびに車両の走行情報および位置情報に基づいて対象物が現に存在するであろう地上の所在地を推定する。   The object positioning unit 19 refers to the outside image of the A viewpoint, and when the direction of the object recognized in the outside image matches the direction based on the signal from the radar 1c, the object positioning unit 19 detects the object based on the signal from the radar 1c. Create the distance and direction to the object as positioning information. This positioning information is used as it is for the location estimation of the object, and the object location estimation unit 16 is based on the positioning information obtained by the radar 1c and the traveling information and position information of the vehicle. Estimate the location.

図14を参照して地図情報収集システムA3の動作手順について説明する。   The operation procedure of the map information collection system A3 will be described with reference to FIG.

まず、地図情報収集処理としては、図6のS1〜S5までの処理と同様に、S41〜S45の処理が実行される。   First, as map information collection processing, the processing of S41-S45 is performed similarly to the processing of S1-S5 of FIG.

その後、対象物測位部19は、A視点の車外画像で認識された対象物に関し、レーダ1cからの信号に基づいてその対象物までの距離と方向を測定する(S46)。こうして測定された対象物までの距離と方向は、測位情報として対象物所在地推定部16に伝えられる。   Thereafter, the object positioning unit 19 measures the distance and direction to the object based on the signal from the radar 1c with respect to the object recognized by the A-viewpoint outside vehicle image (S46). The distance and direction to the target object thus measured are transmitted to the target object location estimating unit 16 as positioning information.

次に、対象物所在地推定部16は、測位情報ならびにその測定時点に該当する走行情報および位置情報に基づき、対象物の所在地を推定する(S47)。その後、図6のS8〜S14までの処理と同様に、S48〜S54の処理が実行される。   Next, the target object location estimating unit 16 estimates the location of the target object based on the positioning information and the travel information and position information corresponding to the measurement time (S47). Thereafter, similarly to the processes from S8 to S14 in FIG. 6, the processes from S48 to S54 are executed.

したがって、本実施形態の地図情報収集システムA3によっても、先述した実施形態によるものと同様に、対象物に関する地図情報をできる限り多くかつ正確に収集することができる。また、対象物の所在地については、ある瞬間に撮影されたA視点の車外画像とレーダ1cからの信号などに基づいて即座に推定されるので、それとほぼ同時に所在地情報の取得や対象物の出現予測も行うことができ、一連の処理をスムーズに実行することができる。   Therefore, the map information collection system A3 of the present embodiment can collect as much and as accurately map information about the object as possible according to the embodiment described above. Further, since the location of the object is immediately estimated based on the A-view outside image taken at a certain moment and the signal from the radar 1c, the acquisition of the location information and the prediction of the appearance of the object are almost at the same time. And a series of processes can be executed smoothly.

なお、本発明は、上記の実施形態に限定されるものではない。   In addition, this invention is not limited to said embodiment.

上記実施形態で示した構成は、あくまでも一例にすぎず、仕様に応じて適宜設計変更することが可能である。   The configuration shown in the above embodiment is merely an example, and the design can be changed as appropriate according to the specification.

たとえば、車外を撮影するカメラは、3個以上設けてもよい。カメラの設置数が多くなるほど対象物に関する地図情報を多く収集することができる。   For example, three or more cameras that photograph outside the vehicle may be provided. As the number of cameras installed increases, more map information about the object can be collected.

地図情報収集システムとしては、たとえば車両に搭載する機能とこれとは別に画像認識などを行う情報処理機能とに分け、この情報処理機能をデータセンタのコンピュータにもたせるようにしてもよい。情報処理機能としては、画像認識部、ベクトル情報算出部、視差情報算出部、対象物所在地推定部、対象物出現予測部、同一物判定部が挙げられる。この場合、撮影モードの切り替えを行うことはできないが、車外画像などを一旦記録した後、演算能力が高い汎用のコンピュータなどによって高精度に画像認識処理を行うことができ、対象物の地図情報をより多くかつ正確に取得することができる。   As the map information collection system, for example, a function mounted on a vehicle and an information processing function for performing image recognition or the like may be separately provided, and this information processing function may be provided to a computer in a data center. Examples of the information processing function include an image recognition unit, a vector information calculation unit, a parallax information calculation unit, an object location estimation unit, an object appearance prediction unit, and an identical object determination unit. In this case, the shooting mode cannot be switched, but once the vehicle outside image is recorded, image recognition processing can be performed with high accuracy by a general-purpose computer or the like having high computing ability, and the map information of the object can be obtained. More and more can be acquired.

本発明に係る地図情報収集システムの一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the map information collection system which concerns on this invention. A視点およびB視点のカメラの配置形態を示す模式図である。It is a schematic diagram which shows the arrangement | positioning form of the camera of A viewpoint and B viewpoint. A視点およびB視点の車外画像を説明するための説明図である。It is explanatory drawing for demonstrating the image outside a vehicle of A viewpoint and B viewpoint. 画像および情報の記録構造を説明するための説明図である。It is explanatory drawing for demonstrating the recording structure of an image and information. ベクトル情報の算出方法を説明するための説明図である。It is explanatory drawing for demonstrating the calculation method of vector information. 図1の地図情報収集システムによる動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure by the map information collection system of FIG. 本発明に係る地図情報収集システムの他の実施形態を示すブロック図である。It is a block diagram which shows other embodiment of the map information collection system which concerns on this invention. A視点およびA’視点ならびにB視点のカメラの配置形態を示す模式図である。It is a schematic diagram which shows the arrangement | positioning form of the camera of A viewpoint, A 'viewpoint, and B viewpoint. A視点およびA’視点の車外画像を説明するための説明図である。It is explanatory drawing for demonstrating the vehicle outside image of A viewpoint and A 'viewpoint. 図7の地図情報収集システムによる動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure by the map information collection system of FIG. 本発明に係る地図情報収集システムの他の実施形態を示すブロック図である。It is a block diagram which shows other embodiment of the map information collection system which concerns on this invention. A視点およびB視点のカメラならびにレーダの配置形態を示す模式図である。It is a schematic diagram which shows the arrangement | positioning form of the camera of A viewpoint and B viewpoint, and a radar. 対象物についての測位方法を説明するための説明図である。It is explanatory drawing for demonstrating the positioning method about a target object. 図11の地図情報収集システムによる動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure by the map information collection system of FIG.

符号の説明Explanation of symbols

1a A視点のカメラ(撮影手段)
1a’ A’視点のカメラ(撮影手段)
1b B視点のカメラ(撮影手段)
1c レーダ
10 画像処理部(撮影モード切り替え手段)
11 走行情報取得部(走行情報取得手段)
12 位置情報取得部(位置情報取得手段)
13 記録部(記録手段)
14 画像認識部(画像認識手段)
15 ベクトル情報算出部(ベクトル情報算出手段)
15’ 視差情報算出部(視差情報算出手段)
16 対象物所在地推定部(対象物所在地推定手段)
17 対象物出現予測部(対象物出現予測手段)
18 同一物判定部(同一物判定手段)
19 対象物測位部(対象物測位手段)
1a A viewpoint camera (photographing means)
1a 'A' viewpoint camera (photographing means)
1b B viewpoint camera (photographing means)
1c Radar 10 Image processing unit (shooting mode switching means)
11 Travel information acquisition unit (travel information acquisition means)
12 position information acquisition unit (position information acquisition means)
13 Recording section (recording means)
14 Image recognition unit (image recognition means)
15 Vector information calculation unit (vector information calculation means)
15 'parallax information calculation unit (parallax information calculation means)
16 Target location estimation part (Target location estimation means)
17 Object appearance prediction part (object appearance prediction means)
18 Same thing judgment part (same thing judgment means)
19 Object positioning unit (object positioning means)

Claims (4)

車両に搭載され、この車両の外方を複数の視点で捉えて連続的に撮影する複数の撮影手段と、
上記車両の走行速度および走行方向に関する走行情報を逐次取得する走行情報取得手段と、
上記車両の地上位置に関する位置情報を逐次取得する位置情報取得手段と、
上記複数の撮影手段によって得られた複数視点の車外画像ならびに上記車両の走行情報および位置情報を時系列に記録する記録手段と、
上記複数視点の車外画像から所定の対象物を認識する画像認識手段と、
上記複数視点のうち少なくとも一つの視点に対応する車外画像を参照し、その車外画像における上記対象物の動き方についてのベクトル情報を算出するベクトル情報算出手段と、
上記対象物のベクトル情報ならびに上記車両の走行情報および位置情報に基づき、上記対象物の所在地を推定する対象物所在地推定手段と、
上記複数視点の車外画像について、一の車外画像から推定された上記対象物の所在地と上記車両の走行情報および位置情報とに基づき、他の車外画像の所定範囲に上記対象物が出現するであろうことを予測する対象物出現予測手段と、
予測された上記他の車外画像の所定範囲に上記対象物が認識された場合、上記一の車外画像と他の車外画像において認識された上記対象物を同一物と判定する同一物判定手段と、
を備えている、地図情報収集システム。
A plurality of photographing means mounted on the vehicle and capturing the outside of the vehicle from a plurality of viewpoints continuously;
Travel information acquisition means for sequentially acquiring travel information relating to the travel speed and travel direction of the vehicle;
Position information acquisition means for sequentially acquiring position information relating to the ground position of the vehicle;
Recording means for recording images of a plurality of viewpoints obtained by the plurality of photographing means and vehicle travel information and position information in time series;
Image recognizing means for recognizing a predetermined object from the plurality of viewpoints of the vehicle exterior image;
A vector information calculating unit that refers to an outside image corresponding to at least one of the plurality of viewpoints, and calculates vector information about how the object moves in the outside image;
Object location estimating means for estimating the location of the object based on vector information of the object and travel information and position information of the vehicle;
The above-mentioned object appears in a predetermined range of another outside image based on the location of the object estimated from one outside-of-vehicle image and the travel information and position information of the vehicle. An object appearance prediction means for predicting waxing;
When the object is recognized in a predetermined range of the predicted other outside image, the same object determining means for determining the object recognized in the one outside image and the other outside image as the same object;
A map information collection system.
車両に搭載され、この車両の外方を複数の視点で捉えて連続的に撮影するとともに、少なくとも撮影範囲が重複する組を含む複数の撮影手段と、
上記車両の走行速度および走行方向に関する走行情報を逐次取得する走行情報取得手段と、
上記車両の地上位置に関する位置情報を逐次取得する位置情報取得手段と、
上記複数の撮影手段によって得られた複数視点の車外画像ならびに上記車両の走行情報および位置情報を時系列に記録する記録手段と、
上記複数視点の車外画像から所定の対象物を認識する画像認識手段と、
上記複数視点の車外画像のうち撮影範囲が重複する組の車外画像を参照し、これらの車外画像における上記対象物の見え方の違いに関した視差情報を算出する視差情報算出手段と、
上記対象物の視差情報ならびに上記車両の走行情報および位置情報に基づき、上記対象物の所在地を推定する対象物所在地推定手段と、
上記複数視点の車外画像について、撮影範囲が重複する組の車外画像から推定された上記対象物の所在地と上記車両の走行情報および位置情報とに基づき、他の車外画像の所定範囲に上記対象物が出現するであろうことを予測する対象物出現予測手段と、
予測された上記他の車外画像の所定範囲に上記対象物が認識された場合、上記一の車外画像と他の車外画像において認識された上記対象物を同一物と判定する同一物判定手段と、
を備えている、地図情報収集システム。
A plurality of photographing means mounted on the vehicle, capturing the outside of the vehicle from a plurality of viewpoints and continuously photographing, and including at least a pair of photographing ranges,
Travel information acquisition means for sequentially acquiring travel information relating to the travel speed and travel direction of the vehicle;
Position information acquisition means for sequentially acquiring position information relating to the ground position of the vehicle;
Recording means for recording images of a plurality of viewpoints obtained by the plurality of photographing means and vehicle travel information and position information in time series;
Image recognizing means for recognizing a predetermined object from the plurality of viewpoints of the vehicle exterior image;
Parallax information calculation means for calculating parallax information related to the difference in appearance of the object in the outside images with reference to the outside images of a set of imaging ranges that overlap among the outside images of the plurality of viewpoints;
Object location estimating means for estimating the location of the object based on the parallax information of the object and travel information and position information of the vehicle;
Based on the location of the object estimated from the images outside the vehicle with overlapping shooting ranges and the travel information and position information of the vehicle, the object within the predetermined range of the other images Object appearance prediction means for predicting that
When the object is recognized in a predetermined range of the predicted other outside image, the same object determining means for determining the object recognized in the one outside image and the other outside image as the same object;
A map information collection system.
車両に搭載され、この車両の外方を複数の視点で捉えて連続的に撮影する複数の撮影手段と、
上記車両の走行速度および走行方向に関する走行情報を逐次取得する走行情報取得手段と、
上記車両の地上位置に関する位置情報を逐次取得する位置情報取得手段と、
上記複数の撮影手段によって得られた複数視点の車外画像ならびに上記車両の走行情報および位置情報を時系列に記録する記録手段と、
上記複数視点の車外画像から所定の対象物を認識する画像認識手段と、
上記複数視点の車外画像のうち少なくとも一つの視点に対応する車外画像を参照し、その車外画像において認識された上記対象物までの距離および方向を測定する対象物測位手段と、
上記対象物までの距離および方向を測定して得られた測位情報ならびに上記車両の走行情報および位置情報に基づき、上記対象物の所在地を推定する対象物所在地推定手段と、
上記複数視点の車外画像について、一の車外画像から推定された上記対象物の所在地と上記車両の走行情報および位置情報とに基づき、他の車外画像の所定範囲に上記対象物が出現するであろうことを予測する対象物出現予測手段と、
予測された上記他の車外画像の所定範囲に上記対象物が認識された場合、上記一の車外画像と他の車外画像において認識された上記対象物を同一物と判定する同一物判定手段と、
を備えている、地図情報収集システム。
A plurality of photographing means mounted on the vehicle and capturing the outside of the vehicle from a plurality of viewpoints continuously;
Travel information acquisition means for sequentially acquiring travel information relating to the travel speed and travel direction of the vehicle;
Position information acquisition means for sequentially acquiring position information relating to the ground position of the vehicle;
Recording means for recording images of a plurality of viewpoints obtained by the plurality of photographing means and vehicle travel information and position information in time series;
Image recognizing means for recognizing a predetermined object from the plurality of viewpoints of the vehicle exterior image;
An object positioning unit that refers to an image outside the vehicle corresponding to at least one viewpoint among the images outside the vehicle of the plurality of viewpoints, and measures a distance and a direction to the object recognized in the image outside the vehicle;
An object location estimating means for estimating the location of the object based on positioning information obtained by measuring the distance and direction to the object, and the traveling information and position information of the vehicle;
The above-mentioned object appears in a predetermined range of another outside image based on the location of the object estimated from one outside-of-vehicle image and the travel information and position information of the vehicle. An object appearance prediction means for predicting waxing;
When the object is recognized in a predetermined range of the predicted other outside image, the same object determining means for determining the object recognized in the one outside image and the other outside image as the same object;
A map information collection system.
上記複数の撮影手段から上記記録手段へと上記複数視点の車外画像が取り込まれると同時に、上記対象物所在地推定手段および対象物出現予測手段は、所定の動作をリアルタイムに実行しており、
上記対象物所在地推定手段によって推定された時点から上記対象物出現予測手段によって予測された時点に達すると、上記他の車外画像がその予測時点以前の画質よりも高画質で撮影されるように対応する上記撮影手段の撮影モードを切り替える撮影モード切り替え手段を有している、請求項1ないし3のいずれかに記載の地図情報収集システム。
At the same time that the plurality of viewpoints outside the vehicle image are captured from the plurality of photographing means to the recording means, the object location estimating means and the object appearance predicting means are executing predetermined operations in real time,
When the time estimated by the object location estimating means reaches the time predicted by the object appearance predicting means, the other outside vehicle image is taken with higher image quality than the image quality before the predicted time. The map information collecting system according to claim 1, further comprising photographing mode switching means for switching a photographing mode of the photographing means.
JP2008296432A 2008-11-20 2008-11-20 Map information collection system Expired - Fee Related JP5353199B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008296432A JP5353199B2 (en) 2008-11-20 2008-11-20 Map information collection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008296432A JP5353199B2 (en) 2008-11-20 2008-11-20 Map information collection system

Publications (2)

Publication Number Publication Date
JP2010122486A JP2010122486A (en) 2010-06-03
JP5353199B2 true JP5353199B2 (en) 2013-11-27

Family

ID=42323878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008296432A Expired - Fee Related JP5353199B2 (en) 2008-11-20 2008-11-20 Map information collection system

Country Status (1)

Country Link
JP (1) JP5353199B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7238821B2 (en) * 2020-02-06 2023-03-14 トヨタ自動車株式会社 Map generation system and map generation program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003329449A (en) * 2002-05-14 2003-11-19 Learning Space:Kk Method and device for creating common base road information
JP4511147B2 (en) * 2003-10-02 2010-07-28 株式会社岩根研究所 3D shape generator
JP5225542B2 (en) * 2004-09-22 2013-07-03 三菱電機株式会社 MAP INFORMATION GENERATION METHOD, MAP INFORMATION GENERATION PROGRAM, AND MAP INFORMATION COLLECTION DEVICE
JP4752319B2 (en) * 2005-04-27 2011-08-17 トヨタ自動車株式会社 Image recognition apparatus and image recognition method
JP2007206099A (en) * 2006-01-30 2007-08-16 Mobile Mapping Kk Map creation support system

Also Published As

Publication number Publication date
JP2010122486A (en) 2010-06-03

Similar Documents

Publication Publication Date Title
EP3137850B1 (en) Method and system for determining a position relative to a digital map
JP4600357B2 (en) Positioning device
EP3480559A1 (en) On-vehicle processing device
US20200353914A1 (en) In-vehicle processing device and movement support system
JP2007232690A (en) Present position detection apparatus, map display device and present position detecting method
JP2016180980A (en) Information processing device, program, and map data updating system
JP6520740B2 (en) Object detection method, object detection device, and program
JP6070206B2 (en) Position coordinate conversion system, position coordinate conversion method, in-vehicle device, world coordinate measuring device, and position coordinate conversion program
KR20080050887A (en) Apparatus and method for estimating location of vehicle using pixel location and size of road facilities which appear in images
JP4899647B2 (en) Distance measuring program, distance measuring device, distance measuring method
CN113959457B (en) Positioning method and device for automatic driving vehicle, vehicle and medium
JP2019078700A (en) Information processor and information processing system
JP5353199B2 (en) Map information collection system
JP4752319B2 (en) Image recognition apparatus and image recognition method
KR20170030936A (en) Distance measuring device for nearing vehicle
JP6549932B2 (en) Stereo image processing device
JP6232883B2 (en) Own vehicle position recognition device
CN115841660A (en) Distance prediction method, device, equipment, storage medium and vehicle
US20230273029A1 (en) Vision-based location and turn marker prediction
JP5160761B2 (en) Map information distribution system
JP6933069B2 (en) Pathfinding device
JP7149234B2 (en) Lane data generation device, position specifying device, lane data generation method, and position specifying method
JP5980283B2 (en) Billing system
JP7227763B2 (en) In-vehicle processing device, position estimation method, exit system
KR102358695B1 (en) Compensation Device and Method for Vehicle Motion Sensor Capable of Frequent Correction for Each Lane Keeping Section Extracted Based on Image Information, and Medium Being Recorded with Program for Executing the Method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110808

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120127

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130812

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees