JP2013115559A - Bird's -eye video generation apparatus, bird's-eye video generation method, video display system and navigation device - Google Patents

Bird's -eye video generation apparatus, bird's-eye video generation method, video display system and navigation device Download PDF

Info

Publication number
JP2013115559A
JP2013115559A JP2011259062A JP2011259062A JP2013115559A JP 2013115559 A JP2013115559 A JP 2013115559A JP 2011259062 A JP2011259062 A JP 2011259062A JP 2011259062 A JP2011259062 A JP 2011259062A JP 2013115559 A JP2013115559 A JP 2013115559A
Authority
JP
Japan
Prior art keywords
image
overhead
bird
unit
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011259062A
Other languages
Japanese (ja)
Other versions
JP5836774B2 (en
Inventor
Nariaki Takehara
成晃 竹原
Tetsuji Hashimo
哲司 羽下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011259062A priority Critical patent/JP5836774B2/en
Publication of JP2013115559A publication Critical patent/JP2013115559A/en
Application granted granted Critical
Publication of JP5836774B2 publication Critical patent/JP5836774B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a bird's-eye video generation apparatus, a bird's-eye video generation method, a video display system and a navigation device, capable of easily adjusting conversion parameters for converting a captured image into a bird's-eye image.SOLUTION: A bird's-eye video generation apparatus includes: a bird's-eye conversion section 23 for using bird's-eye parameters read from a bird's-eye parameter storage section 25 for storing the bird's-eye parameters for converting an image into a bird's-eye image by shading conversion to convert a captured image captured by a camera 10 into a bird's-eye image; an interval index calculation section 24b for calculating an interval index value indicating a uniform degree of intervals of a pattern of a sign on the bird's-eye image obtained by converting the captured image in which the sign of the pattern at equal intervals is imaged; and a bird's-eye parameter calculation section 24c for, on the basis of the calculated interval index value, calculating the bird's-eye parameters by which the intervals of the pattern of the sign on the bird's-eye image are uniformed, and storing the calculated bird's-eye parameters in the bird's-eye parameter storage section 25.

Description

この発明は、車両などの移動体に搭載され、移動体周辺が撮像された画像を俯瞰画像に変換して利用者に提示する俯瞰映像生成装置、俯瞰映像生成方法、これを用いた映像表示システムおよびナビゲーション装置に関する。   The present invention is an overhead video generation apparatus, an overhead video generation method, and a video display system using the same, which are mounted on a mobile body such as a vehicle and convert an image captured around the mobile body into an overhead image and present it to a user. And a navigation device.

従来、車両に搭載したカメラの撮影画像を俯瞰変換して利用者に提示する画像処理装置が知られている。このような装置では、カメラを設定した際に、その姿勢状態を示す姿勢パラメータを記憶しておき、その姿勢状態でカメラが設置されていることを前提として、カメラ画像を姿勢パラメータを基に俯瞰変換していた。   2. Description of the Related Art Conventionally, there has been known an image processing apparatus that converts a bird's-eye view of a camera image mounted on a vehicle and presents it to a user. In such an apparatus, when a camera is set, a posture parameter indicating the posture state is stored, and the camera image is viewed based on the posture parameter on the assumption that the camera is installed in the posture state. It was converted.

車両にカメラを適切に設置するための従来の技術として、例えば特許文献1に開示される方法がある。この方法では、車両から離れた位置に指標となるテストパターン(基準パターン、テストチャート)を設け、カメラで撮像したテストパターンの撮像状態を基に、姿勢パターンが示す姿勢状態でカメラが設置されているかどうかを点検する。   As a conventional technique for appropriately installing a camera in a vehicle, for example, there is a method disclosed in Patent Document 1. In this method, a test pattern (reference pattern, test chart) serving as an index is provided at a position away from the vehicle, and the camera is installed in the posture state indicated by the posture pattern based on the imaging state of the test pattern captured by the camera. Check whether there is any.

また、特許文献2には、地面に描かれた白線などの平行線やこの平行線から求められる無限遠を基準として、カメラの取り付け状態を調整する画像処理装置が提案されている。この装置では、カメラの撮像方向を調整する調整機構を備えており、カメラを車両に取り付けた後にその撮像方向がずれても、撮像方向を調整可能である。   Patent Document 2 proposes an image processing apparatus that adjusts the camera mounting state with reference to a parallel line such as a white line drawn on the ground or an infinite distance obtained from the parallel line. In this apparatus, an adjustment mechanism that adjusts the imaging direction of the camera is provided, and the imaging direction can be adjusted even if the imaging direction is shifted after the camera is attached to the vehicle.

非特許文献1には、姿勢パラメータ自体を推定する方法が開示されている。この方法では、専用のテストパターンをカメラで撮像し、テストパターンの撮像状態から姿勢パラメータを推定する。
また、特許文献3および特許文献4には、地面に描かれた白線などの平行線やこの平行線から求められる無限遠を基準として、カメラの姿勢パラメータを推定する方法が提案されている。
さらに、特許文献5には、地面に描かれた平行線の撮像画像を適当な姿勢パラメータに基づいて俯瞰変換し、その平行線の平行度を算出することで、姿勢パラメータを推定する姿勢パラメータ推定装置が提案されている。この装置では、平行線のみで姿勢パラメータを推定することが可能である。
Non-Patent Document 1 discloses a method for estimating a posture parameter itself. In this method, a dedicated test pattern is imaged by a camera, and posture parameters are estimated from the test pattern imaging state.
Patent Documents 3 and 4 propose a method for estimating a camera posture parameter based on a parallel line such as a white line drawn on the ground or an infinite distance obtained from the parallel line.
Furthermore, Patent Document 5 discloses posture parameter estimation for estimating posture parameters by performing a bird's-eye view conversion on a captured image of parallel lines drawn on the ground based on appropriate posture parameters and calculating parallelism of the parallel lines. A device has been proposed. With this apparatus, it is possible to estimate the posture parameter only with parallel lines.

特開2001−91984号公報Japanese Patent Laid-Open No. 2001-91984 特開2000−142221号公報JP 2000-142221 A 特開平7−77431号公報JP-A-7-77431 特開平7−147000号公報JP 7-147000 A 特開2008−182652号公報JP 2008-182652 A

R.Y.Tsai,“A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses”,Transactions on Pattern Analysis and Machine Intelligence 22(11),IEEE,1987,p.323-344.RYTsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses”, Transactions on Pattern Analysis and Machine Intelligence 22 (11), IEEE, 1987, p.323-344 .

特許文献1,2に代表される従来の技術は、姿勢パラメータが示す姿勢にカメラが設置されていなかった場合、カメラ姿勢を調整する必要があるため、一時的な姿勢のずれに柔軟に対応することができないという課題があった。
例えば、車両に搭載されたカメラでは、乗員や荷物の積載により車両が傾くと、カメラ姿勢がずれた状態となる。この場合、乗員の数や荷物の重さなどが変われば、カメラ姿勢も変化する可能性があり、その都度カメラ姿勢を推定し直す必要がある。
また、上記従来の技術は、専用のテストパターンを用意する必要がある。したがって、テストパターンなどの保管場所とカメラ姿勢の調整を実施する場所が必要であり、テストパターンを用意するコストがかかる。このため、カメラの姿勢推定を簡易に実施することができないという課題があった。
The conventional techniques represented by Patent Documents 1 and 2 flexibly cope with a temporary posture deviation because the camera posture needs to be adjusted when the camera is not installed in the posture indicated by the posture parameter. There was a problem that it was not possible.
For example, in a camera mounted on a vehicle, when the vehicle is tilted due to loading of passengers or luggage, the camera posture is shifted. In this case, if the number of passengers, the weight of luggage, etc. change, the camera posture may also change, and it is necessary to reestimate the camera posture each time.
In addition, the conventional technique needs to prepare a dedicated test pattern. Therefore, a storage place for the test pattern and a place for adjusting the camera posture are required, and the cost for preparing the test pattern is high. For this reason, there existed a subject that posture estimation of a camera could not be performed simply.

また、特許文献3,4に代表される従来の技術では、カメラの姿勢推定に平行線から求められる無限遠が必要となる。このため、白線を撮像する道路がカーブしていたり、車両やビルなどの障害物が存在していたりすると、無限遠を求めることができず(または困難となり)、カメラの姿勢推定が容易でないという課題があった。   Further, the conventional techniques represented by Patent Documents 3 and 4 require an infinite distance obtained from parallel lines for camera posture estimation. For this reason, if the road that captures the white line is curved, or if there are obstacles such as vehicles or buildings, infinity cannot be obtained (or it becomes difficult), and camera posture estimation is not easy There was a problem.

さらに、特許文献5に代表される従来の技術では、走行車線の平行線を用いてカメラの姿勢を推定していることから、車両横に取り付けるサイドカメラでは、走行車線の平行な白線の一方しか撮像することができず、サイドカメラの姿勢推定に容易に適用できない。また、特許文献5では、姿勢パラメータの推定にカメラの取り付け高さや焦点距離を用いることから、これらの値をあらかじめ測定して姿勢パラメータ推定装置に入力する必要がある。   Furthermore, in the conventional technique represented by Patent Document 5, since the posture of the camera is estimated using the parallel line of the traveling lane, in the side camera attached to the side of the vehicle, only one of the parallel white lines of the traveling lane is present. It cannot be imaged and cannot be easily applied to posture estimation of the side camera. Further, in Patent Document 5, since the camera mounting height and focal length are used for estimation of posture parameters, it is necessary to measure these values in advance and input them to the posture parameter estimation device.

さらに、非特許文献1および上記特許文献1〜5では、姿勢パラメータによる視点変換によってカメラ姿勢を調整することから、仮想視点などの設定やこれに基づく変換処理が複雑であり、簡易なパラメータ調整を行うことができない。   Furthermore, in Non-Patent Document 1 and Patent Documents 1 to 5 described above, since the camera posture is adjusted by viewpoint conversion based on the posture parameter, setting of the virtual viewpoint and the conversion processing based on this are complicated, and simple parameter adjustment is performed. I can't do it.

この発明は、上記のような課題を解決するためになされたもので、撮像画像を俯瞰画像に変換する変換パラメータを簡易に調整できる俯瞰映像生成装置、俯瞰映像生成方法、これを用いて俯瞰変換した映像を表示する映像表示システムおよびこれを用いて俯瞰変換した画像を表示できるナビゲーション装置を得ることを目的とする。   The present invention has been made to solve the above-described problems. An overhead image generation apparatus, an overhead image generation method, and an overhead conversion using the overhead image generation apparatus that can easily adjust conversion parameters for converting a captured image into an overhead image. It is an object of the present invention to obtain a video display system for displaying a video and a navigation device capable of displaying a bird's-eye converted image using the video display system.

この発明に係る俯瞰映像生成装置は、画像を射影変換により俯瞰画像に変換する変換パラメータを記憶するパラメータ記憶部と、パラメータ記憶部から読み出した変換パラメータを用いて、撮像部により撮像された撮像画像を俯瞰画像に変換する俯瞰変換部と、俯瞰変換部によって等間隔のパターンの標示が撮像された撮像画像が変換された俯瞰画像を取得し、この俯瞰画像上で標示のパターンの間隔が揃う度合を示す間隔指標値を算出する間隔指標算出部と、間隔指標算出部によって算出された間隔指標値に基づいて、俯瞰画像上で標示のパターンの間隔が所定の範囲内で揃う変換パラメータを算出して、パラメータ記憶部に記憶するパラメータ算出部とを備える。   A bird's-eye view video generation device according to the present invention includes a parameter storage unit that stores a conversion parameter for converting an image into a bird's-eye view image by projective transformation, and a captured image captured by the imaging unit using the conversion parameter read from the parameter storage unit. To obtain a bird's-eye view image obtained by converting a bird's-eye view image obtained by converting a captured image obtained by capturing an image of an equally spaced pattern by the bird's-eye view conversion unit. Based on the interval index value calculated by the interval index calculation unit and the interval index calculation unit that calculates the interval index value indicating the conversion parameter, the conversion parameter in which the interval of the marking pattern is aligned within a predetermined range on the overhead image is calculated. And a parameter calculation unit stored in the parameter storage unit.

この発明によれば、撮像画像を俯瞰画像に変換する変換パラメータを簡易に調整できるという効果がある。   According to the present invention, there is an effect that the conversion parameter for converting the captured image into the overhead image can be easily adjusted.

この発明の実施の形態1に係る俯瞰映像生成装置を備えた映像表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video display system provided with the bird's-eye view video production | generation apparatus which concerns on Embodiment 1 of this invention. 実施の形態1に係る俯瞰映像生成装置を備えたナビゲーション装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a navigation device including an overhead video generation device according to Embodiment 1. FIG. 標示撮像データ取得部の構成例を示すブロック図である。It is a block diagram which shows the structural example of a labeled imaging data acquisition part. 実施の形態1に係る俯瞰映像生成装置の動作を示すフローチャートである。4 is a flowchart showing an operation of the overhead view video generation device according to the first embodiment. 実施の形態1に係る俯瞰変換を示す図である。It is a figure which shows the overhead view conversion which concerns on Embodiment 1. FIG. 実施の形態1に係る間隔指標に基づく俯瞰パラメータの推定処理を示す図である。FIG. 10 is a diagram illustrating an overhead parameter estimation process based on an interval index according to the first embodiment. この発明の実施の形態2に係る俯瞰映像生成装置を備えた映像表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video display system provided with the bird's-eye view video production | generation apparatus which concerns on Embodiment 2 of this invention. 実施の形態2に係る俯瞰映像生成装置を備えたナビゲーション装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a navigation device including the overhead view video generation device according to the second embodiment. 実施の形態2に係る俯瞰映像生成装置の動作を示すフローチャートである。6 is a flowchart illustrating an operation of the overhead view video generation device according to the second embodiment. 実施の形態2に係る間隔指標に基づく俯瞰パラメータの推定処理を示す図である。It is a figure which shows the estimation process of the overhead parameter based on the space | interval parameter | index which concerns on Embodiment 2. FIG.

実施の形態1.
図1は、この発明の実施の形態1に係る俯瞰映像生成装置を備えた映像表示システムの構成を示すブロック図であり、本発明に係る俯瞰映像生成装置を搭載した車両の車両周囲表示システムを示している。図1において、実施の形態1に係る車両周囲表示システム1は、カメラ10、俯瞰映像生成装置20、モニタ30および操作部40を備える。
カメラ10は、車両の車体に設置されて車両周囲を撮像する撮像部である。俯瞰映像生成装置20は、カメラ10で撮像された撮像データの画像を真上から見たような俯瞰画像に変換する装置である。モニタ30は、俯瞰映像生成装置20が生成した俯瞰画像を表示する表示部である。車両の運転者は、モニタ30に表示した俯瞰画像を視認することで、車両周囲を真上から眺めたような画像で障害物などを認識できる。
操作部40は、外部からの操作入力を受け付ける操作部であって、キーボードやボタンなどのハードウェアに加えて、タッチパネルで入力を行うモニタ30の画面上に表示したソフトウェアキーやボタンであってもよい。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of a video display system including an overhead view video generation device according to Embodiment 1 of the present invention, and shows a vehicle surroundings display system for a vehicle equipped with the overhead view video generation device according to the present invention. Show. In FIG. 1, a vehicle surroundings display system 1 according to Embodiment 1 includes a camera 10, a bird's-eye view image generation device 20, a monitor 30, and an operation unit 40.
The camera 10 is an imaging unit that is installed on the vehicle body and images the surroundings of the vehicle. The bird's-eye view video generation device 20 is a device that converts an image of image data captured by the camera 10 into a bird's-eye view image as seen from directly above. The monitor 30 is a display unit that displays an overhead image generated by the overhead image generation device 20. A driver of the vehicle can recognize an obstacle or the like by viewing the overhead image displayed on the monitor 30 from an image as if the vehicle was viewed from directly above.
The operation unit 40 is an operation unit that accepts an operation input from the outside. In addition to hardware such as a keyboard and buttons, the operation unit 40 may be software keys or buttons displayed on the screen of the monitor 30 that performs input using a touch panel. Good.

また、俯瞰映像生成装置20は、カメラ10が撮像した画像を俯瞰変換するための俯瞰パラメータを推定する機能を有する。俯瞰パラメータは、2次元の射影変換に基づいて、カメラ10が撮像した画像の座標系を、カメラ10で同じ撮像対象の真上から眺めた俯瞰画像の座標系へ変換する変換パラメータである。
なお、俯瞰映像生成装置20では、地面(道路面)を基準面として俯瞰画像を生成するため、道路に描かれた横断歩道などは、歪みなどが少なく実際に車両を真上側から眺めたように精度よく表示される。
The overhead view video generation device 20 has a function of estimating an overhead view parameter for overhead conversion of an image captured by the camera 10. The bird's-eye view parameter is a conversion parameter for converting the coordinate system of the image captured by the camera 10 into the coordinate system of the bird's-eye image viewed from directly above the same object to be captured based on the two-dimensional projective transformation.
In addition, since the overhead image generation device 20 generates an overhead image using the ground (road surface) as a reference plane, the pedestrian crossing drawn on the road has little distortion and the like, as if the vehicle was actually viewed from directly above. Displayed with high accuracy.

俯瞰映像生成装置20は、図1に示すように、その機能ブロックとして標示撮像データ取得部21、撮像データ記憶部22、俯瞰変換部23、俯瞰パラメータ推定部24および俯瞰パラメータ記憶部25を備える。
標示撮像データ取得部21は、カメラ10により撮像された撮像データの中から、所定の標示が撮像されている撮像データを取得する画像取得部である。ここで、所定の標示とは、基準面(例えば、地面)に描かれた等間隔のパターンの標示であって、例えば白線のパターンが等間隔に描かれた横断歩道やゼブラパターンなどが挙げられる。
As shown in FIG. 1, the bird's-eye view video generation device 20 includes a signing imaging data acquisition unit 21, an imaging data storage unit 22, an overhead conversion unit 23, an overhead parameter estimation unit 24, and an overhead parameter storage unit 25 as functional blocks.
The sign image data acquisition unit 21 is an image acquisition unit that acquires image data in which a predetermined sign is imaged from image data captured by the camera 10. Here, the predetermined sign is a sign of an equally spaced pattern drawn on a reference plane (for example, the ground), and includes, for example, a pedestrian crossing or a zebra pattern in which white line patterns are drawn at equal intervals. .

また、標示撮像データ取得部21は、操作部40を用いてユーザから指定されたタイミングでカメラ10により撮像された撮像画像を、所定の標示が撮像された撮像画像として取得する。つまり、横断歩道などの所定の標示が描かれた道路を自車が走行するか、停車したときに、ユーザが、操作部40を用いて取り込み指示を行うことにより、所定の標示が撮像された撮像画像を取得することができる。   In addition, the sign imaging data acquisition unit 21 acquires a captured image captured by the camera 10 at a timing designated by the user using the operation unit 40 as a captured image in which a predetermined sign is captured. That is, when the vehicle travels or stops on a road on which a predetermined sign such as a pedestrian crossing is drawn, a predetermined instruction is captured by the user using the operation unit 40 to take in an instruction. A captured image can be acquired.

撮像データ記憶部22は、標示撮像データ取得部21が取得した所定の標示が撮像された撮像データを記憶する画像記憶部である。
俯瞰変換部23は、カメラ10が撮像した撮像画像を2次元の射影変換により俯瞰画像に変換するための変換パラメータである俯瞰パラメータを用いて、撮像画像を俯瞰画像に変換する。また、モニタ30は、俯瞰変換部23で生成された俯瞰画像を取得して表示する表示部である。
The imaging data storage unit 22 is an image storage unit that stores imaging data obtained by imaging a predetermined label acquired by the label imaging data acquisition unit 21.
The overhead conversion unit 23 converts the captured image into an overhead image using an overhead parameter that is a conversion parameter for converting the captured image captured by the camera 10 into an overhead image by two-dimensional projective conversion. The monitor 30 is a display unit that acquires and displays the overhead image generated by the overhead conversion unit 23.

俯瞰パラメータ推定部24は、カメラ10が撮像した撮像データの画像を俯瞰変換するための俯瞰パラメータを推定する。俯瞰パラメータ記憶部25は、俯瞰パラメータ推定部24により算出された俯瞰パラメータを記憶するパラメータ記憶部である。
また、俯瞰パラメータ推定部24は、その機能ブロックとして、2値化変換部24a、間隔指標算出部24bおよび俯瞰パラメータ算出部24cを備える。
The bird's-eye view parameter estimation unit 24 estimates a bird's-eye view parameter for performing bird's-eye conversion on an image of the captured image captured by the camera 10. The overhead parameter storage unit 25 is a parameter storage unit that stores the overhead parameter calculated by the overhead parameter estimation unit 24.
The overhead parameter estimation unit 24 includes a binarization conversion unit 24a, an interval index calculation unit 24b, and an overhead parameter calculation unit 24c as functional blocks.

2値化変換部24aは、俯瞰変換部23が生成した俯瞰画像中の画素値と、当該画素に関する所定の閾値とを大小比較して、最大輝度(白)と最小輝度(黒)の画像に変換することにより、当該画像を2値化する。なお、2値化により間隔指標値の算出における演算量が低減されるが、本発明では、2値化変換が必須の処理ではない。すなわち、パターンマッチングなどの画像認識で俯瞰画像から直接所定の標示を抽出してもかまわない。
間隔指標算出部24bは、2値化変換部24aが生成した2値化画像中の所定の標示に基づいて、当該画像上で標示を構成するパターンの間隔が揃っている度合を示す間隔指標を算出する。例えば、等間隔の白線パターンの標示であれば、隣り合う白線パターンの間隔の分散が間隔指標となる。
The binarization conversion unit 24a compares the pixel value in the bird's-eye view image generated by the bird's-eye conversion unit 23 with a predetermined threshold related to the pixel, and generates an image with the maximum luminance (white) and the minimum luminance (black). The image is binarized by conversion. Although the amount of calculation in the calculation of the interval index value is reduced by binarization, binarization conversion is not an essential process in the present invention. That is, a predetermined sign may be extracted directly from the overhead image by image recognition such as pattern matching.
Based on a predetermined label in the binarized image generated by the binarization conversion unit 24a, the interval index calculation unit 24b displays an interval index indicating the degree to which the patterns constituting the label are aligned on the image. calculate. For example, in the case of markings of equally spaced white line patterns, the variance of the spacing between adjacent white line patterns is the spacing index.

俯瞰パラメータ算出部24cは、間隔指標算出部24bが算出した間隔指標の値に基づいて、適切な俯瞰画像へ変換する俯瞰パラメータを算出するパラメータ算出部である。
本発明では、地面などの基準面に描かれた等間隔のパターンから構成される標示(横断歩道など)を対象としており、この標示が撮像された画像を俯瞰変換すれば、俯瞰画像においてもパターンが等間隔に表現されるべきことを前提としている。
すなわち、俯瞰パラメータが適切でない場合、これを用いて生成された俯瞰画像では、本来等しくあるべきパターンの間隔が乱れる可能性がある。
そこで、俯瞰パラメータ算出部24cは、間隔指標算出部24bが算出した間隔指標の値に基づいて、俯瞰画像中の標示のパターンが等間隔になるように俯瞰パラメータを算出する。
The overhead parameter calculation unit 24c is a parameter calculation unit that calculates an overhead parameter to be converted into an appropriate overhead image based on the value of the interval index calculated by the interval index calculation unit 24b.
In the present invention, a sign (such as a pedestrian crossing) composed of equally spaced patterns drawn on a reference surface such as the ground is targeted. If an image obtained by capturing this sign is converted to a bird's-eye view, the pattern is also displayed in the bird's-eye view image. Is supposed to be expressed at regular intervals.
That is, when the bird's-eye view parameter is not appropriate, in the bird's-eye view image generated by using this, there is a possibility that the interval between the patterns that should be originally equal may be disturbed.
Therefore, the bird's-eye view parameter calculation unit 24c calculates the bird's-eye view parameter based on the value of the interval index calculated by the interval index calculation unit 24b so that the marking patterns in the bird's-eye view image are equally spaced.

図2は、実施の形態1に係る俯瞰映像生成装置を備えたナビゲーション装置の構成を示すブロック図である。図2において、ナビゲーション装置2は、移動体(例えば、車両)に搭載される移動体用のナビゲーション装置であり、カメラ10で撮像した画像を俯瞰画像に変換してモニタ30に出力する俯瞰映像生成装置20と、ナビゲーション処理部3、地図データベース(地図DB)4、位置情報取得部5および位置計算部6を備える。   FIG. 2 is a block diagram illustrating a configuration of a navigation device including the overhead view video generation device according to the first embodiment. In FIG. 2, the navigation device 2 is a navigation device for a moving body mounted on a moving body (for example, a vehicle), and generates an overhead video that converts an image captured by the camera 10 into an overhead image and outputs it to the monitor 30. The apparatus 20 includes a navigation processing unit 3, a map database (map DB) 4, a position information acquisition unit 5, and a position calculation unit 6.

ナビゲーション処理部3は、位置計算部6が算出した自車位置と、地図DB4の地図データに基づいて、経路探索、経路誘導および地図表示といったナビゲーション処理を実行する。地図DB4は、ナビゲーション処理部3が利用する地図データが登録されたデータベースである。地図データには、地形図データ、住宅地図データ、道路ネットワークなどがある。経路誘導や地図表示おける画像情報は、ナビゲーション処理部3から表示制御部23aに送られ、モニタ30に表示される。   The navigation processing unit 3 executes navigation processing such as route search, route guidance, and map display based on the vehicle position calculated by the position calculation unit 6 and the map data in the map DB 4. The map DB 4 is a database in which map data used by the navigation processing unit 3 is registered. Map data includes topographic map data, residential map data, road networks, and the like. Image information for route guidance and map display is sent from the navigation processing unit 3 to the display control unit 23 a and displayed on the monitor 30.

位置情報取得部5は、現在位置に関する位置情報を取得する位置情報取得部であって、例えばGPS衛星から受信したGPS信号に含まれる衛星位置および時間情報から位置情報を取得する。この位置情報は、位置情報取得部5から位置計算部6に出力される。
位置計算部6は、位置情報取得部5から取得した位置情報に基づいて自車両の現在位置を算出する。
The position information acquisition unit 5 is a position information acquisition unit that acquires position information related to the current position, and acquires position information from satellite position and time information included in a GPS signal received from a GPS satellite, for example. This position information is output from the position information acquisition unit 5 to the position calculation unit 6.
The position calculation unit 6 calculates the current position of the host vehicle based on the position information acquired from the position information acquisition unit 5.

表示制御部23aは、モニタ30の表示処理を制御する制御部であって、図1で示した俯瞰変換部23を備える。ナビゲーション処理部3からの画像情報は、表示制御部23aの俯瞰変換部23により俯瞰画像に変換してモニタ30に表示することができる。   The display control unit 23a is a control unit that controls display processing of the monitor 30, and includes the overhead view conversion unit 23 illustrated in FIG. Image information from the navigation processing unit 3 can be converted into an overhead image by the overhead conversion unit 23 of the display control unit 23 a and displayed on the monitor 30.

また、標示撮像データ取得部21は、位置計算部6が算出した自車位置と地図DB4の地図データに基づいて、所定の標示がある地点を自車が走行している、または、その地点で停車していると判別されると、当該標示をカメラ10が撮像していると判断して、この時点でカメラ10により撮像された撮像データを取得して、撮像データ記憶部22に記憶する。所定の標示がある地点は、交差点やカーブなど、横断歩道やゼブラパターンが道路に描かれている地点であり、例えば道路ネットワークにあらかじめ設定しておく。   In addition, the sign imaging data acquisition unit 21 is based on the vehicle position calculated by the position calculation unit 6 and the map data in the map DB 4. If it is determined that the vehicle is stopped, it is determined that the camera 10 is imaging the sign, and imaging data captured by the camera 10 at this time is acquired and stored in the imaging data storage unit 22. A point with a predetermined sign is a point where a crosswalk or zebra pattern such as an intersection or a curve is drawn on the road, and is set in advance in a road network, for example.

さらに、自車位置と当該地図データから自車の走行車線情報を特定できる場合は、上記地点の情報を道路の車線情報に対応付けて地図データに登録しておけば、所定の標示が撮像された画像を正確に取得することができる。
なお、図2では図示を省略したが、標示撮像データ取得部21は、図1と同様に、操作部40を用いてユーザが指定したタイミングでカメラ10に撮像された撮像データを取得して撮像データ記憶部22に記憶するようにしてもよい。
Furthermore, if the vehicle lane information of the vehicle can be identified from the vehicle position and the map data, if the information on the point is associated with the road lane information and registered in the map data, a predetermined sign is captured. Images can be obtained accurately.
Although not shown in FIG. 2, the sign imaging data acquisition unit 21 acquires the imaging data captured by the camera 10 at the timing specified by the user using the operation unit 40, as in FIG. 1. You may make it memorize | store in the data storage part 22. FIG.

また、標示撮像データ取得部21を下記のように構成し、自車の車両状況や画像認識を用いて、カメラ10が撮像した撮像データの中から、所定の標示が撮像されている可能性が高い撮像データを取得してもよい。
図3は、標示撮像データ取得部の構成例を示すブロック図である。図3(a)に示した標示撮像データ取得部21は、自車の車両制御部7から取得した車両データに基づいて、カメラ10の撮像データを取得すべきか否かを判断している。
すなわち、操作部40を用いてユーザが指定したタイミング、あるいは自車位置と地図データに基づく位置タイミングで、カメラ10により撮像された撮像データを取り込むにあたり、車両制御部7から取得した車両データに基づいて、撮像データの取り込み可否を判断する。
Further, the sign imaging data acquisition unit 21 is configured as follows, and there is a possibility that a predetermined sign is captured from the imaging data captured by the camera 10 using the vehicle status of the host vehicle or image recognition. High imaging data may be acquired.
FIG. 3 is a block diagram illustrating a configuration example of the sign imaging data acquisition unit. The sign imaging data acquisition unit 21 illustrated in FIG. 3A determines whether or not the imaging data of the camera 10 should be acquired based on the vehicle data acquired from the vehicle control unit 7 of the host vehicle.
That is, based on the vehicle data acquired from the vehicle control unit 7 when capturing the image data captured by the camera 10 at the timing specified by the user using the operation unit 40 or the position timing based on the vehicle position and the map data. Thus, it is determined whether or not the captured image data can be captured.

車両データには、例えば車速情報、舵角情報などが挙げられる。標示撮像データ取得部21は、カメラ10が撮像した撮像データを取り込む際に、車速情報が示す自車の速度が所定の閾値を超える場合、自車が高速でカメラ10が所定の標示を精度よく撮像できないと判断し、ユーザ指定タイミングや位置タイミングであってもカメラ10から撮像データを取得しないようにする。   Examples of the vehicle data include vehicle speed information and steering angle information. When the captured image data acquisition unit 21 captures captured image data captured by the camera 10 and the speed of the vehicle indicated by the vehicle speed information exceeds a predetermined threshold, the vehicle 10 is high-speed and the camera 10 accurately displays the predetermined label. It is determined that imaging cannot be performed, and imaging data is not acquired from the camera 10 even at a user specified timing or position timing.

また、所定の標示は、自車の進行方向とカメラ10の撮像視野との関係により撮像画像で斜めに撮像される場合がある。この場合、カメラ10による撮像時の自車の舵角情報に基づいて、撮像画像を回転させて標示を所定の方向に変換する回転角を決定してもよい。
このように、車両データを利用することにより、所定の標示が撮像された撮像データの取得精度を向上できる。
In addition, the predetermined sign may be captured obliquely in the captured image depending on the relationship between the traveling direction of the vehicle and the imaging field of view of the camera 10. In this case, based on the steering angle information of the own vehicle at the time of image capturing by the camera 10, the rotation angle at which the captured image is rotated to convert the sign into a predetermined direction may be determined.
As described above, by using the vehicle data, it is possible to improve the acquisition accuracy of the imaging data obtained by imaging the predetermined sign.

また、図3(b)に示す標示撮像データ取得部21は画像認識部21aを備える。画像認識部21aは、カメラ10が撮像した撮像データの画像認識処理を行って所定の標示の画像を検出する。標示撮像データ取得部21は、画像認識部21aによる画像認識処理で所定の標示が検出されると、その撮像データを撮像データ記憶部22に記憶する。
なお、画像認識部21aが画像認識処理を行うタイミングは、操作部40を用いたユーザ指定タイミングや、自車位置と地図データに基づく位置タイミングであってもよい。
このように構成することにより、所定の標示が撮像された撮像データの取得精度をさらに向上できる。
Moreover, the sign imaging data acquisition part 21 shown in FIG.3 (b) is provided with the image recognition part 21a. The image recognition unit 21a detects an image of a predetermined sign by performing an image recognition process on the image data captured by the camera 10. The sign image data acquisition unit 21 stores the image data in the image data storage unit 22 when a predetermined sign is detected by the image recognition process performed by the image recognition unit 21a.
Note that the timing at which the image recognition unit 21a performs the image recognition process may be a user-specified timing using the operation unit 40 or a position timing based on the vehicle position and map data.
By configuring in this way, it is possible to further improve the acquisition accuracy of imaging data obtained by imaging a predetermined sign.

また、標示撮像データ取得部21は、自車に搭載された通信装置を介して取得した天気情報や時刻情報に基づいて、カメラ10の撮像時の天気が雨や雪、霧であったり、撮像時が夜間であると判断した場合、ユーザ指定タイミングや位置タイミングであってもカメラ10から撮像データを取得しないようにする。このようにすることで、間隔指標値を算出できない状態で標示が撮像されたデータが保存されることを防止できる。   In addition, the sign imaging data acquisition unit 21 may detect that the weather at the time of imaging by the camera 10 is rain, snow, or fog based on weather information or time information acquired via a communication device mounted on the vehicle. When it is determined that the time is nighttime, imaging data is not acquired from the camera 10 even at a user-specified timing or position timing. By doing so, it is possible to prevent the data in which the sign is imaged from being stored in a state where the interval index value cannot be calculated.

次に動作について説明する。
図4は、実施の形態1に係る俯瞰映像生成装置の動作を示すフローチャートである。
通常時の俯瞰映像生成装置20では、俯瞰変換部23が、カメラ10からの撮像データを取得して俯瞰画像を生成し、モニタ30に出力している。このとき、標示撮像データ取得部21がステップST1からステップST3までの処理を実施し、俯瞰パラメータ推定部24が俯瞰パラメータを推定する場合に、ステップST4からステップST12までの処理を行う。
Next, the operation will be described.
FIG. 4 is a flowchart showing the operation of the overhead view video generation apparatus according to the first embodiment.
In the normal bird's-eye view image generation device 20, the bird's-eye view conversion unit 23 acquires imaging data from the camera 10 to generate a bird's-eye view image and outputs it to the monitor 30. At this time, when the sign imaging data acquisition unit 21 performs the processing from step ST1 to step ST3 and the overhead parameter estimation unit 24 estimates the overhead parameter, the processing from step ST4 to step ST12 is performed.

まず、標示撮像データ取得部21が、カメラ10が撮像した撮像データを取得する(ステップST1)。次に、標示撮像データ取得部21は、取得した撮像データが撮像データ記憶部22に取り込む条件に合致するか否かを判定する(ステップST2)。このとき、カメラ10から取得した撮像データが、例えば操作部40を用いてユーザから指定されたタイミング、または、自車位置と地図データに基づく位置タイミング(所定の標示が存在する地点)で撮像された撮像データであるか、あるいは、画像認識処理により所定の標示が抽出された撮像データであるか、などの条件が判断される。   First, the sign imaging data acquisition unit 21 acquires imaging data captured by the camera 10 (step ST1). Next, the sign imaging data acquisition unit 21 determines whether or not the acquired imaging data matches the conditions for capturing the imaging data storage unit 22 (step ST2). At this time, the imaging data acquired from the camera 10 is imaged at a timing designated by the user using the operation unit 40, for example, or a position timing based on the vehicle position and map data (a point where a predetermined sign exists). Whether the captured image data is the captured image data or the captured image data from which a predetermined sign has been extracted by the image recognition process.

取り込み条件に合致する撮像データである場合(ステップST2;YES)、標示撮像データ取得部21は、カメラ10から取得した撮像データを撮像データ記憶部22に保存する(ステップST3)。
また、取り込み条件に合致しなければ(ステップST2;NO)、標示撮像データ取得部21は、カメラ10から取得した撮像データを、撮像データ記憶部22に保存しないで破棄する。この後、ステップST4の処理へ移行する。
When the captured image data matches the capturing conditions (step ST2; YES), the sign imaged data acquisition unit 21 stores the captured image data acquired from the camera 10 in the captured data storage unit 22 (step ST3).
If the capturing condition is not met (step ST <b>2; NO), the sign imaging data acquisition unit 21 discards the imaging data acquired from the camera 10 without saving it in the imaging data storage unit 22. Thereafter, the process proceeds to step ST4.

上述したように、俯瞰パラメータの推定に使用する撮像画像を撮像データ記憶部22に一時的に記憶することで、俯瞰映像生成装置20を備えた車両周囲表示システム1またはナビゲーション装置2における処理の負荷が少ない合間を選んで、ステップST4以降の俯瞰パラメータの推定処理を行うことができる。例えば、車両周囲表示システム1またはナビゲーション装置2の演算処理を実施するCPUの稼働率に閾値を設けておき、CPUの稼働率が閾値より低い場合に俯瞰パラメータの推定処理を開始する。   As described above, processing load in the vehicle surrounding display system 1 or the navigation device 2 provided with the overhead view video generation device 20 by temporarily storing the captured image used for estimation of the overhead view parameter in the imaging data storage unit 22. It is possible to perform the overhead parameter estimation processing after step ST4 by selecting a time interval with a small number of intervals. For example, a threshold is provided for the operating rate of the CPU that performs the arithmetic processing of the vehicle surrounding display system 1 or the navigation device 2, and the overhead parameter estimation processing is started when the operating rate of the CPU is lower than the threshold.

俯瞰変換部23が、撮像データ記憶部22にデータがあるか否かを判定する(ステップST4)。ここで、撮像データ記憶部22にデータがなければ(ステップST4;NO)、ステップST1の処理へ戻る。撮像データ記憶部22にデータが記憶されている場合(ステップST4;YES)、俯瞰変換部23は、俯瞰パラメータ記憶部25から現在の俯瞰パラメータを読み出し、当該俯瞰パラメータを用いて、撮像データ記憶部22から読み出したデータの画像を俯瞰変換する(ステップST5)。具体的には、俯瞰パラメータA〜Hを用いて、下記式(1)の変換式にしたがって俯瞰画像の座標へ座標変換する。   The overhead conversion unit 23 determines whether there is data in the imaging data storage unit 22 (step ST4). If there is no data in the imaging data storage unit 22 (step ST4; NO), the process returns to step ST1. When data is stored in the imaging data storage unit 22 (step ST4; YES), the overhead conversion unit 23 reads the current overhead parameter from the overhead parameter storage unit 25, and uses the overhead parameter to use the imaging data storage unit. The image of the data read from 22 is overhead-converted (step ST5). Specifically, using the overhead parameters A to H, the coordinates are converted into the coordinates of the overhead image according to the conversion formula of the following formula (1).

Figure 2013115559
Figure 2013115559


上記式(1)の俯瞰パラメータA〜Hは画像平面内の4頂点の座標から決定される定数である。入力画像の4頂点、a(x1,y1),b(x2,y2),c(x3,y3),d(x4,y4)と対応する出力画像(俯瞰画像)の4頂点をe(X1,Y1),f(X2,Y2),g(X3,Y3),h(X4,Y4)とすると、俯瞰パラメータA〜Hは、下記式(2)の行列から導くことができる。

The overhead parameters A to H in the above formula (1) are constants determined from the coordinates of the four vertices in the image plane. The four vertices of the output image (overhead image) corresponding to the four vertices of the input image, a (x1, y1), b (x2, y2), c (x3, y3), d (x4, y4) are represented by e (X1, When Y1), f (X2, Y2), g (X3, Y3), and h (X4, Y4), the overhead parameters A to H can be derived from the matrix of the following formula (2).

Figure 2013115559
Figure 2013115559


図5は、実施の形態1に係る俯瞰変換を示す図であり、自車が交差点を走行したときにサイドカメラで横断歩道を撮影した画像を上記射影変換で俯瞰画像に変換した場合を示している。図5の上段に記載した入力画像の4頂点の座標をa(0,0),b(1,0),c(1,1),d(0,1)として、入力画像の4頂点にそれぞれ対応する頂点の座標に対し上記式(2)の射影変換を施すと、出力画像(俯瞰画像)の4頂点の座標は、下段に示すように、e(−0.5,0),f(1.5,0),g(1,1),h(0,1)となる。

FIG. 5 is a diagram showing the overhead view conversion according to Embodiment 1, and shows a case where an image obtained by photographing a pedestrian crossing with a side camera when the vehicle travels an intersection is converted into an overhead view image by the projective transformation. Yes. The coordinates of the four vertices of the input image described in the upper part of FIG. 5 are a (0,0), b (1,0), c (1,1), d (0,1), and the four vertices of the input image When projective transformation of the above equation (2) is applied to the coordinates of the corresponding vertices, the coordinates of the four vertices of the output image (overhead image) are e (−0.5, 0), f as shown in the lower row. (1.5,0), g (1,1), h (0,1).

2値化変換部24aは、俯瞰変換部23が生成した俯瞰画像を取得し、この俯瞰画像に対して2値化変換を行う(ステップST6)。これにより、俯瞰画像から、地面に描かれていた横断歩道などの所定の標示が抽出される。この後、間隔指標算出部24bが、俯瞰画像上の標示、すなわち2値化により抽出された標示のパターン間隔が揃っている度合を示す間隔指標を算出する(ステップST7)。   The binarization conversion unit 24a acquires the overhead view image generated by the overhead view conversion unit 23, and performs binarization conversion on the overhead view image (step ST6). Thus, a predetermined sign such as a pedestrian crossing drawn on the ground is extracted from the overhead image. Thereafter, the interval index calculation unit 24b calculates an interval index indicating the degree to which the pattern interval of the label on the bird's-eye view image, that is, the label extracted by binarization is aligned (step ST7).

図6は、実施の形態1に係る間隔指標に基づく俯瞰パラメータの推定処理を示す図である。図6に示すように、俯瞰変換部23は、ステップST5で使用した俯瞰パラメータを所定量ごとに変化させ、変化後の俯瞰パラメータを用いた俯瞰変換をそれぞれ実行する。図6の例では、上から下へ向かって俯瞰変換量が増加するように変換している。
2値化変換部24aは、俯瞰変換部23が変換した各俯瞰画像を2値化変換する。これにより、図6の(a)、(c)、(e)、(g)に示す画像が得られる。なお、2値化変換には、例えばトップハットフィルタと組み合わせた単純2値化を用いる。
FIG. 6 is a diagram illustrating an overhead parameter estimation process based on the interval index according to the first embodiment. As illustrated in FIG. 6, the overhead conversion unit 23 changes the overhead parameter used in step ST5 for each predetermined amount, and executes overhead conversion using the changed overhead parameter. In the example of FIG. 6, conversion is performed so that the overhead conversion amount increases from top to bottom.
The binarization conversion unit 24a binarizes and converts each overhead view image converted by the overhead view conversion unit 23. As a result, the images shown in FIGS. 6A, 6C, 6E, and 6G are obtained. For binarization conversion, for example, simple binarization combined with a top hat filter is used.

この後、間隔指標算出部24bは、上述の2値化変換された各画像について、縦方向を基準に白画素数を、図6の(b)、(d)、(f)、(h)に示すようにヒストグラム化する。次に、間隔指標算出部24bは、上述したヒストグラムに対してある一定の閾値を設けて、閾値以上の白画素数を持つ部分と、それ以外の部分とに分離する。これにより、画像上の白線の部分と、白線でない部分(隣り合う白線の間隔に相当する部分)とが判別される。間隔指標算出部24bは、白線の幅と白線でない部分の幅を算出する。
なお、画像上端と画像下端の幅については、正確に幅が得られないため考慮しない。
Thereafter, the interval index calculation unit 24b calculates the number of white pixels based on the vertical direction for each of the above-described binarized images, as shown in (b), (d), (f), and (h) of FIG. As shown in FIG. Next, the interval index calculation unit 24b provides a certain threshold value for the above-described histogram, and separates into a part having the number of white pixels equal to or greater than the threshold value and the other part. Thereby, a white line portion on the image and a non-white line portion (a portion corresponding to the interval between adjacent white lines) are discriminated. The interval index calculation unit 24b calculates the width of the white line and the width of the portion that is not the white line.
Note that the width of the upper end of the image and the lower end of the image is not considered because the width cannot be obtained accurately.

間隔指標算出部24bは、白線の幅と、白線でない部分の幅について、それぞれの分散を算出する。分散は、N本の白線の各幅xiと、N本の白線の幅の平均値μとを用いて、下記式(3)により算出することができる。また、N本の白線でない部分の各幅についても同様に分散を算出する。   The interval index calculation unit 24b calculates the respective variances for the width of the white line and the width of the portion that is not the white line. The variance can be calculated by the following equation (3) using each width xi of the N white lines and the average value μ of the widths of the N white lines. Also, the variance is similarly calculated for each width of the portion that is not N white lines.

Figure 2013115559
Figure 2013115559


次に、間隔指標算出部24bは、白線の幅の分散と白線でない部分の幅の分散の平均値を算出して間隔指標値とする。この場合、間隔指標値が低いほど、すなわち、全ての幅が同じ幅に近づくほど、等間隔であることを示している。

Next, the interval index calculation unit 24b calculates an average value of the variance of the width of the white line and the variance of the width of the portion that is not the white line to obtain an interval index value. In this case, the lower the interval index value, that is, the closer the widths are to the same, the closer the intervals are.

図4の説明に戻る。上述のようにして間隔指標値が算出されると、俯瞰パラメータ算出部24cは、例えば俯瞰パラメータの値をインクリメントまたはデクリメントする、あるいは、各俯瞰パラメータの値に所定値を加減算するなどして、俯瞰パラメータの値を更新する。この後、俯瞰パラメータ算出部24cは、現時点において、N個の俯瞰パラメータに基づいて間隔指標値を算出したか否かを判定する(ステップST8)。   Returning to the description of FIG. When the interval index value is calculated as described above, the overhead parameter calculation unit 24c increments or decrements the overhead parameter value, or adds or subtracts a predetermined value to each overhead parameter value, for example. Update the parameter value. Thereafter, the overhead view parameter calculation unit 24c determines whether or not the interval index value has been calculated based on the N overhead view parameters at the present time (step ST8).

現時点では、1個の俯瞰パラメータに基づいた間隔指標値を算出している。このため、俯瞰パラメータ算出部24cは、N個の俯瞰パラメータに基づいた間隔指標値を算出していないと判定する(ステップST8;NO)。次いで、俯瞰パラメータ算出部24cは、次の俯瞰パラメータに変更する(ステップST12)。図5の場合、俯瞰パラメータ算出部24cは、例えば出力画像の頂点e,fのx座標を0.1だけ変化させ、この値に射影変換するための俯瞰パラメータに変更する。   At present, the interval index value based on one overhead parameter is calculated. For this reason, the overhead parameter calculation unit 24c determines that the interval index value based on the N overhead parameters is not calculated (step ST8; NO). Next, the overhead parameter calculation unit 24c changes to the next overhead parameter (step ST12). In the case of FIG. 5, the overhead parameter calculation unit 24c changes, for example, the x-coordinates of the vertices e and f of the output image by 0.1 and changes them to overhead parameters for projective conversion to this value.

この後、ステップST5の処理に戻り、変更後の俯瞰パラメータを用いて、上述の処理を繰り返す。この間に、例えば図6の(e)に示すような俯瞰画像が得られ、2値化画像の白画素数がヒストグラム化され、図6の(f)に示すようなヒストグラムが得られる。図6の(f)に示すヒストグラムでは、白線と白線でない部分の全ての幅が一定となっている。このとき、間隔指標算出部24bは、これらの幅の分散の平均値=“0”を間隔指標値として算出する。   Then, it returns to the process of step ST5 and repeats the above-mentioned process using the bird's-eye view parameter after a change. During this time, for example, an overhead image as shown in FIG. 6E is obtained, the number of white pixels in the binarized image is histogrammed, and a histogram as shown in FIG. 6F is obtained. In the histogram shown in (f) of FIG. 6, the widths of the white lines and the portions that are not white lines are constant. At this time, the interval index calculation unit 24b calculates an average value of these width dispersions = “0” as the interval index value.

N個の俯瞰パラメータに基づいて間隔指標値を算出した場合(ステップST8;YES)、俯瞰パラメータ算出部24cは、間隔指標値(幅の分散の平均値)が最も低いときの俯瞰パラメータを適切なパラメータであると推定して、俯瞰パラメータ記憶部25に記憶する(ステップST9)。   When the interval index value is calculated based on the N overhead parameters (step ST8; YES), the overhead parameter calculation unit 24c appropriately sets the overhead parameter when the interval index value (average value of the variance of the width) is the lowest. The parameter is estimated and stored in the overhead parameter storage unit 25 (step ST9).

次に、俯瞰変換部23は、撮像データ記憶部22に記憶した撮像データのうち、俯瞰パラメータ推定部24による俯瞰パラメータの推定を終えた撮像データを削除する(ステップST10)。この後、俯瞰変換部23は、俯瞰パラメータ記憶部25から適正化された俯瞰パラメータを読み出し、これに基づき俯瞰画像を生成してモニタ30に表示する(ステップST11)。これにより、図4の処理が終了する。   Next, the overhead conversion unit 23 deletes the imaging data for which the overhead parameter estimation by the overhead parameter estimation unit 24 has been completed from the imaging data stored in the imaging data storage unit 22 (step ST10). Thereafter, the overhead conversion unit 23 reads the optimized overhead parameter from the overhead parameter storage unit 25, generates an overhead image based on this, and displays it on the monitor 30 (step ST11). Thereby, the process of FIG. 4 is completed.

以上のように、この実施の形態1によれば、俯瞰変換部23が、画像を射影変換により俯瞰画像に変換する俯瞰パラメータを記憶する俯瞰パラメータ記憶部25から読み出した俯瞰パラメータを用いて、カメラ10により撮像された撮像画像を俯瞰画像に変換し、間隔指標算出部24bが、等間隔のパターンの標示が撮像された撮像画像を変換した俯瞰画像上で標示のパターンの間隔が揃う度合を示す間隔指標値を算出し、俯瞰パラメータ算出部24cが、算出された間隔指標値に基づいて、俯瞰画像上で標示のパターンの間隔が所定の範囲内で揃う俯瞰パラメータを算出して俯瞰パラメータ記憶部25に記憶する。
このように、従来のカメラ姿勢パラメータによる視点変換ではなく、射影変換を用いるために俯瞰変換を簡易な演算で実施できる。さらに等間隔のパターンの標示が撮像された俯瞰画像から標示のパターンの間隔指標値を算出して、これに基づいて俯瞰パラメータを簡易に調整できる。
As described above, according to the first embodiment, the overhead view conversion unit 23 uses the overhead view parameters read from the overhead view parameter storage unit 25 that stores the overhead view parameters for converting the image into the overhead view image by projective transformation. 10 is converted into a bird's-eye view image, and the interval index calculation unit 24b indicates the degree to which the intervals of the marking patterns are aligned on the bird's-eye view image obtained by converting the captured image in which the markings of equally spaced patterns are captured. An interval index value is calculated, and the overhead parameter calculation unit 24c calculates an overhead parameter in which the intervals of the marking patterns are aligned within a predetermined range on the overhead image based on the calculated interval index value. 25.
In this way, the overhead view conversion can be performed with a simple calculation because projection conversion is used instead of conventional viewpoint conversion based on camera posture parameters. Furthermore, it is possible to calculate the interval index value of the marking pattern from the overhead image obtained by imaging the marking of the equally spaced pattern, and to easily adjust the overhead parameter based on this.

地面などの基準面に描かれた等間隔のパターンの標示は、俯瞰画像においても等間隔のパターンで表現されるはずであるが、俯瞰パラメータが適正でない場合には、俯瞰画像上で標示のパターンの間隔に乱れが生じる。
そこで、本発明では、俯瞰画像に撮像されている等間隔のパターンの間隔指標値を算出し、これに基づきパターンの間隔が揃うように俯瞰パラメータを調整することで、適正な俯瞰パラメータを簡易に調整することができる。
また、俯瞰画像から俯瞰パラメータを求めるので、あらかじめテストパターン等を用意する必要がなく、かつ無限遠を求める必要がないため、適正な俯瞰パラメータを推定する困難さを軽減できる。さらに、車両左右のカメラであっても、俯瞰パラメータを推定することができる。
The equidistant pattern markings drawn on the reference surface such as the ground should be represented by the equidistant pattern in the overhead view image, but if the overhead parameters are not appropriate, the marking pattern on the overhead view image Disturbance occurs in the interval.
Therefore, in the present invention, it is possible to easily calculate an appropriate overhead parameter by calculating the interval index value of the equally spaced pattern captured in the overhead image and adjusting the overhead parameter so that the pattern intervals are aligned based on this. Can be adjusted.
Moreover, since the overhead view parameter is obtained from the overhead view image, it is not necessary to prepare a test pattern or the like in advance and it is not necessary to obtain infinity, so that the difficulty of estimating an appropriate overhead view parameter can be reduced. Further, the overhead view parameter can be estimated even with the left and right cameras of the vehicle.

また、この実施の形態1によれば、等間隔のパターンの標示が撮像された撮像画像を取得する標示撮像データ取得部21と、標示撮像データ取得部21により取得された撮像画像を記憶する撮像データ記憶部22とを備え、俯瞰変換部23が、撮像データ記憶部22から読み出した撮像画像を俯瞰画像に変換し、間隔指標算出部24bが、俯瞰変換部23によって変換された俯瞰画像を取得し、この俯瞰画像上で標示のパターンの間隔が揃う度合を示す間隔指標値を算出する。
このように構成することにより、撮像画像を撮像データ記憶部22に一時的に記憶することが可能であり、処理負荷が少ない合間を選んで俯瞰パラメータの推定処理を行うことができる。
Further, according to the first embodiment, the sign imaging data acquisition unit 21 that acquires a captured image in which signs having an equally spaced pattern are captured, and the imaging that stores the captured image acquired by the label imaging data acquisition unit 21. A data storage unit 22, the overhead conversion unit 23 converts the captured image read from the imaging data storage unit 22 into an overhead image, and the interval index calculation unit 24b acquires the overhead image converted by the overhead conversion unit 23. Then, an interval index value indicating the degree to which the intervals of the marking patterns are aligned on the overhead image is calculated.
With this configuration, the captured image can be temporarily stored in the captured data storage unit 22, and the overhead parameter estimation processing can be performed by selecting a gap with a small processing load.

さらに、この実施の形態1によれば、等間隔のパターンの標示が撮像された撮像画像の俯瞰画像を2値化変換する2値化変換部24aを備え、間隔指標算出部24bが、2値化変換部24aが2値化した標示のパターンを用いて、間隔指標値を算出する。このとき、間隔指標算出部24bが、2値化変換された標示のパターンの画素数のヒストグラムを作成し、このヒストグラムに基づいて判別したパターンの幅と隣り合うパターンの間隔を用いて間隔指標値を算出する。このように、2値化変換などの画像処理技術を用いて、間隔指標値を簡易に演算することができる。   Furthermore, according to the first embodiment, the binarization conversion unit 24a that binarizes and converts the overhead image of the captured image in which the markings of the equally spaced pattern are captured is provided. The interval index value is calculated using the marking pattern binarized by the conversion unit 24a. At this time, the interval index calculation unit 24b creates a histogram of the number of pixels of the marking pattern binarized and converted, and the interval index value is determined using the width of the pattern determined based on this histogram and the interval between adjacent patterns. Is calculated. In this way, the interval index value can be easily calculated using an image processing technique such as binarization conversion.

さらに、この実施の形態1によれば、標示撮像データ取得部21が、カメラ10により撮像された撮像画像に対して画像認識を行って等間隔のパターンの標示が撮像された撮像画像を取得するので、地面などの基準面に描かれた標示が撮像された画像を精度よく取得することができる。   Further, according to the first embodiment, the sign image data acquisition unit 21 performs image recognition on the picked-up image picked up by the camera 10 and acquires a picked-up image obtained by picking up marks with uniform intervals. Therefore, it is possible to accurately acquire an image in which a sign drawn on a reference surface such as the ground is captured.

さらに、この実施の形態1によれば、外部からの操作を受け付ける操作部40を備え、標示撮像データ取得部21が、操作部40を用いて指定されたタイミングでカメラ10により撮像された撮像画像を、等間隔のパターンの標示が撮像された撮像画像として取得するので、地面などの基準面に描かれた標示が撮像された画像を精度よく取得することができる。   Furthermore, according to the first embodiment, the operation unit 40 that receives an operation from the outside is provided, and the captured image data acquisition unit 21 is captured by the camera 10 at a timing specified by using the operation unit 40. Is acquired as a captured image in which signs having an equally spaced pattern are picked up, so that an image in which a sign drawn on a reference plane such as the ground is picked up can be acquired with high accuracy.

さらに、この実施の形態1によれば、カメラ10が車両に搭載されて、その周囲を撮像し、標示撮像データ取得部21が、現在位置と地図データに基づいて、等間隔のパターンの標示が存在する地点に自車が到達したと判別されたタイミングでカメラ10により撮像された撮像画像を、等間隔のパターンの標示が撮像された撮像画像として取得するので、地面などの基準面に描かれた標示が撮像された画像を精度よく取得することができる。   Further, according to the first embodiment, the camera 10 is mounted on the vehicle and images the surroundings thereof, and the indication imaging data acquisition unit 21 indicates the equidistant pattern based on the current position and the map data. Since the captured image captured by the camera 10 at the timing when it is determined that the host vehicle has arrived at an existing point is acquired as a captured image in which a sign of an equally spaced pattern is captured, the captured image is drawn on a reference plane such as the ground. It is possible to accurately acquire an image obtained by capturing a sign.

さらに、この実施の形態1によれば、ナビゲーション装置2が、上述した俯瞰映像生成装置20を備えるので、ナビゲーション処理で生じた画像情報を、適正な俯瞰パラメータを用いて俯瞰画像に変換して提示することができる。また、撮像画像を撮像データ記憶部22に一時的に記憶することで、ナビゲーション処理の合間を選んで俯瞰パラメータの推定処理を行うことができる。   Furthermore, according to the first embodiment, since the navigation device 2 includes the above-described overhead view video generation device 20, the image information generated by the navigation processing is converted into an overhead view image using an appropriate overhead view parameter and presented. can do. In addition, by temporarily storing the captured image in the captured data storage unit 22, it is possible to perform the overhead parameter estimation process by selecting the interval between the navigation processes.

なお、上記実施の形態1において、間隔指標算出部24bが、N個の俯瞰パラメータに基づいて、白線と白線でない部分の幅の分散の平均値を間隔指標値として算出し、俯瞰パラメータ算出部24cが、間隔指標値が最も低い(幅の分散の平均値が最も低い)ときの俯瞰パラメータを最も精度が高いパラメータであると推定する場合を示したが、本発明に係る俯瞰パラメータの推定は、これに限定されるものではない。
例えば、カメラ10の撮像上の誤差を考慮して、俯瞰画像上で標示のパターンの間隔が所定の誤差範囲内で揃う、すなわち間隔指標値が所定の閾値よりも高い範囲(幅の分散の平均値が所定の閾値よりも低い範囲)である場合は、俯瞰パラメータの精度が高いと判断してもよい。
さらに、俯瞰パラメータ記憶部25に俯瞰パラメータを上書きするのではなく、事前に算出していた俯瞰パラメータを加味して更新してもよい。
In the first embodiment, the interval index calculation unit 24b calculates, as the interval index value, the average value of the widths of the white lines and the portions that are not white lines based on the N overhead parameters, and the overhead parameter calculation unit 24c. However, when the overhead index when the interval index value is the lowest (the average value of the variance of the width is the lowest) is estimated to be the most accurate parameter, the overhead parameter estimation according to the present invention is It is not limited to this.
For example, in consideration of an imaging error of the camera 10, the interval between the marking patterns on the overhead image is aligned within a predetermined error range, that is, a range in which the interval index value is higher than a predetermined threshold (an average of the dispersion of widths). If the value is in a range lower than a predetermined threshold), it may be determined that the overhead parameter accuracy is high.
Furthermore, the overhead parameter storage unit 25 may not be overwritten with the overhead parameter, but may be updated in consideration of the overhead parameter calculated in advance.

実施の形態2.
図7は、この発明の実施の形態2に係る俯瞰映像生成装置を備えた映像表示システムの構成を示すブロック図であり、図1と同様に、本発明に係る俯瞰映像生成装置を搭載した車両の車両周囲表示システムを示している。図7において、実施の形態2に係る車両周囲表示システム1Aは、カメラ10、俯瞰映像生成装置20Aおよびモニタ30を備える。
俯瞰映像生成装置20Aは、図7に示すように、標示撮像データ取得部21、撮像データ記憶部22、俯瞰変換部23、俯瞰パラメータ推定部24Aおよび俯瞰パラメータ記憶部25を備える。
Embodiment 2. FIG.
FIG. 7 is a block diagram showing a configuration of a video display system provided with the overhead view video generation apparatus according to Embodiment 2 of the present invention. Similarly to FIG. 1, a vehicle equipped with the overhead view video generation apparatus according to the present invention. 1 shows a vehicle surrounding display system. In FIG. 7, a vehicle surroundings display system 1 </ b> A according to Embodiment 2 includes a camera 10, an overhead view video generation device 20 </ b> A, and a monitor 30.
As shown in FIG. 7, the bird's-eye view image generation device 20 </ b> A includes a signing imaging data acquisition unit 21, an imaging data storage unit 22, an overhead conversion unit 23, an overhead parameter estimation unit 24 </ b> A, and an overhead parameter storage unit 25.

俯瞰パラメータ推定部24Aには、図1で示した構成にエッジ抽出処理部24dが追加されている。エッジ抽出処理部24dは、2値化画像上のエッジを抽出するエッジ抽出部であり、エッジ抽出処理により俯瞰画像(2値化画像)上の線を特定する。
なお、2値化によりエッジ抽出処理や間隔指標値の算出処理の演算量が低減されるが、元の俯瞰画像からエッジ抽出処理によって所定の標示が特定可能であれば、2値化変換を省略、すなわち2値化変換部24aを省略してもよい。
In the overhead parameter estimation unit 24A, an edge extraction processing unit 24d is added to the configuration shown in FIG. The edge extraction processing unit 24d is an edge extraction unit that extracts edges on the binarized image, and identifies a line on the overhead image (binarized image) by the edge extraction processing.
Although the amount of calculation in the edge extraction process and the interval index value calculation process is reduced by binarization, the binarization conversion is omitted if a predetermined sign can be identified from the original overhead image by the edge extraction process. That is, the binarization conversion unit 24a may be omitted.

間隔指標算出部24bは、俯瞰画像データが示す俯瞰画像上のパターンの間隔指標値を算出する。この俯瞰画像上のパターンは、エッジ抽出処理部24dが抽出したエッジで特定される線である。すなわち、間隔指標算出部24bは、エッジ抽出処理部24dが抽出したエッジを、俯瞰画像上の線と判断して間隔指標値を算出する。   The interval index calculation unit 24b calculates the interval index value of the pattern on the overhead image indicated by the overhead image data. The pattern on the bird's-eye view image is a line specified by the edge extracted by the edge extraction processing unit 24d. That is, the interval index calculation unit 24b determines the edge extracted by the edge extraction processing unit 24d as a line on the overhead image and calculates the interval index value.

図8は、実施の形態2に係る俯瞰映像生成装置を備えたナビゲーション装置の構成を示すブロック図である。図8において、ナビゲーション装置2Aは、移動体(例えば車両)に搭載される移動体用のナビゲーション装置であって、実施の形態2に係る俯瞰映像生成装置20Aと、ナビゲーション処理部3、地図DB4、位置情報取得部5および位置計算部6を備える。なお、ナビゲーション装置2Aにおいて、図7で示した俯瞰映像生成装置20A以外の構成は、図2を用いて説明した構成と同様である。   FIG. 8 is a block diagram illustrating a configuration of a navigation device including the overhead view video generation device according to the second embodiment. In FIG. 8, a navigation device 2A is a navigation device for a mobile body mounted on a mobile body (for example, a vehicle). The overhead view video generation device 20A according to the second embodiment, the navigation processing unit 3, the map DB 4, A position information acquisition unit 5 and a position calculation unit 6 are provided. In the navigation device 2A, the configuration other than the overhead view video generation device 20A shown in FIG. 7 is the same as the configuration described with reference to FIG.

次に動作について説明する。
図9は、実施の形態2に係る俯瞰映像生成装置の動作を示すフローチャートである。図9において、標示撮像データ取得部21が実施するステップST1からステップST3までの処理、俯瞰パラメータ推定部24が実施するステップST4からステップST5までの処理、ステップST8からステップST12までの処理は、図4と同様である。
したがって、実施の形態1と異なる処理であるステップST6−1およびステップST7aの処理について説明する。
Next, the operation will be described.
FIG. 9 is a flowchart illustrating the operation of the overhead view video generation device according to the second embodiment. 9, the processing from step ST1 to step ST3 performed by the sign imaging data acquisition unit 21, the processing from step ST4 to step ST5 performed by the overhead view parameter estimation unit 24, and the processing from step ST8 to step ST12 are shown in FIG. The same as 4.
Therefore, the process of step ST6-1 and step ST7a which are different processes from Embodiment 1 will be described.

ステップST6−1において、エッジ抽出処理部24dは、2値化変換部24aが2値化変換した俯瞰画像(所定の標示が撮像されているもの)上のエッジを抽出する。
次に、間隔指標算出部24bは、エッジ抽出処理部24dにより抽出されたエッジを、俯瞰画像上の線として標示の間隔指標値を算出する(ステップST7a)。
In step ST6-1, the edge extraction processing unit 24d extracts an edge on the bird's-eye view image (in which a predetermined sign is captured) binarized and converted by the binarization conversion unit 24a.
Next, the interval index calculation unit 24b calculates the interval index value of the marking by using the edge extracted by the edge extraction processing unit 24d as a line on the overhead image (step ST7a).

図10は、実施の形態2に係る間隔指標に基づく俯瞰パラメータの推定処理を示す図である。まず、エッジ抽出処理部24dは、2値化変換部24aが2値化した画像のエッジを抽出する。これにより、図10の(a)に示す画像が得られる。なお、このエッジ抽出処理には、例えば画像値の1次微分によってエッジを抽出するSobel filterを用いる。   FIG. 10 is a diagram illustrating an overhead parameter estimation process based on the interval index according to the second embodiment. First, the edge extraction processing unit 24d extracts the edge of the image binarized by the binarization conversion unit 24a. Thereby, the image shown in FIG. 10A is obtained. In this edge extraction process, for example, a Sobel filter that extracts edges by first-order differentiation of image values is used.

続いて、間隔指標算出部24bは、エッジ抽出処理部24dが抽出したエッジを対象に直線を抽出する。例えば、Hough変換を用いて直線を抽出する。Hough変換は、画像上の座標(x,y)を原点からの距離ρと角度θに変換する処理である。Hough変換を用いることで、図10の(b)に示すように、各直線の角度をヒストグラム化することができる。また、各直線の原点からの距離をρで表すことができる。   Subsequently, the interval index calculation unit 24b extracts a straight line for the edge extracted by the edge extraction processing unit 24d. For example, a straight line is extracted using Hough transform. The Hough transform is a process of transforming the coordinates (x, y) on the image into a distance ρ from the origin and an angle θ. By using the Hough transform, the angle of each straight line can be converted into a histogram as shown in FIG. Further, the distance from the origin of each straight line can be represented by ρ.

間隔指標算出部24bは、角度θのヒストグラムの結果に適当な閾値を設けることで、一定の角度θの直線のみを抽出することができる。図10の(c)は、上記閾値との比較処理によって横線のみを抽出した結果である。
各直線と原点との距離はρで表されるので、距離ρを用いて各直線の幅を算出できる。間隔指標算出部24bは、各直線の幅を上記実施の形態1と同様に処理して、幅の分散の平均値を間隔指標値として算出する。俯瞰パラメータ算出部24cは、この間隔指標値を用いて、上記実施の形態1と同様に、適正化した俯瞰パラメータを算出する。
The interval index calculation unit 24b can extract only a straight line having a constant angle θ by providing an appropriate threshold value for the result of the histogram of the angle θ. FIG. 10C shows the result of extracting only the horizontal line by the comparison process with the threshold value.
Since the distance between each straight line and the origin is represented by ρ, the width of each straight line can be calculated using the distance ρ. The interval index calculation unit 24b processes the width of each straight line in the same manner as in the first embodiment, and calculates the average value of the variances of the widths as the interval index value. The overhead parameter calculation unit 24c uses the interval index value to calculate the optimized overhead parameter as in the first embodiment.

以上のように、この実施の形態2によれば、等間隔のパターンの標示が撮像された撮像画像の俯瞰画像上のエッジを抽出するエッジ抽出処理部24dを備え、間隔指標算出部24bが、エッジ抽出処理部24dが抽出した標示のエッジを用いて、間隔指標値を算出する。このとき、間隔指標算出部24bが、エッジ抽出処理部24dにより抽出された標示のパターンのエッジと俯瞰画像上の原点との距離に基づいて、パターンの幅と隣り合うパターンの間隔を求め、パターンの幅と隣り合うパターンの間隔を用いて間隔指標値を算出する。このようにすることで、間隔指標値を簡易に演算することができる。また、等間隔のパターンの標示が撮像画像上で斜めに撮像されていても、エッジと俯瞰画像上の原点との距離から、パターンの幅と隣り合うパターンの間隔を求めることができる。   As described above, according to the second embodiment, the edge index processing unit 24b includes the edge extraction processing unit 24d that extracts the edge on the overhead image of the captured image in which the markings of the equally spaced pattern are captured. An interval index value is calculated using the edge of the label extracted by the edge extraction processing unit 24d. At this time, the interval index calculation unit 24b obtains the pattern width and the interval between the adjacent patterns based on the distance between the edge of the marking pattern extracted by the edge extraction processing unit 24d and the origin on the overhead image. An interval index value is calculated using the width of the pattern and the interval between adjacent patterns. In this way, the interval index value can be calculated easily. Further, even if the markings of equally spaced patterns are captured obliquely on the captured image, the pattern width and the interval between adjacent patterns can be obtained from the distance between the edge and the origin on the overhead image.

なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of each embodiment, any component of each embodiment can be modified, or any component can be omitted in each embodiment. .

1,1A 車両周囲表示システム、2,2A ナビゲーション装置、3 ナビゲーション処理部、4 地図データベース(地図DB)、5 位置情報取得部、6 位置計算部、7 車両制御部、10 カメラ、20,20A 俯瞰映像生成装置、21 標示撮像データ取得部、21a 画像認識部、22 撮像データ記憶部、23 俯瞰変換部、23a 表示制御部、24,24A 俯瞰パラメータ推定部、24a 2値化変換部、24b 間隔指標算出部、24c 俯瞰パラメータ算出部、24d エッジ抽出処理部、25 俯瞰パラメータ記憶部、30 モニタ、40 操作部。   DESCRIPTION OF SYMBOLS 1,1A Vehicle surrounding display system, 2,2A navigation apparatus, 3 navigation processing part, 4 map database (map DB), 5 position information acquisition part, 6 position calculation part, 7 vehicle control part, 10 camera, 20, 20A Video generation device, 21 Marking imaging data acquisition unit, 21a Image recognition unit, 22 Imaging data storage unit, 23 Overhead conversion unit, 23a Display control unit, 24, 24A Overhead parameter estimation unit, 24a Binary conversion unit, 24b Interval index Calculation unit, 24c Overhead parameter calculation unit, 24d Edge extraction processing unit, 25 Overhead parameter storage unit, 30 monitor, 40 operation unit.

Claims (12)

画像を射影変換により俯瞰画像に変換する変換パラメータを記憶するパラメータ記憶部と、
前記パラメータ記憶部から読み出した前記変換パラメータを用いて、撮像部により撮像された撮像画像を俯瞰画像に変換する俯瞰変換部と、
前記俯瞰変換部によって等間隔のパターンの標示が撮像された撮像画像が変換された俯瞰画像を取得し、この俯瞰画像上で前記標示のパターンの間隔が揃う度合を示す間隔指標値を算出する間隔指標算出部と、
前記間隔指標算出部によって算出された間隔指標値に基づいて、前記俯瞰画像上で前記標示のパターンの間隔が所定の範囲内で揃う変換パラメータを算出して、前記パラメータ記憶部に記憶するパラメータ算出部とを備える俯瞰映像生成装置。
A parameter storage unit for storing conversion parameters for converting an image into an overhead image by projective conversion;
An overhead conversion unit that converts a captured image captured by the imaging unit into an overhead image using the conversion parameter read from the parameter storage unit;
An interval for obtaining a bird's-eye view image obtained by converting a picked-up image obtained by picking up an image of a pattern with equal intervals by the bird's-eye view conversion unit, and calculating an interval index value indicating the degree to which the intervals of the pattern of the marking are aligned on the bird's-eye view image An index calculation unit;
Based on the interval index value calculated by the interval index calculation unit, a conversion parameter in which the interval of the marking pattern is aligned within a predetermined range on the overhead image is calculated, and parameter calculation is stored in the parameter storage unit And a bird's-eye view image generation device.
前記等間隔のパターンの標示が撮像された撮像画像を取得する画像取得部と、
前記画像取得部により取得された撮像画像を記憶する画像記憶部とを備え、
前記俯瞰変換部は、前記画像記憶部から読み出した撮像画像を俯瞰画像に変換し、
前記間隔指標算出部は、前記俯瞰変換部によって変換された俯瞰画像を取得し、この俯瞰画像上で前記標示のパターンの間隔が揃う度合を示す間隔指標値を算出することを特徴とする請求項1記載の俯瞰映像生成装置。
An image acquisition unit for acquiring a captured image in which the indication of the equally spaced pattern is captured;
An image storage unit that stores the captured image acquired by the image acquisition unit,
The overhead view conversion unit converts the captured image read from the image storage unit into an overhead image,
The interval index calculation unit acquires the overhead image converted by the overhead view conversion unit, and calculates an interval index value indicating the degree to which the intervals of the marking patterns are aligned on the overhead image. The overhead view video generation device according to 1.
前記等間隔のパターンの標示が撮像された撮像画像の俯瞰画像を2値化変換する2値化変換部を備え、
前記間隔指標算出部は、前記2値化変換部が2値化した前記標示のパターンを用いて、前記間隔指標値を算出することを特徴とする請求項1または請求項2記載の俯瞰映像生成装置。
A binarization conversion unit that binarizes and converts a bird's-eye view image of a captured image obtained by imaging the equidistant pattern markings;
3. The overhead image generation according to claim 1, wherein the interval index calculation unit calculates the interval index value using the marking pattern binarized by the binarization conversion unit. apparatus.
前記間隔指標算出部は、2値化変換された前記標示のパターンの画素数のヒストグラムを作成し、このヒストグラムに基づいて判別した前記パターンの幅と隣り合うパターンの間隔を用いて間隔指標値を算出することを特徴とする請求項3記載の俯瞰映像生成装置。   The interval index calculation unit creates a histogram of the number of pixels of the marking pattern binarized and converts the interval index value using the width of the pattern determined based on the histogram and the interval between adjacent patterns. The overhead image generation apparatus according to claim 3, wherein the overhead image generation apparatus is calculated. 前記等間隔のパターンの標示が撮像された撮像画像の俯瞰画像上のエッジを抽出するエッジ抽出処理部を備え、
前記間隔指標算出部は、前記エッジ抽出処理部が抽出した前記標示のエッジを用いて、前記間隔指標値を算出することを特徴とする請求項1または請求項2記載の俯瞰映像生成装置。
An edge extraction processing unit that extracts an edge on an overhead image of a captured image in which the markings of the equally spaced patterns are captured;
The overhead image generation device according to claim 1, wherein the interval index calculation unit calculates the interval index value using an edge of the sign extracted by the edge extraction processing unit.
前記間隔指標算出部は、前記エッジ抽出処理部により抽出された前記標示のパターンのエッジと前記俯瞰画像上の原点との距離に基づいて、前記パターンの幅と隣り合うパターンの間隔を求め、前記パターンの幅と隣り合うパターンの間隔を用いて間隔指標値を算出することを特徴とする請求項5記載の俯瞰映像生成装置。   The interval index calculation unit obtains an interval between adjacent patterns and the width of the pattern based on the distance between the edge of the marking pattern extracted by the edge extraction processing unit and the origin on the overhead image, 6. The overhead image generation apparatus according to claim 5, wherein the interval index value is calculated using a pattern width and an interval between adjacent patterns. 前記画像取得部は、前記撮像部により撮像された撮像画像に対して画像認識を行って、等間隔のパターンの標示が撮像された撮像画像を取得することを特徴とする請求項2記載の俯瞰映像生成装置。   The bird's-eye view according to claim 2, wherein the image acquisition unit performs image recognition on a captured image captured by the imaging unit, and acquires a captured image in which signs of equally spaced patterns are captured. Video generation device. 外部からの操作を受け付ける操作部を備え、
前記画像取得部は、前記操作部を用いて指定されたタイミングで前記撮像部により撮像された撮像画像を、等間隔のパターンの標示が撮像された撮像画像として取得することを特徴とする請求項2記載の俯瞰映像生成装置。
It has an operation unit that accepts external operations,
The said image acquisition part acquires the picked-up image imaged by the said image pick-up part at the timing designated using the said operation part as a picked-up image by which the label of the pattern of equal intervals was imaged. 3. The bird's-eye view image generation device according to 2.
前記撮像部は、移動体に搭載されてその周囲を撮像し、
前記画像取得部は、現在位置と地図データに基づいて、等間隔のパターンの標示が存在する地点に前記移動体が到達したと判別されたタイミングで前記撮像部により撮像された撮像画像を、等間隔のパターンの標示が撮像された撮像画像として取得することを特徴とする請求項2記載の俯瞰映像生成装置。
The imaging unit is mounted on a moving body and images the surroundings,
The image acquisition unit captures a captured image captured by the imaging unit at a timing when it is determined that the moving body has arrived at a point where a sign of an equally spaced pattern exists based on the current position and map data, etc. The bird's-eye view image generation apparatus according to claim 2, wherein the image is acquired as a captured image in which an indication of an interval pattern is captured.
俯瞰変換部が、画像を射影変換により俯瞰画像に変換する変換パラメータを記憶するパラメータ記憶部から読み出した前記変換パラメータを用いて、撮像部により撮像された撮像画像を俯瞰画像に変換する俯瞰変換ステップと、
間隔指標算出部が、前記俯瞰変換ステップで等間隔のパターンの標示が撮像された撮像画像を変換した俯瞰画像を入力し、この俯瞰画像上で前記標示のパターンの間隔が揃う度合を示す間隔指標値を算出する間隔指標算出ステップと、
パラメータ算出部が、前記間隔指標算出ステップで算出された間隔指標値に基づいて、前記俯瞰画像上で前記標示のパターンの間隔が所定の範囲内で揃う変換パラメータを算出して、前記パラメータ記憶部に記憶するパラメータ算出ステップとを備える俯瞰映像生成方法。
An overhead conversion step in which the overhead conversion unit converts the captured image captured by the imaging unit into an overhead image using the conversion parameter read from the parameter storage unit that stores the conversion parameter for converting the image into an overhead image by projective conversion. When,
The interval index calculation unit inputs an overhead image obtained by converting a captured image obtained by capturing the markings of the equally spaced pattern in the overhead view conversion step, and indicates the degree to which the intervals of the marking patterns are aligned on the overhead image. An interval index calculating step for calculating a value;
Based on the interval index value calculated in the interval index calculation step, the parameter calculation unit calculates a conversion parameter in which the interval of the marking pattern is aligned within a predetermined range on the overhead image, and the parameter storage unit And a parameter calculation step stored in the overhead view video generation method.
移動体の周囲の俯瞰画像を表示する映像表示システムにおいて、
前記移動体の周囲を撮像する撮像部と、
請求項1から請求項9のうちのいずれか1項記載の俯瞰映像生成装置と、
前記俯瞰映像生成装置で生成された俯瞰画像を表示する表示部とを備えることを特徴とする映像表示システム。
In a video display system that displays a bird's-eye view around a moving object,
An imaging unit for imaging the periphery of the moving body;
An overhead view video generation device according to any one of claims 1 to 9,
A video display system, comprising: a display unit that displays the overhead image generated by the overhead image generation device.
請求項1から請求項9のうちのいずれか1項記載の俯瞰映像生成装置を備えたナビゲーション装置。   A navigation device comprising the overhead view video generation device according to any one of claims 1 to 9.
JP2011259062A 2011-11-28 2011-11-28 Overhead video generation device, overhead video generation method, video display system, and navigation device Active JP5836774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011259062A JP5836774B2 (en) 2011-11-28 2011-11-28 Overhead video generation device, overhead video generation method, video display system, and navigation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011259062A JP5836774B2 (en) 2011-11-28 2011-11-28 Overhead video generation device, overhead video generation method, video display system, and navigation device

Publications (2)

Publication Number Publication Date
JP2013115559A true JP2013115559A (en) 2013-06-10
JP5836774B2 JP5836774B2 (en) 2015-12-24

Family

ID=48710739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011259062A Active JP5836774B2 (en) 2011-11-28 2011-11-28 Overhead video generation device, overhead video generation method, video display system, and navigation device

Country Status (1)

Country Link
JP (1) JP5836774B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038134A1 (en) * 2015-08-28 2017-03-09 株式会社日立製作所 Landmark recognition device and recognition method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216949A (en) * 2002-01-18 2003-07-31 Honda Motor Co Ltd Infrared image processor
JP2007228448A (en) * 2006-02-27 2007-09-06 Hitachi Ltd Imaging environment recognition apparatus
JP2007257242A (en) * 2006-03-23 2007-10-04 Niles Co Ltd White line recognition device
JP2008011174A (en) * 2006-06-29 2008-01-17 Hitachi Ltd Calibration device of on-vehicle camera, program, and car navigation system
JP2008182652A (en) * 2007-01-26 2008-08-07 Sanyo Electric Co Ltd Camera posture estimation device, vehicle, and camera posture estimating method
JP2011192071A (en) * 2010-03-15 2011-09-29 Aisin Seiki Co Ltd Pedestrian crossing detector, pedestrian crossing detection system, pedestrian crossing detection method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216949A (en) * 2002-01-18 2003-07-31 Honda Motor Co Ltd Infrared image processor
JP2007228448A (en) * 2006-02-27 2007-09-06 Hitachi Ltd Imaging environment recognition apparatus
JP2007257242A (en) * 2006-03-23 2007-10-04 Niles Co Ltd White line recognition device
JP2008011174A (en) * 2006-06-29 2008-01-17 Hitachi Ltd Calibration device of on-vehicle camera, program, and car navigation system
JP2008182652A (en) * 2007-01-26 2008-08-07 Sanyo Electric Co Ltd Camera posture estimation device, vehicle, and camera posture estimating method
JP2011192071A (en) * 2010-03-15 2011-09-29 Aisin Seiki Co Ltd Pedestrian crossing detector, pedestrian crossing detection system, pedestrian crossing detection method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038134A1 (en) * 2015-08-28 2017-03-09 株式会社日立製作所 Landmark recognition device and recognition method
JPWO2017038134A1 (en) * 2015-08-28 2018-05-31 株式会社日立製作所 Landmark recognition apparatus and recognition method
US10509971B2 (en) 2015-08-28 2019-12-17 Hitachi, Ltd. Landmark recognition device and landmark recognition method using a database storing landmark extraction information

Also Published As

Publication number Publication date
JP5836774B2 (en) 2015-12-24

Similar Documents

Publication Publication Date Title
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
US9443313B2 (en) Stereo camera apparatus
WO2018225446A1 (en) Map points-of-change detection device
JP5714940B2 (en) Moving body position measuring device
JP6368651B2 (en) Driving environment recognition system
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US9122936B2 (en) Detecting device, detection method, and computer program product
JP2012185540A (en) Image processing device, image processing method, and image processing program
CN103366155B (en) Temporal coherence in unobstructed pathways detection
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP5278108B2 (en) Moving object detection system and moving object detection method
JP2012063869A (en) License plate reader
JP6956051B2 (en) Image processing equipment, driving support system, image processing method and program
JP5163165B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
WO2019156072A1 (en) Attitude estimating device
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2012198857A (en) Approaching object detector and approaching object detection method
US20200193184A1 (en) Image processing device and image processing method
WO2013022153A1 (en) Apparatus and method for detecting lane
JP4882577B2 (en) Object tracking device and control method thereof, object tracking system, object tracking program, and recording medium recording the program
JP6431299B2 (en) Vehicle periphery monitoring device
JP2008033781A (en) Road surface gradient detection device and image display device
JP5836774B2 (en) Overhead video generation device, overhead video generation method, video display system, and navigation device
JP5903901B2 (en) Vehicle position calculation device
JP2018073049A (en) Image recognition device, image recognition system, and image recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151104

R150 Certificate of patent or registration of utility model

Ref document number: 5836774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350