JP2010193198A - Object bottom end position detection device and object bottom end position detection program - Google Patents
Object bottom end position detection device and object bottom end position detection program Download PDFInfo
- Publication number
- JP2010193198A JP2010193198A JP2009035764A JP2009035764A JP2010193198A JP 2010193198 A JP2010193198 A JP 2010193198A JP 2009035764 A JP2009035764 A JP 2009035764A JP 2009035764 A JP2009035764 A JP 2009035764A JP 2010193198 A JP2010193198 A JP 2010193198A
- Authority
- JP
- Japan
- Prior art keywords
- image
- straight line
- line group
- calculating
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、特定領域を被写体として撮影された撮影画像から射影変換によって生成される上方視点の鳥瞰画像における物体、特に地面に接地していない物体の位置を算定する技術に関する。 The present invention relates to a technique for calculating the position of an object in an upper-view bird's-eye image generated by projective transformation from a photographed image photographed with a specific region as a subject, particularly an object that is not in contact with the ground.
カメラによる撮影画像に画像処理を施すことにより、当該撮影画像を当該カメラの視点とは別の視点から見た画像に変換する視点変換処理が知られている。この視点変換処理は、車両に搭載されたカメラにより撮影された画像を、視点を上方にもってくることで撮影画像を当該車両の周辺を上から見下ろすような俯瞰画像に変換して、車内のディスプレイに表示するといった用途に用いられている。視点変換処理では、一般的に画像中の全ての物体が例えその物体が立体物であったとしても、同一平面上に存在するものとして、画像処理が施される。例えば、車両における用途においては、全ての物体が、道路標示や駐車枠線などと同様に、路面上に存在する模様として変換処理が施されることになる。実際に路面上に存在する道路標示などは線形変換により違和感無く、真上からみたような画像へと変換される。しかし、他の車両や障害物などの高さのある物体(つまり立体物)は、画像が大きく歪んでしまい、車両と物体との距離、特に地面の接していない物体に対する距離が把握しづらい。 A viewpoint conversion process is known in which image processing is performed on a photographed image by a camera to convert the photographed image into an image viewed from a viewpoint different from the viewpoint of the camera. In this viewpoint conversion processing, an image captured by a camera mounted on a vehicle is converted into an overhead image that looks down on the periphery of the vehicle from above by moving the viewpoint upward, and the display inside the vehicle It is used for applications such as In the viewpoint conversion processing, image processing is generally performed on the assumption that all objects in an image exist on the same plane even if the objects are solid objects. For example, in the use in a vehicle, all objects are subjected to conversion processing as patterns existing on the road surface, like road markings and parking frame lines. Road markings and the like that actually exist on the road surface are converted into an image as seen from directly above without any sense of incongruity by linear conversion. However, the height of an object (that is, a three-dimensional object) such as another vehicle or an obstacle greatly distorts the image, and it is difficult to grasp the distance between the vehicle and the object, particularly the object that is not in contact with the ground.
このような問題に鑑みて、例えば特開2006−333009号公報(特許文献1)には、カメラによって互いに異なる複数の視点位置で撮像された実画像に基づいてカメラから実画像内の物体までの距離を演算し、この実画像内の物体の表示画面上における上下方向の位置と、演算によって求めたカメラから物体までの距離と、実画像の表示画面上における上下方向の位置と実カメラからの距離との関係を示す地面データとに基づいて、物体が高さを有する物体であるか否かを判定し、高さを有する物体であれば当該物体を実画像内で地面に対して垂直な方向に圧縮して俯瞰画像を作成する技術が開示されている。さらに、この特許文献1には、地面に接地していない物体を俯瞰画像上においてより正確な位置に表示できるようにするために、カメラにより撮像される実画像データ内で垂直な方向を示す垂直データを予め作成してメモリ等に記憶させておき、画像変換処理部が、計算用メモリにコピーした画素からなる画像データを任意の率で圧縮する際に、垂直データを用いて地面に接地していない物体を地面に垂直な方向に移動させ、地面に接地した位置で圧縮する技術も開示されている。なお、予め求めておいて記憶させておく必要がある前記垂直データは、カメラを構成するカメラのカメラレンズの光学特性並びに車両に対する取り付け位置及び取り付け角度に基づいて一意に決定される地面上垂直を示すものである。従って、カメラのカメラレンズの光学特性や取り付け姿勢のうちの1つのパラメータが変化しても別な垂直データを作成して記憶しなおす必要がある。 In view of such a problem, for example, Japanese Patent Application Laid-Open No. 2006-333909 (Patent Document 1) describes from a camera to an object in an actual image based on actual images captured at a plurality of different viewpoint positions by the camera. The distance is calculated, the vertical position of the object in the real image on the display screen, the distance from the camera to the object obtained by the calculation, the vertical position on the display screen of the real image and the real camera Based on the ground data indicating the relationship with the distance, it is determined whether or not the object has a height. If the object has a height, the object is perpendicular to the ground in the real image. A technique for creating a bird's-eye view image by compressing in a direction is disclosed. Furthermore, in this patent document 1, in order to display an object that is not in contact with the ground at a more accurate position on a bird's-eye view image, a vertical direction indicating a vertical direction in actual image data captured by a camera is disclosed. Data is created in advance and stored in a memory or the like, and when the image conversion processing unit compresses image data composed of pixels copied to the calculation memory at an arbitrary rate, it is grounded using vertical data. A technique is also disclosed in which an unoccupied object is moved in a direction perpendicular to the ground and compressed at a position touching the ground. The vertical data that needs to be obtained and stored in advance is the vertical on the ground, which is uniquely determined based on the optical characteristics of the camera lens of the camera that constitutes the camera, and the mounting position and mounting angle with respect to the vehicle. It is shown. Accordingly, it is necessary to create and store another vertical data even if one of the parameters of the camera lens optical characteristics and the mounting posture changes.
上述した特許文献1による技術では、撮影画像から射影変換によって生成される上方視点の俯瞰図における物体の位置を算定するために、カメラから物体までの距離を求める演算処理や予め求めておいた地面データを用いて物体が高さを有する物体であるか否かを判定する判定処理が必須となる。また、地面に接地していない物体の地面との接地位置を算定するには、さらに予め求めておく必要のある垂直データを用いて地面に接地していない物体を地面に垂直な方向に移動させる処理が要求される。 In the technique according to Patent Document 1 described above, in order to calculate the position of the object in the overhead view of the upper viewpoint generated by projective transformation from the photographed image, a calculation process for obtaining a distance from the camera to the object or a previously obtained ground A determination process for determining whether or not an object has a height using data is essential. Also, in order to calculate the ground contact position of an object that is not in contact with the ground, the object that is not in contact with the ground is moved in a direction perpendicular to the ground using vertical data that must be obtained in advance. Processing is required.
本発明は、上記実情に鑑みて創案されたもので、撮影画像から射影変換によって生成される上方視点の画像における物体、特に地面に接地していない物体の位置を簡単に算定することができる技術を提供することを目的とする。 The present invention was devised in view of the above circumstances, and can easily calculate the position of an object in an upper viewpoint image generated by projective transformation from a captured image, particularly an object that is not in contact with the ground. The purpose is to provide.
上記目的を達成するための本発明に係る物体下端位置検出装置の特徴構成は、特定領域を被写体として第1位置において撮影された撮影画像を第1画像として受け取る第1画像受取部と、前記第1位置とは異なる第2位置において撮影された撮影画像を第2画像として受け取る第2画像受取部と、前記第1画像を上方視点から見た第1変換画像に射影変換する第1射影変換部と、前記第2画像を上方視点から見た第2変換画像に射影変換する第2射影変換部と、前記第1変換画像における物体の物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第1直線群を算定する第1直線群算定部と、前記第2変換画像における物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第2直線群を算定する第2直線群算定部と、前記第1位置と前記第2位置との距離に対応するように相対変位させた前記第1直線群と前記第2直線群とを重ね合わせた際に生じる直線群の交点を算定する交点算定部と、前記交点の分布位置に基づいて前記物体の下端を算定する物体下端算定部とを有する点にある。 In order to achieve the above object, a characteristic configuration of the object lower end position detection device according to the present invention includes: a first image receiving unit that receives a captured image captured at a first position as a first image with a specific region as a subject; A second image receiving unit that receives a captured image captured at a second position different from the first position as a second image; and a first projective conversion unit that performs projective conversion of the first image into a first converted image viewed from an upper viewpoint. A second projective transformation unit that projectively transforms the second image into a second transformed image viewed from above, and each feature point characterizing the object shape of the object in the first transformed image and the optical center point A first straight line group calculating unit for calculating a first straight line group composed of straight lines, and a second straight line group composed of straight lines connecting the feature points characterizing the object shape in the second converted image and the optical center point. Two straight line group calculation sections; An intersection point calculation unit for calculating an intersection point of the straight line groups generated when the first straight line group and the second straight line group, which are relatively displaced so as to correspond to the distance between the first position and the second position, are overlapped. And an object lower end calculating unit that calculates the lower end of the object based on the distribution position of the intersection.
この特徴構成によれば、まず、濃度変換や微分処理といった何らかの物体検出画像処理アルゴリズムを用いて各変換画像における物体の物体形状を特徴づける特徴点が検出されると、それぞれの変換画像においてその特徴点と光学中心点とを結ぶ直線からなる第1直線群と第2直線群とが算定される。さらに、前記第1位置と前記第2位置との距離(場合によっては変位量)に合わせて相対変位された第1直線群と第2直線群との直線群の交点が算定され、これらの交点の分布位置に基づいて物体の下端が算定される。この交点が物体の特徴点の水平面(路面)への投影点となる。ノイズを考慮するならば、交点が集中しているところを物体の水平面(路面)への投影位置と判定すればよい。物体が地面に接地している場合には、この交点の集まりの位置がその物体の地面との接触位置(物体の下端位置)を示すことになる。また、自動車のバンパーのように、その物体が路面に接地していない場合には、その物体を垂直に路面に延ばした際の接触位置(この場合にはこの位置を物体の下端位置とみなす)が判定できる。このような物体下端位置の検出原理は、後で詳しく説明されるが、その基本的な着眼点は、光学中心点と物体上のある点を通る直線において、移動前後で得られる直線の交点が、その点が路面上へ投影された点を表すことになるということである。例えば、ある光学中心点で得られた撮影画像の射影変換鳥瞰画像における空間中の所定点と光学中心点とを通る第1直線と、光学中心点が移動することにより得られた新たな射影変換鳥瞰画像における空間中の所定点と移動後の光学中心点とを通る第2直線は所定点の直下の位置で交差する。したがって、物体に属する多くの特徴点によって規定される第1直線と第2直線との交点が集中するところがその物体の下端位置を表すことになる。この原理が本発明では利用されている。つまり、本発明では2つの画像のそれぞれにおける物体の特徴点と光学中心点とを結ぶ線の交点を求めるという簡単な画像処理技術だけで、撮影画像から射影変換によって生成される上方視点の鳥瞰画像における物体、特に地面に接地していない物体の位置を簡単に算定することができる。 According to this feature configuration, when a feature point that characterizes the object shape of an object in each converted image is first detected using some object detection image processing algorithm such as density conversion or differentiation processing, the feature is detected in each converted image. A first straight line group and a second straight line group composed of straight lines connecting the points and the optical center point are calculated. Furthermore, the intersection of the straight line group of the first straight line group and the second straight line group that are relatively displaced according to the distance (in some cases, the displacement amount) between the first position and the second position is calculated, and these intersection points are calculated. The lower end of the object is calculated based on the distribution position. This intersection is a projection point on the horizontal plane (road surface) of the feature point of the object. If noise is taken into consideration, the point where the intersections are concentrated may be determined as the projection position of the object on the horizontal plane (road surface). When the object is in contact with the ground, the position of the gathering of the intersection points indicates the contact position of the object with the ground (the lower end position of the object). In addition, when the object is not touching the road surface, such as a bumper of an automobile, the contact position when the object is extended vertically on the road surface (in this case, this position is regarded as the lower end position of the object). Can be determined. The principle of detecting the lower end position of the object will be described in detail later, but the basic point of focus is the intersection of the straight lines obtained before and after the movement in a straight line passing through the optical center point and a certain point on the object. This means that the point represents a point projected on the road surface. For example, projective transformation of a photographed image obtained at a certain optical center point A first straight line passing through a predetermined point in the space and the optical center point in the bird's-eye image, and a new projective transformation obtained by moving the optical center point A second straight line passing through a predetermined point in the space in the bird's-eye view image and the optical center point after the movement intersects at a position immediately below the predetermined point. Therefore, the point where the intersections of the first line and the second line defined by many feature points belonging to the object are concentrated represents the lower end position of the object. This principle is utilized in the present invention. In other words, in the present invention, the bird's-eye view image of the upper viewpoint generated by the projective transformation from the photographed image only by the simple image processing technique of obtaining the intersection of the line connecting the feature point of the object and the optical center point in each of the two images. It is possible to easily calculate the position of an object in FIG.
また、本発明に係る物体下端位置検出装置は、前記第1直線群算定部及び前記第2直線群算定部は、前記第1変換画像及び前記第2変換画像に対して輪郭強調する水平方向微分フィルタを適用した後にしきい値処理することによって生成された画像から前記特徴点を求めるように構成すると好適である。物体下端検出に利用される直線は光学中心点と物体の下方稜線を示す画像特徴点とを結ぶ直線である。したがって、水平方向微分フィルタによって垂直方向のエッジ成分を強調し、適当なしきい値を用いて、例えば2値化処理することで、多くのノイズ画像領域が除外されるので下方稜線を示す画像特徴点が得られやすくなる。また、光学中心点と画像特徴点とを結ぶ直線は、光学中心点から上方扇形に放射する直線となるので、このような拘束条件を用いて、直線を選別することで直線群の算定処理負荷が低減される。 In the object lower end position detection device according to the present invention, the first straight line group calculation unit and the second straight line group calculation unit may perform horizontal differentiation that enhances the outline of the first converted image and the second converted image. It is preferable that the feature points are obtained from an image generated by thresholding after applying a filter. The straight line used for detecting the lower end of the object is a straight line connecting the optical center point and the image feature point indicating the lower ridge line of the object. Therefore, by emphasizing the edge component in the vertical direction by the horizontal differential filter and performing binarization processing using an appropriate threshold value, for example, many noise image areas are excluded, so that the image feature point indicating the lower ridge line Becomes easier to obtain. In addition, since the straight line connecting the optical center point and the image feature point is a straight line that radiates upward from the optical center point, the straight line group calculation processing load is determined by selecting the straight line using such a constraint condition. Is reduced.
また、本発明に係る物体下端位置検出装置は、前記第1画像受取部は、前記車両の移動量を検出する移動検出部の検出結果に基づき前記車両が前記第1位置に達したと判定されたときに撮影された撮影画像を前記第1画像として受け取り、前記第2画像受取部は、前記車両の移動量を検出する移動検出部の検出結果に基づき前記車両が前記第2位置に達したと判定されたときに撮影された撮影画像を前記第2画像として受け取り、前記交点算定部は前記第1画像と前記第2画像とにおける光学中心点の移動距離を移動検出部の検出結果から得ると好適である。この構成によれば、光学中心点が適正距離だけ移動した際のその移動前後における撮像画像が得られるので、その後の物体下端位置検出処理が容易となる。 In the object lower end position detection device according to the present invention, the first image receiving unit determines that the vehicle has reached the first position based on a detection result of a movement detection unit that detects a movement amount of the vehicle. The second image receiving unit receives the captured image taken when the vehicle has reached the second position based on a detection result of a movement detection unit that detects a movement amount of the vehicle. The intersection image calculation unit obtains the movement distance of the optical center point between the first image and the second image from the detection result of the movement detection unit. It is preferable. According to this configuration, captured images before and after the movement of the optical center point when the optical center point moves by an appropriate distance can be obtained, so that subsequent object lower end position detection processing is facilitated.
上記目的を達成するための本発明に係る物体下端位置検出プログラムは、 特定領域を被写体として第1位置において撮影された撮影画像を第1画像として受け取るとともに、前記第1位置とは異なる第2位置において撮影された撮影画像を第2画像として受け取る機能と、前記第1画像を上方視点から見た第1変換画像に射影変換するするとともに、前記第2画像を上方視点から見た第2変換画像に射影変換する機能と、前記第1変換画像における物体の物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第1直線群を算定するとともに、前記第2変換画像における物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第2直線群を算定する機能と、前記第1位置と前記第2位置との距離に対応するように相対変位させた前記第1変換画像と前記第2変換画像とを重ね合わせた際に生じる前記第1直線群と前記第2直線群とにおける対応する直線の交点を算定する機能と、前記交点の分布位置に基づいて前記物体の下端位置を算定する機能とをコンピュータに実現させるものである。この物体下端位置検出プログラムも上述した物体下端位置検出装置において説明された作用・効果を得ることができる。 In order to achieve the above object, an object lower end position detection program according to the present invention receives, as a first image, a captured image taken at a first position with a specific region as a subject, and a second position different from the first position. A function of receiving a photographed image taken in step 2 as a second image, and projective transformation of the first image into a first converted image viewed from an upper viewpoint, and a second converted image viewed from the upper viewpoint A first line group consisting of straight lines connecting the feature points characterizing the object shape of the object in the first converted image and the optical center point, and calculating the object shape in the second converted image. A function for calculating a second straight line group composed of straight lines connecting the feature points and the optical center point, and a relative value corresponding to the distance between the first position and the second position. A function of calculating intersections of corresponding straight lines in the first straight line group and the second straight line group generated when the first converted image and the second converted image that are positioned are superimposed, and distribution of the cross points The computer realizes the function of calculating the lower end position of the object based on the position. This object lower end position detection program can also obtain the operations and effects described in the object lower end position detection apparatus described above.
以下、本発明の実施形態を図面に基づいて説明する。本発明の物体下端位置検出技術は、車載カメラによる撮影画像を視点変換(射影変換)して得られた鳥瞰画像を用いて運転支援を行う運転支援装置などに組み込まれる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The object lower end position detection technology of the present invention is incorporated in a driving support apparatus that performs driving support using a bird's-eye view image obtained by performing viewpoint conversion (projection conversion) on an image captured by an in-vehicle camera.
まずは、この物体下端位置検出技術の基本原理を図1から図6を用いて説明する。
路上に置かれた車止めのように路面に接している物体に比べ、自動車のバンパー部のようにオーバーハングしているような物体は、路面との間に実体物がないため、路面における物体(オーバーハング物体)直下の位置(本発明ではこの位置も路面物体接触位置とともに物体下端位置と称する)はその鳥瞰画像に明示することはできない。物体下端位置検出技術はそのような鳥瞰画像における物体下端位置を検出して、必要に応じてその位置を明示することができるようにすることである。
First, the basic principle of this object lower end position detection technique will be described with reference to FIGS.
Compared to objects that are in contact with the road surface, such as car stops placed on the road, objects that are overhanging, such as the bumper part of a car, have no entity between them. The position directly under the overhanging object (in the present invention, this position is also referred to as the object lower end position together with the road surface object contact position) cannot be clearly shown in the bird's-eye view image. The object lower end position detection technique is to detect the object lower end position in such a bird's-eye view image, and to be able to clearly indicate the position as necessary.
図1は、空間中の物体の1つの特徴点としての点Aと、その点Aが路面上へ投影された点である路面での接地点C(オーバーハング部分の直下位置ということなる)と、光学中心点Oからの点Aの路面への投影点A1との関係を側面図の形で示している。図2は、点Aと接地点Cとが撮影画像及び鳥瞰画像(水平面への射影変換画像)におけるどのように表示されるかを示している。図3は、点Aに対してカメラの光学中心点(視点)OがΔLだけ移動した際の移動前後の光学中心点Oと点Aとを結ぶ直線を鳥瞰図の形で示している。ここでO1とO2は移動前後の光学中心点Oを示し、A1とA2は移動前後の点Aの路面への投影点を示している。図3から、光学中心点Oとそれらの空間中の点Aを通る直線は、鳥瞰図座標系(X−Z面)上では異なった位置に存在し、移動前後での座標での直線は点Aの直下の位置で交差することが理解できる。視点-物体(特徴点A)下端間距離はdで示されている。当然物体は多数の特徴点Aによってその形状は規定されるので、図4に、多数(ここでは2つ)の特徴点が存在する場合での図3に対応する図を示しておく。図4から明らかなように、物体を規定する特徴点群に対して光学中心点が移動すると、光学中心点と空間中に存在する特徴点群を通る直線は、鳥瞰図座標系上では異なった位置に存在し、移動前後での座標での直線は空間中の物体の直下の位置で交差する。また、同一物体上の特徴点群であれば、物体の直下の点群は物体の形状に応じて、その下端位置に相当する位置に直線の交点が集中することになるが、図5にそのような図例が示されている。もちろん、実際の画像から算定される直線の交点は多数生じるが、下端位置を表さない交点もノイズとして含まれることになるので、多数の交点から信頼性の高い交点を選択する必要がある。この問題を解決するためには、ノイズである交点を含むとしても、総体的には、物体特徴点の下端位置に相当する位置で直線群の交点が密集するということを利用すると簡単で効果的である。例えば、図6のような交点群の分布が得られた場合、この分布から確からしい交点集中位置を推定し、その交点集中位置を物体の下端位置とみなすとよい。 FIG. 1 shows a point A as one feature point of an object in space, and a contact point C on the road surface, which is a point on which the point A is projected onto the road surface (which is a position directly below the overhang portion). The relationship between the optical center point O and the projection point A1 of the point A onto the road surface is shown in the form of a side view. FIG. 2 shows how the point A and the ground contact point C are displayed in the captured image and the bird's-eye view image (projection-transformed image on the horizontal plane). FIG. 3 shows a straight line connecting the optical center point O and the point A before and after the movement when the optical center point (viewpoint) O of the camera moves by ΔL with respect to the point A in the form of a bird's eye view. Here, O1 and O2 indicate the optical center point O before and after the movement, and A1 and A2 indicate the projection points on the road surface of the point A before and after the movement. From FIG. 3, the straight line passing through the optical center point O and the point A in the space exists at different positions on the bird's eye view coordinate system (XZ plane), and the straight line in the coordinates before and after the movement is the point A. It can be understood that they intersect at a position immediately below. The distance between the viewpoint and the bottom of the object (feature point A) is indicated by d. Naturally, since the shape of the object is defined by a large number of feature points A, FIG. 4 shows a diagram corresponding to FIG. 3 when there are a large number (two in this case) of feature points. As is clear from FIG. 4, when the optical center point moves with respect to the feature point group defining the object, the straight line passing through the optical center point and the feature point group existing in the space has a different position on the bird's eye view coordinate system. The straight lines in the coordinates before and after the movement intersect at a position immediately below the object in the space. In addition, in the case of feature point groups on the same object, the point intersections immediately below the object are concentrated at the intersection corresponding to the lower end position according to the shape of the object. Such an example is shown. Of course, there are many intersections of straight lines calculated from the actual image, but intersections that do not represent the lower end position are also included as noise, so it is necessary to select highly reliable intersections from the many intersections. In order to solve this problem, it is simple and effective to use the fact that the intersections of the straight line groups are densely located at the position corresponding to the lower end position of the object feature points even if the intersections that are noises are included. It is. For example, when a distribution of intersection groups as shown in FIG. 6 is obtained, a likely intersection concentration position is estimated from this distribution, and the intersection concentration position may be regarded as the lower end position of the object.
上述した本発明による物体下端位置検出技術の基本原理のアルゴリズムをフローチャート化したものが図7に示されている。その処理の流れは以下の通りである。
ステップ#01
第1位置において第1画像(撮影画像)を撮影し、第2位置において第2画像(撮影画像を取得する。その際、異なる光学中心点を有する2台のカメラを用いて同時に撮影して第1画像と第2画像を取得してもよいし、1台のカメラで視点の移動前後でそれぞれ撮影して、第1画像と第2画像を取得してもよい。
ステップ#02
第1画像から射影変換された第1変換画像(鳥瞰画像)と、第2画像から射影変換された第2変換画像(鳥瞰画像)とを生成する。
ステップ#03
生成された第1・第2変換画像に対して画像中物体の垂直方向の形状特徴点を明示させるために垂直方向のエッジを取り出した2値化画像を生成する。これは、通常光学中心点が画像の下側に位置するので、光学中心点と物体特徴点とを結ぶ有効な直線を得るためには、物体の垂直方向の形状が重要となるからである。垂直方向のエッジを取り出すために水平方向微分フィルタ、例えば垂直Sobelフィルタを適用するのが好ましい。また、2値化処理で使用されるしきい値は、取得される画像の濃度特性があらかじめ調整されている場合では固定値でよいが、そうでない場合では画像のヒストグラムに基づいて演算設定することが好ましい。この処理によって、光学中心点方向に向かう画素群以外の画素群を除去して、光学中心点方向に向かう画素群に含まれる画素(特徴点)を通る直線だけをできるだけ演算対象とすることで演算処理負担を軽減することができる。
ステップ#04
得られたそれぞれの2値化画像において、垂直方向の物体形状特徴を示している画素群に含まれている特徴点と光学中心点とを結ぶ直線群(第1直線群と第2直線群)を算定する。その際、一方の点を原点とし、他方の点をランダムに選択した直線を仮想し、この仮想直線に特徴点を当てはめて満足する結果が得られる所定数の直線を求める手法が好ましい。例えば、このために、RANSAC(RANdom SAmple Consensus)を用いて特徴点の軌跡に部分空間を当てはめ、しきい値処理によって残差の大きい画素を除去するような方策を施してもよい。
ステップ#05
第1変換画像から得られた第1直線群と第2変換画像から得られた第2直線群からとの間で、図3や図4で示すように、の交点を算定する。直線群間の直線群からの処理対象とすべきの選別は、方位角度が類似している(最も角度差が小さいものから所定順位まで)ことを条件として行うことができるが、選別が困難な場合、総当たりとする。
ステップ#06
算定された交点群から物体の下端位置を算定する。例えば、図6に示すような交点の分布が得られたとして、物体の特徴点が数10から数100個程度検出される場合は、交点の分布は真の位置付近に集中しガウス分布することが期待されるが、物体に模様が少ない場合などでは多くの特徴点が得られず、交点数も少ないことが予想される。いずれにしても確からしい交点集中位置を推定するために最小メジアン法(LMedS)を採用して、推定ランダムに幾つかのサンプルを抽出し、最小二乗法に当てはめることを繰り返し、全交点における二乗誤差の中央値が最も小さいときの推定を正しい推定とみなすとよい。
FIG. 7 shows a flowchart of the algorithm of the basic principle of the object bottom position detection technique according to the present invention described above. The processing flow is as follows.
A first image (captured image) is captured at the first position, and a second image (captured image is acquired at the second position. At this time, two cameras having different optical center points are simultaneously captured and first captured. One image and the second image may be acquired, or the first image and the second image may be acquired by photographing each before and after the movement of the viewpoint with one camera.
A first converted image (bird's eye image) obtained by projective transformation from the first image and a second converted image (bird's eye image) obtained by projective transformation from the second image are generated.
In order to clearly indicate the vertical shape feature points of the object in the image with respect to the generated first and second converted images, a binary image obtained by extracting vertical edges is generated. This is because the normal optical center point is located on the lower side of the image, and the vertical shape of the object is important in order to obtain an effective straight line connecting the optical center point and the object feature point. A horizontal differential filter, such as a vertical Sobel filter, is preferably applied to extract the vertical edges. The threshold value used in the binarization process may be a fixed value when the density characteristics of the acquired image are adjusted in advance, but in other cases, the threshold value is calculated based on the histogram of the image. Is preferred. By this process, pixel groups other than the pixel group toward the optical center point direction are removed, and only a straight line passing through pixels (feature points) included in the pixel group toward the optical center point direction is calculated as much as possible. The processing burden can be reduced.
In each obtained binarized image, a straight line group (first straight line group and second straight line group) connecting the feature point included in the pixel group indicating the object shape feature in the vertical direction and the optical center point. Is calculated. In this case, it is preferable to use a method in which one point is set as the origin and the other point is randomly selected and a predetermined number of straight lines are obtained by applying a feature point to the virtual line and obtaining a satisfactory result. For example, for this purpose, it is possible to apply a subspace to the trajectory of feature points using RANSAC (RANdom SAmple Consensus), and to take a measure of removing pixels with a large residual by threshold processing.
Between the first line group obtained from the first converted image and the second line group obtained from the second converted image, the intersection point is calculated as shown in FIGS. The selection to be processed from the straight line group between the straight line groups can be performed on the condition that the azimuth angles are similar (from the smallest angle difference to the predetermined order), but the selection is difficult. In case, it is brute force.
The lower end position of the object is calculated from the calculated intersection group. For example, when the distribution of intersections as shown in FIG. 6 is obtained, when about 10 to several hundred feature points of an object are detected, the distribution of intersections is concentrated near the true position and Gaussian distributed. However, when there are few patterns on the object, many feature points cannot be obtained and the number of intersections is expected to be small. In any case, the least median method (LMedS) is used to estimate the probable intersection concentration position, several samples are extracted at random, and applied to the least squares method, and the square error at all intersections is repeated. The estimation when the median of is the smallest should be regarded as the correct estimation.
図8及び図9は、上述した原理で動作する物体下端検出技術を採用した鳥瞰画像生成装置が搭載される車両30の基本構成を示したものである。運転席に備えられたステアリング24は、パワーステアリングユニット33と連動し、回転操作力を前輪28fに伝えて車両30の操舵を行う。車体前部にはエンジン32と、このエンジン32からの動力を変速して前輪28fや後輪28rに伝えるトルクコンバータやCVT等を有する変速機構34とが配置されている。車両30の駆動方式(前輪駆動、後輪駆動、四輪駆動)に応じて、前輪28f及び後輪28rの双方もしくは何れかに動力が伝達される。運転席の近傍には走行速度を制御するアクセル操作手段としてのアクセルペダル26と、前輪28f及び後輪28rのブレーキ装置31を介して前輪28f及び後輪28rに制動力を作用させるブレーキペダル27とが並列配置されている。
8 and 9 show the basic configuration of the
運転席の近傍のコンソールの上部位置には、モニタ20が備えられている。モニタ20は、バックライトを備えた液晶式のものである。モニタ20には、感圧式や静電式によるタッチパネルも形成されており、指などの接触位置をロケーションデータとして出力することによって、利用者による指示入力を受け付け可能に構成されている。タッチパネルは、例えば、駐車支援開始の指示入力のために用いられる。また、モニタ20には、スピーカも備えられており、種々の案内メッセージや効果音を発することができる。車両30にナビゲーションシステムが搭載される場合、モニタ20はナビゲーションシステムの表示装置として用いるものを兼用すると好適である。尚、モニタ20は、プラズマディスプレイ型や有機ELディスプレイ型でもよく、スピーカは、ドアの内側など他の場所に備えられてもよい。
A
ステアリング24の操作系にはステアリングセンサ14が備えられ、ステアリング操作方向と操作量とが計測される。シフトレバー25の操作系にはシフト位置センサ15が備えられ、シフト位置が判別される。アクセルペダル26の操作系にはアクセルセンサ16が備えられ、操作量が計測される。ブレーキペダル27の操作系にはブレーキセンサ17が備えられ、操作の有無などが検出される。
A
また、移動距離センサとして、前輪28f及び後輪28rの少なくとも一方の回転量を計測する回転センサ18が備えられる。本実施形態では、後輪28rに回転センサ18が備えられた場合を例示している。尚、移動距離については、変速機構34において、駆動系の回転量から車両30の移動量を計測するようにしてもよい。また、車両30には鳥瞰画像生成装置の中核となるECU(electronic control unit)10が配置されており、本発明による物体下端検出プログラムもECU10を構成するコンピュータに組み込まれている。
In addition, a
車両30の後部には、車両30の後方の情景を撮影するカメラ12が備えられている。カメラ12は、CCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を内蔵し、当該撮像素子に撮像された情報を動画情報としてリアルタイムに出力するデジタルカメラである。カメラ12は、広角レンズを備えており、例えば左右約140度程度の画角を有している。カメラ12は、略水平方向の視点を有して、車両30の後方の情景を撮影可能に設置されている。カメラ12は、車両30の後方に向けて例えば30度程度の俯角を有して設置され、概ね後方8m程度までの領域を撮影する。撮影された画像は、ECU10に入力される。
A
鳥瞰画像生成装置は、図10に示すように、略水平方向の視点を有するカメラ12によって撮影された画像を、略垂直方向から見下ろす視点を有する仮想的なカメラ12Aによって撮影された画像へと変換する。図11は、カメラ12によって撮影された画像の一例である。図5は、略垂直方向から見下ろす視点を有する仮想的なカメラ12Aによって撮影された画像へと変換された画像の一例である。この変換画像は、いわゆる鳥瞰画像である。図12において、左下、右下には、画像データが存在しないことによる空白域が生じる。
As shown in FIG. 10, the bird's-eye image generation device converts an image shot by the
まず、鳥瞰画像を生成する際に立体物を特定する方法は種々のものが知られているが、ここでは、視差が生じている2枚の画像の差分を利用する方法が採用されている。この方法では、まず、視差が生じている2枚の画像の一方から、上方視点への射影変換画像である鳥瞰画像の一種としてのGPT(ground plane transformation)画像を生成し、他方の画像の視点からのGPT画像を予測して、生成したGPT画像を位置補正する。次に、他方の画像からGPT画像を生成して、一方の画像から生成され、位置補正されたGPT画像との差分を取ると、立体物が抽出される。視差を生じる2枚の画像は、複数の異なるカメラにより撮影された画像でもよいし、同一のカメラを移動させて撮影された画像であってもよいが、この実施形態では、同一のカメラの移動前後の画像が利用される。 First, various methods are known for specifying a three-dimensional object when generating a bird's-eye view image. Here, a method using a difference between two images with parallax is employed. In this method, first, a GPT (ground plane transformation) image as a kind of bird's-eye view image that is a projected transformation image to the upper viewpoint is generated from one of the two images with parallax, and the viewpoint of the other image is generated. The GPT image from is predicted, and the position of the generated GPT image is corrected. Next, when a GPT image is generated from the other image and a difference from the GPT image generated from the one image and subjected to position correction is taken, a three-dimensional object is extracted. The two images that generate parallax may be images taken by a plurality of different cameras or images taken by moving the same camera. In this embodiment, the movement of the same camera The previous and next images are used.
図13は、カメラ12から略水平方向に撮影された撮影画像の一例である。図14は、図13の撮影画像を射影変換(視点変換)して得られたGPT画像の一例である。図13に示すように、車両30の周辺には、ほぼ直方体の立体物40が存在する。この立体物40が路面に接地している物体であるか、あるいは自動車のバンパーのように路面に接地した支持体(車体)からオーバーハングしていて路面に接地していない物体であるかは区別できない。従って、オーバーハング物体の場合、GPT画像から物体の下端位置(路面と交わる位置)を把握することができない。このため、この鳥瞰画像生成装置では、上述した物体下端位置検出技術に基づいてその下端位置が求められ、GPT画像に示される。
FIG. 13 is an example of a photographed image photographed from the
図15は、立体物抽出原理を示す説明図である。図15では、GPT画像上における立体物を便宜上、台形で示している。図15において台形aは、視差が生じている2枚の撮影画像の内の一方の撮影画像のGPT画像における立体物40である。台形aは、カメラ12が移動する前における上方視点から見た立体物40を示している。
FIG. 15 is an explanatory diagram showing the principle of three-dimensional object extraction. In FIG. 15, the three-dimensional object on the GPT image is shown as a trapezoid for convenience. In FIG. 15, a trapezoid a is a three-
台形bは、視差が生じている2枚の撮影画像の内の第1位置における撮影画像(第1画像)を射影変換した第1変換画像における立体物40である。つまり、台形bは、カメラ20がΔLだけ移動した第2位置における撮影画像(第2画像)を射影変換した第2変換画像における立体物40を示している。そして、斜線網掛け部分の台形a’は、カメラ20が第1位置からΔLだけ移動した場合を第1変換画に基づいて予測して得られた立体物40を示している。台形bと台形a’との差分を取ると、差分として残った画素は、視差を生じさせる立体物40が存在する位置に対応している。これにより、立体物40の存在する領域が抽出される。
The trapezoid b is the three-
図16は、図13に示すような撮影画像から得られたGPT画像から立体物40の存在する領域を抽出する例を示す説明図である。図15に基づいて説明したように、カメラ12が移動する前のGPT画像に対してΔLの位置補正を施したGPT画像と、カメラ12がΔLだけ移動した後のGPT画像との差分を取って、差分画像Sが得られる。差分画像Sにおいて、エッジを抽出すると、図16に示すように、e1〜e4の4辺からなる台形状の領域が、立体物領域Rとして抽出される。
FIG. 16 is an explanatory diagram illustrating an example in which a region where the three-
ここで、辺e3と辺e4は、台形の上底及び下底に相当する。辺e1と辺e2とは、台形の上底及び下底以外の2辺、即ち、脚に相当する辺である。辺e1と辺e2とは、光学中心点Cにおいて交差する。即ち、立体物領域Rは、平行しない2辺e1及びe2が略垂直方向の視点から見下ろした場合における光学中心Cにおいて交差する台形状に抽出される。上記例においては、立体物40が直方体であったので、立体物領域Rと、立体物40とは略一致するものであった。しかし、立体物40が直方体ではなく、任意の形状であっても、台形状の立体物領域Rが抽出される。この立体物領域Rを規定する4つの辺e1、e2、e3、e4のうち、物体の下端位置を示す辺e2は、物体がオーバーハング物体であれば、本発明による上述した物体下端検出技術に基づいて修正されることになる。つまり、物体下端検出技術に基づいて求められた物体下端位置と辺e2の位置とが相異する場合、物体下端検出技術に基づく物体下端位置が優先される。
Here, the side e3 and the side e4 correspond to the upper base and the lower base of the trapezoid. The side e1 and the side e2 are two sides other than the upper and lower bases of the trapezoid, that is, sides corresponding to the legs. The side e1 and the side e2 intersect at the optical center point C. That is, the three-dimensional object region R is extracted in a trapezoidal shape that intersects at the optical center C when the two non-parallel sides e1 and e2 are looked down from a substantially vertical viewpoint. In the above example, since the three-
図17は、本発明に係る物体下端位置検出装置を組み込んだ鳥瞰画像生成装置(ECU10)の構成例を模式的に示すブロック図である。図17に示すように、鳥瞰画像生成装置は、第1画像受取部1aと、第2画像受取部1bと、第1射影変換部2aと、第2射影変換部2bと、第1直線群検出部3aと、第2直線群検出部3bと、交点算定部4と、物体下端算定部5と、立体物領域抽出部6と、射影歪補正部7と、自車位置演算8と、重畳部9と、画像制御部11との各機能部を有して構成されている。ECU10は、例えば、マイクロコンピュータなどによって構成されており、上記各機能部は、プログラム等によってその機能を分担することが可能である。従って、上記各機能部は、物理的に独立して設けられる必要はなく、同一のハードウェアを兼用してプログラム等のソフトウェアとの協働によってその機能が実現されれば充分である。
FIG. 17 is a block diagram schematically showing a configuration example of a bird's-eye image generation device (ECU 10) incorporating the object lower end position detection device according to the present invention. As shown in FIG. 17, the bird's-eye image generation device includes a first
第1画像受取部1aは、車両30の周辺を撮影するカメラ(車載カメラ)12により第1位置において撮影された撮影画像を第1画像として受け取る機能部である。第2画像受取部1bは、第1画像を撮影した位置から車両30が所定の移動量(ΔL)を経た第2位置においてカメラ12により撮影された撮影画像を第2画像として受け取る機能部である。画像制御部11は、第1画像受取部1a及び第2画像受取部1bが、撮影画像を受け取るタイミングなどを制御する機能部である。
The first
第1射影変換部2aは、第1画像を略垂直方向からの上方視点からの第1変換画像に射影変換する機能部であり、第1射影変換部2bは、第2画像を略垂直方向からの上方視点からの第2変換画像に射影変換する機能部である。
The first
第1直線群算定部3aは、第1変換画像における物体の物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第1直線群を算定する機能部であり、第2直線群算定部3bは、第2変換画像における物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第2直線群を算定する機能部である。
The first straight line
交点算定部4は、前記第1位置と前記第2位置との変位量に対応するように相対変位させた前記第1直線群と前記第2直線群とを重ね合わせた際に生じる直線群の交点を算定する機能部である。この交点算定部4は、立体物に含まれる複数の垂直エッジとしての直線を利用するものであり、移動前後で得られる2つの平面上での方位直線群同士の対応を取ることなくそれらの直線群間の交点を計算するように構成されている。しかしながら、この交点算定部4を、移動前後で得られる2つの平面上での方位直線群において、各方位直線が通過する画像上の画像情報に基づいて直線同士の所定条件での対応をとって、対応する直線間の交点を計算するように構成してもよい。あるいは、それらの両方のアルゴリズムを備えて、選択的に利用できるようにしてもよい。また、物体下端算定部5は、交点算定部4で求められた交点群の分布状態を解析することにより、交点が集中している位置を物体位置、つまり物体の下端位置として特定する。 The intersection calculation unit 4 calculates a straight line group generated when the first straight line group and the second straight line group, which are relatively displaced so as to correspond to the displacement amount of the first position and the second position, are overlapped. It is a functional unit that calculates intersection points. The intersection calculation unit 4 uses straight lines as a plurality of vertical edges included in the three-dimensional object, and these straight lines are obtained without taking correspondence between the azimuth straight line groups on the two planes obtained before and after the movement. It is configured to calculate the intersection between groups. However, the intersection calculation unit 4 takes the correspondence in a predetermined condition between the straight lines based on the image information on the image through which each azimuth line passes in the azimuth line group on the two planes obtained before and after the movement. The intersection between corresponding straight lines may be calculated. Alternatively, both of these algorithms may be provided and selectively used. Further, the object lower end calculation unit 5 identifies the position where the intersections are concentrated as the object position, that is, the lower end position of the object, by analyzing the distribution state of the intersection group obtained by the intersection calculation unit 4.
立体物領域抽出部6は、上述したように、ΔLの位置補正を施した第1変換画像と第2変換画像Bとの差分を取り、この差分に基づいて、立体物40が存在する立体物領域Rを、平行しない2辺(e1及びe2)が光学中心Cにおいて交差する台形状に抽出する機能部である。
As described above, the three-dimensional object
射影歪補正部7は、第2変換画像Bにおける立体物領域Rの画像を略垂直方向の視点から見下ろした場合における光学中心Cの方向へ縮小して射影歪補正画像に補正する機能部である。重畳部9は、第2変換画像上における立体物領域Rの中で縮小後の立体物40の画像が存在する領域以外の領域にマスク処理を施したり、立体物40の存在を報知する報知表示を重畳させたりする機能部である。
The projective distortion correction unit 7 is a functional unit that reduces the image of the three-dimensional object region R in the second converted image B to the direction of the optical center C when looking down from a substantially vertical viewpoint and corrects it to a projection distortion corrected image. . The superimposing
自車位置演算部8は、ステアリングセンサ14、シフト位置センサ15、アクセルセンサ16、ブレーキセンサ17、回転センサ18等の各種センサによる検出結果を受けて、車両30の移動量や位置を演算する機能部である。上記各種センサ14〜18や、自車位置演算部8は、本発明の移動検出部13に相当する。尚、自車位置演算部8は、ECU10とは別のECUや制御装置等に含まれ、演算結果のみがECU10に入力される構成であってもよい。
The own vehicle position calculation unit 8 receives the detection results of various sensors such as the
重畳部9は、モニタ表示画像上における立体物領域Rの中で縮小後の立体物40の画像が存在する領域以外の領域にマスク処理を施したり、立体物40の存在を報知する報知表示を重畳させたりする機能部である。
The superimposing
上述した説明から理解できるように、オーバーハング物体のような路面と直接接触していない物体の路面との接触位置検出する物体下端位置検出装置が有する各機能部は、この実施形態では、第1画像受取部1aと、第2画像受取部1bと、第1射影変換部2aと、第2射影変換部2bと、第1直線群検出部3aと、第2直線群検出部3bと、交点算定部4と、物体下端算定部5である。
As can be understood from the above description, each functional unit included in the object lower end position detecting device that detects a contact position of an object that is not in direct contact with a road surface such as an overhanging object is, in this embodiment, the first functional unit. Intersection calculation of
図7で示された物体下端位置検出アルゴリズムにおける各ステップの処理と物体下端位置検出装置の各機能部との関係は以下の通りである。
第1画像と第2画像を取得するステップ#01の処理は、第1画像受取部1aと第2画像受取部1bとによって実行される。鳥瞰画像である第1変換画像と第2画像とを生成するステップ#02の処理は、第1射影変換部2aと第2射影変換部2bとによって実行される。エッジ強調や2値化画像生成による物体特徴点(特徴エリア)の検出するステップ#03の処理は、第1直線群検出部3aと第2直線群検出部3bとにおける前処理として実行される。物体特徴点と光学中心点とを結ぶ第1直線群と第2直線群とを算定するステップ#04の処理は、第1直線群検出部3aと第2直線群検出部3bとによって実行される。第1直線群と第2直線群からとの間で対応する線の交点を算定するステップ#05の処理は、交点算定部4によって実行される。算定された交点群から物体の下端位置を示す交点を推定して物体の下端位置を算定するステップ#06の処理は、物体下端算定部5によって実行される。物体下端位置検出アルゴリズムに必要とする機能は、ここではわかりやすい説明のために各機能部に区分けしているだけであり、その機能実行部の割り当ては任意に行うことができる。
The relationship between the processing of each step in the object lower end position detection algorithm shown in FIG. 7 and each functional unit of the object lower end position detection apparatus is as follows.
The process of
以上、説明したように、車両周辺のような特定領域を被写体として、例えば車載カメラで撮影された画像をそのまま表示するのではなく、利用者が立体物と車両との距離感を把握し易いように、射影変換して鳥瞰画像を生成して表示する場合、本発明による物体下端位置検出技術を用いることで、オーバーハング物体のような路面と直接接触していない物体であっても、その路面との接触位置である物体下端位置を検出して、利用者に物体との正しい距離感を持たせるような表示を行うことが可能となる。 As described above, a specific area such as the periphery of the vehicle is used as a subject, and for example, an image captured by an in-vehicle camera is not displayed as it is, so that the user can easily grasp the sense of distance between the three-dimensional object and the vehicle. In addition, when a bird's-eye view image is generated by projective transformation and displayed, even if the object is not in direct contact with the road surface, such as an overhanging object, the road surface can be detected by using the object bottom position detection technology according to the present invention. The lower end position of the object, which is the contact position with the object, can be detected, and a display that gives the user a sense of the correct distance from the object can be performed.
〔実施のその他の形態〕
(1)図7を用いて説明した物体下端位置検出技術の基本原理のアルゴリズムにおける、ステップ#04の直線群(第1直線群と第2直線群)算定処理、及びステップ#05の交点算定処理は以下に述べるような処理で行うことができる。
1. 第1画像と第2画像からGPT画像である第1変換画像と第2変換画像を生成する。
2. 上記両画像に対して垂直Sobelフィルタ処理を適用して水平成分を抑圧した後にしきい値処理した画素群を得る(ノイズレベル以上の強度に対してピーク検出してもよい)。この処理は、イテレーション回数削減(応答性確保)のために、すなわち、光学中心方向に向かう画素群以外のアウトライアを除去することが目的である。
3. 上記で得た画素群は通常は複数存在するが、それぞれの画素群に対して光学中心位置を通る拘束条件を適用して直線当てはめをおこない、方位直線を得る。直線当てはめには、前処理としてのグループ化やノイズ除去が不要なRANSACを使用する。2点のサンプルによる直線当てはめが基本であるが。ここでは1点は原点、他方を画素群からランダムに選択する。複数の画素群が存在するとして、コンセンサスが上位からn本の直線を得る。
4. 第2変換画像(GPT画像)からの第2直線群(n 本) と第1変換画像(GPT画像)からの第1直線群 (m本) を得る。
5. 第1変換画像からの第1直線群の直線方程式を、第2変換画像からの第2直線群が定義されている座標系に変換して、第2直線群と変換された第1直線群との間で交点を計算する。
方位角度が類似している(最も角度差が小さい。保険:および、その次に小さい。)直線間のみの交点を計算することが考えられるが、物体上の別の位置で検出された直線の勾配の方が類似している場合があるため、交点計算は総当たり戦とする方法が考えられる。
なお、この総当たりする方法は非効率であるので、複数の方位直線群が得られたとき
に、以下の方法により効率化をかはる。
(a) 第1変換画像と第2変換画像との差分画像から立体物の候補領域を抽出する。
(b) 候補領域内に存在する方位直線群を検出する。第2直線群 (n 本)と第1直線群 (n 本) が得られている。
(c) 両直線群は立体物に固有の垂直エッジの配列順に並んでいるため、その直線の数と配列順は移動前後の画像間でほぼ同じであるとみなせる。
(d) 各直線に対して方位順にラベリング(番号付け)を行う。第2変換画像からの直線から番号順に1本選ぶ。その番号に対応した第2変換画像からの直線とその前後の所定番号数の直線を選ぶことにより、第2直線群からの直線に対する第1直線群一部の直線との交点を計算する。
(e) この方法により完全な総当たり戦に比べ大幅な計算量低減がおこなえる。オーバーハングしている立体物の空間中の点に対する直下の路面上の位置に直線群の交点が検出される。
[Other Embodiments]
(1) The straight line group (first straight line group and second straight line group) calculation process of
1. A first converted image and a second converted image, which are GPT images, are generated from the first image and the second image.
2. Apply vertical Sobel filter processing to both the above images to suppress the horizontal component, and then obtain a pixel group subjected to threshold processing (peaks may be detected for intensity above the noise level). The purpose of this processing is to reduce the number of iterations (to ensure responsiveness), that is, to remove outliers other than the pixel group toward the optical center.
3. Although there are usually a plurality of pixel groups obtained above, straight line fitting is performed by applying a constraint condition passing through the optical center position to each pixel group to obtain an azimuth line. For linear fitting, RANSAC that does not require grouping or noise removal as preprocessing is used. Basically, straight line fitting with two samples is used. Here, one point is selected at random from the origin, and the other is randomly selected from the pixel group. Assuming that there are a plurality of pixel groups, the consensus obtains n straight lines from the top.
4. A second straight line group (n lines) from the second converted image (GPT image) and a first straight line group (m lines) from the first converted image (GPT image) are obtained.
5. The straight line equation of the first straight line group from the first converted image is converted into a coordinate system in which the second straight line group from the second converted image is defined, and the first straight line converted with the second straight line group Calculate the intersection with the group.
It is conceivable to calculate the intersection point between straight lines that have similar azimuth angles (the smallest angle difference, insurance: and then the smallest), but the line detected at another location on the object Since the slopes may be more similar, the intersection calculation can be a round-robin battle.
Since this brute force method is inefficient, when a plurality of azimuth line groups are obtained, efficiency is achieved by the following method.
(a) A candidate region for a three-dimensional object is extracted from a difference image between the first converted image and the second converted image.
(b) A azimuth line group existing in the candidate area is detected. The second straight line group (n lines) and the first straight line group (n lines) are obtained.
(c) Since both straight line groups are arranged in the order of arrangement of the vertical edges unique to the three-dimensional object, it can be considered that the number of straight lines and the arrangement order are almost the same between the images before and after the movement.
(d) Label each straight line in azimuth order (numbering). One line is selected from the straight line from the second converted image in numerical order. By selecting a straight line from the second converted image corresponding to the number and a predetermined number of straight lines before and after that, an intersection point between a straight line from the second straight line group and a part of the first straight line group is calculated.
(e) This method can greatly reduce the amount of calculation compared to a complete round-robin battle. The intersection of the straight line group is detected at a position on the road surface directly below the point in the space of the overhanging three-dimensional object.
(2)図7を用いて説明した物体下端位置検出技術の基本原理のアルゴリズムにおける、ステップ#06の下端位置算定処理で有効なロバスト推定手法のひとつである最小メジアン法(LMedS)の種々の好適な適用方法を以下に述べる。
(a)基本的な方法
1. 全データの中から1個をランダムに選び(数が少なければ全数探索でもかまわない)、これを仮の平均値とする。
2. 仮の平均値に対する他のサンプルとの残差の自乗を計算し、昇順に並べる。
3. 残差の自乗値がm番目(=サンプル数の1=2:Median)に大きい値を調べ、これをMedian評価値として控えておく。
4. 上記1,2 を繰り返し、Median 評価値が最小となったときの仮の平均値が、その集団を代表する粗いモデルであるとする。
5. 仮の平均値からの残差自乗が最小Median 評価値以内のサンプル点群の平均値をもって最終的な精密モデルとする。
(b)簡易方法
1. 全サンプルの平均値を求める
2. 平均値との残差自乗を計算し昇順に並べる
3. 残差の自乗値がm番目(=サンプル数の1=2:Median)に大きい値を調べる
4. 残差自乗がメジアン値より大きくなるサンプルを取り除く
5. 残ったサンプルでの平均値を最終的な精密モデルとする。
(c)(a)から改良された方法
(a)で示した基本方法で処理した場合、サンプル点群が急峻な分布していない限りにおいては、最小Median 評価値を呈する位置が複数生じてしまい、分布の中央値を指し示すことができないという現象が生じうる。そこで、緩やかな分布や台形のようなピークを有しない分布であっても分布の中央値を検出できるように、残差の自乗をそのまま用いるのではなく、その累積値を用いることにより対応する。
1. 全データの中から1個をランダムに選び(数が少なければ全数探索でもかまわない)、これを仮の平均値とする。
2. 仮の平均値に対する他のサンプルとの残差の自乗を計算し、昇順に並べる。
3. 残差の自乗値のm番目(=サンプル数の1/2:Median)に大きい値までの累積値(残差自乗の累積値)を計算し、これをMedian 評価値として控えておく。
4. 上記1,2 を繰り返し、Median 評価値が最小となったときの仮の平均値が、その集団を代表する粗いモデルであるとする。
5. 仮の平均値からの残差自乗が最小Median 評価値以内のサンプル点群の平均値をもって最終的な精密モデルとする。また、サンプルが台地のような分布をする場合、上記の累積法のみでは中央値の検出ができない場合が残る。そのような場合は、累積値による最小Median 評価値が複数生じた場合は、生じた位置に対する平均値をもって中央値として出力する。
(2) Various preferred methods of the minimum median method (LMedS), which is one of the robust estimation methods effective in the lower end position calculation process in
(a) Basic method
1. Randomly select one from all data (if the number is small, you can do exhaustive search) and use this as a temporary average.
2. Calculate the squares of the residuals with the other samples with respect to the tentative mean value and arrange them in ascending order.
3. Check the value with the square of the residual being the mth largest (= 1 = 2 of the number of samples: Median) and record this as the Median evaluation value.
4. Repeat steps 1 and 2 above, and assume that the tentative average value when the Median evaluation value is minimized is a rough model representing the group.
5. The final precision model is obtained by taking the average value of the sample point group whose residual square from the provisional average value is within the minimum Median evaluation value.
(b) Simple method
1. Find the average of all samples
2. Calculate the residual squares with the mean and arrange them in ascending order
3. Check the value with the square of the residual being the mth largest (= 1 = 2: Median number of samples)
4. Remove samples whose residual square is greater than the median value
5. Use the average value of the remaining samples as the final precision model.
(c) Improved method from (a)
When processing with the basic method shown in (a), unless the sample point group has a steep distribution, multiple positions exhibiting the minimum Median evaluation value occur, and the median value of the distribution cannot be indicated. A phenomenon can occur. In order to detect the median value of the distribution even if it is a gentle distribution or a distribution that does not have a trapezoidal peak, the square of the residual is not used as it is, but the accumulated value is used.
1. Randomly select one from all data (if the number is small, you can do exhaustive search) and use this as a temporary average.
2. Calculate the squares of the residuals with the other samples with respect to the tentative mean value and arrange them in ascending order.
3. Calculate the cumulative value (cumulative value of the residual square) up to the mth of the residual squared value (= 1/2 of the number of samples: Median), and record this as the Median evaluation value.
4. Repeat steps 1 and 2 above, and assume that the tentative average value when the Median evaluation value is minimized is a rough model representing the group.
5. The final precision model is obtained by taking the average value of the sample point group whose residual square from the provisional average value is within the minimum Median evaluation value. If the sample has a plateau-like distribution, the median value cannot be detected only by the above accumulation method. In such a case, when a plurality of minimum Median evaluation values based on the cumulative value are generated, an average value for the generated position is output as a median value.
1a:第1画像受取部
1b:第2画像受取部
2a:第1射影変換部
2b:第2射影変換部
3a:第1直線群算定部
3b:第2直線群算定部
4:交点群算定部
5:物体下端算定部
6:立体物領域抽出部
7:射影歪補正部
9:重畳部
10:ECU(物体下端位置検出装置を組み込んだ鳥瞰画像生成装置)
12:カメラ(車載カメラ)
13:移動検出部
30:車両
40:立体物
1a: first
12: Camera (vehicle camera)
13: Movement detector 30: Vehicle 40: Solid object
Claims (4)
前記第1位置とは異なる第2位置において撮影された撮影画像を第2画像として受け取る第2画像受取部と、
前記第1画像を上方視点から見た第1変換画像に射影変換する第1射影変換部と、
前記第2画像を上方視点から見た第2変換画像に射影変換する第2射影変換部と、
前記第1変換画像における物体の物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第1直線群を算定する第1直線群算定部と、
前記第2変換画像における物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第2直線群を算定する第2直線群算定部と、
前記第1位置と前記第2位置との距離に対応するように相対変位させた前記第1直線群と前記第2直線群とを重ね合わせた際に生じる直線群の交点を算定する交点算定部と、
前記交点の分布位置に基づいて前記物体の下端位置を算定する物体下端算定部と、
を有する物体下端位置検出装置。 A first image receiving unit for receiving, as a first image, a photographed image photographed at a first position with a specific region as a subject;
A second image receiving unit that receives a captured image captured at a second position different from the first position as a second image;
A first projective transformation unit for projectively transforming the first image into a first transformed image viewed from an upper viewpoint;
A second projective transformation unit that projectively transforms the second image into a second transformed image viewed from above.
A first straight line group calculating unit for calculating a first straight line group composed of straight lines connecting the feature points characterizing the object shape of the object in the first converted image and the optical center point;
A second straight line group calculating unit for calculating a second straight line group composed of straight lines connecting the feature points characterizing the object shape in the second converted image and the optical center point;
An intersection point calculation unit for calculating an intersection point of the straight line groups generated when the first straight line group and the second straight line group, which are relatively displaced so as to correspond to the distance between the first position and the second position, are overlapped. When,
An object bottom end calculating unit for calculating a bottom end position of the object based on a distribution position of the intersection;
An object lower end position detecting device having
前記第1画像を上方視点から見た第1変換画像に射影変換するするとともに、前記第2画像を上方視点から見た第2変換画像に射影変換する機能と、
前記第1変換画像における物体の物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第1直線群を算定するとともに、前記第2変換画像における物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第2直線群を算定する機能と、
前記第1位置と前記第2位置との距離に対応するように相対変位させた前記第1変換画像と前記第2変換画像とを重ね合わせた際に生じる前記第1直線群と前記第2直線群とにおける対応する直線の交点を算定する機能と、
前記交点の分布位置に基づいて前記物体の下端位置を算定する機能と、
をコンピュータに実現させる物体下端位置検出プログラム。 A function of receiving a photographed image photographed at a first position with a specific region as a subject as a first image, and receiving a photographed image photographed at a second position different from the first position as a second image;
A function of projectively converting the first image to a first converted image viewed from an upper viewpoint, and a projective conversion of the second image to a second converted image viewed from an upper viewpoint;
Calculating a first straight line group consisting of straight lines connecting the feature points characterizing the object shape of the object in the first converted image and the optical center point, and characterizing the object shapes in the second converted image; A function for calculating a second straight line group composed of straight lines connecting the optical center points;
The first straight line group and the second straight line generated when the first converted image and the second converted image that are relatively displaced so as to correspond to the distance between the first position and the second position are superimposed. A function for calculating the intersection of corresponding straight lines with the group;
A function of calculating a lower end position of the object based on a distribution position of the intersection;
Is a computer program for detecting the lower end position of an object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009035764A JP5152592B2 (en) | 2009-02-18 | 2009-02-18 | Object bottom position detection device and object bottom position detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009035764A JP5152592B2 (en) | 2009-02-18 | 2009-02-18 | Object bottom position detection device and object bottom position detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010193198A true JP2010193198A (en) | 2010-09-02 |
JP5152592B2 JP5152592B2 (en) | 2013-02-27 |
Family
ID=42818758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009035764A Expired - Fee Related JP5152592B2 (en) | 2009-02-18 | 2009-02-18 | Object bottom position detection device and object bottom position detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5152592B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004289386A (en) * | 2003-03-20 | 2004-10-14 | Clarion Co Ltd | Image display method, image display apparatus, and image processing apparatus |
JP2008085710A (en) * | 2006-09-28 | 2008-04-10 | Sanyo Electric Co Ltd | Driving support system |
JP2008205914A (en) * | 2007-02-21 | 2008-09-04 | Alpine Electronics Inc | Image processor |
JP2008219063A (en) * | 2007-02-28 | 2008-09-18 | Sanyo Electric Co Ltd | Apparatus and method for monitoring vehicle's surrounding |
-
2009
- 2009-02-18 JP JP2009035764A patent/JP5152592B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004289386A (en) * | 2003-03-20 | 2004-10-14 | Clarion Co Ltd | Image display method, image display apparatus, and image processing apparatus |
JP2008085710A (en) * | 2006-09-28 | 2008-04-10 | Sanyo Electric Co Ltd | Driving support system |
JP2008205914A (en) * | 2007-02-21 | 2008-09-04 | Alpine Electronics Inc | Image processor |
JP2008219063A (en) * | 2007-02-28 | 2008-09-18 | Sanyo Electric Co Ltd | Apparatus and method for monitoring vehicle's surrounding |
Also Published As
Publication number | Publication date |
---|---|
JP5152592B2 (en) | 2013-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4899424B2 (en) | Object detection device | |
US10210404B2 (en) | Vehicle vision system with vehicle detection | |
JP6014440B2 (en) | Moving object recognition device | |
JP5190712B2 (en) | Obstacle detection device | |
WO2016117200A1 (en) | Outside environment recognition device for vehicles and vehicle behavior control device using same | |
JP2006234492A (en) | Object recognition device | |
JP2017520133A (en) | Vehicle periphery image generation apparatus and method | |
EP3545464A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP2013137767A (en) | Obstacle detection method and driver support system | |
JP6778620B2 (en) | Road marking device, road marking system, and road marking method | |
JP2014089548A (en) | Road surface level difference detection method, road surface level difference detection device and vehicle equipped with the road surface level difference detection device | |
WO2019021876A1 (en) | In-vehicle camera calibration device and method | |
EP3029602A1 (en) | Method and apparatus for detecting a free driving space | |
WO2016151976A1 (en) | Moving body detection device, image processing device, moving body detection method, and integrated circuit | |
JP2015179066A (en) | Parallax value derivation device, apparatus control system, moving body, robot, parallax value derivation method and program | |
JP4967758B2 (en) | Object movement detection method and detection apparatus | |
JP6992356B2 (en) | Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program | |
JP6763198B2 (en) | Image processing equipment, imaging equipment, mobile device control systems, image processing methods, and programs | |
CN104697491A (en) | Distance determination using a monoscopic imager in a vehicle | |
JP4768499B2 (en) | In-vehicle peripheral other vehicle detection device | |
JP2008003696A (en) | Image processing apparatus and image processing method | |
JP2005170290A (en) | Obstacle detecting device | |
JP6824759B2 (en) | Bound line detection device, lane marking system, and lane marking method | |
JP5152592B2 (en) | Object bottom position detection device and object bottom position detection program | |
JP5785515B2 (en) | Pedestrian detection device and method, and vehicle collision determination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121121 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151214 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5152592 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151214 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |