JP2010193198A - Object bottom end position detection device and object bottom end position detection program - Google Patents

Object bottom end position detection device and object bottom end position detection program Download PDF

Info

Publication number
JP2010193198A
JP2010193198A JP2009035764A JP2009035764A JP2010193198A JP 2010193198 A JP2010193198 A JP 2010193198A JP 2009035764 A JP2009035764 A JP 2009035764A JP 2009035764 A JP2009035764 A JP 2009035764A JP 2010193198 A JP2010193198 A JP 2010193198A
Authority
JP
Japan
Prior art keywords
image
straight line
line group
calculating
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009035764A
Other languages
Japanese (ja)
Other versions
JP5152592B2 (en
Inventor
Toshiaki Kakinami
俊明 柿並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2009035764A priority Critical patent/JP5152592B2/en
Publication of JP2010193198A publication Critical patent/JP2010193198A/en
Application granted granted Critical
Publication of JP5152592B2 publication Critical patent/JP5152592B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide technology capable of easily calculating the position of an object in an image of a top view generated from a photographed image by a projective transformation, especially the position of an object that does not touch the ground. <P>SOLUTION: This object bottom end detection device includes: a first straight line group calculating part 3a for calculating a first straight line group comprising straight lines for connecting respective characteristic points for characterizing an object shape of an object in a first conversion image of a top view based on a first position and an optical center point; a second straight line group calculating part 3b for calculating a second straight line group comprising straight lines for connecting respective characteristic points for characterizing an object shape in a second conversion image of a top view based on a second position and the optical center point; an intersection calculating part 4 for calculating intersections between the first straight line group and the second straight line group relatively displaced in accordance with distance between the first position and the second position; and an object bottom end calculating part 5 for calculating an object bottom end position on the basis of a distribution position of the intersections. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、特定領域を被写体として撮影された撮影画像から射影変換によって生成される上方視点の鳥瞰画像における物体、特に地面に接地していない物体の位置を算定する技術に関する。   The present invention relates to a technique for calculating the position of an object in an upper-view bird's-eye image generated by projective transformation from a photographed image photographed with a specific region as a subject, particularly an object that is not in contact with the ground.

カメラによる撮影画像に画像処理を施すことにより、当該撮影画像を当該カメラの視点とは別の視点から見た画像に変換する視点変換処理が知られている。この視点変換処理は、車両に搭載されたカメラにより撮影された画像を、視点を上方にもってくることで撮影画像を当該車両の周辺を上から見下ろすような俯瞰画像に変換して、車内のディスプレイに表示するといった用途に用いられている。視点変換処理では、一般的に画像中の全ての物体が例えその物体が立体物であったとしても、同一平面上に存在するものとして、画像処理が施される。例えば、車両における用途においては、全ての物体が、道路標示や駐車枠線などと同様に、路面上に存在する模様として変換処理が施されることになる。実際に路面上に存在する道路標示などは線形変換により違和感無く、真上からみたような画像へと変換される。しかし、他の車両や障害物などの高さのある物体(つまり立体物)は、画像が大きく歪んでしまい、車両と物体との距離、特に地面の接していない物体に対する距離が把握しづらい。   A viewpoint conversion process is known in which image processing is performed on a photographed image by a camera to convert the photographed image into an image viewed from a viewpoint different from the viewpoint of the camera. In this viewpoint conversion processing, an image captured by a camera mounted on a vehicle is converted into an overhead image that looks down on the periphery of the vehicle from above by moving the viewpoint upward, and the display inside the vehicle It is used for applications such as In the viewpoint conversion processing, image processing is generally performed on the assumption that all objects in an image exist on the same plane even if the objects are solid objects. For example, in the use in a vehicle, all objects are subjected to conversion processing as patterns existing on the road surface, like road markings and parking frame lines. Road markings and the like that actually exist on the road surface are converted into an image as seen from directly above without any sense of incongruity by linear conversion. However, the height of an object (that is, a three-dimensional object) such as another vehicle or an obstacle greatly distorts the image, and it is difficult to grasp the distance between the vehicle and the object, particularly the object that is not in contact with the ground.

このような問題に鑑みて、例えば特開2006−333009号公報(特許文献1)には、カメラによって互いに異なる複数の視点位置で撮像された実画像に基づいてカメラから実画像内の物体までの距離を演算し、この実画像内の物体の表示画面上における上下方向の位置と、演算によって求めたカメラから物体までの距離と、実画像の表示画面上における上下方向の位置と実カメラからの距離との関係を示す地面データとに基づいて、物体が高さを有する物体であるか否かを判定し、高さを有する物体であれば当該物体を実画像内で地面に対して垂直な方向に圧縮して俯瞰画像を作成する技術が開示されている。さらに、この特許文献1には、地面に接地していない物体を俯瞰画像上においてより正確な位置に表示できるようにするために、カメラにより撮像される実画像データ内で垂直な方向を示す垂直データを予め作成してメモリ等に記憶させておき、画像変換処理部が、計算用メモリにコピーした画素からなる画像データを任意の率で圧縮する際に、垂直データを用いて地面に接地していない物体を地面に垂直な方向に移動させ、地面に接地した位置で圧縮する技術も開示されている。なお、予め求めておいて記憶させておく必要がある前記垂直データは、カメラを構成するカメラのカメラレンズの光学特性並びに車両に対する取り付け位置及び取り付け角度に基づいて一意に決定される地面上垂直を示すものである。従って、カメラのカメラレンズの光学特性や取り付け姿勢のうちの1つのパラメータが変化しても別な垂直データを作成して記憶しなおす必要がある。   In view of such a problem, for example, Japanese Patent Application Laid-Open No. 2006-333909 (Patent Document 1) describes from a camera to an object in an actual image based on actual images captured at a plurality of different viewpoint positions by the camera. The distance is calculated, the vertical position of the object in the real image on the display screen, the distance from the camera to the object obtained by the calculation, the vertical position on the display screen of the real image and the real camera Based on the ground data indicating the relationship with the distance, it is determined whether or not the object has a height. If the object has a height, the object is perpendicular to the ground in the real image. A technique for creating a bird's-eye view image by compressing in a direction is disclosed. Furthermore, in this patent document 1, in order to display an object that is not in contact with the ground at a more accurate position on a bird's-eye view image, a vertical direction indicating a vertical direction in actual image data captured by a camera is disclosed. Data is created in advance and stored in a memory or the like, and when the image conversion processing unit compresses image data composed of pixels copied to the calculation memory at an arbitrary rate, it is grounded using vertical data. A technique is also disclosed in which an unoccupied object is moved in a direction perpendicular to the ground and compressed at a position touching the ground. The vertical data that needs to be obtained and stored in advance is the vertical on the ground, which is uniquely determined based on the optical characteristics of the camera lens of the camera that constitutes the camera, and the mounting position and mounting angle with respect to the vehicle. It is shown. Accordingly, it is necessary to create and store another vertical data even if one of the parameters of the camera lens optical characteristics and the mounting posture changes.

特開2006−333009号公報(段落番号0007〜0008、0011〜0032、図5〜17等)JP 2006-333209 A (paragraph numbers 0007 to 0008, 0011 to 0032, FIGS. 5 to 17 and the like)

上述した特許文献1による技術では、撮影画像から射影変換によって生成される上方視点の俯瞰図における物体の位置を算定するために、カメラから物体までの距離を求める演算処理や予め求めておいた地面データを用いて物体が高さを有する物体であるか否かを判定する判定処理が必須となる。また、地面に接地していない物体の地面との接地位置を算定するには、さらに予め求めておく必要のある垂直データを用いて地面に接地していない物体を地面に垂直な方向に移動させる処理が要求される。   In the technique according to Patent Document 1 described above, in order to calculate the position of the object in the overhead view of the upper viewpoint generated by projective transformation from the photographed image, a calculation process for obtaining a distance from the camera to the object or a previously obtained ground A determination process for determining whether or not an object has a height using data is essential. Also, in order to calculate the ground contact position of an object that is not in contact with the ground, the object that is not in contact with the ground is moved in a direction perpendicular to the ground using vertical data that must be obtained in advance. Processing is required.

本発明は、上記実情に鑑みて創案されたもので、撮影画像から射影変換によって生成される上方視点の画像における物体、特に地面に接地していない物体の位置を簡単に算定することができる技術を提供することを目的とする。   The present invention was devised in view of the above circumstances, and can easily calculate the position of an object in an upper viewpoint image generated by projective transformation from a captured image, particularly an object that is not in contact with the ground. The purpose is to provide.

上記目的を達成するための本発明に係る物体下端位置検出装置の特徴構成は、特定領域を被写体として第1位置において撮影された撮影画像を第1画像として受け取る第1画像受取部と、前記第1位置とは異なる第2位置において撮影された撮影画像を第2画像として受け取る第2画像受取部と、前記第1画像を上方視点から見た第1変換画像に射影変換する第1射影変換部と、前記第2画像を上方視点から見た第2変換画像に射影変換する第2射影変換部と、前記第1変換画像における物体の物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第1直線群を算定する第1直線群算定部と、前記第2変換画像における物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第2直線群を算定する第2直線群算定部と、前記第1位置と前記第2位置との距離に対応するように相対変位させた前記第1直線群と前記第2直線群とを重ね合わせた際に生じる直線群の交点を算定する交点算定部と、前記交点の分布位置に基づいて前記物体の下端を算定する物体下端算定部とを有する点にある。   In order to achieve the above object, a characteristic configuration of the object lower end position detection device according to the present invention includes: a first image receiving unit that receives a captured image captured at a first position as a first image with a specific region as a subject; A second image receiving unit that receives a captured image captured at a second position different from the first position as a second image; and a first projective conversion unit that performs projective conversion of the first image into a first converted image viewed from an upper viewpoint. A second projective transformation unit that projectively transforms the second image into a second transformed image viewed from above, and each feature point characterizing the object shape of the object in the first transformed image and the optical center point A first straight line group calculating unit for calculating a first straight line group composed of straight lines, and a second straight line group composed of straight lines connecting the feature points characterizing the object shape in the second converted image and the optical center point. Two straight line group calculation sections; An intersection point calculation unit for calculating an intersection point of the straight line groups generated when the first straight line group and the second straight line group, which are relatively displaced so as to correspond to the distance between the first position and the second position, are overlapped. And an object lower end calculating unit that calculates the lower end of the object based on the distribution position of the intersection.

この特徴構成によれば、まず、濃度変換や微分処理といった何らかの物体検出画像処理アルゴリズムを用いて各変換画像における物体の物体形状を特徴づける特徴点が検出されると、それぞれの変換画像においてその特徴点と光学中心点とを結ぶ直線からなる第1直線群と第2直線群とが算定される。さらに、前記第1位置と前記第2位置との距離(場合によっては変位量)に合わせて相対変位された第1直線群と第2直線群との直線群の交点が算定され、これらの交点の分布位置に基づいて物体の下端が算定される。この交点が物体の特徴点の水平面(路面)への投影点となる。ノイズを考慮するならば、交点が集中しているところを物体の水平面(路面)への投影位置と判定すればよい。物体が地面に接地している場合には、この交点の集まりの位置がその物体の地面との接触位置(物体の下端位置)を示すことになる。また、自動車のバンパーのように、その物体が路面に接地していない場合には、その物体を垂直に路面に延ばした際の接触位置(この場合にはこの位置を物体の下端位置とみなす)が判定できる。このような物体下端位置の検出原理は、後で詳しく説明されるが、その基本的な着眼点は、光学中心点と物体上のある点を通る直線において、移動前後で得られる直線の交点が、その点が路面上へ投影された点を表すことになるということである。例えば、ある光学中心点で得られた撮影画像の射影変換鳥瞰画像における空間中の所定点と光学中心点とを通る第1直線と、光学中心点が移動することにより得られた新たな射影変換鳥瞰画像における空間中の所定点と移動後の光学中心点とを通る第2直線は所定点の直下の位置で交差する。したがって、物体に属する多くの特徴点によって規定される第1直線と第2直線との交点が集中するところがその物体の下端位置を表すことになる。この原理が本発明では利用されている。つまり、本発明では2つの画像のそれぞれにおける物体の特徴点と光学中心点とを結ぶ線の交点を求めるという簡単な画像処理技術だけで、撮影画像から射影変換によって生成される上方視点の鳥瞰画像における物体、特に地面に接地していない物体の位置を簡単に算定することができる。   According to this feature configuration, when a feature point that characterizes the object shape of an object in each converted image is first detected using some object detection image processing algorithm such as density conversion or differentiation processing, the feature is detected in each converted image. A first straight line group and a second straight line group composed of straight lines connecting the points and the optical center point are calculated. Furthermore, the intersection of the straight line group of the first straight line group and the second straight line group that are relatively displaced according to the distance (in some cases, the displacement amount) between the first position and the second position is calculated, and these intersection points are calculated. The lower end of the object is calculated based on the distribution position. This intersection is a projection point on the horizontal plane (road surface) of the feature point of the object. If noise is taken into consideration, the point where the intersections are concentrated may be determined as the projection position of the object on the horizontal plane (road surface). When the object is in contact with the ground, the position of the gathering of the intersection points indicates the contact position of the object with the ground (the lower end position of the object). In addition, when the object is not touching the road surface, such as a bumper of an automobile, the contact position when the object is extended vertically on the road surface (in this case, this position is regarded as the lower end position of the object). Can be determined. The principle of detecting the lower end position of the object will be described in detail later, but the basic point of focus is the intersection of the straight lines obtained before and after the movement in a straight line passing through the optical center point and a certain point on the object. This means that the point represents a point projected on the road surface. For example, projective transformation of a photographed image obtained at a certain optical center point A first straight line passing through a predetermined point in the space and the optical center point in the bird's-eye image, and a new projective transformation obtained by moving the optical center point A second straight line passing through a predetermined point in the space in the bird's-eye view image and the optical center point after the movement intersects at a position immediately below the predetermined point. Therefore, the point where the intersections of the first line and the second line defined by many feature points belonging to the object are concentrated represents the lower end position of the object. This principle is utilized in the present invention. In other words, in the present invention, the bird's-eye view image of the upper viewpoint generated by the projective transformation from the photographed image only by the simple image processing technique of obtaining the intersection of the line connecting the feature point of the object and the optical center point in each of the two images. It is possible to easily calculate the position of an object in FIG.

また、本発明に係る物体下端位置検出装置は、前記第1直線群算定部及び前記第2直線群算定部は、前記第1変換画像及び前記第2変換画像に対して輪郭強調する水平方向微分フィルタを適用した後にしきい値処理することによって生成された画像から前記特徴点を求めるように構成すると好適である。物体下端検出に利用される直線は光学中心点と物体の下方稜線を示す画像特徴点とを結ぶ直線である。したがって、水平方向微分フィルタによって垂直方向のエッジ成分を強調し、適当なしきい値を用いて、例えば2値化処理することで、多くのノイズ画像領域が除外されるので下方稜線を示す画像特徴点が得られやすくなる。また、光学中心点と画像特徴点とを結ぶ直線は、光学中心点から上方扇形に放射する直線となるので、このような拘束条件を用いて、直線を選別することで直線群の算定処理負荷が低減される。   In the object lower end position detection device according to the present invention, the first straight line group calculation unit and the second straight line group calculation unit may perform horizontal differentiation that enhances the outline of the first converted image and the second converted image. It is preferable that the feature points are obtained from an image generated by thresholding after applying a filter. The straight line used for detecting the lower end of the object is a straight line connecting the optical center point and the image feature point indicating the lower ridge line of the object. Therefore, by emphasizing the edge component in the vertical direction by the horizontal differential filter and performing binarization processing using an appropriate threshold value, for example, many noise image areas are excluded, so that the image feature point indicating the lower ridge line Becomes easier to obtain. In addition, since the straight line connecting the optical center point and the image feature point is a straight line that radiates upward from the optical center point, the straight line group calculation processing load is determined by selecting the straight line using such a constraint condition. Is reduced.

また、本発明に係る物体下端位置検出装置は、前記第1画像受取部は、前記車両の移動量を検出する移動検出部の検出結果に基づき前記車両が前記第1位置に達したと判定されたときに撮影された撮影画像を前記第1画像として受け取り、前記第2画像受取部は、前記車両の移動量を検出する移動検出部の検出結果に基づき前記車両が前記第2位置に達したと判定されたときに撮影された撮影画像を前記第2画像として受け取り、前記交点算定部は前記第1画像と前記第2画像とにおける光学中心点の移動距離を移動検出部の検出結果から得ると好適である。この構成によれば、光学中心点が適正距離だけ移動した際のその移動前後における撮像画像が得られるので、その後の物体下端位置検出処理が容易となる。   In the object lower end position detection device according to the present invention, the first image receiving unit determines that the vehicle has reached the first position based on a detection result of a movement detection unit that detects a movement amount of the vehicle. The second image receiving unit receives the captured image taken when the vehicle has reached the second position based on a detection result of a movement detection unit that detects a movement amount of the vehicle. The intersection image calculation unit obtains the movement distance of the optical center point between the first image and the second image from the detection result of the movement detection unit. It is preferable. According to this configuration, captured images before and after the movement of the optical center point when the optical center point moves by an appropriate distance can be obtained, so that subsequent object lower end position detection processing is facilitated.

上記目的を達成するための本発明に係る物体下端位置検出プログラムは、 特定領域を被写体として第1位置において撮影された撮影画像を第1画像として受け取るとともに、前記第1位置とは異なる第2位置において撮影された撮影画像を第2画像として受け取る機能と、前記第1画像を上方視点から見た第1変換画像に射影変換するするとともに、前記第2画像を上方視点から見た第2変換画像に射影変換する機能と、前記第1変換画像における物体の物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第1直線群を算定するとともに、前記第2変換画像における物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第2直線群を算定する機能と、前記第1位置と前記第2位置との距離に対応するように相対変位させた前記第1変換画像と前記第2変換画像とを重ね合わせた際に生じる前記第1直線群と前記第2直線群とにおける対応する直線の交点を算定する機能と、前記交点の分布位置に基づいて前記物体の下端位置を算定する機能とをコンピュータに実現させるものである。この物体下端位置検出プログラムも上述した物体下端位置検出装置において説明された作用・効果を得ることができる。   In order to achieve the above object, an object lower end position detection program according to the present invention receives, as a first image, a captured image taken at a first position with a specific region as a subject, and a second position different from the first position. A function of receiving a photographed image taken in step 2 as a second image, and projective transformation of the first image into a first converted image viewed from an upper viewpoint, and a second converted image viewed from the upper viewpoint A first line group consisting of straight lines connecting the feature points characterizing the object shape of the object in the first converted image and the optical center point, and calculating the object shape in the second converted image. A function for calculating a second straight line group composed of straight lines connecting the feature points and the optical center point, and a relative value corresponding to the distance between the first position and the second position. A function of calculating intersections of corresponding straight lines in the first straight line group and the second straight line group generated when the first converted image and the second converted image that are positioned are superimposed, and distribution of the cross points The computer realizes the function of calculating the lower end position of the object based on the position. This object lower end position detection program can also obtain the operations and effects described in the object lower end position detection apparatus described above.

本発明による物体下端位置検出技術の原理を説明する説明図Explanatory drawing explaining the principle of the object lower end position detection technique by this invention 射影変換を説明する説明図Explanatory drawing explaining projective transformation 物体下端位置検出技術の原理を説明する説明図Explanatory drawing explaining the principle of object bottom position detection technology 物体下端位置検出技術の原理を説明する説明図Explanatory drawing explaining the principle of object bottom position detection technology 物体下端位置検出技術の原理を説明する説明図Explanatory drawing explaining the principle of object bottom position detection technology 物体下端位置検出技術の原理を説明する説明図Explanatory drawing explaining the principle of object bottom position detection technology 物体下端位置検出アルゴリズムを示すフローチャートFlow chart showing object bottom position detection algorithm 車両の運転席前方の説明図Illustration of the front of the driver's seat of the vehicle 車両の基本構成を示すブロック図Block diagram showing the basic configuration of the vehicle 視点変換の一例を示す説明図Explanatory drawing showing an example of viewpoint conversion 略水平方向からの視点を有するカメラによって撮影された画像の一例An example of an image taken by a camera having a viewpoint from a substantially horizontal direction 略垂直方向からの視点の画像へと変換された画像の一例An example of an image converted into a viewpoint image from a substantially vertical direction 略水平方向に撮影された撮影画像の一例An example of a photographed image taken in a substantially horizontal direction 図13の撮影画像を視点変換して得られたGPT画像の一例An example of a GPT image obtained by converting the viewpoint of the photographed image of FIG. 立体物抽出原理を示す説明図Explanatory drawing showing the three-dimensional object extraction principle 図6に示すような撮影画像から得られたGPT画像から立体物の存在する領域を抽出する例を示す説明図Explanatory drawing which shows the example which extracts the area | region in which a solid object exists from the GPT image obtained from the picked-up image as shown in FIG. 鳥瞰画像生成装置の構成例を模式的に示すブロック図The block diagram which shows the structural example of a bird's-eye image generation apparatus typically

以下、本発明の実施形態を図面に基づいて説明する。本発明の物体下端位置検出技術は、車載カメラによる撮影画像を視点変換(射影変換)して得られた鳥瞰画像を用いて運転支援を行う運転支援装置などに組み込まれる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The object lower end position detection technology of the present invention is incorporated in a driving support apparatus that performs driving support using a bird's-eye view image obtained by performing viewpoint conversion (projection conversion) on an image captured by an in-vehicle camera.

まずは、この物体下端位置検出技術の基本原理を図1から図6を用いて説明する。
路上に置かれた車止めのように路面に接している物体に比べ、自動車のバンパー部のようにオーバーハングしているような物体は、路面との間に実体物がないため、路面における物体(オーバーハング物体)直下の位置(本発明ではこの位置も路面物体接触位置とともに物体下端位置と称する)はその鳥瞰画像に明示することはできない。物体下端位置検出技術はそのような鳥瞰画像における物体下端位置を検出して、必要に応じてその位置を明示することができるようにすることである。
First, the basic principle of this object lower end position detection technique will be described with reference to FIGS.
Compared to objects that are in contact with the road surface, such as car stops placed on the road, objects that are overhanging, such as the bumper part of a car, have no entity between them. The position directly under the overhanging object (in the present invention, this position is also referred to as the object lower end position together with the road surface object contact position) cannot be clearly shown in the bird's-eye view image. The object lower end position detection technique is to detect the object lower end position in such a bird's-eye view image, and to be able to clearly indicate the position as necessary.

図1は、空間中の物体の1つの特徴点としての点Aと、その点Aが路面上へ投影された点である路面での接地点C(オーバーハング部分の直下位置ということなる)と、光学中心点Oからの点Aの路面への投影点A1との関係を側面図の形で示している。図2は、点Aと接地点Cとが撮影画像及び鳥瞰画像(水平面への射影変換画像)におけるどのように表示されるかを示している。図3は、点Aに対してカメラの光学中心点(視点)OがΔLだけ移動した際の移動前後の光学中心点Oと点Aとを結ぶ直線を鳥瞰図の形で示している。ここでO1とO2は移動前後の光学中心点Oを示し、A1とA2は移動前後の点Aの路面への投影点を示している。図3から、光学中心点Oとそれらの空間中の点Aを通る直線は、鳥瞰図座標系(X−Z面)上では異なった位置に存在し、移動前後での座標での直線は点Aの直下の位置で交差することが理解できる。視点-物体(特徴点A)下端間距離はdで示されている。当然物体は多数の特徴点Aによってその形状は規定されるので、図4に、多数(ここでは2つ)の特徴点が存在する場合での図3に対応する図を示しておく。図4から明らかなように、物体を規定する特徴点群に対して光学中心点が移動すると、光学中心点と空間中に存在する特徴点群を通る直線は、鳥瞰図座標系上では異なった位置に存在し、移動前後での座標での直線は空間中の物体の直下の位置で交差する。また、同一物体上の特徴点群であれば、物体の直下の点群は物体の形状に応じて、その下端位置に相当する位置に直線の交点が集中することになるが、図5にそのような図例が示されている。もちろん、実際の画像から算定される直線の交点は多数生じるが、下端位置を表さない交点もノイズとして含まれることになるので、多数の交点から信頼性の高い交点を選択する必要がある。この問題を解決するためには、ノイズである交点を含むとしても、総体的には、物体特徴点の下端位置に相当する位置で直線群の交点が密集するということを利用すると簡単で効果的である。例えば、図6のような交点群の分布が得られた場合、この分布から確からしい交点集中位置を推定し、その交点集中位置を物体の下端位置とみなすとよい。   FIG. 1 shows a point A as one feature point of an object in space, and a contact point C on the road surface, which is a point on which the point A is projected onto the road surface (which is a position directly below the overhang portion). The relationship between the optical center point O and the projection point A1 of the point A onto the road surface is shown in the form of a side view. FIG. 2 shows how the point A and the ground contact point C are displayed in the captured image and the bird's-eye view image (projection-transformed image on the horizontal plane). FIG. 3 shows a straight line connecting the optical center point O and the point A before and after the movement when the optical center point (viewpoint) O of the camera moves by ΔL with respect to the point A in the form of a bird's eye view. Here, O1 and O2 indicate the optical center point O before and after the movement, and A1 and A2 indicate the projection points on the road surface of the point A before and after the movement. From FIG. 3, the straight line passing through the optical center point O and the point A in the space exists at different positions on the bird's eye view coordinate system (XZ plane), and the straight line in the coordinates before and after the movement is the point A. It can be understood that they intersect at a position immediately below. The distance between the viewpoint and the bottom of the object (feature point A) is indicated by d. Naturally, since the shape of the object is defined by a large number of feature points A, FIG. 4 shows a diagram corresponding to FIG. 3 when there are a large number (two in this case) of feature points. As is clear from FIG. 4, when the optical center point moves with respect to the feature point group defining the object, the straight line passing through the optical center point and the feature point group existing in the space has a different position on the bird's eye view coordinate system. The straight lines in the coordinates before and after the movement intersect at a position immediately below the object in the space. In addition, in the case of feature point groups on the same object, the point intersections immediately below the object are concentrated at the intersection corresponding to the lower end position according to the shape of the object. Such an example is shown. Of course, there are many intersections of straight lines calculated from the actual image, but intersections that do not represent the lower end position are also included as noise, so it is necessary to select highly reliable intersections from the many intersections. In order to solve this problem, it is simple and effective to use the fact that the intersections of the straight line groups are densely located at the position corresponding to the lower end position of the object feature points even if the intersections that are noises are included. It is. For example, when a distribution of intersection groups as shown in FIG. 6 is obtained, a likely intersection concentration position is estimated from this distribution, and the intersection concentration position may be regarded as the lower end position of the object.

上述した本発明による物体下端位置検出技術の基本原理のアルゴリズムをフローチャート化したものが図7に示されている。その処理の流れは以下の通りである。
ステップ#01
第1位置において第1画像(撮影画像)を撮影し、第2位置において第2画像(撮影画像を取得する。その際、異なる光学中心点を有する2台のカメラを用いて同時に撮影して第1画像と第2画像を取得してもよいし、1台のカメラで視点の移動前後でそれぞれ撮影して、第1画像と第2画像を取得してもよい。
ステップ#02
第1画像から射影変換された第1変換画像(鳥瞰画像)と、第2画像から射影変換された第2変換画像(鳥瞰画像)とを生成する。
ステップ#03
生成された第1・第2変換画像に対して画像中物体の垂直方向の形状特徴点を明示させるために垂直方向のエッジを取り出した2値化画像を生成する。これは、通常光学中心点が画像の下側に位置するので、光学中心点と物体特徴点とを結ぶ有効な直線を得るためには、物体の垂直方向の形状が重要となるからである。垂直方向のエッジを取り出すために水平方向微分フィルタ、例えば垂直Sobelフィルタを適用するのが好ましい。また、2値化処理で使用されるしきい値は、取得される画像の濃度特性があらかじめ調整されている場合では固定値でよいが、そうでない場合では画像のヒストグラムに基づいて演算設定することが好ましい。この処理によって、光学中心点方向に向かう画素群以外の画素群を除去して、光学中心点方向に向かう画素群に含まれる画素(特徴点)を通る直線だけをできるだけ演算対象とすることで演算処理負担を軽減することができる。
ステップ#04
得られたそれぞれの2値化画像において、垂直方向の物体形状特徴を示している画素群に含まれている特徴点と光学中心点とを結ぶ直線群(第1直線群と第2直線群)を算定する。その際、一方の点を原点とし、他方の点をランダムに選択した直線を仮想し、この仮想直線に特徴点を当てはめて満足する結果が得られる所定数の直線を求める手法が好ましい。例えば、このために、RANSAC(RANdom SAmple Consensus)を用いて特徴点の軌跡に部分空間を当てはめ、しきい値処理によって残差の大きい画素を除去するような方策を施してもよい。
ステップ#05
第1変換画像から得られた第1直線群と第2変換画像から得られた第2直線群からとの間で、図3や図4で示すように、の交点を算定する。直線群間の直線群からの処理対象とすべきの選別は、方位角度が類似している(最も角度差が小さいものから所定順位まで)ことを条件として行うことができるが、選別が困難な場合、総当たりとする。
ステップ#06
算定された交点群から物体の下端位置を算定する。例えば、図6に示すような交点の分布が得られたとして、物体の特徴点が数10から数100個程度検出される場合は、交点の分布は真の位置付近に集中しガウス分布することが期待されるが、物体に模様が少ない場合などでは多くの特徴点が得られず、交点数も少ないことが予想される。いずれにしても確からしい交点集中位置を推定するために最小メジアン法(LMedS)を採用して、推定ランダムに幾つかのサンプルを抽出し、最小二乗法に当てはめることを繰り返し、全交点における二乗誤差の中央値が最も小さいときの推定を正しい推定とみなすとよい。
FIG. 7 shows a flowchart of the algorithm of the basic principle of the object bottom position detection technique according to the present invention described above. The processing flow is as follows.
Step # 01
A first image (captured image) is captured at the first position, and a second image (captured image is acquired at the second position. At this time, two cameras having different optical center points are simultaneously captured and first captured. One image and the second image may be acquired, or the first image and the second image may be acquired by photographing each before and after the movement of the viewpoint with one camera.
Step # 02
A first converted image (bird's eye image) obtained by projective transformation from the first image and a second converted image (bird's eye image) obtained by projective transformation from the second image are generated.
Step # 03
In order to clearly indicate the vertical shape feature points of the object in the image with respect to the generated first and second converted images, a binary image obtained by extracting vertical edges is generated. This is because the normal optical center point is located on the lower side of the image, and the vertical shape of the object is important in order to obtain an effective straight line connecting the optical center point and the object feature point. A horizontal differential filter, such as a vertical Sobel filter, is preferably applied to extract the vertical edges. The threshold value used in the binarization process may be a fixed value when the density characteristics of the acquired image are adjusted in advance, but in other cases, the threshold value is calculated based on the histogram of the image. Is preferred. By this process, pixel groups other than the pixel group toward the optical center point direction are removed, and only a straight line passing through pixels (feature points) included in the pixel group toward the optical center point direction is calculated as much as possible. The processing burden can be reduced.
Step # 04
In each obtained binarized image, a straight line group (first straight line group and second straight line group) connecting the feature point included in the pixel group indicating the object shape feature in the vertical direction and the optical center point. Is calculated. In this case, it is preferable to use a method in which one point is set as the origin and the other point is randomly selected and a predetermined number of straight lines are obtained by applying a feature point to the virtual line and obtaining a satisfactory result. For example, for this purpose, it is possible to apply a subspace to the trajectory of feature points using RANSAC (RANdom SAmple Consensus), and to take a measure of removing pixels with a large residual by threshold processing.
Step # 05
Between the first line group obtained from the first converted image and the second line group obtained from the second converted image, the intersection point is calculated as shown in FIGS. The selection to be processed from the straight line group between the straight line groups can be performed on the condition that the azimuth angles are similar (from the smallest angle difference to the predetermined order), but the selection is difficult. In case, it is brute force.
Step # 06
The lower end position of the object is calculated from the calculated intersection group. For example, when the distribution of intersections as shown in FIG. 6 is obtained, when about 10 to several hundred feature points of an object are detected, the distribution of intersections is concentrated near the true position and Gaussian distributed. However, when there are few patterns on the object, many feature points cannot be obtained and the number of intersections is expected to be small. In any case, the least median method (LMedS) is used to estimate the probable intersection concentration position, several samples are extracted at random, and applied to the least squares method, and the square error at all intersections is repeated. The estimation when the median of is the smallest should be regarded as the correct estimation.

図8及び図9は、上述した原理で動作する物体下端検出技術を採用した鳥瞰画像生成装置が搭載される車両30の基本構成を示したものである。運転席に備えられたステアリング24は、パワーステアリングユニット33と連動し、回転操作力を前輪28fに伝えて車両30の操舵を行う。車体前部にはエンジン32と、このエンジン32からの動力を変速して前輪28fや後輪28rに伝えるトルクコンバータやCVT等を有する変速機構34とが配置されている。車両30の駆動方式(前輪駆動、後輪駆動、四輪駆動)に応じて、前輪28f及び後輪28rの双方もしくは何れかに動力が伝達される。運転席の近傍には走行速度を制御するアクセル操作手段としてのアクセルペダル26と、前輪28f及び後輪28rのブレーキ装置31を介して前輪28f及び後輪28rに制動力を作用させるブレーキペダル27とが並列配置されている。   8 and 9 show the basic configuration of the vehicle 30 on which the bird's-eye image generation device that employs the object bottom edge detection technology that operates based on the above-described principle is mounted. The steering 24 provided in the driver's seat is interlocked with the power steering unit 33 and transmits the rotational operation force to the front wheels 28f to steer the vehicle 30. An engine 32 and a speed change mechanism 34 having a torque converter, CVT, and the like that shift the power from the engine 32 and transmit the power to the front wheels 28f and the rear wheels 28r are arranged at the front of the vehicle body. Power is transmitted to the front wheel 28f and / or the rear wheel 28r according to the driving method of the vehicle 30 (front wheel drive, rear wheel drive, four wheel drive). In the vicinity of the driver's seat, an accelerator pedal 26 as an accelerator operating means for controlling the traveling speed, and a brake pedal 27 for applying a braking force to the front wheels 28f and the rear wheels 28r via the brake devices 31 for the front wheels 28f and the rear wheels 28r, Are arranged in parallel.

運転席の近傍のコンソールの上部位置には、モニタ20が備えられている。モニタ20は、バックライトを備えた液晶式のものである。モニタ20には、感圧式や静電式によるタッチパネルも形成されており、指などの接触位置をロケーションデータとして出力することによって、利用者による指示入力を受け付け可能に構成されている。タッチパネルは、例えば、駐車支援開始の指示入力のために用いられる。また、モニタ20には、スピーカも備えられており、種々の案内メッセージや効果音を発することができる。車両30にナビゲーションシステムが搭載される場合、モニタ20はナビゲーションシステムの表示装置として用いるものを兼用すると好適である。尚、モニタ20は、プラズマディスプレイ型や有機ELディスプレイ型でもよく、スピーカは、ドアの内側など他の場所に備えられてもよい。   A monitor 20 is provided at the upper position of the console near the driver's seat. The monitor 20 is a liquid crystal type equipped with a backlight. The monitor 20 is also formed with a pressure-sensitive or electrostatic touch panel, and is configured to receive an instruction input by a user by outputting a contact position of a finger or the like as location data. The touch panel is used, for example, for inputting instructions for starting parking assistance. The monitor 20 is also provided with a speaker, which can emit various guidance messages and sound effects. When the navigation system is mounted on the vehicle 30, it is preferable that the monitor 20 is also used as a display device for the navigation system. The monitor 20 may be a plasma display type or an organic EL display type, and the speaker may be provided in another place such as the inside of the door.

ステアリング24の操作系にはステアリングセンサ14が備えられ、ステアリング操作方向と操作量とが計測される。シフトレバー25の操作系にはシフト位置センサ15が備えられ、シフト位置が判別される。アクセルペダル26の操作系にはアクセルセンサ16が備えられ、操作量が計測される。ブレーキペダル27の操作系にはブレーキセンサ17が備えられ、操作の有無などが検出される。   A steering sensor 14 is provided in the operation system of the steering 24, and the steering operation direction and the operation amount are measured. The operation system of the shift lever 25 is provided with a shift position sensor 15 to determine the shift position. The operation system of the accelerator pedal 26 is provided with an accelerator sensor 16 to measure an operation amount. The operation system of the brake pedal 27 is provided with a brake sensor 17, which detects the presence or absence of operation.

また、移動距離センサとして、前輪28f及び後輪28rの少なくとも一方の回転量を計測する回転センサ18が備えられる。本実施形態では、後輪28rに回転センサ18が備えられた場合を例示している。尚、移動距離については、変速機構34において、駆動系の回転量から車両30の移動量を計測するようにしてもよい。また、車両30には鳥瞰画像生成装置の中核となるECU(electronic control unit)10が配置されており、本発明による物体下端検出プログラムもECU10を構成するコンピュータに組み込まれている。   In addition, a rotation sensor 18 that measures the amount of rotation of at least one of the front wheel 28f and the rear wheel 28r is provided as a movement distance sensor. In this embodiment, the case where the rotation sensor 18 is provided in the rear wheel 28r is illustrated. As for the movement distance, the transmission mechanism 34 may measure the movement amount of the vehicle 30 from the rotation amount of the drive system. The vehicle 30 is provided with an electronic control unit (ECU) 10 serving as the core of the bird's-eye image generation apparatus, and an object lower end detection program according to the present invention is also incorporated in a computer constituting the ECU 10.

車両30の後部には、車両30の後方の情景を撮影するカメラ12が備えられている。カメラ12は、CCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を内蔵し、当該撮像素子に撮像された情報を動画情報としてリアルタイムに出力するデジタルカメラである。カメラ12は、広角レンズを備えており、例えば左右約140度程度の画角を有している。カメラ12は、略水平方向の視点を有して、車両30の後方の情景を撮影可能に設置されている。カメラ12は、車両30の後方に向けて例えば30度程度の俯角を有して設置され、概ね後方8m程度までの領域を撮影する。撮影された画像は、ECU10に入力される。   A camera 12 that captures a scene behind the vehicle 30 is provided at the rear of the vehicle 30. The camera 12 is a digital camera that incorporates an image sensor such as a charge coupled device (CCD) or a CMOS image sensor (CIS) and outputs information captured by the image sensor in real time as moving image information. The camera 12 includes a wide-angle lens and has a field angle of about 140 degrees on the left and right, for example. The camera 12 has a substantially horizontal viewpoint and is installed so that a scene behind the vehicle 30 can be photographed. The camera 12 is installed with a depression angle of, for example, about 30 degrees toward the rear of the vehicle 30 and photographs a region up to about 8 m behind. The captured image is input to the ECU 10.

鳥瞰画像生成装置は、図10に示すように、略水平方向の視点を有するカメラ12によって撮影された画像を、略垂直方向から見下ろす視点を有する仮想的なカメラ12Aによって撮影された画像へと変換する。図11は、カメラ12によって撮影された画像の一例である。図5は、略垂直方向から見下ろす視点を有する仮想的なカメラ12Aによって撮影された画像へと変換された画像の一例である。この変換画像は、いわゆる鳥瞰画像である。図12において、左下、右下には、画像データが存在しないことによる空白域が生じる。   As shown in FIG. 10, the bird's-eye image generation device converts an image shot by the camera 12 having a substantially horizontal viewpoint into an image shot by a virtual camera 12A having a viewpoint looking down from a substantially vertical direction. To do. FIG. 11 is an example of an image photographed by the camera 12. FIG. 5 is an example of an image converted into an image photographed by a virtual camera 12A having a viewpoint looking down from a substantially vertical direction. This converted image is a so-called bird's-eye view image. In FIG. 12, blank areas are generated at the lower left and lower right due to the absence of image data.

まず、鳥瞰画像を生成する際に立体物を特定する方法は種々のものが知られているが、ここでは、視差が生じている2枚の画像の差分を利用する方法が採用されている。この方法では、まず、視差が生じている2枚の画像の一方から、上方視点への射影変換画像である鳥瞰画像の一種としてのGPT(ground plane transformation)画像を生成し、他方の画像の視点からのGPT画像を予測して、生成したGPT画像を位置補正する。次に、他方の画像からGPT画像を生成して、一方の画像から生成され、位置補正されたGPT画像との差分を取ると、立体物が抽出される。視差を生じる2枚の画像は、複数の異なるカメラにより撮影された画像でもよいし、同一のカメラを移動させて撮影された画像であってもよいが、この実施形態では、同一のカメラの移動前後の画像が利用される。   First, various methods are known for specifying a three-dimensional object when generating a bird's-eye view image. Here, a method using a difference between two images with parallax is employed. In this method, first, a GPT (ground plane transformation) image as a kind of bird's-eye view image that is a projected transformation image to the upper viewpoint is generated from one of the two images with parallax, and the viewpoint of the other image is generated. The GPT image from is predicted, and the position of the generated GPT image is corrected. Next, when a GPT image is generated from the other image and a difference from the GPT image generated from the one image and subjected to position correction is taken, a three-dimensional object is extracted. The two images that generate parallax may be images taken by a plurality of different cameras or images taken by moving the same camera. In this embodiment, the movement of the same camera The previous and next images are used.

図13は、カメラ12から略水平方向に撮影された撮影画像の一例である。図14は、図13の撮影画像を射影変換(視点変換)して得られたGPT画像の一例である。図13に示すように、車両30の周辺には、ほぼ直方体の立体物40が存在する。この立体物40が路面に接地している物体であるか、あるいは自動車のバンパーのように路面に接地した支持体(車体)からオーバーハングしていて路面に接地していない物体であるかは区別できない。従って、オーバーハング物体の場合、GPT画像から物体の下端位置(路面と交わる位置)を把握することができない。このため、この鳥瞰画像生成装置では、上述した物体下端位置検出技術に基づいてその下端位置が求められ、GPT画像に示される。   FIG. 13 is an example of a photographed image photographed from the camera 12 in a substantially horizontal direction. FIG. 14 is an example of a GPT image obtained by projective transformation (viewpoint transformation) of the captured image of FIG. As shown in FIG. 13, a substantially rectangular solid object 40 exists around the vehicle 30. It is distinguished whether the three-dimensional object 40 is an object that is in contact with the road surface, or an object that is overhanging from a support body (vehicle body) that is in contact with the road surface, such as an automobile bumper, and that is not in contact with the road surface. Can not. Therefore, in the case of an overhanging object, the lower end position of the object (position where it intersects the road surface) cannot be grasped from the GPT image. For this reason, in this bird's-eye view image generation device, the lower end position is obtained based on the above-described object lower end position detection technique and is shown in the GPT image.

図15は、立体物抽出原理を示す説明図である。図15では、GPT画像上における立体物を便宜上、台形で示している。図15において台形aは、視差が生じている2枚の撮影画像の内の一方の撮影画像のGPT画像における立体物40である。台形aは、カメラ12が移動する前における上方視点から見た立体物40を示している。   FIG. 15 is an explanatory diagram showing the principle of three-dimensional object extraction. In FIG. 15, the three-dimensional object on the GPT image is shown as a trapezoid for convenience. In FIG. 15, a trapezoid a is a three-dimensional object 40 in the GPT image of one of the two captured images in which parallax is generated. The trapezoid a indicates the three-dimensional object 40 viewed from the upper viewpoint before the camera 12 moves.

台形bは、視差が生じている2枚の撮影画像の内の第1位置における撮影画像(第1画像)を射影変換した第1変換画像における立体物40である。つまり、台形bは、カメラ20がΔLだけ移動した第2位置における撮影画像(第2画像)を射影変換した第2変換画像における立体物40を示している。そして、斜線網掛け部分の台形a’は、カメラ20が第1位置からΔLだけ移動した場合を第1変換画に基づいて予測して得られた立体物40を示している。台形bと台形a’との差分を取ると、差分として残った画素は、視差を生じさせる立体物40が存在する位置に対応している。これにより、立体物40の存在する領域が抽出される。   The trapezoid b is the three-dimensional object 40 in the first converted image obtained by projective conversion of the captured image (first image) at the first position of the two captured images where parallax occurs. That is, the trapezoid b shows the three-dimensional object 40 in the second converted image obtained by projective conversion of the captured image (second image) at the second position where the camera 20 has moved by ΔL. The trapezoid a 'in the hatched portion indicates the three-dimensional object 40 obtained by predicting the case where the camera 20 has moved by ΔL from the first position based on the first converted image. When the difference between the trapezoid b and the trapezoid a 'is taken, the pixel remaining as the difference corresponds to the position where the three-dimensional object 40 that causes parallax exists. Thereby, the area where the three-dimensional object 40 exists is extracted.

図16は、図13に示すような撮影画像から得られたGPT画像から立体物40の存在する領域を抽出する例を示す説明図である。図15に基づいて説明したように、カメラ12が移動する前のGPT画像に対してΔLの位置補正を施したGPT画像と、カメラ12がΔLだけ移動した後のGPT画像との差分を取って、差分画像Sが得られる。差分画像Sにおいて、エッジを抽出すると、図16に示すように、e1〜e4の4辺からなる台形状の領域が、立体物領域Rとして抽出される。   FIG. 16 is an explanatory diagram illustrating an example in which a region where the three-dimensional object 40 exists is extracted from the GPT image obtained from the photographed image as illustrated in FIG. 13. As described based on FIG. 15, the difference between the GPT image obtained by performing the position correction of ΔL on the GPT image before the camera 12 moves and the GPT image after the camera 12 moved by ΔL is obtained. A difference image S is obtained. When an edge is extracted from the difference image S, a trapezoidal region having four sides e1 to e4 is extracted as a three-dimensional object region R as shown in FIG.

ここで、辺e3と辺e4は、台形の上底及び下底に相当する。辺e1と辺e2とは、台形の上底及び下底以外の2辺、即ち、脚に相当する辺である。辺e1と辺e2とは、光学中心点Cにおいて交差する。即ち、立体物領域Rは、平行しない2辺e1及びe2が略垂直方向の視点から見下ろした場合における光学中心Cにおいて交差する台形状に抽出される。上記例においては、立体物40が直方体であったので、立体物領域Rと、立体物40とは略一致するものであった。しかし、立体物40が直方体ではなく、任意の形状であっても、台形状の立体物領域Rが抽出される。この立体物領域Rを規定する4つの辺e1、e2、e3、e4のうち、物体の下端位置を示す辺e2は、物体がオーバーハング物体であれば、本発明による上述した物体下端検出技術に基づいて修正されることになる。つまり、物体下端検出技術に基づいて求められた物体下端位置と辺e2の位置とが相異する場合、物体下端検出技術に基づく物体下端位置が優先される。   Here, the side e3 and the side e4 correspond to the upper base and the lower base of the trapezoid. The side e1 and the side e2 are two sides other than the upper and lower bases of the trapezoid, that is, sides corresponding to the legs. The side e1 and the side e2 intersect at the optical center point C. That is, the three-dimensional object region R is extracted in a trapezoidal shape that intersects at the optical center C when the two non-parallel sides e1 and e2 are looked down from a substantially vertical viewpoint. In the above example, since the three-dimensional object 40 is a rectangular parallelepiped, the three-dimensional object region R and the three-dimensional object 40 substantially coincide with each other. However, even if the three-dimensional object 40 is not a rectangular parallelepiped but has an arbitrary shape, the trapezoidal three-dimensional object region R is extracted. Of the four sides e1, e2, e3, and e4 that define the three-dimensional object region R, the side e2 indicating the lower end position of the object is used in the above-described object lower end detection technique according to the present invention if the object is an overhanging object. Will be corrected on the basis. That is, when the object lower end position obtained based on the object lower end detection technique is different from the position of the side e2, the object lower end position based on the object lower end detection technique is prioritized.

図17は、本発明に係る物体下端位置検出装置を組み込んだ鳥瞰画像生成装置(ECU10)の構成例を模式的に示すブロック図である。図17に示すように、鳥瞰画像生成装置は、第1画像受取部1aと、第2画像受取部1bと、第1射影変換部2aと、第2射影変換部2bと、第1直線群検出部3aと、第2直線群検出部3bと、交点算定部4と、物体下端算定部5と、立体物領域抽出部6と、射影歪補正部7と、自車位置演算8と、重畳部9と、画像制御部11との各機能部を有して構成されている。ECU10は、例えば、マイクロコンピュータなどによって構成されており、上記各機能部は、プログラム等によってその機能を分担することが可能である。従って、上記各機能部は、物理的に独立して設けられる必要はなく、同一のハードウェアを兼用してプログラム等のソフトウェアとの協働によってその機能が実現されれば充分である。   FIG. 17 is a block diagram schematically showing a configuration example of a bird's-eye image generation device (ECU 10) incorporating the object lower end position detection device according to the present invention. As shown in FIG. 17, the bird's-eye image generation device includes a first image receiving unit 1a, a second image receiving unit 1b, a first projective conversion unit 2a, a second projective conversion unit 2b, and a first straight line group detection. Unit 3a, second line group detection unit 3b, intersection calculation unit 4, object lower end calculation unit 5, three-dimensional object region extraction unit 6, projective distortion correction unit 7, own vehicle position calculation 8, and superposition unit 9 and the image control unit 11. The ECU 10 is configured by, for example, a microcomputer, and each of the functional units can share the function with a program or the like. Accordingly, the functional units do not need to be physically provided independently, and it is sufficient if the functions are realized by cooperating with software such as a program using the same hardware.

第1画像受取部1aは、車両30の周辺を撮影するカメラ(車載カメラ)12により第1位置において撮影された撮影画像を第1画像として受け取る機能部である。第2画像受取部1bは、第1画像を撮影した位置から車両30が所定の移動量(ΔL)を経た第2位置においてカメラ12により撮影された撮影画像を第2画像として受け取る機能部である。画像制御部11は、第1画像受取部1a及び第2画像受取部1bが、撮影画像を受け取るタイミングなどを制御する機能部である。   The first image receiving unit 1a is a functional unit that receives, as a first image, a photographed image photographed at a first position by a camera (vehicle-mounted camera) 12 that photographs the periphery of the vehicle 30. The second image receiving unit 1b is a functional unit that receives, as a second image, a captured image captured by the camera 12 at a second position where the vehicle 30 has passed a predetermined movement amount (ΔL) from the position at which the first image was captured. . The image control unit 11 is a functional unit that controls the timing at which the first image receiving unit 1a and the second image receiving unit 1b receive a captured image.

第1射影変換部2aは、第1画像を略垂直方向からの上方視点からの第1変換画像に射影変換する機能部であり、第1射影変換部2bは、第2画像を略垂直方向からの上方視点からの第2変換画像に射影変換する機能部である。   The first projective conversion unit 2a is a functional unit that performs projective conversion of the first image into a first converted image from an upper viewpoint from a substantially vertical direction, and the first projective conversion unit 2b converts the second image from a substantially vertical direction. It is a functional part which carries out projective conversion to the 2nd conversion image from an upper viewpoint.

第1直線群算定部3aは、第1変換画像における物体の物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第1直線群を算定する機能部であり、第2直線群算定部3bは、第2変換画像における物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第2直線群を算定する機能部である。   The first straight line group calculation unit 3a is a functional unit that calculates a first straight line group composed of straight lines connecting the feature points that characterize the object shape of the object in the first converted image and the optical center point. The calculating unit 3b is a functional unit that calculates a second straight line group including straight lines connecting the feature points characterizing the object shape in the second converted image and the optical center point.

交点算定部4は、前記第1位置と前記第2位置との変位量に対応するように相対変位させた前記第1直線群と前記第2直線群とを重ね合わせた際に生じる直線群の交点を算定する機能部である。この交点算定部4は、立体物に含まれる複数の垂直エッジとしての直線を利用するものであり、移動前後で得られる2つの平面上での方位直線群同士の対応を取ることなくそれらの直線群間の交点を計算するように構成されている。しかしながら、この交点算定部4を、移動前後で得られる2つの平面上での方位直線群において、各方位直線が通過する画像上の画像情報に基づいて直線同士の所定条件での対応をとって、対応する直線間の交点を計算するように構成してもよい。あるいは、それらの両方のアルゴリズムを備えて、選択的に利用できるようにしてもよい。また、物体下端算定部5は、交点算定部4で求められた交点群の分布状態を解析することにより、交点が集中している位置を物体位置、つまり物体の下端位置として特定する。   The intersection calculation unit 4 calculates a straight line group generated when the first straight line group and the second straight line group, which are relatively displaced so as to correspond to the displacement amount of the first position and the second position, are overlapped. It is a functional unit that calculates intersection points. The intersection calculation unit 4 uses straight lines as a plurality of vertical edges included in the three-dimensional object, and these straight lines are obtained without taking correspondence between the azimuth straight line groups on the two planes obtained before and after the movement. It is configured to calculate the intersection between groups. However, the intersection calculation unit 4 takes the correspondence in a predetermined condition between the straight lines based on the image information on the image through which each azimuth line passes in the azimuth line group on the two planes obtained before and after the movement. The intersection between corresponding straight lines may be calculated. Alternatively, both of these algorithms may be provided and selectively used. Further, the object lower end calculation unit 5 identifies the position where the intersections are concentrated as the object position, that is, the lower end position of the object, by analyzing the distribution state of the intersection group obtained by the intersection calculation unit 4.

立体物領域抽出部6は、上述したように、ΔLの位置補正を施した第1変換画像と第2変換画像Bとの差分を取り、この差分に基づいて、立体物40が存在する立体物領域Rを、平行しない2辺(e1及びe2)が光学中心Cにおいて交差する台形状に抽出する機能部である。   As described above, the three-dimensional object region extraction unit 6 takes the difference between the first converted image and the second converted image B that have been subjected to the position correction of ΔL, and based on this difference, the three-dimensional object 40 is present. This is a functional unit that extracts the region R into a trapezoid shape in which two non-parallel sides (e1 and e2) intersect at the optical center C.

射影歪補正部7は、第2変換画像Bにおける立体物領域Rの画像を略垂直方向の視点から見下ろした場合における光学中心Cの方向へ縮小して射影歪補正画像に補正する機能部である。重畳部9は、第2変換画像上における立体物領域Rの中で縮小後の立体物40の画像が存在する領域以外の領域にマスク処理を施したり、立体物40の存在を報知する報知表示を重畳させたりする機能部である。   The projective distortion correction unit 7 is a functional unit that reduces the image of the three-dimensional object region R in the second converted image B to the direction of the optical center C when looking down from a substantially vertical viewpoint and corrects it to a projection distortion corrected image. . The superimposing unit 9 performs mask processing on an area other than the area where the image of the reduced three-dimensional object 40 exists in the three-dimensional object area R on the second converted image, or notifies the presence of the three-dimensional object 40. It is a functional part that superimposes.

自車位置演算部8は、ステアリングセンサ14、シフト位置センサ15、アクセルセンサ16、ブレーキセンサ17、回転センサ18等の各種センサによる検出結果を受けて、車両30の移動量や位置を演算する機能部である。上記各種センサ14〜18や、自車位置演算部8は、本発明の移動検出部13に相当する。尚、自車位置演算部8は、ECU10とは別のECUや制御装置等に含まれ、演算結果のみがECU10に入力される構成であってもよい。   The own vehicle position calculation unit 8 receives the detection results of various sensors such as the steering sensor 14, the shift position sensor 15, the accelerator sensor 16, the brake sensor 17, and the rotation sensor 18 and calculates the movement amount and position of the vehicle 30. Part. The various sensors 14 to 18 and the vehicle position calculation unit 8 correspond to the movement detection unit 13 of the present invention. The vehicle position calculation unit 8 may be included in an ECU, a control device, or the like different from the ECU 10 and only the calculation result may be input to the ECU 10.

重畳部9は、モニタ表示画像上における立体物領域Rの中で縮小後の立体物40の画像が存在する領域以外の領域にマスク処理を施したり、立体物40の存在を報知する報知表示を重畳させたりする機能部である。   The superimposing unit 9 performs a mask process on a region other than the region where the image of the reduced three-dimensional object 40 exists in the three-dimensional object region R on the monitor display image, or displays a notification display for notifying the presence of the three-dimensional object 40. It is a functional part that is superimposed.

上述した説明から理解できるように、オーバーハング物体のような路面と直接接触していない物体の路面との接触位置検出する物体下端位置検出装置が有する各機能部は、この実施形態では、第1画像受取部1aと、第2画像受取部1bと、第1射影変換部2aと、第2射影変換部2bと、第1直線群検出部3aと、第2直線群検出部3bと、交点算定部4と、物体下端算定部5である。   As can be understood from the above description, each functional unit included in the object lower end position detecting device that detects a contact position of an object that is not in direct contact with a road surface such as an overhanging object is, in this embodiment, the first functional unit. Intersection calculation of image receiving unit 1a, second image receiving unit 1b, first projection conversion unit 2a, second projection conversion unit 2b, first straight line group detection unit 3a, and second straight line group detection unit 3b A unit 4 and an object lower end calculating unit 5.

図7で示された物体下端位置検出アルゴリズムにおける各ステップの処理と物体下端位置検出装置の各機能部との関係は以下の通りである。
第1画像と第2画像を取得するステップ#01の処理は、第1画像受取部1aと第2画像受取部1bとによって実行される。鳥瞰画像である第1変換画像と第2画像とを生成するステップ#02の処理は、第1射影変換部2aと第2射影変換部2bとによって実行される。エッジ強調や2値化画像生成による物体特徴点(特徴エリア)の検出するステップ#03の処理は、第1直線群検出部3aと第2直線群検出部3bとにおける前処理として実行される。物体特徴点と光学中心点とを結ぶ第1直線群と第2直線群とを算定するステップ#04の処理は、第1直線群検出部3aと第2直線群検出部3bとによって実行される。第1直線群と第2直線群からとの間で対応する線の交点を算定するステップ#05の処理は、交点算定部4によって実行される。算定された交点群から物体の下端位置を示す交点を推定して物体の下端位置を算定するステップ#06の処理は、物体下端算定部5によって実行される。物体下端位置検出アルゴリズムに必要とする機能は、ここではわかりやすい説明のために各機能部に区分けしているだけであり、その機能実行部の割り当ては任意に行うことができる。
The relationship between the processing of each step in the object lower end position detection algorithm shown in FIG. 7 and each functional unit of the object lower end position detection apparatus is as follows.
The process of step # 01 for acquiring the first image and the second image is executed by the first image receiving unit 1a and the second image receiving unit 1b. The process of step # 02 for generating the first converted image and the second image, which are bird's-eye images, is executed by the first projection conversion unit 2a and the second projection conversion unit 2b. The processing of step # 03 for detecting object feature points (feature areas) by edge enhancement or binarized image generation is executed as preprocessing in the first straight line group detection unit 3a and the second straight line group detection unit 3b. The process of step # 04 for calculating the first straight line group and the second straight line group connecting the object feature point and the optical center point is executed by the first straight line group detection unit 3a and the second straight line group detection unit 3b. . The process of step # 05 for calculating the intersection of the corresponding lines between the first line group and the second line group is executed by the intersection calculation unit 4. The object bottom end calculation unit 5 executes the process of step # 06 in which the intersection indicating the lower end position of the object is estimated from the calculated intersection point group and the lower end position of the object is calculated. Here, the functions required for the object lower end position detection algorithm are only divided into functional units for easy understanding, and the function execution units can be arbitrarily assigned.

以上、説明したように、車両周辺のような特定領域を被写体として、例えば車載カメラで撮影された画像をそのまま表示するのではなく、利用者が立体物と車両との距離感を把握し易いように、射影変換して鳥瞰画像を生成して表示する場合、本発明による物体下端位置検出技術を用いることで、オーバーハング物体のような路面と直接接触していない物体であっても、その路面との接触位置である物体下端位置を検出して、利用者に物体との正しい距離感を持たせるような表示を行うことが可能となる。   As described above, a specific area such as the periphery of the vehicle is used as a subject, and for example, an image captured by an in-vehicle camera is not displayed as it is, so that the user can easily grasp the sense of distance between the three-dimensional object and the vehicle. In addition, when a bird's-eye view image is generated by projective transformation and displayed, even if the object is not in direct contact with the road surface, such as an overhanging object, the road surface can be detected by using the object bottom position detection technology according to the present invention. The lower end position of the object, which is the contact position with the object, can be detected, and a display that gives the user a sense of the correct distance from the object can be performed.

〔実施のその他の形態〕
(1)図7を用いて説明した物体下端位置検出技術の基本原理のアルゴリズムにおける、ステップ#04の直線群(第1直線群と第2直線群)算定処理、及びステップ#05の交点算定処理は以下に述べるような処理で行うことができる。
1. 第1画像と第2画像からGPT画像である第1変換画像と第2変換画像を生成する。
2. 上記両画像に対して垂直Sobelフィルタ処理を適用して水平成分を抑圧した後にしきい値処理した画素群を得る(ノイズレベル以上の強度に対してピーク検出してもよい)。この処理は、イテレーション回数削減(応答性確保)のために、すなわち、光学中心方向に向かう画素群以外のアウトライアを除去することが目的である。
3. 上記で得た画素群は通常は複数存在するが、それぞれの画素群に対して光学中心位置を通る拘束条件を適用して直線当てはめをおこない、方位直線を得る。直線当てはめには、前処理としてのグループ化やノイズ除去が不要なRANSACを使用する。2点のサンプルによる直線当てはめが基本であるが。ここでは1点は原点、他方を画素群からランダムに選択する。複数の画素群が存在するとして、コンセンサスが上位からn本の直線を得る。
4. 第2変換画像(GPT画像)からの第2直線群(n 本) と第1変換画像(GPT画像)からの第1直線群 (m本) を得る。
5. 第1変換画像からの第1直線群の直線方程式を、第2変換画像からの第2直線群が定義されている座標系に変換して、第2直線群と変換された第1直線群との間で交点を計算する。
方位角度が類似している(最も角度差が小さい。保険:および、その次に小さい。)直線間のみの交点を計算することが考えられるが、物体上の別の位置で検出された直線の勾配の方が類似している場合があるため、交点計算は総当たり戦とする方法が考えられる。
なお、この総当たりする方法は非効率であるので、複数の方位直線群が得られたとき
に、以下の方法により効率化をかはる。
(a) 第1変換画像と第2変換画像との差分画像から立体物の候補領域を抽出する。
(b) 候補領域内に存在する方位直線群を検出する。第2直線群 (n 本)と第1直線群 (n 本) が得られている。
(c) 両直線群は立体物に固有の垂直エッジの配列順に並んでいるため、その直線の数と配列順は移動前後の画像間でほぼ同じであるとみなせる。
(d) 各直線に対して方位順にラベリング(番号付け)を行う。第2変換画像からの直線から番号順に1本選ぶ。その番号に対応した第2変換画像からの直線とその前後の所定番号数の直線を選ぶことにより、第2直線群からの直線に対する第1直線群一部の直線との交点を計算する。
(e) この方法により完全な総当たり戦に比べ大幅な計算量低減がおこなえる。オーバーハングしている立体物の空間中の点に対する直下の路面上の位置に直線群の交点が検出される。
[Other Embodiments]
(1) The straight line group (first straight line group and second straight line group) calculation process of step # 04 and the intersection calculation process of step # 05 in the algorithm of the basic principle of the object lower end position detection technique described with reference to FIG. Can be performed by the processing described below.
1. A first converted image and a second converted image, which are GPT images, are generated from the first image and the second image.
2. Apply vertical Sobel filter processing to both the above images to suppress the horizontal component, and then obtain a pixel group subjected to threshold processing (peaks may be detected for intensity above the noise level). The purpose of this processing is to reduce the number of iterations (to ensure responsiveness), that is, to remove outliers other than the pixel group toward the optical center.
3. Although there are usually a plurality of pixel groups obtained above, straight line fitting is performed by applying a constraint condition passing through the optical center position to each pixel group to obtain an azimuth line. For linear fitting, RANSAC that does not require grouping or noise removal as preprocessing is used. Basically, straight line fitting with two samples is used. Here, one point is selected at random from the origin, and the other is randomly selected from the pixel group. Assuming that there are a plurality of pixel groups, the consensus obtains n straight lines from the top.
4. A second straight line group (n lines) from the second converted image (GPT image) and a first straight line group (m lines) from the first converted image (GPT image) are obtained.
5. The straight line equation of the first straight line group from the first converted image is converted into a coordinate system in which the second straight line group from the second converted image is defined, and the first straight line converted with the second straight line group Calculate the intersection with the group.
It is conceivable to calculate the intersection point between straight lines that have similar azimuth angles (the smallest angle difference, insurance: and then the smallest), but the line detected at another location on the object Since the slopes may be more similar, the intersection calculation can be a round-robin battle.
Since this brute force method is inefficient, when a plurality of azimuth line groups are obtained, efficiency is achieved by the following method.
(a) A candidate region for a three-dimensional object is extracted from a difference image between the first converted image and the second converted image.
(b) A azimuth line group existing in the candidate area is detected. The second straight line group (n lines) and the first straight line group (n lines) are obtained.
(c) Since both straight line groups are arranged in the order of arrangement of the vertical edges unique to the three-dimensional object, it can be considered that the number of straight lines and the arrangement order are almost the same between the images before and after the movement.
(d) Label each straight line in azimuth order (numbering). One line is selected from the straight line from the second converted image in numerical order. By selecting a straight line from the second converted image corresponding to the number and a predetermined number of straight lines before and after that, an intersection point between a straight line from the second straight line group and a part of the first straight line group is calculated.
(e) This method can greatly reduce the amount of calculation compared to a complete round-robin battle. The intersection of the straight line group is detected at a position on the road surface directly below the point in the space of the overhanging three-dimensional object.

(2)図7を用いて説明した物体下端位置検出技術の基本原理のアルゴリズムにおける、ステップ#06の下端位置算定処理で有効なロバスト推定手法のひとつである最小メジアン法(LMedS)の種々の好適な適用方法を以下に述べる。
(a)基本的な方法
1. 全データの中から1個をランダムに選び(数が少なければ全数探索でもかまわない)、これを仮の平均値とする。
2. 仮の平均値に対する他のサンプルとの残差の自乗を計算し、昇順に並べる。
3. 残差の自乗値がm番目(=サンプル数の1=2:Median)に大きい値を調べ、これをMedian評価値として控えておく。
4. 上記1,2 を繰り返し、Median 評価値が最小となったときの仮の平均値が、その集団を代表する粗いモデルであるとする。
5. 仮の平均値からの残差自乗が最小Median 評価値以内のサンプル点群の平均値をもって最終的な精密モデルとする。
(b)簡易方法
1. 全サンプルの平均値を求める
2. 平均値との残差自乗を計算し昇順に並べる
3. 残差の自乗値がm番目(=サンプル数の1=2:Median)に大きい値を調べる
4. 残差自乗がメジアン値より大きくなるサンプルを取り除く
5. 残ったサンプルでの平均値を最終的な精密モデルとする。
(c)(a)から改良された方法
(a)で示した基本方法で処理した場合、サンプル点群が急峻な分布していない限りにおいては、最小Median 評価値を呈する位置が複数生じてしまい、分布の中央値を指し示すことができないという現象が生じうる。そこで、緩やかな分布や台形のようなピークを有しない分布であっても分布の中央値を検出できるように、残差の自乗をそのまま用いるのではなく、その累積値を用いることにより対応する。
1. 全データの中から1個をランダムに選び(数が少なければ全数探索でもかまわない)、これを仮の平均値とする。
2. 仮の平均値に対する他のサンプルとの残差の自乗を計算し、昇順に並べる。
3. 残差の自乗値のm番目(=サンプル数の1/2:Median)に大きい値までの累積値(残差自乗の累積値)を計算し、これをMedian 評価値として控えておく。
4. 上記1,2 を繰り返し、Median 評価値が最小となったときの仮の平均値が、その集団を代表する粗いモデルであるとする。
5. 仮の平均値からの残差自乗が最小Median 評価値以内のサンプル点群の平均値をもって最終的な精密モデルとする。また、サンプルが台地のような分布をする場合、上記の累積法のみでは中央値の検出ができない場合が残る。そのような場合は、累積値による最小Median 評価値が複数生じた場合は、生じた位置に対する平均値をもって中央値として出力する。
(2) Various preferred methods of the minimum median method (LMedS), which is one of the robust estimation methods effective in the lower end position calculation process in Step # 06 in the algorithm of the basic principle of the object lower end position detection technique described with reference to FIG. A suitable application method is described below.
(a) Basic method
1. Randomly select one from all data (if the number is small, you can do exhaustive search) and use this as a temporary average.
2. Calculate the squares of the residuals with the other samples with respect to the tentative mean value and arrange them in ascending order.
3. Check the value with the square of the residual being the mth largest (= 1 = 2 of the number of samples: Median) and record this as the Median evaluation value.
4. Repeat steps 1 and 2 above, and assume that the tentative average value when the Median evaluation value is minimized is a rough model representing the group.
5. The final precision model is obtained by taking the average value of the sample point group whose residual square from the provisional average value is within the minimum Median evaluation value.
(b) Simple method
1. Find the average of all samples
2. Calculate the residual squares with the mean and arrange them in ascending order
3. Check the value with the square of the residual being the mth largest (= 1 = 2: Median number of samples)
4. Remove samples whose residual square is greater than the median value
5. Use the average value of the remaining samples as the final precision model.
(c) Improved method from (a)
When processing with the basic method shown in (a), unless the sample point group has a steep distribution, multiple positions exhibiting the minimum Median evaluation value occur, and the median value of the distribution cannot be indicated. A phenomenon can occur. In order to detect the median value of the distribution even if it is a gentle distribution or a distribution that does not have a trapezoidal peak, the square of the residual is not used as it is, but the accumulated value is used.
1. Randomly select one from all data (if the number is small, you can do exhaustive search) and use this as a temporary average.
2. Calculate the squares of the residuals with the other samples with respect to the tentative mean value and arrange them in ascending order.
3. Calculate the cumulative value (cumulative value of the residual square) up to the mth of the residual squared value (= 1/2 of the number of samples: Median), and record this as the Median evaluation value.
4. Repeat steps 1 and 2 above, and assume that the tentative average value when the Median evaluation value is minimized is a rough model representing the group.
5. The final precision model is obtained by taking the average value of the sample point group whose residual square from the provisional average value is within the minimum Median evaluation value. If the sample has a plateau-like distribution, the median value cannot be detected only by the above accumulation method. In such a case, when a plurality of minimum Median evaluation values based on the cumulative value are generated, an average value for the generated position is output as a median value.

1a:第1画像受取部
1b:第2画像受取部
2a:第1射影変換部
2b:第2射影変換部
3a:第1直線群算定部
3b:第2直線群算定部
4:交点群算定部
5:物体下端算定部
6:立体物領域抽出部
7:射影歪補正部
9:重畳部
10:ECU(物体下端位置検出装置を組み込んだ鳥瞰画像生成装置)
12:カメラ(車載カメラ)
13:移動検出部
30:車両
40:立体物
1a: first image receiving unit 1b: second image receiving unit 2a: first projection conversion unit 2b: second projection conversion unit 3a: first straight line group calculation unit 3b: second straight line group calculation unit 4: intersection point group calculation unit 5: Object lower end calculation unit 6: Solid object region extraction unit 7: Projection distortion correction unit 9: Superimposition unit 10: ECU (bird's-eye view image generation device incorporating an object lower end position detection device)
12: Camera (vehicle camera)
13: Movement detector 30: Vehicle 40: Solid object

Claims (4)

特定領域を被写体として第1位置において撮影された撮影画像を第1画像として受け取る第1画像受取部と、
前記第1位置とは異なる第2位置において撮影された撮影画像を第2画像として受け取る第2画像受取部と、
前記第1画像を上方視点から見た第1変換画像に射影変換する第1射影変換部と、
前記第2画像を上方視点から見た第2変換画像に射影変換する第2射影変換部と、
前記第1変換画像における物体の物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第1直線群を算定する第1直線群算定部と、
前記第2変換画像における物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第2直線群を算定する第2直線群算定部と、
前記第1位置と前記第2位置との距離に対応するように相対変位させた前記第1直線群と前記第2直線群とを重ね合わせた際に生じる直線群の交点を算定する交点算定部と、
前記交点の分布位置に基づいて前記物体の下端位置を算定する物体下端算定部と、
を有する物体下端位置検出装置。
A first image receiving unit for receiving, as a first image, a photographed image photographed at a first position with a specific region as a subject;
A second image receiving unit that receives a captured image captured at a second position different from the first position as a second image;
A first projective transformation unit for projectively transforming the first image into a first transformed image viewed from an upper viewpoint;
A second projective transformation unit that projectively transforms the second image into a second transformed image viewed from above.
A first straight line group calculating unit for calculating a first straight line group composed of straight lines connecting the feature points characterizing the object shape of the object in the first converted image and the optical center point;
A second straight line group calculating unit for calculating a second straight line group composed of straight lines connecting the feature points characterizing the object shape in the second converted image and the optical center point;
An intersection point calculation unit for calculating an intersection point of the straight line groups generated when the first straight line group and the second straight line group, which are relatively displaced so as to correspond to the distance between the first position and the second position, are overlapped. When,
An object bottom end calculating unit for calculating a bottom end position of the object based on a distribution position of the intersection;
An object lower end position detecting device having
前記第1直線群算定部及び前記第2直線群算定部は、前記第1変換画像及び前記第2変換画像に対して輪郭強調する水平方向微分フィルタを適用した後にしきい値処理することによって生成された画像から前記特徴点を求める請求項1に記載の物体下端位置検出装置。   The first straight line group calculating unit and the second straight line group calculating unit are generated by applying a threshold value process after applying a horizontal differential filter that enhances an outline to the first converted image and the second converted image. The object lower end position detection apparatus according to claim 1, wherein the feature point is obtained from the obtained image. 前記第1画像受取部は、前記車両の移動量を検出する移動検出部の検出結果に基づき前記車両が前記第1位置に達したと判定されたときに撮影された撮影画像を前記第1画像として受け取り、前記第2画像受取部は、前記車両の移動量を検出する移動検出部の検出結果に基づき前記車両が前記第2位置に達したと判定されたときに撮影された撮影画像を前記第2画像として受け取り、前記交点算定部は前記第1画像と前記第2画像とにおける光学中心点の移動距離を移動検出部の検出結果から得る請求項1または2に記載の物体下端位置検出装置。   The first image receiving unit captures a captured image captured when it is determined that the vehicle has reached the first position based on a detection result of a movement detection unit that detects a movement amount of the vehicle. And the second image receiving unit captures a captured image captured when it is determined that the vehicle has reached the second position based on a detection result of a movement detection unit that detects a movement amount of the vehicle. 3. The object lower end position detection device according to claim 1, wherein the intersection calculation unit obtains the movement distance of the optical center point between the first image and the second image from the detection result of the movement detection unit. . 特定領域を被写体として第1位置において撮影された撮影画像を第1画像として受け取るとともに、前記第1位置とは異なる第2位置において撮影された撮影画像を第2画像として受け取る機能と、
前記第1画像を上方視点から見た第1変換画像に射影変換するするとともに、前記第2画像を上方視点から見た第2変換画像に射影変換する機能と、
前記第1変換画像における物体の物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第1直線群を算定するとともに、前記第2変換画像における物体形状を特徴づける各特徴点と光学中心点とを結ぶ直線からなる第2直線群を算定する機能と、
前記第1位置と前記第2位置との距離に対応するように相対変位させた前記第1変換画像と前記第2変換画像とを重ね合わせた際に生じる前記第1直線群と前記第2直線群とにおける対応する直線の交点を算定する機能と、
前記交点の分布位置に基づいて前記物体の下端位置を算定する機能と、
をコンピュータに実現させる物体下端位置検出プログラム。
A function of receiving a photographed image photographed at a first position with a specific region as a subject as a first image, and receiving a photographed image photographed at a second position different from the first position as a second image;
A function of projectively converting the first image to a first converted image viewed from an upper viewpoint, and a projective conversion of the second image to a second converted image viewed from an upper viewpoint;
Calculating a first straight line group consisting of straight lines connecting the feature points characterizing the object shape of the object in the first converted image and the optical center point, and characterizing the object shapes in the second converted image; A function for calculating a second straight line group composed of straight lines connecting the optical center points;
The first straight line group and the second straight line generated when the first converted image and the second converted image that are relatively displaced so as to correspond to the distance between the first position and the second position are superimposed. A function for calculating the intersection of corresponding straight lines with the group;
A function of calculating a lower end position of the object based on a distribution position of the intersection;
Is a computer program for detecting the lower end position of an object.
JP2009035764A 2009-02-18 2009-02-18 Object bottom position detection device and object bottom position detection program Expired - Fee Related JP5152592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009035764A JP5152592B2 (en) 2009-02-18 2009-02-18 Object bottom position detection device and object bottom position detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009035764A JP5152592B2 (en) 2009-02-18 2009-02-18 Object bottom position detection device and object bottom position detection program

Publications (2)

Publication Number Publication Date
JP2010193198A true JP2010193198A (en) 2010-09-02
JP5152592B2 JP5152592B2 (en) 2013-02-27

Family

ID=42818758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009035764A Expired - Fee Related JP5152592B2 (en) 2009-02-18 2009-02-18 Object bottom position detection device and object bottom position detection program

Country Status (1)

Country Link
JP (1) JP5152592B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289386A (en) * 2003-03-20 2004-10-14 Clarion Co Ltd Image display method, image display apparatus, and image processing apparatus
JP2008085710A (en) * 2006-09-28 2008-04-10 Sanyo Electric Co Ltd Driving support system
JP2008205914A (en) * 2007-02-21 2008-09-04 Alpine Electronics Inc Image processor
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289386A (en) * 2003-03-20 2004-10-14 Clarion Co Ltd Image display method, image display apparatus, and image processing apparatus
JP2008085710A (en) * 2006-09-28 2008-04-10 Sanyo Electric Co Ltd Driving support system
JP2008205914A (en) * 2007-02-21 2008-09-04 Alpine Electronics Inc Image processor
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding

Also Published As

Publication number Publication date
JP5152592B2 (en) 2013-02-27

Similar Documents

Publication Publication Date Title
JP4899424B2 (en) Object detection device
US10210404B2 (en) Vehicle vision system with vehicle detection
JP6014440B2 (en) Moving object recognition device
JP5190712B2 (en) Obstacle detection device
WO2016117200A1 (en) Outside environment recognition device for vehicles and vehicle behavior control device using same
JP2006234492A (en) Object recognition device
JP2017520133A (en) Vehicle periphery image generation apparatus and method
EP3545464A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP2013137767A (en) Obstacle detection method and driver support system
JP6778620B2 (en) Road marking device, road marking system, and road marking method
JP2014089548A (en) Road surface level difference detection method, road surface level difference detection device and vehicle equipped with the road surface level difference detection device
WO2019021876A1 (en) In-vehicle camera calibration device and method
EP3029602A1 (en) Method and apparatus for detecting a free driving space
WO2016151976A1 (en) Moving body detection device, image processing device, moving body detection method, and integrated circuit
JP2015179066A (en) Parallax value derivation device, apparatus control system, moving body, robot, parallax value derivation method and program
JP4967758B2 (en) Object movement detection method and detection apparatus
JP6992356B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
JP6763198B2 (en) Image processing equipment, imaging equipment, mobile device control systems, image processing methods, and programs
CN104697491A (en) Distance determination using a monoscopic imager in a vehicle
JP4768499B2 (en) In-vehicle peripheral other vehicle detection device
JP2008003696A (en) Image processing apparatus and image processing method
JP2005170290A (en) Obstacle detecting device
JP6824759B2 (en) Bound line detection device, lane marking system, and lane marking method
JP5152592B2 (en) Object bottom position detection device and object bottom position detection program
JP5785515B2 (en) Pedestrian detection device and method, and vehicle collision determination device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5152592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees