JP2010231400A - Obstacle dangerous degree calculation device, method and program - Google Patents

Obstacle dangerous degree calculation device, method and program Download PDF

Info

Publication number
JP2010231400A
JP2010231400A JP2009076941A JP2009076941A JP2010231400A JP 2010231400 A JP2010231400 A JP 2010231400A JP 2009076941 A JP2009076941 A JP 2009076941A JP 2009076941 A JP2009076941 A JP 2009076941A JP 2010231400 A JP2010231400 A JP 2010231400A
Authority
JP
Japan
Prior art keywords
obstacle
obstacle candidate
candidate area
shielding
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009076941A
Other languages
Japanese (ja)
Other versions
JP5248388B2 (en
Inventor
Manabu Nishiyama
学 西山
Masahide Nishiura
正英 西浦
Hiroshi Hattori
寛 服部
Satoyuki Takeguchi
智行 武口
Akihito Seki
晃仁 関
Takeshi Nakano
剛 仲野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009076941A priority Critical patent/JP5248388B2/en
Publication of JP2010231400A publication Critical patent/JP2010231400A/en
Application granted granted Critical
Publication of JP5248388B2 publication Critical patent/JP5248388B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately calculate the degree of danger in an area to be an obstacle candidate. <P>SOLUTION: An obstacle danger degree calculation device is provided with: a stereo image processor 1 for calculating parallax distribution information in the surroundings of a vehicle from a plurality of image data obtained by imaging the surrounding environment of the self-vehicle from different visual points; an obstacle candidate area generator 2 for generating a plurality of obstacle candidate areas from the parallax distribution information; and a danger degree calculator 6 for calculating the degree of danger from at least one of a first obstacle candidate, which is one of the plurality of obstacle candidate areas, a second degree of shielding, representing to what extent the first obstacle candidate area is shielded by a dangerous object recognized from the image data, and a second degree of shielding, representing to what extent the first obstacle candidate area is shielded by a preset dangerous object. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、自動車に搭載されたカメラで撮影された画像から運転者から見えにくい障害物の危険度を算出する技術に関する。   The present invention relates to a technique for calculating the danger level of an obstacle that is difficult for a driver to see from an image taken by a camera mounted on an automobile.

カメラにより撮影された画像から人物・自転車・バイク・その他障害物を検出する技術は、自動車などの移動物体における安全確保にとって重要な役割を果たす。さらに、運転者が運転している車両(以後、自車両と呼ぶ)の周囲環境に存在する立体物それぞれについて、運転者にとってどれだけ危険であるかを数値化した“危険度”を評価することができれば、本当に危険な障害物だけに警告を発するというように、運転者にとってより有益な安全装置を提供することが可能になる。   Technology for detecting people, bicycles, motorcycles, and other obstacles from images taken by cameras plays an important role in ensuring safety in moving objects such as automobiles. In addition, for each three-dimensional object in the surrounding environment of the vehicle that the driver is driving (hereinafter referred to as the host vehicle), evaluate the “risk level” that quantifies how dangerous it is for the driver. If possible, it is possible to provide a safety device that is more beneficial to the driver, such as issuing a warning only to a really dangerous obstacle.

特許文献1は、自車両に近い物体ほど危険度が高いとみなして画像を複数の領域に分割し、自車両に近い領域から先に障害物検出処理を実行することで、危険な障害物ほど早く検出できるようにした技術を開示している。   Patent Document 1 considers that an object closer to the own vehicle has a higher degree of danger and divides the image into a plurality of areas, and executes obstacle detection processing first from the area close to the own vehicle. A technique that enables early detection is disclosed.

特許第3540005号公報Japanese Patent No. 3540005

しかしながら、運転者にとって危険な障害物は、単に近くにあるものに限らず、他の物体に隠れているものや、運転者の死角に入っているものなど、状況に応じて動的に決まるものも存在しうる。また、運転者から見えにくい位置関係にあるものは、運転者、相手(障害物が歩行者などの場合)双方にとって気付きにくい。   However, obstacles that are dangerous to the driver are not limited to those nearby, but are dynamically determined according to the situation, such as those that are hidden behind other objects and those that are in the driver's blind spot. Can also exist. In addition, it is difficult for both the driver and the other party (when the obstacle is a pedestrian or the like) to recognize that there is a positional relationship that is difficult for the driver to see.

本発明は、上記に鑑みてなされたものであって、障害物の候補となる領域の危険度をより正確に算出することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to more accurately calculate the risk level of a candidate area for an obstacle.

上述した課題を解決し、目的を達成するために、本発明の一態様は、自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出するステレオ画像処理部と、前記視差分布情報から複数の障害物候補領域を生成する障害物候補領域生成部と、複数の前記障害物候補領域の1つである第1の障害物候補領域が前記画像データから認識した危険物にどれだけ遮蔽されているかを表す第1の遮蔽度、および、前記第1の障害物候補領域が予め設定した危険物にどれだけ遮蔽されているかを表す第2の遮蔽度の少なくとも1つから前記第1の障害物候補領域の危険度を算出する危険度算出部と、を備えたこと、を特徴とする。   In order to solve the above-described problems and achieve the object, one aspect of the present invention calculates parallax distribution information around the host vehicle from a plurality of image data obtained by shooting the surrounding environment of the host vehicle from different viewpoints. A stereo image processing unit, an obstacle candidate region generation unit that generates a plurality of obstacle candidate regions from the parallax distribution information, and a first obstacle candidate region that is one of the plurality of obstacle candidate regions is the image. A first shielding degree that represents how much the dangerous object recognized from the data is shielded, and a second shielding that represents how much the first obstacle candidate area is shielded by a predetermined dangerous object A risk level calculation unit that calculates the risk level of the first obstacle candidate area from at least one of the degrees.

本発明によれば、障害物の候補となる領域の危険度をより正確に算出することができる。   According to the present invention, it is possible to more accurately calculate the risk level of an area that is a candidate for an obstacle.

本実施の形態にかかる障害物危険度算出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the obstacle risk degree calculation apparatus concerning this Embodiment. 視差算出におけるブロックマッチングについて説明する図である。It is a figure explaining the block matching in parallax calculation. 立体物領域から障害物候補領域を生成する方法を説明する図である。It is a figure explaining the method of producing | generating an obstacle candidate area | region from a solid object area | region. 車両周辺状況の一例を示す図である。It is a figure which shows an example of a vehicle periphery condition. 図4の車両周辺状況から得られる障害物候補領域集合を示す図である。It is a figure which shows the obstacle candidate area | region set obtained from the vehicle periphery condition of FIG. 運転者遮蔽を説明する図である。It is a figure explaining driver | operator shielding. 運転者遮蔽を説明する他の図である。It is another figure explaining driver | operator shielding. 運転者遮蔽を説明する他の図である。It is another figure explaining driver | operator shielding. 運転者遮蔽度の算出方法を説明する図である。It is a figure explaining the calculation method of driver obstruction degree. 障害物候補領域遮蔽を説明する図である。It is a figure explaining an obstacle candidate area | region shielding. 障害物危険度の算出方法のフローチャートを示す図である。It is a figure which shows the flowchart of the calculation method of an obstacle risk degree.

以下に添付図面を参照して、この発明にかかる障害物危険度算出装置および障害物危険度算出方法の最良な実施の形態を詳細に説明する。本実施の形態では、車両前方に存在する障害物に対する危険度算出について主に説明しているが、車両後方など、車両周囲全般に対して同じ方法で危険度算出が可能であり、車両前方の危険度算出だけに限定するものではない。   Exemplary embodiments of an obstacle risk degree calculating apparatus and an obstacle risk degree calculating method according to the present invention will be explained below in detail with reference to the accompanying drawings. In the present embodiment, the risk level calculation for obstacles existing in front of the vehicle is mainly described. However, the risk level can be calculated by the same method for the entire vehicle periphery such as the rear of the vehicle. It is not limited to risk calculation only.

本実施の形態では、障害物危険度算出装置は走行する車両上に搭載されており、車両前方に存在する障害物の危険度を算出する。算出された障害物の危険度は、車両前方にある危険な障害物の検出に利用される。   In the present embodiment, the obstacle risk level calculation device is mounted on a traveling vehicle and calculates the risk level of an obstacle existing in front of the vehicle. The calculated obstacle danger level is used to detect a dangerous obstacle in front of the vehicle.

そして、後ほど説明する障害物候補領域の位置情報とその危険度をそのまま用いて運転者への警報や車両の危険回避制御を行うことも可能であるし、本実施の形態を障害物検出装置の前処理として、障害物候補領域に対してパターン認識処理を適用することにより、たとえば障害物のうち歩行者だけを検出するといった装置構成も可能である。この場合、算出される危険度の高いものから順に認識処理を行うようにすれば、本当に危険なものはより早い段階で検出できるようになるため、より早く警報を発したり危険回避制御をしたりすることが可能になる。   It is also possible to perform driver warning and vehicle risk avoidance control using the position information and the risk level of the obstacle candidate area described later as they are, and this embodiment can be used as an obstacle detection device. By applying pattern recognition processing to the obstacle candidate area as preprocessing, for example, an apparatus configuration in which only pedestrians among obstacles are detected is possible. In this case, if the recognition process is performed in order from the highest risk level, it will be possible to detect the truly dangerous items at an earlier stage. It becomes possible to do.

また、危険度が高いものから順に処理していき、あらかじめ指定した数だけ障害物候補領域を認識処理したら処理を打ち切るようにすれば、状況により障害物候補領域の数が増大して認識処理に要する計算量が膨大になるというような事態を防止して計算量を一定に保つことが可能になる。なお、本実施形態における危険度算出は障害物候補領域位置情報から算出可能なものであり、画像中の画素を対象として計算を行う認識処理と比較すると計算量はずっと小さいとみなしてよい。   In addition, if the processing is terminated when the obstacle candidate areas are recognized and processed in descending order of the risk level, the number of obstacle candidate areas increases depending on the situation, and the recognition process is performed. It is possible to keep a calculation amount constant by preventing a situation where the calculation amount required is enormous. The risk level calculation in this embodiment can be calculated from the obstacle candidate area position information, and the calculation amount may be considered to be much smaller than the recognition process in which the calculation is performed on the pixels in the image.

図1は、本実施の形態にかかる障害物危険度算出装置の構成を示すブロック図である。障害物危険度算出装置は、ステレオ画像処理部1、障害物候補領域生成部2、頭部位置検出部3、運転者遮蔽度算出部4、障害物候補領域遮蔽度算出部5、および、危険度算出部6を備えて構成されている。   FIG. 1 is a block diagram showing the configuration of the obstacle risk degree calculation apparatus according to the present embodiment. The obstacle risk degree calculation device includes a stereo image processing unit 1, an obstacle candidate region generation unit 2, a head position detection unit 3, a driver shielding degree calculation unit 4, an obstacle candidate region shielding degree calculation unit 5, and a danger. The degree calculation unit 6 is provided.

ステレオ画像処理部1は、複数のステレオカメラからなるステレオ画像取得装置(図示せず)が自車両の周囲環境を撮影して得られる画像データ(ステレオ画像対)から、撮影範囲内の視差分布情報(三次元位置情報)を算出する。   The stereo image processing unit 1 includes parallax distribution information within a shooting range from image data (stereo image pair) obtained by shooting a surrounding environment of the host vehicle by a stereo image acquisition device (not shown) including a plurality of stereo cameras. (Three-dimensional position information) is calculated.

ここで、視差とは、一方の画像における点aに対応する点がもう一方の画像で点bに映っている場合、二つの点の距離によって算出され、この距離の差が視差値となる。一般に、視差が小さいほど実世界中では遠くにあり、視差が大きくなるとカメラの近くに存在することになる。視差は画像中の任意の領域に対して算出できる。よって、視差分布情報とは、視差の二次元配列であり、視差が画像内でどのように変化するかを表したものである。   Here, when the point corresponding to the point a in one image is reflected in the point b in the other image, the parallax is calculated by the distance between the two points, and the difference between the distances becomes the parallax value. In general, the smaller the parallax, the farther away in the real world, and the larger the parallax, the closer to the camera. The parallax can be calculated for any region in the image. Therefore, the parallax distribution information is a two-dimensional array of parallax and represents how the parallax changes in the image.

そして、ステレオカメラ間の相対位置関係を表すカメラの外部パラメータ、および、焦点距離やレンズひずみなどのカメラの内部パラメータを取得していれば、視差値から対象領域の三次元位置情報(奥行き距離情報)を容易に算出できる。したがって、視差分布情報を求めるということは、撮影範囲(車両周囲)内の三次元位置情報(奥行き距離情報)を求めていると考えても良いため、ステレオ画像処理部1は、撮影範囲(車両周囲)内の三次元位置情報(奥行き距離情報)を算出するともいえる。   If the camera external parameters indicating the relative positional relationship between the stereo cameras and the camera internal parameters such as focal length and lens distortion are acquired, the three-dimensional position information (depth distance information) of the target area is obtained from the parallax value. ) Can be easily calculated. Therefore, since obtaining the parallax distribution information may be considered as obtaining three-dimensional position information (depth distance information) within the imaging range (around the vehicle), the stereo image processing unit 1 determines that the imaging range (vehicle It can be said that the three-dimensional position information (depth distance information) in the surroundings is calculated.

なお、カメラの外部パラメータおよび内部パラメータの算出方法については、コンピュータビジョン、ロボットビジョンの分野で従来から盛んに研究されており、ステレオ画像処理にとって十分な精度を持ったパラメータ算出法が知られているため、詳細についての説明は省略する。ここでは、最も簡単な場合である、ステレオ画像取得装置がステレオカメラ2台を有する場合の視差推定手順について説明する。   In addition, camera external parameters and internal parameter calculation methods have been studied extensively in the field of computer vision and robot vision, and parameter calculation methods with sufficient accuracy for stereo image processing are known. Therefore, the detailed description is omitted. Here, the parallax estimation procedure in the case where the stereo image acquisition apparatus has two stereo cameras, which is the simplest case, will be described.

図2は、視差算出におけるブロックマッチングについて説明する図である。まず前提として、2台のステレオカメラは、車両前方向きに平行に設置されているものとする。特に平行に並んでいなくても視差分布情報を求めることは可能であるが、このような平行カメラの場合、左右画像で対応点の垂直座標が一致するため問題がより簡単になる。視差を求めるには、一方の画像のある画素に対応する点をもう一方の画像から見つける必要があるが、この場合、対応点の垂直座標は元の画素と同じであることが分かっているので、水平座標だけを変化させながら探索を行えばよいことになる。   FIG. 2 is a diagram illustrating block matching in parallax calculation. First, as a premise, it is assumed that the two stereo cameras are installed in parallel to the front side of the vehicle. In particular, it is possible to obtain parallax distribution information even if they are not arranged in parallel, but in the case of such a parallel camera, the vertical coordinates of corresponding points match in the left and right images, and the problem becomes simpler. In order to obtain the parallax, it is necessary to find a point corresponding to a pixel in one image from the other image. In this case, it is known that the vertical coordinate of the corresponding point is the same as the original pixel. The search may be performed while changing only the horizontal coordinate.

図2に示すように、対応点の探索は、左側の画像11における注目画素12の周辺部分画像13を切り出し、右側の画像14において同じサイズの部分画像15を切り出して類似度を評価することで実現する。類似度は、(1)式で表される正規化相互相関で評価することができ、この値が大きい(1に近い)ほど類似度が高い。   As shown in FIG. 2, the search for corresponding points is performed by cutting out the peripheral partial image 13 of the pixel of interest 12 in the left image 11 and cutting out the partial image 15 of the same size in the right image 14 to evaluate the similarity. Realize. The degree of similarity can be evaluated by the normalized cross-correlation expressed by the expression (1). The larger the value (closer to 1), the higher the degree of similarity.

Figure 2010231400
Figure 2010231400

(1)式において、L(i,j)は周辺部分画像13の画素値、Lは周辺部分画像13の平均画素値、R(i,j)は部分画像15の画素値、Rは部分画像15の平均画素値を表す。Σは部分画像内で値を合計することを表す。この類似度計算を部分画像15の範囲を移動させながら行い、類似度が最も高くなる点を探索する。対応点が見つかったら今度は部分画像15を固定して左側の画像11に対してマッチングを行い、注目画素12周辺で類似度が最大になればマッチングが成功したとみなして、部分画像13と部分画像15の水平座標の差を注目画素12の視差値とする。   In equation (1), L (i, j) is the pixel value of the peripheral partial image 13, L is the average pixel value of the peripheral partial image 13, R (i, j) is the pixel value of the partial image 15, and R is the partial image. 15 average pixel values are represented. Σ represents summing the values in the partial image. This similarity calculation is performed while moving the range of the partial image 15 to search for a point having the highest similarity. If a corresponding point is found, the partial image 15 is fixed and matching is performed on the left image 11. If the similarity is maximized around the target pixel 12, the matching is considered successful, and the partial image 13 and the partial image 13 are matched. The difference between the horizontal coordinates of the image 15 is set as the parallax value of the target pixel 12.

以上の処理を画像全体に渡って繰り返すことで視差分布情報が得られる。視差分布から奥行き距離を得るにはもう1つ処理が必要である。平行に設置された2台のカメラの場合、視差値dに対する奥行き距離Zは(2)式で求められる。   The disparity distribution information is obtained by repeating the above processing over the entire image. Another process is required to obtain the depth distance from the parallax distribution. In the case of two cameras installed in parallel, the depth distance Z with respect to the parallax value d can be obtained by equation (2).

Figure 2010231400
Figure 2010231400

(2)式において、fはカメラの焦点距離、Bはステレオカメラ間のベースライン距離である。これらの値はカメラキャリブレーションを行うことで求めることができる。これを画像全体に渡って繰り返せば奥行き距離情報が得られる。   In equation (2), f is the focal length of the camera, and B is the baseline distance between the stereo cameras. These values can be obtained by performing camera calibration. If this is repeated over the entire image, depth distance information can be obtained.

障害物候補領域生成部2は、視差分布情報から、道路から垂直に立った立体物を抽出し(立体物抽出処理)、さらに、抽出した立体物から障害物検出の単位である障害物候補領域を複数切り出す(障害物候補領域生成処理)。   The obstacle candidate area generation unit 2 extracts a three-dimensional object standing vertically from the road from the parallax distribution information (three-dimensional object extraction process), and further, an obstacle candidate area that is a unit for obstacle detection from the extracted three-dimensional object Are cut out (obstacle candidate region generation process).

立体物抽出処理では、最初に、視差分布情報における各視差分布データを、u(水平座標)−d(視差)空間に投票(集計)する。すなわち、ある水平座標u1、視差d1を持ったデータの個数を算出し、その分布を取得する。既に述べたように、入力画像を撮影するカメラはほぼ水平を保って設置されているため、道路面に対して垂直に立った領域内は視差値dがほぼ一定になる。そのため、u−d空間で投票数(集計数)の多い箇所は地面に対し垂直に立った立体物領域であるとみなせる。そこで、投票結果(集計結果)に基づいてu−d空間を閾値処理で2値化することで、立体物−非立体物(道路面もしくは空)に分けることができる。閾値の決定の仕方には、u−d空間全体に対して一定の値Tudを用いることもできるし、または、ステレオカメラの場合、視差が大きい、つまり近くにある物体ほど大きく映る傾向にあるため、視差dに比例するように、(3)式の様に、dの関数により閾値を決定してもよい。 In the three-dimensional object extraction process, first, each parallax distribution data in the parallax distribution information is voted (aggregated) in u (horizontal coordinate) -d (parallax) space. That is, the number of data having a certain horizontal coordinate u1 and parallax d1 is calculated, and the distribution is obtained. As described above, since the camera that captures the input image is installed so as to be substantially horizontal, the parallax value d is substantially constant in an area standing perpendicular to the road surface. Therefore, it can be considered that a part with a large number of votes (total number) in the ud space is a three-dimensional object region standing perpendicular to the ground. Therefore, by binarizing the ud space by threshold processing based on the voting results (aggregation results), it is possible to divide into three-dimensional objects-non-three-dimensional objects (road surface or sky). As a method of determining the threshold value, a constant value T ud can be used for the entire ud space, or, in the case of a stereo camera, there is a tendency that a parallax is larger, that is, an object closer to it is projected larger. For this reason, the threshold value may be determined by a function of d as shown in Equation (3) so as to be proportional to the parallax d.

Figure 2010231400
Figure 2010231400

(3)式において、α、tはあらかじめ決めた定数である。ステレオカメラの場合は視差dに応じて閾値を決定するほうが、誤った視差などのノイズに対して頑健になる。 In the formula (3), α and t 0 are predetermined constants. In the case of a stereo camera, determining the threshold value according to the parallax d is more robust against noise such as erroneous parallax.

この立体物−非立体物判定の結果に基づいて、元の三次元位置情報のうち立体物に対応する箇所のみを残す処理を行う。処理の手順は、視差分布データを1つ読み、1つのデータにつきu(水平座標)、v(垂直座標)、d(視差)のデータが得られるため、二値化されたu−d空間から座標(u,d)のデータを読む。読んだデータが立体物であれば視差情報を残し、非立体物であれば視差情報を無効にする。以上を視差分布全体に繰り返すことで立体物領域だけの視差分布が得られることになる。   Based on the result of the three-dimensional object-non-three-dimensional object determination, processing is performed to leave only a portion corresponding to the three-dimensional object in the original three-dimensional position information. The processing procedure is to read one piece of parallax distribution data and obtain u (horizontal coordinate), v (vertical coordinate), and d (parallax) data for each piece of data. Read the coordinate (u, d) data. If the read data is a three-dimensional object, the parallax information is left, and if the read data is a non-three-dimensional object, the parallax information is invalidated. By repeating the above for the entire parallax distribution, the parallax distribution of only the three-dimensional object region can be obtained.

障害物候補領域生成処理では、得られた立体物領域を障害物検出の単位である障害物候補領域の集合に切り分ける。障害物のうち歩行者を抽出するといった処理の場合、立体物領域全体と歩行者モデルとを直接比較するのは困難であるため、立体物領域から歩行者に対応するサイズを切り出した部分領域を生成し、これを照合処理に用いる。この部分領域が障害物候補領域である。この障害物候補領域は以後、遮蔽度および危険度の算出の最小単位としても利用される。   In the obstacle candidate area generation process, the obtained three-dimensional object area is divided into a set of obstacle candidate areas which are units of obstacle detection. In the case of processing such as extracting pedestrians from obstacles, it is difficult to directly compare the entire three-dimensional object region and the pedestrian model, so a partial region obtained by cutting out the size corresponding to the pedestrian from the three-dimensional object region Generated and used for the collation process. This partial area is an obstacle candidate area. This obstacle candidate area is used as a minimum unit for calculating the shielding degree and the risk degree.

図3は、立体物領域から障害物候補領域を生成する方法を説明する図である。道路面16は自車両の周囲環境中の道路面である。道路面16の任意の地点に矩形の仮想障害物17が立っていると仮定する。この仮想障害物17はカメラの画像面18に投影され、画像中の矩形領域19となる。カメラパラメータをあらかじめ求めておけば、仮想障害物17の三次元座標とサイズとから矩形領域19の位置・サイズは算出可能である。仮想障害物17のサイズは、検出したい障害物の最小サイズに合わせて事前に設定しておくものである。例えば、歩行者サイズの障害物まで検出しようとすると、仮想障害物のサイズは幅800mm、高さ1600mm程度を指定しておく。なお、このサイズは大人の場合で、子供の場合は、小さくなる。   FIG. 3 is a diagram illustrating a method for generating an obstacle candidate region from a three-dimensional object region. The road surface 16 is a road surface in the surrounding environment of the host vehicle. It is assumed that a rectangular virtual obstacle 17 is standing at an arbitrary point on the road surface 16. This virtual obstacle 17 is projected on the image plane 18 of the camera, and becomes a rectangular area 19 in the image. If the camera parameters are obtained in advance, the position / size of the rectangular area 19 can be calculated from the three-dimensional coordinates and size of the virtual obstacle 17. The size of the virtual obstacle 17 is set in advance according to the minimum size of the obstacle to be detected. For example, when trying to detect an obstacle of a pedestrian size, the size of the virtual obstacle is specified to be about 800 mm in width and about 1600 mm in height. This size is for adults and smaller for children.

このように、投影計算によって仮想障害物17の画像への投影像の位置・サイズを算出できるが、仮想障害物17の位置に立体物が存在するとは限らない。立体物が存在する箇所だけに仮想障害物17を配置していけばよいので、前に求めた視差分布情報を用いて判定を行い、判定を通過した仮想障害物17を障害物候補領域集合に加えていく。   As described above, the position / size of the projected image on the image of the virtual obstacle 17 can be calculated by the projection calculation, but the three-dimensional object does not always exist at the position of the virtual obstacle 17. Since it is only necessary to place the virtual obstacle 17 only at the place where the three-dimensional object exists, the determination is performed using the previously obtained parallax distribution information, and the virtual obstacle 17 that has passed the determination is set as an obstacle candidate region set. I will add.

仮想障害物17が視差分布情報中の立体物領域に対応するかどうかの判定は以下のように行う。まず、画像面18に投影したときの矩形領域19の左上の画像座標(u1,v1)、右下の座標(u2,v2)を算出する。次に(u1,v1)を左上隅、(u2,v2)を右下隅とする矩形の部分領域内の視差分布を評価する。ある画素における視差がdであった場合、その画素におけるスコアを(4)式により求める。   Whether the virtual obstacle 17 corresponds to the three-dimensional object region in the parallax distribution information is determined as follows. First, the upper left image coordinates (u1, v1) and the lower right coordinates (u2, v2) of the rectangular area 19 when projected onto the image plane 18 are calculated. Next, the parallax distribution in a rectangular partial region having (u1, v1) as the upper left corner and (u2, v2) as the lower right corner is evaluated. If the parallax at a certain pixel is d, the score at that pixel is obtained by equation (4).

Figure 2010231400
Figure 2010231400

(4)式において、z(d)は視差dから奥行き距離を算出する関数であり、(2)式に対応する。zは仮想障害物17の奥行き座標値である。σはz(d)とzのずれをどこまで許容するかを決定するパラメータであり、事前に設定しておく。(4)式のスコアを部分領域内の画素のうち、立体物領域に対応するものに対して計算し、すべての和をとる。最後に部分領域の面積で割ることでこの仮想障害物のスコアとするが、このスコアが大きいほど、仮想障害物17の位置に立体物が存在することが視差分布情報により確認されていることになる。 In the equation (4), z (d) is a function for calculating the depth distance from the parallax d, and corresponds to the equation (2). z 0 is the depth coordinate value of the virtual obstacle 17. σ is a parameter that determines how far a deviation between z (d) and z 0 is allowed, and is set in advance. The score of equation (4) is calculated for the pixels in the partial area corresponding to the three-dimensional object area, and all the sums are calculated. Finally, the virtual obstacle score is obtained by dividing by the area of the partial area. It is confirmed from the disparity distribution information that the three-dimensional object is present at the position of the virtual obstacle 17 as the score increases. Become.

したがって、仮想障害物17のスコアをあらかじめ決めた閾値と比較し、閾値よりも大きい場合、仮想障害物17の位置に立体物が存在すると判定し、仮想障害物17の位置・サイズ情報を障害物候補領域集合に追加する。スコアが閾値より小さい場合、仮想障害物17の位置に立体物が存在しないと判定し、障害物候補としない。   Therefore, the score of the virtual obstacle 17 is compared with a predetermined threshold value. If the score is larger than the threshold value, it is determined that a three-dimensional object exists at the position of the virtual obstacle 17, and the position / size information of the virtual obstacle 17 is obtained as the obstacle. Add to candidate region set. When the score is smaller than the threshold value, it is determined that there is no solid object at the position of the virtual obstacle 17 and is not regarded as an obstacle candidate.

図4は、車両周辺状況の一例を示す図である。図4では、運転者20が運転する自車両21に、2台のステレオカメラ22および23が車両前方向きに平行に設置されている。そして、自車両21の右前方には歩行者24が存在し、左前方には歩行者25が存在している。さらに、自車両21の左側面から左前方にかけて側壁26が存在している。   FIG. 4 is a diagram illustrating an example of the situation around the vehicle. In FIG. 4, two stereo cameras 22 and 23 are installed in parallel to the front of the vehicle in the host vehicle 21 that the driver 20 drives. And the pedestrian 24 exists in the right front of the own vehicle 21, and the pedestrian 25 exists in the left front. Furthermore, a side wall 26 exists from the left side surface of the host vehicle 21 to the left front side.

そして、このような車両周辺状況に対して、障害物候補領域を生成する。図5は、図4の車両周辺状況から得られる障害物候補領域集合を示す図である。図5のように、歩行者24および25に対応する障害物候補領域群27と、側壁26に相当する障害物候補領域群28からなる障害物候補領域集合を得ることができる。   And an obstacle candidate area | region is produced | generated with respect to such a vehicle periphery condition. FIG. 5 is a diagram showing an obstacle candidate region set obtained from the vehicle surrounding situation of FIG. As shown in FIG. 5, an obstacle candidate area set including an obstacle candidate area group 27 corresponding to the pedestrians 24 and 25 and an obstacle candidate area group 28 corresponding to the side wall 26 can be obtained.

歩行者の標準的なサイズを障害物候補領域のサイズとすると、歩行者24および25に対応する領域が正しく障害物候補領域として抽出されるが、側壁26のように元々大きな立体物も歩行者サイズの多数の障害物候補領域に分割されてしまう。ただし、このような部分は近接した障害物候補領域が連続して現れるのが特徴である。   If the standard size of the pedestrian is the size of the obstacle candidate area, the area corresponding to the pedestrians 24 and 25 is correctly extracted as the obstacle candidate area. It is divided into many obstacle candidate areas of size. However, such a part is characterized in that adjacent obstacle candidate regions appear continuously.

以上のようにして得られる障害物候補領域集合は、要素それぞれが実空間でのサイズと位置情報とを保持している。したがって、障害物候補領域生成部2は、車両周囲の立体物の三次元配置情報を単純化していることに相当する。そして、障害物候補領域生成部2で得られた障害物候補領域集合のそれぞれに対し、二種類の遮蔽度(運転者遮蔽度および障害物候補領域遮蔽度)を算出する。   In the obstacle candidate area set obtained as described above, each element holds the size and position information in the real space. Therefore, the obstacle candidate area generation unit 2 corresponds to simplifying the three-dimensional arrangement information of the three-dimensional object around the vehicle. Then, two types of shielding degrees (driver shielding degree and obstacle candidate area shielding degree) are calculated for each of the obstacle candidate area sets obtained by the obstacle candidate area generation unit 2.

頭部位置検出部3は、運転者20の頭部位置を検出する。頭部位置の検出は、画像処理などにより行われる。   The head position detection unit 3 detects the head position of the driver 20. The head position is detected by image processing or the like.

運転者遮蔽度算出部4は、各障害物候補領域の位置情報および領域サイズを使って運転者の死角領域内に入っているかを判定して運転者遮蔽度を算出する。運転者遮蔽度は、障害物候補領域1つの位置・サイズに対して一意に決まる遮蔽度である。ここで、運転者遮蔽とは、運転者と障害物のうち、運転者にとって障害物を視認しにくいような遮蔽状態のこととする。   The driver shielding degree calculation unit 4 calculates the driver shielding degree by determining whether or not the vehicle is in the driver's blind spot area using the position information and area size of each obstacle candidate area. The driver shielding degree is a shielding degree that is uniquely determined with respect to the position / size of one obstacle candidate region. Here, the driver shielding is a shielding state in which it is difficult for the driver to visually recognize the obstacle among the driver and the obstacle.

図6は、運転者遮蔽を説明する図である。運転者遮蔽の状態とは、図のように、自車両21の右前方にあるピラー29によって死角30が発生し、運転者20の視界が阻害され、運転者20が歩行者24の存在を認識できない状態をいい、このような場合に遮蔽度が高くなるように評価方法を設定する。   FIG. 6 is a diagram illustrating driver shielding. As shown in the figure, the driver shielded state means that a blind spot 30 is generated by a pillar 29 on the right front side of the host vehicle 21, the driver's 20 field of view is obstructed, and the driver 20 recognizes the presence of the pedestrian 24. An evaluation method is set so that the degree of shielding is high in such a case.

図7および図8は、運転者遮蔽を説明する他の図である。図6のような運転席にあるピラー29による遮蔽の他にも、図7のように、運転者20の視野範囲外にあたる領域31も運転者が遮蔽された状態にあるとみなすことができる。さらに、降雨によりワイパーが動作している場合は、図8のように、領域31に加えて、フロントガラスのワイパー動作範囲外やサイドガラス部分にあたる領域32も運転者が遮蔽された状態にあるとみなすことができる。また、そして、各障害物候補領域(図6の場合は歩行者24が存在する領域)が遮蔽されている度合いを運転者遮蔽度として数値で評価する。   7 and 8 are other diagrams for explaining driver shielding. In addition to the shielding by the pillar 29 in the driver's seat as shown in FIG. 6, the region 31 outside the visual field range of the driver 20 can also be regarded as being in a state where the driver is shielded as shown in FIG. Further, when the wiper is operating due to rain, as shown in FIG. 8, in addition to the region 31, it is considered that the driver is also shielded from the windshield wiper operating range and the region 32 corresponding to the side glass portion. be able to. In addition, the degree to which each obstacle candidate area (in the case of FIG. 6, the area where the pedestrian 24 exists) is shielded is evaluated numerically as the driver shielding degree.

運転者遮蔽度は以下のようにして算出する。図9は、運転者遮蔽度の算出方法を説明する図である。ここでは、ピラー29による遮蔽が起こっている場合の運転者遮蔽度を算出する。まず、自車両21の周辺に対し、遮蔽が起こっている領域を表す遮蔽スコアの分布を求める。図9では、遮蔽が起こる部分(死角30)を斜線で表現しているが、この遮蔽部分について0から1の遮蔽スコアを与えておく。もっとも単純なやり方は、遮蔽が起こっていない部分を0、遮蔽されている斜線部分を1に設定することであるが、境界部分に対して中間値を与えるといった設定も可能である。   The driver shielding degree is calculated as follows. FIG. 9 is a diagram for explaining a method of calculating the driver shielding degree. Here, the degree of driver shielding when the shielding by the pillar 29 is occurring is calculated. First, with respect to the periphery of the host vehicle 21, a distribution of a shielding score representing an area where shielding occurs is obtained. In FIG. 9, the portion where the shielding occurs (dead angle 30) is represented by diagonal lines, and a shielding score of 0 to 1 is given to this shielding portion. The simplest way is to set the non-shielded portion to 0 and the shaded shaded portion to 1, but it is also possible to set an intermediate value for the boundary portion.

図9では、運転席のピラー29の影の領域(死角30)に遮蔽が発生することを表現したスコア分布になっているが、さらに、運転者20の視野範囲外にあたる領域31や、フロントガラスのワイパー動作範囲外やサイドガラス部分にあたる領域32などの異なる遮蔽要因を組み合わせたスコア分布を作成することも可能である。この場合、各地点での遮蔽スコアは全ての遮蔽要因に対するスコアのうち最大のものを採用する。   In FIG. 9, the score distribution expresses that shielding is generated in the shadow area (dead angle 30) of the pillar 29 of the driver's seat, but further, the area 31 that falls outside the visual field range of the driver 20 and the windshield. It is also possible to create a score distribution combining different shielding factors such as the region 32 corresponding to the outside of the wiper operation range and the side glass portion. In this case, the maximum score among the scores for all shielding factors is adopted as the shielding score at each point.

運転者遮蔽は運転者20の視界が阻害されることにより発生するものであるから、厳密に言えば運転者20の頭部位置、視線方向により遮蔽スコアは変化する。従って、一回の処理ごとに、頭部位置検出部3が検出した運転者20の頭部位置から遮蔽スコアを更新するようにする。なお、それほど厳密に遮蔽スコアを評価しなくてもよい場合は、あらかじめ平均的な頭部位置、視線方向を想定しておいて遮蔽スコアを固定的に与えるというやり方でもある程度の精度は確保できる。   Since the driver's occlusion is generated when the visibility of the driver 20 is obstructed, strictly speaking, the occlusion score changes depending on the head position and the line-of-sight direction of the driver 20. Therefore, the shielding score is updated from the head position of the driver 20 detected by the head position detection unit 3 for each process. If it is not necessary to evaluate the shielding score so strictly, a certain degree of accuracy can be ensured even by a method in which an average head position and line-of-sight direction are assumed in advance and the shielding score is given fixedly.

こうして得られる遮蔽スコア分布から障害物候補領域の運転者遮蔽度を算出する。具体的には、障害物候補領域の範囲内で遮蔽スコアを合計し、スコアの面積平均を算出することで運転者遮蔽度を算出する。そして、運転者遮蔽度の値は障害物候補領域がどれだけ遮蔽領域に入り込んでいるかを表すことになる。   The driver shielding degree of the obstacle candidate area is calculated from the thus obtained shielding score distribution. Specifically, the shielding scores are calculated by summing the shielding scores within the obstacle candidate area and calculating the average area of the scores. The value of the driver shielding degree represents how much the obstacle candidate area has entered the shielding area.

障害物候補領域遮蔽度算出部5は、障害物候補領域が他の障害物候補領域によってどれだけ遮蔽されて見えにくくなっているかを評価して障害物候補領域遮蔽度を算出する。障害物候補領域遮蔽とは、運転者と障害物候補領域との間に別の障害物候補領域が存在することにより、運転者および障害物候補領域がお互いに相手を視認しにくくなっている状況のことを指す。従って、障害物候補領域遮蔽度は、運転者遮蔽度とは異なり、1つの障害物候補領域と異なる障害物候補領域との相対的位置関係により決まる遮蔽度である。   The obstacle candidate area shielding degree calculation unit 5 calculates the obstacle candidate area shielding degree by evaluating how much the obstacle candidate area is obstructed by other obstacle candidate areas and is difficult to see. Obstacle candidate area shielding means that the driver and the obstacle candidate area are difficult to see each other because the obstacle candidate area exists between the driver and the obstacle candidate area. Refers to that. Therefore, the obstacle candidate area shielding degree is a shielding degree determined by the relative positional relationship between one obstacle candidate area and a different obstacle candidate area, unlike the driver shielding degree.

ここで、障害物候補領域遮蔽について、もう少し詳しく説明する。図10は、障害物候補領域遮蔽を説明する図である。図10のように、歩行者24に相当する障害物候補領域33、歩行者25に相当する障害物候補領域34、および、側壁26に相当する障害物候補領域35および障害物候補領域36を要素に持った障害物候補領域群を考える。それぞれの障害物候補領域は実空間上での領域中心の3次元座標と幅、高さというサイズ情報を属性として持っているため、画像平面内での位置、サイズについても即座に求められるようになっている。このとき、障害物候補領域の1つを障害物候補領域Aとし、別の障害物候補領域の1つを障害物候補領域Bとする。そして、障害物候補領域Aが障害物候補領域Bによって遮蔽されている度合いOB→Aを(5)式で算出する。 Here, the obstacle candidate area shielding will be described in a little more detail. FIG. 10 is a diagram for explaining obstacle candidate area shielding. As shown in FIG. 10, an obstacle candidate area 33 corresponding to the pedestrian 24, an obstacle candidate area 34 corresponding to the pedestrian 25, an obstacle candidate area 35 corresponding to the side wall 26, and an obstacle candidate area 36 are included. Let us consider the obstacle candidate area group that we have. Each obstacle candidate area has 3D coordinates of the area center in real space and size information such as width and height as attributes, so that the position and size in the image plane can be obtained immediately. It has become. At this time, one obstacle candidate area is designated as an obstacle candidate area A, and another obstacle candidate area is designated as an obstacle candidate area B. Then, the degree OB → A where the obstacle candidate area A is blocked by the obstacle candidate area B is calculated by the equation (5).

Figure 2010231400
Figure 2010231400

(5)式において、u、uは候補領域A、Bの画像中での水平座標、Z、Zは実空間での二つの領域の奥行き座標であるとする。ただし、奥行き座標値は自車両から離れていくほど増加するものとする。f、fはそれぞれ水平座標の距離の絶対値、および、奥行き座標の符号付き距離を入力とする関数である。fの例としては(6)式があり、fの例としては、(7)式がある。 In equation (5), u A and u B are horizontal coordinates in the images of the candidate areas A and B, and Z A and Z B are depth coordinates of the two areas in the real space. However, the depth coordinate value increases as the distance from the host vehicle increases. f u and f z are functions having the absolute value of the distance in the horizontal coordinate and the signed distance in the depth coordinate as inputs. An example of f u is equation (6), and an example of f z is equation (7).

Figure 2010231400
Figure 2010231400
Figure 2010231400
Figure 2010231400

(6)式および(7)式において、k、kは遮蔽度の変化度合いを決める定数で、事前に設定しておくパラメータである。wは障害物候補領域生成部2で用いられる障害物の標準の幅を画像平面に投影したときのサイズである。Vは障害物の奥行きの標準サイズであり、事前に設定しておく。 In the equations (6) and (7), k 1 and k 2 are constants that determine the degree of change in the degree of shielding, and are parameters set in advance. w is the size when the standard width of the obstacle used in the obstacle candidate area generation unit 2 is projected onto the image plane. V is a standard size of the depth of the obstacle, and is set in advance.

(6)式は、Δuが0に近い、すなわち障害物候補領域Aと障害物候補領域Bとが画像中で重なっているほど1に近くなり、wを境にして0に向かって減少していく。一方、(7)式は、ΔZが負、つまり障害物候補領域Bが障害物候補領域Aよりも奥にある場合は0であり、障害物候補領域Bが障害物候補領域Aよりも手前に来るほど大きな値をとるようになっている。ただし、それも比例の関係ではなく、Vを境にして急激に増加するようになっている。そのため障害物候補領域Bが手前にある場合でもその差が小さければfの値は小さなままである。 Equation (6) becomes closer to 1 as Δu is close to 0, that is, the obstacle candidate area A and the obstacle candidate area B overlap in the image, and decreases toward 0 with w as a boundary. Go. On the other hand, the equation (7) is zero when ΔZ is negative, that is, the obstacle candidate area B is behind the obstacle candidate area A, and the obstacle candidate area B is in front of the obstacle candidate area A. The larger the value, the greater it will come. However, it is not a proportional relationship, but increases rapidly with V as a boundary. Therefore the value of the difference is smaller if f z even if the obstacle candidate area B in front remains small.

以上のような二つの関数の積を障害物候補領域遮蔽度OB→Aとすることにより、障害物候補領域34を障害物候補領域A、障害物候補領域35を障害物候補領域Bをした場合のように、画像中での距離が近く、かつ奥行きに間隔があいている場合はその値が大きくなる。一方、障害物候補領域35を障害物候補領域A、障害物候補領域36を障害物候補領域Bとした場合は、画像中の距離は同様に近いが奥行きの差が小さいため、fの値が小さくなり、結果としてOB→Aは小さくなるという効果が得られる。一方、障害物候補領域33を障害物候補領域Aとした場合、奥行きに関係なくfの影響によりOB→Aは0に近い小さな値になる。 By setting the product of the above two functions as the obstacle candidate area shielding degree OB → A , the obstacle candidate area 34 is set as the obstacle candidate area A and the obstacle candidate area 35 is set as the obstacle candidate area B. When the distance in the image is close and the depth is spaced as in the case, the value becomes large. On the other hand, obstacles obstacle candidate region 35 candidate region A, the case where the obstacle candidate region 36 and the obstacle candidate region B, the distance in the image is likewise close but the difference in depth small, the value of f z As a result, OB → A becomes smaller. On the other hand, when the obstacle candidate region 33 and the obstacle candidate regions A, O B → A is a small value close to 0 due to the effect of regardless f u in the depth.

(6)式および(7)式は、障害物候補領域遮蔽度の算出方法の一例であり、fについては、wを境界として1から0に減少する関数であれば他の形式であっても問題ない。fについても、負の領域では0、非負の領域ではVを境界として0から1に向かって増加するような関数であれば他の関数であっても良い。 Expressions (6) and (7) are an example of a method for calculating the obstacle candidate area occlusion degree, and f u has another form as long as it is a function that decreases from 1 to 0 with w as a boundary. There is no problem. As for f z , another function may be used as long as it increases from 0 to 1 with 0 as a boundary in a negative region and V in a non-negative region.

以上の計算により、障害物候補領域Aと障害物候補領域Bの組み合わせに対する遮蔽度合いOB→Aを求めることができる。最後に、障害物候補領域遮蔽度算出部5は、障害物候補領域A以外の障害物候補領域を障害物候補領域Bとした上で、それぞれの場合の遮蔽度合いOB→Aを求め、これらの遮蔽度合いOB→Aのうち、最もその値が大きい遮蔽度を、障害物候補領域遮蔽度と決定する。 By the above calculation, the shielding degree OB → A for the combination of the obstacle candidate area A and the obstacle candidate area B can be obtained. Finally, the obstacle candidate area shielding degree calculation unit 5 determines obstacle candidate areas B other than the obstacle candidate area A as obstacle candidate areas B, and obtains the shielding degree OB → A in each case. The shielding degree having the largest value among the shielding degree OB → A is determined as the obstacle candidate area shielding degree.

危険度算出部6は、運転者遮蔽度算出部4で算出した運転者遮蔽度と、障害物候補領域遮蔽度算出部5で算出した障害物候補領域遮蔽度とから危険度を算出する。最終的に、障害物危険度算出装置の出力は、各障害物候補領域の位置・サイズとその危険度の組になる。   The degree-of-risk calculation unit 6 calculates the degree of risk from the driver shielding degree calculated by the driver shielding degree calculation unit 4 and the obstacle candidate area shielding degree calculated by the obstacle candidate region shielding degree calculation unit 5. Finally, the output of the obstacle risk level calculation device is a set of the position / size of each obstacle candidate area and its risk level.

なお、危険度の算出方法としては、二つの遮蔽度(運転者遮蔽度および障害物候補領域遮蔽度)のうち値の大きな方の値を危険度とする方法、または、二つの遮蔽度にそれぞれ異なった係数をかけた後、それらの値を合計した値を危険度とする方法がある。いずれの方法をとるにしても、二つの遮蔽度のうちどちらかが大きければ危険度が高くなるという結果を得られる。それぞれの遮蔽度をどれだけ重視するかの要求に応じて、障害物危険度算出装置の実行前に算出方法を設定すればよい。   In addition, as a calculation method of the risk level, the greater value of the two shielding levels (driver blocking level and obstacle candidate area blocking level) is set as the risk level, or the two shielding levels are respectively There is a method in which a risk value is obtained by multiplying different values and then summing those values. Whichever method is used, the result is that the higher the degree of shielding, the higher the degree of danger. What is necessary is just to set the calculation method before execution of an obstacle risk degree calculation apparatus according to the request | requirement of how much each shielding degree is considered as important.

次に、上述したように構成されている障害物危険度算出装置による障害物危険度の算出方法について説明する。図11は、障害物危険度の算出方法のフローチャートを示す図である。   Next, an obstacle risk level calculation method by the obstacle risk level calculation apparatus configured as described above will be described. FIG. 11 is a diagram illustrating a flowchart of an obstacle risk degree calculation method.

ステレオ画像処理部1は、ステレオ画像取得装置7からの画像データ(ステレオ画像対)から視差分布情報(三次元位置情報)を算出する(ステップS101)。ここでは、後段の障害物候補領域生成部2における処理のため、画像データはほぼ水平方向を向いて設置されたステレオカメラ対を用いて撮影されたものとする。周囲環境の撮影のため車両にカメラを設置する場合、上下に大きく傾ける必要はないため、これは大きな制約とはならない。   The stereo image processing unit 1 calculates parallax distribution information (three-dimensional position information) from the image data (stereo image pair) from the stereo image acquisition device 7 (step S101). Here, it is assumed that the image data is taken using a pair of stereo cameras installed substantially in the horizontal direction for processing in the obstacle candidate area generation unit 2 in the subsequent stage. When a camera is installed in a vehicle for photographing the surrounding environment, it is not necessary to tilt it up and down, so this is not a big limitation.

次に、障害物候補領域生成部2は、視差分布情報から道路面に立っている立体物の領域を抽出する(ステップS102)。車両周囲の環境を考えると、他の車両、歩行者、ガードレール、壁などはすべて道路面に対して垂直に立った物体であるとみなせる。したがってこの処理により、自車両にとって危険な障害物には該当しない道路面および空の領域を視差分布情報から除去することになる。   Next, the obstacle candidate area generation unit 2 extracts a three-dimensional object area standing on the road surface from the parallax distribution information (step S102). Considering the environment around the vehicle, other vehicles, pedestrians, guardrails, walls, etc. can all be regarded as objects standing perpendicular to the road surface. Therefore, by this process, road surfaces and sky areas that do not correspond to obstacles that are dangerous for the host vehicle are removed from the parallax distribution information.

次に、障害物候補領域生成部2は、仮想障害物のサイズに基づいて画像領域内の所定の領域に障害物候補領域を設定し、抽出した立体物領域と照合し(ステップS103)、障害物候補領域が立体物領域に対応しているか否かを判定する(ステップS104)。   Next, the obstacle candidate area generation unit 2 sets an obstacle candidate area in a predetermined area in the image area based on the size of the virtual obstacle, and collates it with the extracted three-dimensional object area (step S103). It is determined whether the object candidate area corresponds to the three-dimensional object area (step S104).

障害物候補領域生成部2は、障害物候補領域が立体物領域に対応していると判定した場合、すなわち、仮想障害物の位置に立体物が存在すると判定した場合(ステップS104:Yes)、当該障害物候補領域(仮想障害物の位置・サイズ情報)を障害物候補領域集合に追加(ステップS105)し、ステップS106へ進む。   When the obstacle candidate area generation unit 2 determines that the obstacle candidate area corresponds to the three-dimensional object area, that is, when it is determined that a three-dimensional object exists at the position of the virtual obstacle (step S104: Yes), The obstacle candidate area (virtual obstacle position / size information) is added to the obstacle candidate area set (step S105), and the process proceeds to step S106.

障害物候補領域生成部2は、障害物候補領域が立体物領域に対応していないと判定した場合、すなわち、仮想障害物の位置に立体物が存在しないと判定した場合(ステップS104:No)、何もせずにそのままステップS106へ進む。   The obstacle candidate area generation unit 2 determines that the obstacle candidate area does not correspond to the three-dimensional object area, that is, determines that there is no three-dimensional object at the position of the virtual obstacle (step S104: No). Without doing anything, the process proceeds to step S106.

ステップS106で、障害物候補領域生成部2は、画像領域内全てに障害物候補領域を設定したか否かを判定する。障害物候補領域生成部2は、画像領域内全てに障害物候補領域を設定していないと判定した場合(ステップS106:No)、ステップS103へ戻り以下のステップを行う。   In step S106, the obstacle candidate area generation unit 2 determines whether or not obstacle candidate areas have been set in the entire image area. If the obstacle candidate area generation unit 2 determines that no obstacle candidate area is set in all the image areas (step S106: No), the obstacle candidate area generation unit 2 returns to step S103 and performs the following steps.

障害物候補領域生成部2は、画像領域内全てに障害物候補領域を設定していると判定した場合(ステップS106:Yes)、ステップS107へ進む。すなわち、ステップS103からステップS105までの処理を、仮想障害物の位置を動かしながら、事前に決めた実空間中の一定領域に対して適用する。そして、ステップS106ですべての判定を終えたかをチェックし、処理が完了したら次へ進む。   If the obstacle candidate area generation unit 2 determines that the obstacle candidate area is set in all the image areas (step S106: Yes), the obstacle candidate area generation unit 2 proceeds to step S107. That is, the processing from step S103 to step S105 is applied to a predetermined region in the real space determined while moving the position of the virtual obstacle. In step S106, it is checked whether all the determinations have been completed.

このように、ステップS103からステップS106を経ることにより、ステップS102で得られた立体物領域は、障害物検出の単位である障害物候補領域の集合に切り分けられる。   In this way, through steps S103 to S106, the three-dimensional object region obtained in step S102 is divided into a set of obstacle candidate regions that are units of obstacle detection.

次に、運転者遮蔽度算出部4は、障害物候補領域の集合から障害物候補領域を1つ選択する(ステップS107)。この時、選択した障害物候補領域を障害物候補領域Aとする。次に、運転者遮蔽度算出部4は、障害物候補領域Aの運転者遮蔽度を算出する(ステップS108)。   Next, the driver shielding degree calculation unit 4 selects one obstacle candidate area from the set of obstacle candidate areas (step S107). At this time, the selected obstacle candidate area is set as an obstacle candidate area A. Next, the driver shielding degree calculation unit 4 calculates the driver shielding degree of the obstacle candidate area A (step S108).

次に、障害物候補領域遮蔽度算出部5は、障害物候補領域の集合から障害物候補領域A以外の障害物候補領域を1つ選択する(ステップS109)。この時、選択した障害物候補領域を障害物候補領域Bとする。   Next, the obstacle candidate area shielding degree calculation unit 5 selects one obstacle candidate area other than the obstacle candidate area A from the set of obstacle candidate areas (step S109). At this time, the selected obstacle candidate area is set as an obstacle candidate area B.

次に、障害物候補領域遮蔽度算出部5は、障害物候補領域Aを障害物、障害物候補領域Bを遮蔽物と仮定して、障害物候補領域Aと障害物候補領域Bの相対的位置関係に基づいて障害物候補領域Aの障害物候補領域遮蔽度を算出する。そして、以前に算出した障害物候補領域Aの障害物候補領域遮蔽度がある場合、これに合算する(ステップS110)。なお、以前に算出した障害物候補領域遮蔽度とは、以前に算出した障害物候補領域遮蔽度のうち、最もその値が大きい遮蔽度をいい、ここでの合算は、今回算出した障害物候補領域遮蔽度と、以前に算出した障害物候補領域遮蔽度とを比べて、その値が大きい方の遮蔽度を、障害物候補領域遮蔽度として決定することをいう。   Next, the obstacle candidate area shielding degree calculation unit 5 assumes that the obstacle candidate area A is an obstacle and the obstacle candidate area B is a shield, and the obstacle candidate area A and the obstacle candidate area B are relative to each other. Based on the positional relationship, the obstacle candidate area shielding degree of the obstacle candidate area A is calculated. Then, if there is an obstacle candidate area shielding degree of the obstacle candidate area A calculated before, it is added to this (step S110). The previously calculated obstacle candidate area occlusion degree refers to the obstruction degree having the largest value among previously calculated obstacle candidate area occlusion degrees, and the total here is the obstacle candidate calculated this time Comparing the area occlusion degree with the previously calculated obstacle candidate area occlusion degree, the higher occlusion degree is determined as the obstacle candidate area occlusion degree.

次に、障害物候補領域遮蔽度算出部5は、障害物候補領域A以外の障害物候補領域を全て障害物候補領域Bとして選択したか否かを判定する(ステップS111)。障害物候補領域遮蔽度算出部5は、障害物候補領域A以外の障害物候補領域を全て障害物候補領域Bとして選択していないと判定した場合(ステップS111:No)、ステップS109へ戻り、別の障害物候補領域を1つ選択し障害物候補領域Bとし、以後のステップを繰り返す。障害物候補領域遮蔽度算出部5は、障害物候補領域A以外の障害物候補領域を全て選択していると判定した場合(ステップS111:Yes)、ステップS112へ進む。   Next, the obstacle candidate area shielding degree calculation unit 5 determines whether all obstacle candidate areas other than the obstacle candidate area A are selected as the obstacle candidate area B (step S111). If the obstacle candidate area shielding degree calculation unit 5 determines that all obstacle candidate areas other than the obstacle candidate area A are not selected as the obstacle candidate area B (step S111: No), the process returns to step S109. Another obstacle candidate area is selected as an obstacle candidate area B, and the subsequent steps are repeated. If the obstacle candidate area shielding degree calculation unit 5 determines that all obstacle candidate areas other than the obstacle candidate area A are selected (step S111: Yes), the process proceeds to step S112.

ステップS112において、危険度算出部6は、ステップS108で算出した障害物候補領域Aの運転者遮蔽度と、ステップS110で算出し合算した障害物候補領域Aの障害物候補領域遮蔽度とから障害物候補領域Aの危険度を算出する。   In step S112, the risk degree calculation unit 6 determines the obstacle from the driver shielding degree of the obstacle candidate area A calculated in step S108 and the obstacle candidate area shielding degree of the obstacle candidate area A calculated in step S110. The risk level of the object candidate area A is calculated.

次に、危険度算出部6は、障害物候補領域の全てを障害物候補領域Aとして選択したか否か、すなわち、障害物候補領域の全てについて危険度を計算したか否かを判定(ステップS113)。危険度算出部6は、障害物候補領域の全てを障害物候補領域Aとして選択していないと判定した場合(ステップS113:No)、ステップS107へ戻り、別の障害物候補領域の1つを障害物候補領域Aとして選択し、以後のステップを繰り返す。危険度算出部6は、障害物候補領域の全てを障害物候補領域Aとして選択していると判定した場合(ステップS113:Yes)、ステップS114へ進む。   Next, the risk level calculation unit 6 determines whether or not all of the obstacle candidate areas have been selected as the obstacle candidate area A, that is, whether or not the risk level has been calculated for all of the obstacle candidate areas (step S113). If it is determined that all of the obstacle candidate areas have not been selected as the obstacle candidate area A (step S113: No), the risk level calculation unit 6 returns to step S107, and selects one of the other obstacle candidate areas. Select as an obstacle candidate area A and repeat the following steps. If it is determined that all of the obstacle candidate areas have been selected as the obstacle candidate area A (step S113: Yes), the risk level calculation unit 6 proceeds to step S114.

ステップS114において、危険度算出部6は、ステップS105で切り分けられた全ての障害物候補領域の情報(仮想障害物の位置・サイズ情報)に、危険度の情報をそれぞれ付加して出力する(ステップS114)。以上のステップを経て、障害物危険度の算出が終了する。   In step S114, the risk level calculation unit 6 adds the risk level information to the information (virtual obstacle position / size information) of all the obstacle candidate areas carved in step S105, and outputs the information (step S114). S114). Through the above steps, the calculation of the obstacle risk is completed.

以上のような障害物候補の危険度算出の仕組みにより、危険度の高い障害物候補領域が存在すれば警告を出す、ブレーキ、操舵装置を制御して危険を回避する、というように危険性が高い物体に応じた対策を実行できるようになる。危険物の検知については連続するフレームで継続して危険度を算出し、危険度が高い障害物が連続して現れる、もしくは自車両に近付いてくる場合に危険回避行動を実行する、といったより複雑な条件判断も可能になる。   With the obstacle candidate risk calculation mechanism as described above, if there is an obstacle candidate area with a high degree of danger, a warning is issued, and the danger is avoided by controlling the brake and steering device to avoid danger. It becomes possible to execute countermeasures according to high objects. For detection of dangerous goods, the risk level is calculated continuously in successive frames, and the risk avoidance action is executed when obstacles with a high risk level appear continuously or approach the host vehicle. It is possible to judge the condition.

さらに、本発明による障害物危険度算出装置の後段に、障害物候補領域に対しそれが歩行者かそうでないかを判定する歩行者識別器、車両か否かを判定する車両識別器などを追加することもできる。一般に識別は比較的計算量が大きな処理であるため、危険度算出装置で算出された危険度を用いることで、危険度の高い順に識別処理を実行し、目的の物体が発見されたら即座に警告を出すことでより早くドライバーに危険を知らせることができるようにしたり、危険度の高い順に決まった数だけ識別処理することで危険なものは優先しつつ計算時間を一定に保ったり、一定の危険度以上のものだけ識別処理したりというように、より危険の高いものだけを優先して処理するといったことにも応用することができる。   Furthermore, a pedestrian classifier that determines whether the obstacle candidate area is a pedestrian or not, a vehicle classifier that determines whether the vehicle is a vehicle, etc. are added to the subsequent stage of the obstacle risk degree calculation device according to the present invention. You can also In general, identification is a process with a relatively large amount of calculation, so by using the risk level calculated by the risk level calculation device, the identification process is executed in descending order of the risk level, and a warning is immediately issued when the target object is found. By giving a warning, the driver can be informed of the danger more quickly, or by identifying and processing a predetermined number in order of the highest degree of danger, giving priority to dangerous things, keeping the calculation time constant, or certain dangers It can also be applied to processing with higher priority given priority, such as identifying and processing only items that are higher than the specified level.

なお、本実施の形態にかかる障害物危険度算出装置は、運転者の頭部位置を検出する頭部位置検出部を備えているが、頭部位置検出部を備えずに外部に設けられた頭部位置検出装置から運転者の頭部位置情報を受け取る様に構成してもよい。   Note that the obstacle risk degree calculation device according to the present embodiment includes a head position detection unit that detects the driver's head position, but is provided outside without including the head position detection unit. You may comprise so that a driver | operator's head position information may be received from a head position detection apparatus.

また、本実施の形態にかかる障害物危険度算出装置の各部は、例えば、コンピュータをハードウェアとして用い、コンピュータにプログラムを実行させることにより実現することが可能である。   Moreover, each part of the obstacle risk calculation apparatus according to the present embodiment can be realized by using a computer as hardware and causing the computer to execute a program.

このように、本実施の形態にかかる障害物危険度算出装置によれば、自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出し、視差分布情報から立体物領域を抽出し、立体物領域から複数の障害物候補領域を生成し、選択した1つの障害物候補領域が他の障害物候補領域にどれだけ遮蔽されているかを表す障害物候補領域遮蔽度、および、選択した1つの障害物候補領域が運転者の死角領域にどれだけ遮蔽されているかを表す運転者遮蔽度の少なくとも1つから、選択した障害物候補領域の危険度を算出することができるので、運転者から見えにくい障害物の危険度を算出することが可能となる。   As described above, according to the obstacle risk degree calculating apparatus according to the present embodiment, the parallax distribution information around the own vehicle is calculated from the plurality of image data obtained by photographing the surrounding environment of the own vehicle from different viewpoints, An obstacle that extracts a three-dimensional object area from the parallax distribution information, generates a plurality of obstacle candidate areas from the three-dimensional object area, and indicates how much the selected one obstacle candidate area is shielded by other obstacle candidate areas The degree of risk of the selected obstacle candidate area from at least one of the degree of occlusion of the object candidate area and the degree of occlusion of the driver representing how much the selected obstacle candidate area is occluded by the driver's blind spot area Therefore, it is possible to calculate the risk of an obstacle that is difficult to see from the driver.

また、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。   The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1 ステレオ画像処理部
2 障害物候補領域生成部
6 危険度算出部
21 自車両
33、34、35、36 障害物候補領域
DESCRIPTION OF SYMBOLS 1 Stereo image processing part 2 Obstacle candidate area | region production | generation part 6 Risk level calculation part 21 Own vehicle 33, 34, 35, 36 Obstacle candidate area | region

Claims (7)

自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出するステレオ画像処理部と、
前記視差分布情報から複数の障害物候補領域を生成する障害物候補領域生成部と、
複数の前記障害物候補領域の1つである第1の障害物候補領域が前記画像データから認識した危険物にどれだけ遮蔽されているかを表す第1の遮蔽度、および、前記第1の障害物候補領域が予め設定した危険物にどれだけ遮蔽されているかを表す第2の遮蔽度の少なくとも1つから前記第1の障害物候補領域の危険度を算出する危険度算出部と、を備えたこと、
を特徴とする障害物危険度算出装置。
A stereo image processing unit that calculates parallax distribution information around the host vehicle from a plurality of image data obtained by photographing the surrounding environment of the host vehicle from different viewpoints;
An obstacle candidate area generation unit that generates a plurality of obstacle candidate areas from the parallax distribution information;
A first degree of occlusion representing how much a first obstacle candidate area, which is one of the plurality of obstacle candidate areas, is covered by a dangerous object recognized from the image data; and the first obstacle A risk level calculation unit that calculates a risk level of the first obstacle candidate area from at least one of a second level of blockage that indicates how much the object candidate area is shielded by a preset dangerous object. Was it,
Obstacle risk calculation device characterized by the above.
前記画像データから認識した前記危険物は、複数の前記障害物候補領域のうち前記第1の障害物候補領域とは異なる第2の障害物候補領域として設定され、
前記第1の障害物候補領域と前記第2の障害物候補領域の位置関係を用いて第1の遮蔽度を算出する第1の遮蔽度算出部をさらに備えたこと、
を特徴とする請求項1に記載の障害物危険度算出装置。
The dangerous object recognized from the image data is set as a second obstacle candidate area different from the first obstacle candidate area among the plurality of obstacle candidate areas,
A first shielding degree calculation unit that calculates a first shielding degree using a positional relationship between the first obstacle candidate area and the second obstacle candidate area;
The obstacle risk calculating apparatus according to claim 1, wherein:
予め設定した前記危険物は、運転者の死角領域範囲として設定され、
前記第1の障害物候補領域と前記死角領域の位置関係を用いて第2の遮蔽度を算出する第2の遮蔽度算出部をさらに備えたこと、
を特徴とする請求項1または2に記載の障害物危険度算出装置。
The dangerous goods set in advance are set as a driver's blind spot area range,
A second shielding degree calculation unit that calculates a second shielding degree using a positional relationship between the first obstacle candidate area and the blind spot area;
The obstacle risk degree calculation device according to claim 1 or 2, characterized in that
前記危険度算出部は、前記第1の遮蔽度と前記第2の遮蔽度のうち、値の大きな方を前記危険度とすること、を特徴とする請求項1から3のいずれか一項に記載の障害物危険度算出装置。   4. The risk level calculation unit according to claim 1, wherein the risk level calculation unit sets a higher value of the first shielding level and the second shielding level as the risk level. 5. Obstacle risk calculation device described. 前記危険度算出部は、前記第1の遮蔽度と前記第2の遮蔽度とに、それぞれ異なった係数をかけた後の値を合計した値を前記危険度とすること、を特徴とする請求項1から3のいずれか一項に記載の障害物危険度算出装置。   The risk level calculation unit sets the risk level to a value obtained by adding values obtained by multiplying the first shielding level and the second shielding level by different coefficients, respectively. The obstacle risk degree calculation device according to any one of Items 1 to 3. 障害物危険度算出方法であって、
ステレオ画像処理部が、自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出するステレオ画像処理ステップと、
障害物候補領域生成部が、前記視差分布情報から複数の障害物候補領域を生成する障害物候補領域生成ステップと、
危険度算出部が、複数の前記障害物候補領域の1つである第1の障害物候補領域が前記画像データから認識した危険物にどれだけ遮蔽されているかを表す第1の遮蔽度、および、前記第1の障害物候補領域が予め設定した危険物にどれだけ遮蔽されているかを表す第2の遮蔽度の少なくとも1つから前記第1の障害物候補領域の危険度を算出する危険度算出ステップと、を含むこと、
を特徴とする障害物危険度算出方法。
An obstacle risk calculation method,
A stereo image processing unit that calculates parallax distribution information around the host vehicle from a plurality of image data obtained by photographing the surrounding environment of the host vehicle from different viewpoints;
An obstacle candidate area generation unit, wherein an obstacle candidate area generation unit generates a plurality of obstacle candidate areas from the parallax distribution information;
A first degree of shielding that represents how much the first obstacle candidate area, which is one of the plurality of obstacle candidate areas, is shielded by the dangerous object recognized from the image data; and A risk level for calculating the risk level of the first obstacle candidate area from at least one of the second level of blockages indicating how much the first obstacle candidate area is shielded by a predetermined dangerous object Including a calculating step,
Obstacle risk calculation method characterized by
コンピュータに、
ステレオ画像処理部が、自車両の周囲環境を異なる視点で撮影して得られる複数の画像データから自車両周囲の視差分布情報を算出するステレオ画像処理ステップと、
障害物候補領域生成部が、前記視差分布情報から複数の障害物候補領域を生成する障害物候補領域生成ステップと、
危険度算出部が、複数の前記障害物候補領域の1つである第1の障害物候補領域が前記画像データから認識した危険物にどれだけ遮蔽されているかを表す第1の遮蔽度、および、前記第1の障害物候補領域が予め設定した危険物にどれだけ遮蔽されているかを表す第2の遮蔽度の少なくとも1つから前記第1の障害物候補領域の危険度を算出する危険度算出ステップと、
を実行させるための障害物危険度算出プログラム。
On the computer,
A stereo image processing unit that calculates parallax distribution information around the host vehicle from a plurality of image data obtained by photographing the surrounding environment of the host vehicle from different viewpoints;
An obstacle candidate area generation unit, wherein an obstacle candidate area generation unit generates a plurality of obstacle candidate areas from the parallax distribution information;
A first degree of shielding that represents how much the first obstacle candidate area, which is one of the plurality of obstacle candidate areas, is shielded by the dangerous object recognized from the image data; and A risk level for calculating the risk level of the first obstacle candidate area from at least one of the second level of blockages indicating how much the first obstacle candidate area is shielded by a predetermined dangerous object A calculation step;
Obstacle risk calculation program to execute.
JP2009076941A 2009-03-26 2009-03-26 Obstacle risk calculation device, method and program Active JP5248388B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009076941A JP5248388B2 (en) 2009-03-26 2009-03-26 Obstacle risk calculation device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009076941A JP5248388B2 (en) 2009-03-26 2009-03-26 Obstacle risk calculation device, method and program

Publications (2)

Publication Number Publication Date
JP2010231400A true JP2010231400A (en) 2010-10-14
JP5248388B2 JP5248388B2 (en) 2013-07-31

Family

ID=43047163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009076941A Active JP5248388B2 (en) 2009-03-26 2009-03-26 Obstacle risk calculation device, method and program

Country Status (1)

Country Link
JP (1) JP5248388B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101452628B1 (en) 2013-04-16 2014-10-23 한양대학교 산학협력단 Method for detecting critical area for pedestrian protection system and apparatus therefor
JP2018173862A (en) * 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 Driving support apparatus and computer program
CN109425861A (en) * 2017-08-25 2019-03-05 丰田自动车株式会社 This truck position confidence level arithmetic unit
JP2020525945A (en) * 2017-06-30 2020-08-27 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method of generating at least one synthetic bird's-eye view image of a motor vehicle and an environmental area of the motor vehicle, camera system and motor vehicle
CN115993830A (en) * 2023-03-21 2023-04-21 佛山隆深机器人有限公司 Path planning method and device based on obstacle avoidance and robot

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003081039A (en) * 2001-09-12 2003-03-19 Toyota Central Res & Dev Lab Inc Environment risk arithmetic unit
JP2004046426A (en) * 2002-07-10 2004-02-12 Honda Motor Co Ltd Warning system for vehicle
JP2006042147A (en) * 2004-07-29 2006-02-09 Honda Motor Co Ltd Cognitive support device for car
JP2007049219A (en) * 2005-08-05 2007-02-22 Denso Corp Vehicle surrounding monitoring device
JP2007527343A (en) * 2004-03-01 2007-09-27 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method and configuration for controlling safety measures in a vehicle
JP2007257338A (en) * 2006-03-23 2007-10-04 Toyota Central Res & Dev Lab Inc Potential risk estimation device
JP2008059178A (en) * 2006-08-30 2008-03-13 Nippon Soken Inc Operation support device and program
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
JP2009070243A (en) * 2007-09-14 2009-04-02 Denso Corp Field of vision support system for vehicle, and information distribution device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003081039A (en) * 2001-09-12 2003-03-19 Toyota Central Res & Dev Lab Inc Environment risk arithmetic unit
JP2004046426A (en) * 2002-07-10 2004-02-12 Honda Motor Co Ltd Warning system for vehicle
JP2007527343A (en) * 2004-03-01 2007-09-27 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method and configuration for controlling safety measures in a vehicle
JP2006042147A (en) * 2004-07-29 2006-02-09 Honda Motor Co Ltd Cognitive support device for car
JP2007049219A (en) * 2005-08-05 2007-02-22 Denso Corp Vehicle surrounding monitoring device
JP2007257338A (en) * 2006-03-23 2007-10-04 Toyota Central Res & Dev Lab Inc Potential risk estimation device
JP2008059178A (en) * 2006-08-30 2008-03-13 Nippon Soken Inc Operation support device and program
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
JP2009070243A (en) * 2007-09-14 2009-04-02 Denso Corp Field of vision support system for vehicle, and information distribution device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101452628B1 (en) 2013-04-16 2014-10-23 한양대학교 산학협력단 Method for detecting critical area for pedestrian protection system and apparatus therefor
JP2018173862A (en) * 2017-03-31 2018-11-08 アイシン・エィ・ダブリュ株式会社 Driving support apparatus and computer program
JP2020525945A (en) * 2017-06-30 2020-08-27 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method of generating at least one synthetic bird's-eye view image of a motor vehicle and an environmental area of the motor vehicle, camera system and motor vehicle
CN109425861A (en) * 2017-08-25 2019-03-05 丰田自动车株式会社 This truck position confidence level arithmetic unit
CN109425861B (en) * 2017-08-25 2023-04-18 丰田自动车株式会社 Device for calculating reliability of vehicle position
CN115993830A (en) * 2023-03-21 2023-04-21 佛山隆深机器人有限公司 Path planning method and device based on obstacle avoidance and robot

Also Published As

Publication number Publication date
JP5248388B2 (en) 2013-07-31

Similar Documents

Publication Publication Date Title
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
JP6013884B2 (en) Object detection apparatus and object detection method
JP6254083B2 (en) In-vehicle ambient environment recognition device
JP5689907B2 (en) Method for improving the detection of a moving object in a vehicle
WO2016129403A1 (en) Object detection device
JP5145585B2 (en) Target detection device
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
KR101714783B1 (en) Apparatus and method for detecting obstacle for on-line electric vehicle based on GPU
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
JPH10283461A (en) Outer-vehicle monitoring device
JP6340850B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP2002352225A (en) Obstacle detector and its method
JP6597792B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
EP2293588A1 (en) Method for using a stereovision camera arrangement
CN107491065B (en) Method and apparatus for detecting side surface of object using ground boundary information of obstacle
JP5248388B2 (en) Obstacle risk calculation device, method and program
KR20210090384A (en) Method and Apparatus for Detecting 3D Object Using Camera and Lidar Sensor
Romdhane et al. A generic obstacle detection method for collision avoidance
JP2015179301A (en) Image processor, image processing method, image processing program, and mobile apparatus control system
JP2005156199A (en) Vehicle detection method and vehicle detector
JP6631691B2 (en) Image processing device, device control system, imaging device, image processing method, and program
US11861914B2 (en) Object recognition method and object recognition device
US11884303B2 (en) Apparatus and method for determining lane change of surrounding objects
JP7409240B2 (en) Obstacle detection device and obstacle detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130410

R151 Written notification of patent or utility model registration

Ref document number: 5248388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3