JP4847303B2 - Obstacle detection method, obstacle detection program, and obstacle detection apparatus - Google Patents

Obstacle detection method, obstacle detection program, and obstacle detection apparatus Download PDF

Info

Publication number
JP4847303B2
JP4847303B2 JP2006325852A JP2006325852A JP4847303B2 JP 4847303 B2 JP4847303 B2 JP 4847303B2 JP 2006325852 A JP2006325852 A JP 2006325852A JP 2006325852 A JP2006325852 A JP 2006325852A JP 4847303 B2 JP4847303 B2 JP 4847303B2
Authority
JP
Japan
Prior art keywords
motion vector
camera
image
obstacle
surface portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006325852A
Other languages
Japanese (ja)
Other versions
JP2008140155A (en
Inventor
宗太郎 金子
隆文 枝並
徹 鶴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006325852A priority Critical patent/JP4847303B2/en
Publication of JP2008140155A publication Critical patent/JP2008140155A/en
Application granted granted Critical
Publication of JP4847303B2 publication Critical patent/JP4847303B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

この発明は、カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出方法、障害物検出プログラムおよび障害物検出装置に関し、特に、単一のカメラを用いた場合であっても環境の変化に対応し、精度よく障害物を検出可能な障害物検出方法、障害物検出プログラムおよび障害物検出装置に関するものである。   The present invention relates to an obstacle detection method, an obstacle detection program, and an obstacle detection device for detecting an obstacle that affects the running of a vehicle from an image photographed by a camera, particularly when a single camera is used. The present invention relates to an obstacle detection method, an obstacle detection program, and an obstacle detection apparatus that can accurately detect an obstacle in response to a change in environment.

近年、交通事故による負傷者の数は増加の傾向にあるため、かかる交通事故を防止すべく様々な技術が考案され実用化されている。このような技術の中には、車載カメラの映像から走路内に侵入してくる障害物(歩行者、走行車両など)を検出して運転者に通知することで、障害物に対する注意を促し、交通事故を防止するという技術がある。   In recent years, since the number of injuries caused by traffic accidents has been increasing, various techniques have been devised and put into practical use in order to prevent such traffic accidents. Among such technologies, by detecting obstacles (pedestrians, traveling vehicles, etc.) entering the runway from the video of the on-board camera and notifying the driver, the attention to the obstacles is urged, There is a technology to prevent traffic accidents.

障害物を検出する技術としては、複数のカメラによって撮影される画像の空間的視差を利用して障害物を検出するステレオカメラ技術が公開されている(例えば、特許文献1参照)。しかし、ステレオカメラ技術を用いて障害物を検出する場合には、複数のカメラを車両に設置する必要があるため、車体設計の自由度の低下あるいはコストが高くなる等の問題があった。   As a technique for detecting an obstacle, a stereo camera technique for detecting an obstacle using spatial parallax of images taken by a plurality of cameras has been disclosed (for example, see Patent Document 1). However, in the case of detecting an obstacle using the stereo camera technology, it is necessary to install a plurality of cameras on the vehicle, which causes problems such as a reduction in the degree of freedom of vehicle body design and an increase in cost.

上述した問題を解決する技術としては、複数のカメラを用いることなく、単一のカメラを用いることよって、障害物を検出するという技術がある(例えば、特許文献2および特許文献3など)。この技術は、単一のカメラを用いて異なる時間における画像間の動きベクトルを算出し、各時間における画像間の動きベクトルの差から障害物を検出する技術である。   As a technique for solving the above-described problem, there is a technique of detecting an obstacle by using a single camera without using a plurality of cameras (for example, Patent Document 2 and Patent Document 3). In this technique, a motion vector between images at different times is calculated using a single camera, and an obstacle is detected from a difference in motion vectors between images at each time.

具体的に、特許文献2に公開されている技術は、各画像から抽出した路面領域内の特徴点が重なるような変換行列を作成して画像を重ね合わせ、うまく重ならない画像領域を障害物として検出している。   Specifically, the technique disclosed in Patent Document 2 creates a transformation matrix in which feature points in the road surface area extracted from each image overlap and superimpose the images, and image areas that do not overlap well as obstacles Detected.

また、特許文献3に公開されている技術は、異なる時間における画像を領域分割して画素の動きベクトルを算出し、またその画像の類似度の変化量を算出する。その上で、動きベクトル量が少なく、かつ、類似度の変化量が大きい領域を障害物として検出している。   The technique disclosed in Patent Document 3 calculates a motion vector of a pixel by dividing an image at different times into regions, and calculates the amount of change in similarity of the image. In addition, an area with a small amount of motion vector and a large amount of change in similarity is detected as an obstacle.

特開2001−41741号公報JP 2001-41741 A 特開2003−44996号公報JP 2003-44996 A 特開2005−100204号公報Japanese Patent Laid-Open No. 2005-100204

しかしながら、上述した従来の技術では、単一のカメラによって画像を撮影し、障害物を検出する場合に、車両の走行による路面テクスチャの変動や、天候による変動(反射、影、水溜り)などの環境変化が大きいため、精度よく障害物を検出することができないという問題があった。   However, in the above-described conventional technique, when an image is taken with a single camera and an obstacle is detected, the road texture changes due to the vehicle traveling, or the weather changes (reflection, shadow, puddle), etc. There is a problem that obstacles cannot be detected with high accuracy due to large environmental changes.

この発明は、上述した従来技術による問題点を解消するためになされたものであり、単一のカメラからの画像に基づき、環境の変化に対しても精度よく障害物を検出することができる障害物検出方法、障害物検出プログラムおよび障害物検出装置を提供することを目的とする。   The present invention has been made to solve the above-described problems caused by the prior art, and based on an image from a single camera, an obstacle capable of detecting an obstacle with high accuracy even with respect to environmental changes. An object is to provide an object detection method, an obstacle detection program, and an obstacle detection apparatus.

上述した課題を解決し、目的を達成するため、本発明は、カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出方法であって、前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶工程と、前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出工程と、前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出工程と、前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出工程と、を含んだことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is an obstacle detection method for detecting an obstacle that affects the running of a vehicle from an image photographed by a camera, at a different time from the camera. An image storage step of acquiring and storing the image in a storage device, a motion vector calculation step of calculating a motion vector in each region of the image based on images at different times stored in the storage device, and the vehicle A virtual motion vector calculation step of generating a virtual motion vector corresponding to each region of the image based on the generated model based on the generated model; An obstacle detection step of detecting an obstacle based on a virtual motion vector.

また、本発明は、上記発明において、前記仮想動きベクトル算出工程は、前記車両の回転角に基づいて前記仮想的な動きベクトルを補正することを特徴とする。   In the invention described above, the virtual motion vector calculation step corrects the virtual motion vector based on a rotation angle of the vehicle.

また、本発明は、上記発明において、前記仮想動きベクトル算出工程は、前記カメラの画像ピッチに基づいて前記画像上の座標を前記モデル上の座標に変換し、前記画像の各領域に対応する仮想的な動きベクトルを算出することを特徴とする。   Further, in the present invention according to the above invention, the virtual motion vector calculation step converts coordinates on the image into coordinates on the model based on an image pitch of the camera, and generates a virtual corresponding to each region of the image. A characteristic motion vector is calculated.

また、本発明は、上記発明において、前記障害物検出工程は、前記画像の各領域に対する前記動きベクトルと前記各領域に対応する前記仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出することを特徴とする。   Further, according to the present invention, in the above invention, the obstacle detection step detects a difference between the motion vector for each area of the image and the virtual motion vector corresponding to each area, and based on the difference. And detecting obstacles.

また、本発明は、カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出プログラムであって、前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶手順と、前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手順と、前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出手順と、前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出手順と、をコンピュータに実行させることを特徴とする。   Further, the present invention is an obstacle detection program for detecting an obstacle that affects the running of a vehicle from an image taken by a camera, and acquires an image at a different time point from the camera and stores it in a storage device. An image storage procedure, a motion vector calculation procedure for calculating a motion vector in each region of the image based on images stored at different times stored in the storage device, and a space in which the vehicle travels from the travel state of the vehicle. A virtual motion vector calculation procedure for generating a virtual motion vector corresponding to each region of the image based on the generated model, and an obstacle based on the motion vector and the virtual motion vector An obstacle detection procedure to be detected is executed by a computer.

また、本発明は、カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出装置であって、前記カメラから異なる時点での画像を取得し、取得した異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手段と、前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出手段と、前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出手段と、を備えたことを特徴とする。   Further, the present invention is an obstacle detection device that detects an obstacle that affects the running of a vehicle from images taken by a camera, acquires images at different times from the camera, and at different times obtained. A motion vector calculating means for calculating a motion vector in each region of the image based on the image of the image, and generating a model of a space in which the vehicle travels from the traveling state of the vehicle, and each of the images based on the generated model A virtual motion vector calculating means for calculating a virtual motion vector corresponding to the area; and an obstacle detecting means for detecting an obstacle based on the motion vector and the virtual motion vector. To do.

本発明によれば、カメラから異なる時点での画像を取得して記憶装置に記憶し、記憶装置に記憶された異なる時点での画像に基づいて各領域における動きベクトルを算出し、車両の走行状態からこの車両の走行する空間のモデルを生成し、生成したモデルに基づいて画像の各領域に対応する仮想的な動きベクトルを算出し、動きベクトルおよび仮想的な動きベクトルに基づいて障害物を検出するので、単一のカメラを用いた場合であっても環境の変化に対応し、精度よく障害物を検出することができる。   According to the present invention, images at different points in time are acquired from the camera, stored in a storage device, motion vectors in each region are calculated based on the images at different points in time stored in the storage device, and the running state of the vehicle A model of the space in which the vehicle travels is generated from the image, virtual motion vectors corresponding to each region of the image are calculated based on the generated model, and obstacles are detected based on the motion vectors and virtual motion vectors Therefore, even when a single camera is used, it is possible to detect obstacles with high accuracy in response to environmental changes.

また、本発明によれば、車両の回転角に基づいて仮想的な動きベクトルを補正するので、より正確に障害物を検出することができる。   Further, according to the present invention, the virtual motion vector is corrected based on the rotation angle of the vehicle, so that the obstacle can be detected more accurately.

また、本発明によれば、カメラの画像ピッチに基づいて画像上の座標をモデル上の座標に変換し、画像の各領域に対応する仮想的な動きベクトルを算出するので、動きベクトルと仮想的な動きベクトルとを正確に比較することができ、障害物検出処理にかかる精度が向上する。   Further, according to the present invention, the coordinates on the image are converted into the coordinates on the model based on the image pitch of the camera, and the virtual motion vector corresponding to each area of the image is calculated. Therefore, the accuracy of the obstacle detection process is improved.

また、本発明によれば、画像の各領域に対する動きベクトルと各領域に対応する仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出するので、簡易的かつ正確に障害物を検出することができる。   According to the present invention, the difference between the motion vector for each region of the image and the virtual motion vector corresponding to each region is detected, and the obstacle is detected based on the difference. Obstacles can be detected.

以下に添付図面を参照して、この発明に係る障害物検出方法、障害物検出プログラムおよび障害物検出装置の好適な実施の形態を詳細に説明する。   Exemplary embodiments of an obstacle detection method, an obstacle detection program, and an obstacle detection device according to the present invention will be described below in detail with reference to the accompanying drawings.

まず、本実施例1にかかる障害物検出装置の概要および特徴について説明する。図1は、本実施例1にかかる障害物検出装置の概要および特徴を説明するための説明図である。同図に示すように、本実施例1にかかる障害物検出装置は、カメラから異なる時点での画像を取得し、取得した各画像に基づいて画像の各領域にかかる動きベクトル(図1の上段右側を参照)を算出すると共に、車両の走行状態から仮想的な動きベクトル(図1の上段左側を参照)を算出する。そして、障害物検出装置は、動きベクトルと仮想的な動きベクトルとを対応させて各領域ごとに比較し、動きベクトルと仮想的な動きベクトルとの差分から障害物(歩行者、走行車両、走路内に進入してくる障害物など)を検出する(図1の下段参照)。   First, the outline and features of the obstacle detection apparatus according to the first embodiment will be described. FIG. 1 is an explanatory diagram for explaining the outline and features of the obstacle detection apparatus according to the first embodiment. As illustrated in FIG. 1, the obstacle detection apparatus according to the first embodiment acquires images at different points in time from the camera, and based on the acquired images, motion vectors (upper row in FIG. 1) for each region of the image. (See the right side) and a virtual motion vector (see the upper left side in FIG. 1) from the running state of the vehicle. Then, the obstacle detection device associates the motion vector with the virtual motion vector and compares them for each region, and from the difference between the motion vector and the virtual motion vector, the obstacle (pedestrian, traveling vehicle, runway) An obstacle entering the inside is detected (see the lower part of FIG. 1).

このように、本実施例1にかかる障害物検出装置は、異なる時点の画像から算出した動きベクトルと、車両の走行状態から算出した仮想的な動きベクトルとを基にして障害物を検出するので、単一のカメラからの画像を利用した場合であっても、環境の変化に対し精度よく障害物を検出することができる。   As described above, the obstacle detection apparatus according to the first embodiment detects an obstacle based on the motion vector calculated from the images at different time points and the virtual motion vector calculated from the running state of the vehicle. Even when an image from a single camera is used, an obstacle can be detected accurately with respect to environmental changes.

つぎに、本実施例1にかかる障害物検出装置の構成について説明する。図2は、本実施例1にかかる障害物検出装置100の構成を示す機能ブロック図である。同図に示すように、この障害物検出装置100は、画像入力部110と、画像記憶部120と、動きベクトル算出部130と、カメラデータ入力部140と、車両データ入力部150と、走行空間モデル生成部160と、モデル差分ベクトル算出部170と、障害物検出部180と、出力部190とを備えて構成される。   Next, the configuration of the obstacle detection apparatus according to the first embodiment will be described. FIG. 2 is a functional block diagram of the configuration of the obstacle detection apparatus 100 according to the first embodiment. As shown in the figure, the obstacle detection apparatus 100 includes an image input unit 110, an image storage unit 120, a motion vector calculation unit 130, a camera data input unit 140, a vehicle data input unit 150, a traveling space. A model generation unit 160, a model difference vector calculation unit 170, an obstacle detection unit 180, and an output unit 190 are provided.

画像入力部110は、車載カメラ(図示略)から一定のフレームレートで画像のデータ(以下、画像データ)を取得し、取得した画像データを順次画像記憶部120に記憶させる処理部である。画像記憶部120は、画像データを記憶する記憶部である。この画像記憶部120は、画像内の時間差分による動きベクトルを作成するために必要なだけの画像データを保存するためのバッファを備える。   The image input unit 110 is a processing unit that acquires image data (hereinafter referred to as image data) from an in-vehicle camera (not shown) at a constant frame rate and sequentially stores the acquired image data in the image storage unit 120. The image storage unit 120 is a storage unit that stores image data. The image storage unit 120 includes a buffer for storing as much image data as necessary to create a motion vector based on a time difference in an image.

動きベクトル算出部130は、画像記憶部120から異なる時点での画像データを取得し(例えば、画像記憶部120に最後に記憶された画像データとこの画像データよりも所定時間前に撮影された画像データとを取得し)、取得した画像データを基にして画像データの各領域における動きベクトルを算出する。この動きベクトルを算出する手法は、従来のどのような手法を用いても構わないが、例えば、特許文献3において開示されている手法などを用いて動きベクトルを算出することができる。動きベクトル算出部130は、算出した動きベクトルのデータをモデル差分ベクトル算出部170に出力する。   The motion vector calculation unit 130 acquires image data at different points in time from the image storage unit 120 (for example, image data stored last in the image storage unit 120 and an image taken a predetermined time before this image data) And a motion vector in each area of the image data is calculated based on the acquired image data. As a method for calculating the motion vector, any conventional method may be used. For example, the motion vector can be calculated using a method disclosed in Patent Document 3. The motion vector calculation unit 130 outputs the calculated motion vector data to the model difference vector calculation unit 170.

カメラデータ入力部140は、車両に設置されたカメラに関する各種データを取得する処理部である。カメラに関する各種データは、カメラから路面までの高さを示すカメラ垂直設置位置、車両の走行する空間を仮定した場合の空間の横幅を示す走行領域幅、カメラ垂直設置位置から空間(車両の走行する空間)の上面までの高さを示す走行領域高さ、カメラからカメラの焦点位置までの距離を示すカメラ焦点距離、カメラの画素ピッチを示すカメラ画素ピッチのデータを含んでいる。カメラに関する各種パラメータは、動的に変更が行われてもよいが、予めユーザが各種パラメータを設定しておいてもよい。カメラデータ入力部140は、カメラに関する各種データを走行空間モデル生成部160に出力する。   The camera data input unit 140 is a processing unit that acquires various data related to a camera installed in the vehicle. Various data related to the camera includes the camera vertical installation position indicating the height from the camera to the road surface, the travel area width indicating the lateral width of the space when the vehicle travels, and the space (vehicle travels from the camera vertical installation position). Data on the traveling area height indicating the height to the upper surface of the (space), the camera focal length indicating the distance from the camera to the focal position of the camera, and the camera pixel pitch indicating the pixel pitch of the camera. Various parameters relating to the camera may be changed dynamically, but the user may set various parameters in advance. The camera data input unit 140 outputs various data related to the camera to the traveling space model generation unit 160.

車両データ入力部150は、車両の走行状態に関する各種データを取得する処理部である。車両の走行状態に関する各種データは、車両の速度を示す車速データ、ステアリングおよび斜面による車両のヨー、ロール、ピッチを示す車両回転角のデータを含んでいる。車速データは車速パルスなどから得ることができ、車両回転角はステアリングセンサあるいはジャイロスコープなどから得ることができる。車両データ入力部150は、車両の走行状態に関する各種データを走行空間モデル生成部160に出力する。   The vehicle data input unit 150 is a processing unit that acquires various data related to the running state of the vehicle. Various types of data relating to the running state of the vehicle include vehicle speed data indicating the speed of the vehicle, and vehicle rotation angle data indicating the yaw, roll, and pitch of the vehicle by steering and a slope. The vehicle speed data can be obtained from a vehicle speed pulse and the vehicle rotation angle can be obtained from a steering sensor or a gyroscope. The vehicle data input unit 150 outputs various data related to the traveling state of the vehicle to the traveling space model generation unit 160.

走行空間モデル生成部160は、カメラに関する各種データおよび車両の走行状態に関する各種データを基にして、仮想的な動きベクトル(以下、仮想動きベクトル)を算出する処理部である。以下において、走行空間モデル生成部160の行う処理を順に説明する。   The traveling space model generation unit 160 is a processing unit that calculates a virtual motion vector (hereinafter referred to as a virtual motion vector) based on various data regarding the camera and various data regarding the traveling state of the vehicle. Hereinafter, processing performed by the traveling space model generation unit 160 will be described in order.

まず、走行空間モデル生成部160は、カメラに関する各種データおよび車両の走行状態に関する各種データを基にして、走行空間モデルを生成する。走行空間モデルとは、仮想的な車両の走行環境であり、車両が時間局所的にこれから走行するであろう空間をカメラの撮影範囲を含むようにして示したモデルである。これから走行するであろうとは、あくまでも車両の舵角(車両回転角)や車速(車速データ)によって予測されるものであり、路上の白線や車線幅に本質的に依存しないものである。したがって、環境の変化に強い走行空間モデルを生成することができる。   First, the traveling space model generation unit 160 generates a traveling space model based on various data regarding the camera and various data regarding the traveling state of the vehicle. The traveling space model is a virtual traveling environment of a vehicle, and is a model in which a space where the vehicle will travel locally in the future is included so as to include the imaging range of the camera. It will be predicted that the vehicle will travel from now on is predicted based on the steering angle (vehicle rotation angle) and vehicle speed (vehicle speed data) of the vehicle, and is essentially independent of the white line on the road and the lane width. Therefore, it is possible to generate a traveling space model that is resistant to environmental changes.

図3は、走行空間モデルの一例を示す図である。図3に示す例では、車載カメラを車両前方中央に配置し、撮影範囲を矩形とした場合の、前方直進時の走行空間モデルを示している。図3に示すhは、カメラ垂直設置位置を示し、Lは、走行領域幅を示し、Hは、走行領域高さを示す。なお、本実施例1では、カメラ垂直設置位置hを負数として説明する。これは、カメラの設置された位置を原点とし、この原点から鉛直上向きを正とするためである。また、走行領域幅L、走行領域高さHは、上述したように、車両の車幅および車高そのものではなく、多少のマージンをもって定義されているものとする。   FIG. 3 is a diagram illustrating an example of a traveling space model. In the example shown in FIG. 3, a traveling space model at the time of straight ahead when an in-vehicle camera is arranged at the front center of the vehicle and the photographing range is rectangular is shown. In FIG. 3, h represents the camera vertical installation position, L represents the travel area width, and H represents the travel area height. In the first embodiment, the camera vertical installation position h is described as a negative number. This is because the position where the camera is installed is the origin, and the upward direction from the origin is positive. Further, as described above, the travel area width L and the travel area height H are not defined by the vehicle width and the vehicle height itself, but are defined with some margins.

図3の右側は、本実施例1にかかる車載カメラから見たと仮定した走行空間モデルを示している。同図に示すように、車載カメラから見た空間モデルは、上面部、下面部、側面部に分類することができる。   The right side of FIG. 3 shows a traveling space model assumed to be viewed from the vehicle-mounted camera according to the first embodiment. As shown in the figure, the space model viewed from the in-vehicle camera can be classified into an upper surface portion, a lower surface portion, and a side surface portion.

続いて、走行空間モデル生成部160は、走行空間モデルを利用して、動きベクトル算出部130によって算出される動きベクトルに対応する仮想動きベクトルを全て算出する。ここでは、説明の便宜上、動きベクトルに対応する画像上の座標を(x,y)として仮想動きベクトルの算出方法を説明する。その他に座標に関する仮想動きベクトルの算出方法は座標が変更されるだけなので説明を省略する。   Subsequently, the travel space model generation unit 160 calculates all virtual motion vectors corresponding to the motion vectors calculated by the motion vector calculation unit 130 using the travel space model. Here, for convenience of explanation, a method for calculating a virtual motion vector will be described with the coordinates on the image corresponding to the motion vector as (x, y). In addition, since the calculation method of the virtual motion vector related to the coordinates is only changed, the description thereof is omitted.

走行空間モデル生成部160は、画像座標系の座標(x,y)を、カメラ設置位置を原点としたモデル空間座標系の座標(u,v)に変換する。図4は、画像座標系の座標(x,y)をモデル空間座標系の座標(u,v)に変換する処理を説明するための説明図である。なお、図4では、画像の中心に消失点があるとした場合の座標変換を示している。   The traveling space model generation unit 160 converts the coordinates (x, y) in the image coordinate system into coordinates (u, v) in the model space coordinate system with the camera installation position as the origin. FIG. 4 is an explanatory diagram for explaining a process of converting coordinates (x, y) in the image coordinate system into coordinates (u, v) in the model space coordinate system. Note that FIG. 4 shows coordinate conversion in the case where the vanishing point is at the center of the image.

画像座標系に示すWidthは、画像の横幅に含まれる画素数(以下、画像横画素数と表記する)を示し、Heightは、画像の縦幅に含まれる画素数(以下、画像縦画素数)を示している。画像座標系の座標(x,y)をモデル空間座標系の座標(u,v)に変換する具体的な式は、

Figure 0004847303
Figure 0004847303
によって表すことができる。なお、式(1)および式(2)に含まれるcは、カメラの画素ピッチを示す。 Width shown in the image coordinate system indicates the number of pixels included in the horizontal width of the image (hereinafter referred to as the number of horizontal pixels of the image), and Height indicates the number of pixels included in the vertical width of the image (hereinafter referred to as the number of vertical pixels of the image). Is shown. A specific formula for converting the coordinates (x, y) of the image coordinate system into the coordinates (u, v) of the model space coordinate system is as follows:
Figure 0004847303
Figure 0004847303
Can be represented by In addition, c contained in Formula (1) and Formula (2) shows the pixel pitch of a camera.

続いて、走行空間モデル生成部160は、走行空間モデルのどの領域(上面部、下面部、側面部;図3参照)にモデル空間座標系の座標(u,v)が含まれるかを判定する(領域判定を行う)。図5は、走行空間モデル生成部160が行う領域判定を説明するための説明図である。   Subsequently, the traveling space model generation unit 160 determines which region (upper surface portion, lower surface portion, side surface portion; see FIG. 3) of the traveling space model includes the coordinates (u, v) of the model space coordinate system. (Area determination is performed). FIG. 5 is an explanatory diagram for explaining region determination performed by the traveling space model generation unit 160.

走行空間モデル生成部160は、モデル空間座標系の座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHの関係に基づいて、座標(u,v)の位置する領域を判定する。具体的に、走行空間モデル生成部160は、座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHの関係の関係が

Figure 0004847303
を満たす場合に、座標(u,v)が下面部に位置すると判定する。 The traveling space model generation unit 160 determines the position of the coordinates (u, v) based on the relationship between the coordinates (u, v) in the model space coordinate system, the camera vertical installation position h, the traveling region width L, and the traveling region height H. The area to be determined is determined. Specifically, the travel space model generation unit 160 has a relationship of coordinates (u, v), camera vertical installation position h, travel region width L, and travel region height H.
Figure 0004847303
When satisfy | filling, it determines with a coordinate (u, v) being located in a lower surface part.

一方、走行空間モデル生成部160は、座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHの関係の関係が

Figure 0004847303
を満たす場合に、座標(u,v)が上面部に位置すると判定する。なお、走行空間モデル生成部160は、座標(u,v)、カメラ垂直設置位置h、走行領域幅L、走行領域高さHが式(1)および式(2)のいずれの式にも該当しない場合には、座標(u,v)が側面部に位置すると判定する。 On the other hand, the travel space model generation unit 160 has a relationship of coordinates (u, v), camera vertical installation position h, travel area width L, and travel area height H.
Figure 0004847303
If the condition is satisfied, it is determined that the coordinates (u, v) are located on the upper surface. In the traveling space model generation unit 160, the coordinates (u, v), the camera vertical installation position h, the traveling region width L, and the traveling region height H correspond to both the expressions (1) and (2). If not, it is determined that the coordinates (u, v) are located on the side surface.

走行空間モデル生成部160は、領域判定による判定結果に基づいて、それぞれの領域に位置する座標(u,v)の仮想動きベクトルを算出する。以下において、座標(u,v)が下面部に位置する場合の仮想動きベクトル、上面部に位置する場合の仮想動きベクトル、側面部に位置する場合の仮想動きベクトルの算出方法について順に説明する。   The traveling space model generation unit 160 calculates a virtual motion vector of coordinates (u, v) located in each region based on the determination result by region determination. Hereinafter, a virtual motion vector when the coordinates (u, v) are located on the lower surface, a virtual motion vector when located on the upper surface, and a calculation method of the virtual motion vector when located on the side will be described in order.

(座標(u,v)が下面部に位置する場合)
座標(u,v)が下面部に位置する場合の仮想動きベクトル(du,dv)の算出方法について説明する。図6は、座標(u,v)が下面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。図6に示すFはカメラの焦点位置を示し、fはカメラから焦点までの焦点距離を示し、zは焦点Fから物体(障害物の候補となる物体)の位置Aまでの進行方向の距離(すなわち、焦点位置Fから位置Bまでの)を示す。
(When coordinates (u, v) are located on the bottom surface)
A method of calculating the virtual motion vector (du, dv) when the coordinates (u, v) are located on the lower surface will be described. FIG. 6 is a diagram for supplementing the calculation method of the virtual motion vector when the coordinates (u, v) are located on the lower surface. 6 indicates the focal position of the camera, f indicates the focal distance from the camera to the focal point, and z indicates the distance in the traveling direction from the focal point F to the position A of the object (object candidate for obstacle) ( That is, it indicates from the focal position F to the position B.

また、Vは車速を示し、dzは微小時間(カメラが画像を撮影するサンプルレートに対応する時間)dtに移動する物体の距離を示す(図6において車両は左から右に移動し、物体は右から左に動くものとする)。また、物体Aがdt時間後に移動する位置をA’とし、位置A’と焦点位置Fと含んだ直線が鉛直方向の軸(v軸)と交わる位置をCとした定義した場合に、vと位置Cとの差をdvとする。   Further, V represents the vehicle speed, dz represents the distance of the object moving in a minute time (time corresponding to the sample rate at which the camera captures an image) dt (in FIG. 6, the vehicle moves from left to right, and the object is Moving from right to left). Further, when the position where the object A moves after dt time is defined as A ′, and the position where the straight line including the position A ′ and the focal position F intersects the vertical axis (v axis) is defined as C, v and The difference from the position C is dv.

図6に示すように、三角形の相似の関係から、

Figure 0004847303
となる関係式(5)を導くことができ、式(5)より、
Figure 0004847303
Figure 0004847303
を導くことができる。 As shown in FIG. 6, from the similarity of triangles,
Figure 0004847303
The following relational expression (5) can be derived. From the expression (5),
Figure 0004847303
Figure 0004847303
Can guide you.

そして、式(6)をzで微分することによって、

Figure 0004847303
を導くことができ、
式(8)から座標(u,v)のv軸成分の仮想動きベクトルdvを
Figure 0004847303
によって表すことができる。 And by differentiating equation (6) by z,
Figure 0004847303
Can lead
From equation (8), the virtual motion vector dv of the v-axis component of coordinates (u, v) is
Figure 0004847303
Can be represented by

一方、座標(u,v)におけるuおよびvの関係式は、

Figure 0004847303
によって表すことができ、式(9)および式(10)から座標(u,v)のu軸成分の仮想動きベクトルduを
Figure 0004847303
によって表すことができる。 On the other hand, the relational expression of u and v in coordinates (u, v) is
Figure 0004847303
The virtual motion vector du of the u-axis component of the coordinates (u, v) from the equations (9) and (10) can be expressed by
Figure 0004847303
Can be represented by

(座標(u,v)が上面部に位置する場合)
続いて、座標(u,v)が上面部に位置する場合の仮想動きベクトル(du,dv)の算出方法について説明する。座標(u,v)が上面部に位置する場合には、上述した式(5)〜式(11)に含まれるカメラ垂直設置位置hを走行領域高さHに変えることによって求めることができる。具体的には、座標(u,v)が上面部に位置する場合の仮想動きベクトルを(du,dv)を

Figure 0004847303
Figure 0004847303
によって表すことができる。 (When coordinates (u, v) are located on the top surface)
Next, a method for calculating the virtual motion vector (du, dv) when the coordinates (u, v) are located on the upper surface will be described. When the coordinates (u, v) are located on the upper surface, it can be obtained by changing the camera vertical installation position h included in the above formulas (5) to (11) to the travel area height H. Specifically, the virtual motion vector when the coordinates (u, v) are located on the upper surface is represented by (du, dv).
Figure 0004847303
Figure 0004847303
Can be represented by

(座標(u,v)が側面部に位置する場合)
続いて、座標(u,v)が側面部に位置する場合の仮想動きベクトル(du,dv)の算出方法について説明する。図7は、座標(u,v)が側面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。図7に示すFはカメラの焦点位置を示し、fはカメラから焦点までの焦点距離を示し、zは焦点Fから物体(障害物の候補となる物体)Dの水平方向成分Eまでの距離を示す。
(When coordinates (u, v) are located on the side surface)
Next, a method for calculating the virtual motion vector (du, dv) when the coordinates (u, v) are located on the side surface will be described. FIG. 7 is a diagram for supplementing the method of calculating the virtual motion vector when the coordinates (u, v) are located on the side surface. 7 indicates the focal position of the camera, f indicates the focal distance from the camera to the focal point, and z indicates the distance from the focal point F to the horizontal component E of the object (object that is a candidate for an obstacle) D. Show.

また、Vは車速を示し、dzは微小時間(カメラが画像を撮影するサンプルレートに対応する時間)dtに移動する物体の距離を示す(図7において車両は左から右に移動し、物体は右から左に動くものとする)。また、物体Dがdt時間後に移動する位置をD’とし、位置D’と焦点位置Fと含んだ直線がu軸と交わる位置をGとした定義した場合に、vと位置Gとの差をdvとすると、座標(u,v)が側面に位置する場合の仮想動きベクトル(du,dv)は、図7に示す関係から

Figure 0004847303
Figure 0004847303
によって表すことができる。 Further, V indicates the vehicle speed, dz indicates the distance of the object moving in a minute time (time corresponding to the sample rate at which the camera captures an image) dt (in FIG. 7, the vehicle moves from left to right, and the object is Moving from right to left). Further, when the position where the object D moves after dt time is defined as D ′, and the position where the straight line including the position D ′ and the focal position F intersects with the u axis is defined as G, the difference between v and the position G is expressed as follows. Assuming dv, the virtual motion vector (du, dv) in the case where the coordinates (u, v) are located on the side surface is as shown in FIG.
Figure 0004847303
Figure 0004847303
Can be represented by

図2の説明に戻ると、走行空間モデル生成部160は、各座標に対応する仮想動きベクトルを算出した後に、座標と仮想動きベクトルとを対応付けたデータをモデル差分ベクトル算出部170に出力する。図8は、走行空間モデル生成部160によって算出される仮想動きベクトルの一例を示す図である。走行空間モデル生成部160で結果として算出される仮想動きベクトルは、定義した走行空間の境界上に静止物体が存在した場合における画像内の動きを意味する。そのため、例えば、車速が上がると、画像間の動き量も大きくなり、仮想動きベクトルの値も大きくなる。また、図8に示すように、車両に近づくにつれて仮想動きベクトルの値が大きくなる。   Returning to the description of FIG. 2, the travel space model generation unit 160 calculates the virtual motion vector corresponding to each coordinate, and then outputs data in which the coordinate and the virtual motion vector are associated to the model difference vector calculation unit 170. . FIG. 8 is a diagram illustrating an example of a virtual motion vector calculated by the traveling space model generation unit 160. The virtual motion vector calculated as a result by the traveling space model generation unit 160 means a motion in the image when a stationary object exists on the boundary of the defined traveling space. Therefore, for example, when the vehicle speed increases, the amount of motion between images increases and the value of the virtual motion vector also increases. Also, as shown in FIG. 8, the value of the virtual motion vector increases as the vehicle approaches.

モデル差分ベクトル算出部170は、動きベクトル算出部130から取得する動きベクトルと走行空間モデル生成部160から取得する仮想動きベクトルとを対応させて各領域ごとに比較し、各領域ごとに動きベクトルと仮想動きベクトルとの差分となる差分ベクトルを算出する処理部である。なお、動きベクトルに対応する領域に複数の座標が含まれ、単一の動きベクトルに複数の仮想動きベクトルが対応している場合には、仮想動きベクトルの平均値を用いて差分ベクトルを算出してもよいし、代表となる仮想動きベクトルを判定して差分ベクトルを算出してもよい。モデル差分ベクトル算出部170は、各領域ごとの差分ベクトルのデータを障害物検出部180に出力する。   The model difference vector calculation unit 170 compares the motion vector acquired from the motion vector calculation unit 130 with the virtual motion vector acquired from the travel space model generation unit 160 for each region, and compares the motion vector for each region. It is a processing unit that calculates a difference vector that is a difference from the virtual motion vector. When a plurality of coordinates are included in the region corresponding to the motion vector and a plurality of virtual motion vectors correspond to a single motion vector, a difference vector is calculated using the average value of the virtual motion vectors. Alternatively, a representative virtual motion vector may be determined to calculate a difference vector. The model difference vector calculation unit 170 outputs the difference vector data for each region to the obstacle detection unit 180.

障害物検出部180は、差分ベクトルのデータを取得し、取得した差分ベクトルのデータを基にして障害物を検出する処理部である。具体的に、障害物検出部180は、各領域の差分ベクトルを基にして検出候補となるベクトルと検出候補とならないベクトルとを判定し、検出候補となるベクトルのベクトル分布によって障害物を検出する。ベクトル分布から障害物を検出する方法は、従来の検出方法を用いればよい。   The obstacle detection unit 180 is a processing unit that acquires difference vector data and detects an obstacle based on the acquired difference vector data. Specifically, the obstacle detection unit 180 determines a vector that is a detection candidate and a vector that is not a detection candidate based on a difference vector of each region, and detects an obstacle based on a vector distribution of the detection candidate vectors. . As a method for detecting an obstacle from the vector distribution, a conventional detection method may be used.

ここで、検出候補とならないベクトルおよび検出候補となるベクトルの判定方法について説明する。障害物検出部180は、動きベクトルと仮想動きベクトルとの差分ベクトルが閾値未満の場合には、かかる差分ベクトルを遠景もしくは微細なノイズと判定し、これを除外する。特に、差分ベクトルが0の場合は、走行空間境界上の静止物となる。   Here, a method for determining a vector that is not a detection candidate and a vector that is a detection candidate will be described. When the difference vector between the motion vector and the virtual motion vector is less than the threshold value, the obstacle detection unit 180 determines that the difference vector is a distant view or fine noise, and excludes this. In particular, when the difference vector is 0, the object is a stationary object on the travel space boundary.

一方、障害物検出部180は、動きベクトルと仮想動きベクトルとの差分ベクトルが閾値以上の場合には、かかる差分ベクトルを検出候補となるベクトルとして判定する。障害物検出部180は、検出した障害物のデータを障害物通知データとして出力部190に出力する。   On the other hand, when the difference vector between the motion vector and the virtual motion vector is greater than or equal to the threshold, the obstacle detection unit 180 determines the difference vector as a detection candidate vector. The obstacle detection unit 180 outputs the detected obstacle data to the output unit 190 as obstacle notification data.

出力部190は、各種情報をモニタ(もしくはディスプレイ、タッチパネル)やスピーカなどに出力する処理部である。出力部190は、例えば、障害物検出部180から障害物通知データを取得した場合に、取得した障害物通知データをディスプレイに表示させる。図9は、ディスプレイに表示される障害物通知データの一例を示す図である。同図に示すように、障害物に対応する領域がマーキングされている。   The output unit 190 is a processing unit that outputs various types of information to a monitor (or display, touch panel), speaker, or the like. For example, when the obstacle notification data is acquired from the obstacle detection unit 180, the output unit 190 displays the acquired obstacle notification data on the display. FIG. 9 is a diagram illustrating an example of obstacle notification data displayed on the display. As shown in the figure, the area corresponding to the obstacle is marked.

つぎに、本実施例1にかかる障害物検出装置100の処理手順について説明する。図10は、本実施例1にかかる障害物検出装置100の処理手順を示すフローチャートである。同図に示すように、画像入力部110が画像データを取得し(ステップS101)、画像データを画像記憶部120に記憶し(ステップS102)、動きベクトル算出部130が異なる時点での画像データを画像記憶部120から取得して各領域ごとに動きベクトルを算出する(ステップS103)。   Next, a processing procedure of the obstacle detection apparatus 100 according to the first embodiment will be described. FIG. 10 is a flowchart of the process procedure of the obstacle detection apparatus 100 according to the first embodiment. As shown in the figure, the image input unit 110 acquires image data (step S101), stores the image data in the image storage unit 120 (step S102), and the motion vector calculation unit 130 stores the image data at different points in time. A motion vector is obtained from the image storage unit 120 and calculated for each region (step S103).

そして、カメラデータ入力部140は、カメラに関する各種データを取得し(ステップS104)、車両データ入力部150が車両の走行状態に関する各種データを取得し(ステップS105)、走行空間モデル生成部160がカメラに関する各種データおよび車両の走行状態に関する各種データを基にして走行空間モデルを生成し(ステップS106)、動きベクトルの領域に対応する座標の仮想動きベクトルを算出する(ステップS107)。   The camera data input unit 140 acquires various data related to the camera (step S104), the vehicle data input unit 150 acquires various data related to the running state of the vehicle (step S105), and the traveling space model generation unit 160 uses the camera. A travel space model is generated based on the various data relating to the above and the various data relating to the running state of the vehicle (step S106), and a virtual motion vector of coordinates corresponding to the motion vector region is calculated (step S107).

続いて、モデル差分ベクトル算出部170は、動きベクトル算出部130から取得する動きベクトルと走行空間モデル生成部160から取得する仮想動きベクトルとを各領域ごとに比較し、各領域ごとに動きベクトルと仮想動きベクトルとの差分となる差分ベクトルを算出し(ステップS108)、障害物検出部180は各領域ごとの差分ベクトルを基にして、障害物を検出し(ステップS109)、障害物のデータを出力部190に出力する(ステップS110)。   Subsequently, the model difference vector calculation unit 170 compares the motion vector acquired from the motion vector calculation unit 130 and the virtual motion vector acquired from the travel space model generation unit 160 for each region, and determines the motion vector for each region. A difference vector that is a difference from the virtual motion vector is calculated (step S108), and the obstacle detection unit 180 detects an obstacle based on the difference vector for each region (step S109), and the obstacle data is obtained. The data is output to the output unit 190 (step S110).

このように、モデル差分ベクトル算出部170が動きベクトルと仮想動きベクトルから差分ベクトルを算出し、障害物検出部180が差分ベクトルに基づいて障害物を検出するので、環境の変化によらず精度よく障害物を検出することができる。   As described above, the model difference vector calculation unit 170 calculates the difference vector from the motion vector and the virtual motion vector, and the obstacle detection unit 180 detects the obstacle based on the difference vector. Obstacles can be detected.

上述してきたように、本実施例1にかかる障害物検出装置100は、画像入力部110が画像データを画像記憶部120に順次記憶させ、動きベクトル算出部130が画像記憶部120に記憶された異なる時点の画像データを基にして動きベクトルを算出する。そして、走行空間モデル生成部160がカメラデータ入力部140および車両データ入力部150から各種データを取得して走行空間モデルを生成し、生成した走行空間モデルから仮想動きベクトルを算出し、モデル差分ベクトル算出部170が動きベクトルおよび仮想動きベクトルから差分ベクトルを算出し、障害物検出部180が差分ベクトルから障害物を検出するので、単一のカメラを用いた場合であっても、環境変化の影響を受けることなく障害物を精度よく検出することができる。また、複数のカメラを利用する必要がないので、コストを削減することができると共に、車両設計の自由度を向上させることができる。   As described above, in the obstacle detection apparatus 100 according to the first embodiment, the image input unit 110 sequentially stores image data in the image storage unit 120, and the motion vector calculation unit 130 is stored in the image storage unit 120. A motion vector is calculated based on image data at different times. Then, the travel space model generation unit 160 acquires various data from the camera data input unit 140 and the vehicle data input unit 150 to generate a travel space model, calculates a virtual motion vector from the generated travel space model, and generates a model difference vector. Since the calculation unit 170 calculates a difference vector from the motion vector and the virtual motion vector, and the obstacle detection unit 180 detects an obstacle from the difference vector, even when a single camera is used, the influence of environmental changes Obstacles can be detected with high accuracy without receiving any damage. Further, since it is not necessary to use a plurality of cameras, the cost can be reduced and the degree of freedom in vehicle design can be improved.

また、障害物検出部180が差分ベクトルの大きさに応じて、障害物を検出する場合に、差分ベクトルの値が閾値未満となる差分ベクトルを取り除くマスク処理を実行するので、不要な演算を省略することができ、障害物検出部180の障害物検出処理にかかる負担を軽減させることができる。   In addition, when the obstacle detection unit 180 detects an obstacle according to the size of the difference vector, mask processing is performed to remove the difference vector whose difference vector value is less than the threshold value, so unnecessary operations are omitted. It is possible to reduce the burden on the obstacle detection process of the obstacle detection unit 180.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例1以外にも、種々の異なる形態にて実施されてもよいものである。そこで、以下では実施例2として本発明に含まれる他の実施例を説明する。   Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the first embodiment described above. Therefore, another embodiment included in the present invention will be described below as a second embodiment.

(1)障害物の検出方法
障害物検出部180が障害物を検出する場合に、あるフレームにおいて障害物が境界外で動き、実際は境界上ではないにも関わらず、境界上の動きベクトルと一致して障害物候補から除外されてしまうような場合もありえるが、これは瞬間的な一致で、継続的に境界部分と一致するような動作をすることはなく、継続的な障害物検出を行えば、適切に障害物を検出することができる。より正確に障害物を検出するための対策として、画像記憶部120に記憶された最新の画像データではなく、過去のある異なる時点での画像フレームを読み出して障害物検出を行っても良い。また、障害物検出部180は、前フレームで検出した障害物に対して物体追跡処理などを併用することによって障害物検出の精度を向上させることができる。さらに、障害物検出部180は、同一の障害物の領域を検出する場合に、差分ベクトルだけではなく、水平・垂直エッジなどの特徴量を併用してもよい。
(1) Obstacle detection method When the obstacle detection unit 180 detects an obstacle, the obstacle moves outside the boundary in a certain frame and is not actually on the boundary. Although it may be excluded from the obstacle candidates, this is an instantaneous match, and it does not continuously move to the boundary part and does not continuously detect obstacles. For example, an obstacle can be detected appropriately. As a measure for detecting the obstacle more accurately, the obstacle detection may be performed by reading out image frames at different past times instead of the latest image data stored in the image storage unit 120. Also, the obstacle detection unit 180 can improve the accuracy of obstacle detection by using an object tracking process or the like in combination with the obstacle detected in the previous frame. Further, the obstacle detection unit 180 may use not only the difference vector but also feature quantities such as horizontal and vertical edges when detecting the same obstacle region.

(2)車両との連携
上記の実施例1では、障害物検出装置100は、障害物を検出した場合に、モニタに障害物の情報を表示する例を示したが、これに限定されるものではなく、車両と連携して各種処理を実行することができる。例えば、障害物検出装置100が車両の前方で障害物を検出した場合には、車速を制御する制御部に減速命令を出力し、車両の安全を確保することができる。また、障害物検出装置100が前方で障害物を検出している時点で、運転者が急ブレーキをかけた場合には、車両を制御する制御部と協働して、障害物を回避するようにハンドル制御を行っても良い。
(2) Cooperation with vehicle In the above-described first embodiment, the obstacle detection device 100 displays the information of the obstacle on the monitor when the obstacle is detected. However, the present invention is not limited to this. Instead, various processes can be executed in cooperation with the vehicle. For example, when the obstacle detection device 100 detects an obstacle in front of the vehicle, a deceleration command can be output to the control unit that controls the vehicle speed, and the safety of the vehicle can be ensured. Further, when the driver suddenly brakes when the obstacle detection device 100 detects an obstacle ahead, the obstacle is avoided in cooperation with the control unit that controls the vehicle. Handle control may be performed.

(3)車両回転角を反映した仮想動きベクトルの算出
上記の実施例1では、車両がまっすぐに走行している場合の仮想動きベクトル算出方法について説明したが、車両回転角に応じて、仮想動きベクトルの値は補正される。ここでは一例として、ヨー車両回転角を反映させた仮想動きベクトルの算出方法について説明する。図11は、仮想動きベクトルの補正方法を補足説明するための説明図である。
(3) Calculation of virtual motion vector reflecting vehicle rotation angle In the first embodiment, the virtual motion vector calculation method when the vehicle is traveling straight has been described. However, depending on the vehicle rotation angle, the virtual motion vector is calculated. The vector value is corrected. Here, as an example, a method of calculating a virtual motion vector that reflects the yaw vehicle rotation angle will be described. FIG. 11 is an explanatory diagram for supplementarily explaining a method for correcting a virtual motion vector.

座標(u,v)は、モデル空間座標系における1座標だが、ヨー車両回転角においてはvに依存せず、常に補正値は0である。すなわち、実施例1で求めた仮想動きベクトルのv成分dvの値そのものとなる。一方、uは、焦点距離fとなる焦点Fと、座標軸との交点において、角θをなしている。   The coordinate (u, v) is one coordinate in the model space coordinate system, but the yaw vehicle rotation angle does not depend on v and the correction value is always 0. That is, it becomes the value of the v component dv of the virtual motion vector obtained in the first embodiment. On the other hand, u forms an angle θ at the intersection of the focal point F, which is the focal length f, and the coordinate axis.

このとき、ヨー車両回転角がdθであった場合、それは単位時間当たりの回転各θyと微小時間dtによって表せるため、補正量duを算出することができる。以下に、補正量duを導く式を示す。

Figure 0004847303
より
Figure 0004847303
ここで
Figure 0004847303
であるため、補正量duは
Figure 0004847303
となる。補正後のu成分の仮想動きベクトルは、実施例1で求めた仮想ベクトルのu成分duに補正量duを加算したものとなる。なお、他の車両回転角(ロール車両回転角、ピッチ車両回転角)も同様に算出することができる。 At this time, if the yaw vehicle rotation angle is dθ, it can be expressed by each rotation θ y per unit time and minute time dt, so that the correction amount du can be calculated. Below, an equation for deriving the correction amount du is shown.
Figure 0004847303
Than
Figure 0004847303
here
Figure 0004847303
Therefore, the correction amount du is
Figure 0004847303
It becomes. The corrected u-component virtual motion vector is obtained by adding the correction amount du to the u-component du of the virtual vector obtained in the first embodiment. Other vehicle rotation angles (roll vehicle rotation angle, pitch vehicle rotation angle) can be calculated in the same manner.

図12は、ヨー車両回転角度による仮想動きベクトルの違いを示す図である。上段は、車両が右回転している場合の仮想動きベクトルを示し、下段は、車両が左回転している場合の仮想動きベクトルを示している。   FIG. 12 is a diagram illustrating the difference in the virtual motion vector depending on the yaw vehicle rotation angle. The upper row shows the virtual motion vector when the vehicle is rotating right, and the lower row shows the virtual motion vector when the vehicle is turning left.

(4)システムの構成など
本実施例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部あるいは一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
(4) System configuration, etc. Among the processes described in the present embodiment, all or part of the processes described as being automatically performed can be performed manually or manually. All or a part of the processing described in the above can be automatically performed by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above-described document and drawings can be arbitrarily changed unless otherwise specified.

また、図示した障害物検出装置100の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部または任意の一部がCPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Each component of the illustrated obstacle detection apparatus 100 is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. Furthermore, each processing function performed by each device may be realized by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic.

図13は、図2に示した障害物検出装置100を構成するコンピュータのハードウェア構成を示す図である。このコンピュータは、ユーザからのデータの入力を受け付ける入力装置30、モニタ31、RAM(Random Access Memory)32、ROM(Read Only Memory)33、各種プログラムを記録した記録媒体からプログラムを読み取る媒体読取装置34、画像を撮影するカメラ35、車両の走行状態を検出する走行状態検出装置(ステアリングセンサ、車速パルス、ジャイロスコープなどに対応)36、CPU(Central Processing Unit)37、および、HDD(Hard Disk Drive)38をバス39で接続して構成される。   FIG. 13 is a diagram illustrating a hardware configuration of a computer constituting the obstacle detection device 100 illustrated in FIG. The computer includes an input device 30 that receives data input from a user, a monitor 31, a RAM (Random Access Memory) 32, a ROM (Read Only Memory) 33, and a medium reading device 34 that reads a program from a recording medium on which various programs are recorded. , A camera 35 that captures an image, a driving state detection device (corresponding to a steering sensor, a vehicle speed pulse, a gyroscope, etc.) 36 that detects the driving state of the vehicle, a CPU (Central Processing Unit) 37, and an HDD (Hard Disk Drive) 38 are connected by a bus 39.

そして、HDD38には、上述した障害物検出装置100の機能と同様の機能を発揮する障害物検出プログラム38bが記憶されている。そして、CPU37が、障害物検出プログラム38bをHDD38から読み出して実行することにより、上述した障害物検出装置100の機能部の機能を実現する障害物検出プロセス37aが起動される。この障害物検出プロセス37aは、図2に示した画像入力部110、動きベクトル算出部130、カメラデータ入力部140、車両データ入力部150、走行空間モデル生成部160、モデル差分ベクトル算出部170、障害物検出部180、出力部190に対応する。   The HDD 38 stores an obstacle detection program 38b that exhibits the same function as that of the obstacle detection device 100 described above. The CPU 37 reads out the obstacle detection program 38b from the HDD 38 and executes it, thereby starting the obstacle detection process 37a that realizes the function of the functional unit of the obstacle detection device 100 described above. The obstacle detection process 37a includes an image input unit 110, a motion vector calculation unit 130, a camera data input unit 140, a vehicle data input unit 150, a traveling space model generation unit 160, a model difference vector calculation unit 170, This corresponds to the obstacle detection unit 180 and the output unit 190.

また、HDD38には、上述した障害物検出装置100において説明した各機能部に利用される各種データ38aが記憶される。CPU37は、各種データ38aをHDD38に記憶するとともに、各種データ38aをHDD38から読み出してRAM32に格納し、RAM32に格納された各種データ32aを利用して障害物検出処理を実行する。   Also, the HDD 38 stores various data 38a used for each functional unit described in the obstacle detection apparatus 100 described above. The CPU 37 stores various data 38 a in the HDD 38, reads the various data 38 a from the HDD 38 and stores it in the RAM 32, and executes obstacle detection processing using the various data 32 a stored in the RAM 32.

ところで、障害物検出プログラム38bは、必ずしも最初からHDD38に記憶させておく必要はない。たとえば、コンピュータに挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータの内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータに接続される「他のコンピュータ(またはサーバ)」などに障害物検出プログラム38bを記憶しておき、コンピュータがこれらから障害物検出プログラム38bを読み出して実行するようにしてもよい。   By the way, the obstacle detection program 38b is not necessarily stored in the HDD 38 from the beginning. For example, a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into a computer, or a hard disk drive (HDD) provided inside or outside the computer. The obstacle detection program 38b is stored in the "fixed physical medium" of the computer, and also in the "other computer (or server)" connected to the computer via the public line, the Internet, LAN, WAN, or the like. The computer may read out and execute the obstacle detection program 38b from these.

(付記1)カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出方法であって、
前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶工程と、
前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出工程と、
前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出工程と、
前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出工程と、
を含んだことを特徴とする障害物検出方法。
(Appendix 1) An obstacle detection method for detecting an obstacle that affects the running of a vehicle from an image photographed by a camera,
An image storage step of acquiring images at different times from the camera and storing them in a storage device;
A motion vector calculation step of calculating a motion vector in each region of the image based on images at different times stored in the storage device;
A virtual motion vector calculating step of generating a model of a space in which the vehicle travels from the traveling state of the vehicle and calculating a virtual motion vector corresponding to each region of the image based on the generated model;
An obstacle detection step of detecting an obstacle based on the motion vector and the virtual motion vector;
The obstacle detection method characterized by including.

(付記2)前記仮想動きベクトル算出工程は、前記車両の回転角に基づいて前記仮想的な動きベクトルを補正することを特徴とする付記1に記載の障害物検出方法。 (Supplementary note 2) The obstacle detection method according to supplementary note 1, wherein the virtual motion vector calculation step corrects the virtual motion vector based on a rotation angle of the vehicle.

(付記3)前記仮想動きベクトル算出工程は、前記カメラの画像ピッチに基づいて前記画像上の座標を前記モデル上の座標に変換し、前記画像の各領域に対応する仮想的な動きベクトルを算出することを特徴とする付記1または2に記載の障害物検出方法。 (Additional remark 3) The said virtual motion vector calculation process converts the coordinate on the said image into the coordinate on the said model based on the image pitch of the said camera, and calculates the virtual motion vector corresponding to each area | region of the said image The obstacle detection method according to appendix 1 or 2, characterized in that:

(付記4)前記障害物検出工程は、前記画像の各領域に対する前記動きベクトルと前記各領域に対応する前記仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出することを特徴とする付記1、2または3に記載の障害物検出方法。 (Supplementary Note 4) The obstacle detection step detects a difference between the motion vector for each region of the image and the virtual motion vector corresponding to each region, and detects an obstacle based on the difference. The obstacle detection method according to appendix 1, 2, or 3, wherein

(付記5)カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出プログラムであって、
前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶手順と、
前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手順と、
前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出手順と、
前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出手順と、
をコンピュータに実行させることを特徴とする障害物検出プログラム。
(Additional remark 5) It is an obstacle detection program which detects the obstacle which affects driving | running | working of a vehicle from the image image | photographed with the camera,
Image storage procedure for acquiring images at different times from the camera and storing them in a storage device;
A motion vector calculation procedure for calculating a motion vector in each region of the image based on images at different times stored in the storage device;
A virtual motion vector calculation procedure for generating a model of a space in which the vehicle travels from the traveling state of the vehicle, and calculating a virtual motion vector corresponding to each region of the image based on the generated model;
An obstacle detection procedure for detecting an obstacle based on the motion vector and the virtual motion vector;
Is executed by a computer.

(付記6)前記仮想動きベクトル算出手順は、前記車両の回転角に基づいて前記仮想的な動きベクトルを補正することを特徴とする付記5に記載の障害物検出プログラム。 (Supplementary note 6) The obstacle detection program according to supplementary note 5, wherein the virtual motion vector calculation procedure corrects the virtual motion vector based on a rotation angle of the vehicle.

(付記7)前記仮想動きベクトル算出手順は、前記カメラの画像ピッチに基づいて前記画像上の座標を前記モデル上の座標に変換し、前記画像の各領域に対応する仮想的な動きベクトルを算出することを特徴とする付記5または6に記載の障害物検出プログラム。 (Additional remark 7) The said virtual motion vector calculation procedure converts the coordinate on the said image into the coordinate on the said model based on the image pitch of the said camera, and calculates the virtual motion vector corresponding to each area | region of the said image The obstacle detection program according to appendix 5 or 6, characterized by:

(付記8)前記障害物検出手順は、前記画像の各領域に対する前記動きベクトルと前記各領域に対応する前記仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出することを特徴とする付記5、6または7に記載の障害物検出プログラム。 (Supplementary note 8) The obstacle detection procedure detects a difference between the motion vector for each area of the image and the virtual motion vector corresponding to each area, and detects an obstacle based on the difference. The obstacle detection program according to appendix 5, 6 or 7, wherein

(付記9)カメラによって撮影された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出装置であって、
前記カメラから異なる時点での画像を取得し、取得した異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手段と、
前記車両の走行状態から当該車両の走行する空間のモデルを生成し、生成したモデルに基づいて前記画像の各領域に対応する仮想的な動きベクトルを算出する仮想動きベクトル算出手段と、
前記動きベクトルおよび前記仮想的な動きベクトルに基づいて障害物を検出する障害物検出手段と、
を備えたことを特徴とする障害物検出装置。
(Additional remark 9) It is an obstacle detection apparatus which detects the obstacle which influences driving | running | working of a vehicle from the image image | photographed with the camera,
Motion vector calculation means for acquiring images at different points in time from the camera, and calculating a motion vector in each region of the image based on the acquired images at different points in time;
A virtual motion vector calculating means for generating a model of a space in which the vehicle travels from the traveling state of the vehicle and calculating a virtual motion vector corresponding to each region of the image based on the generated model;
Obstacle detection means for detecting an obstacle based on the motion vector and the virtual motion vector;
An obstacle detection device comprising:

(付記10)前記仮想動きベクトル算出手段は、前記車両の回転角に基づいて前記仮想的な動きベクトルを補正することを特徴とする付記9に記載の障害物検出装置。 (Supplementary note 10) The obstacle detection apparatus according to supplementary note 9, wherein the virtual motion vector calculation unit corrects the virtual motion vector based on a rotation angle of the vehicle.

(付記11)前記仮想動きベクトル算出手段は、前記カメラの画像ピッチに基づいて前記画像上の座標を前記モデル上の座標に変換し、前記画像の各領域に対応する仮想的な動きベクトルを算出することを特徴とする付記9または10に記載の障害物検出装置。 (Additional remark 11) The said virtual motion vector calculation means converts the coordinate on the said image into the coordinate on the said model based on the image pitch of the said camera, and calculates the virtual motion vector corresponding to each area | region of the said image The obstacle detection device according to appendix 9 or 10, wherein:

(付記12)前記障害物検出手段は、前記画像の各領域に対する前記動きベクトルと前記各領域に対応する前記仮想的な動きベクトルとの差分を検出し、当該差分に基づいて障害物を検出することを特徴とする付記9、10または11に記載の障害物検出装置。 (Additional remark 12) The said obstacle detection means detects the difference between the said motion vector with respect to each area | region of the said image, and the said virtual motion vector corresponding to each said area, and detects an obstruction based on the said difference The obstacle detection device according to appendix 9, 10 or 11, characterized in that.

以上のように、本発明にかかる障害物検出方法、障害物検出プログラムおよび障害物検出装置は、車両の走行に影響を及ぼす障害物を検出する障害物検出システムなどに有用であり、特に、カメラ台数を制限し、車両設計の自由度を向上させると共に、環境変化に対応して正確に障害物を検出する必要がある場合に適している。   As described above, the obstacle detection method, the obstacle detection program, and the obstacle detection apparatus according to the present invention are useful for an obstacle detection system that detects an obstacle that affects the running of a vehicle, and in particular, a camera. This is suitable when the number of vehicles is limited, the degree of freedom in vehicle design is improved, and obstacles need to be detected accurately in response to environmental changes.

本実施例1にかかる障害物検出装置の概要および特徴を説明するための説明図である。BRIEF DESCRIPTION OF THE DRAWINGS It is explanatory drawing for demonstrating the outline | summary and the characteristic of the obstruction detection apparatus concerning the present Example 1. FIG. 本実施例1にかかる障害物検出装置の構成を示す機能ブロック図である。1 is a functional block diagram illustrating a configuration of an obstacle detection apparatus according to a first embodiment. 走行空間モデルの一例を示す図である。It is a figure which shows an example of a driving | running | working space model. 画像座標系の座標(x,y)をモデル空間座標系の座標(u,v)に変換する処理を説明するための説明図である。It is explanatory drawing for demonstrating the process which converts the coordinate (x, y) of an image coordinate system into the coordinate (u, v) of a model space coordinate system. 走行空間モデル生成部が行う領域判定を説明するための説明図である。It is explanatory drawing for demonstrating the area | region determination which a driving | running | working space model production | generation part performs. 座標(u,v)が下面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。It is a figure for supplementing the calculation method of a virtual motion vector in case a coordinate (u, v) is located in a lower surface part. 座標(u,v)が側面部に位置している場合の仮想動きベクトルの算出手法を補足するための図である。It is a figure for supplementing the calculation method of a virtual motion vector in case a coordinate (u, v) is located in a side part. 走行空間モデル生成部によって算出される仮想動きベクトルの一例を示す図である。It is a figure which shows an example of the virtual motion vector calculated by the traveling space model production | generation part. ディスプレイに表示される障害物通知データの一例を示す図である。It is a figure which shows an example of the obstacle notification data displayed on a display. 本実施例1にかかる障害物検出装置の処理手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure of the obstacle detection apparatus according to the first embodiment. 仮想動きベクトルの補正方法を補足説明するための説明図である。It is explanatory drawing for supplementarily demonstrating the correction method of a virtual motion vector. ヨー車両回転角度による仮想動きベクトルの違いを示す図である。It is a figure which shows the difference in the virtual motion vector by a yaw vehicle rotation angle. 図2に示した障害物検出装置を構成するコンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the computer which comprises the obstruction detection apparatus shown in FIG.

符号の説明Explanation of symbols

30 入力装置
31 モニタ
32 RAM
32a,38a 各種データ
33 ROM
34 媒体読取装置
35 カメラ
36 走行状態検出装置
37 CPU
37a 障害物検出プロセス
38 HDD
38b 障害物検出プログラム
39 バス
100 障害物検出装置
110 画像入力部
120 画像記憶部
130 動きベクトル算出部
140 カメラデータ入力部
150 車両データ入力部
160 走行空間モデル生成部
170 モデル差分ベクトル算出部
180 障害物検出部
190 出力部
30 Input device 31 Monitor 32 RAM
32a, 38a Various data 33 ROM
34 Medium Reading Device 35 Camera 36 Running State Detection Device 37 CPU
37a Obstacle detection process 38 HDD
38b Obstacle detection program 39 Bus 100 Obstacle detection device 110 Image input unit 120 Image storage unit 130 Motion vector calculation unit 140 Camera data input unit 150 Vehicle data input unit 160 Traveling space model generation unit 170 Model difference vector calculation unit 180 Obstacle Detection unit 190 Output unit

Claims (4)

カメラによって撮像された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出方法であって、
前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶工程と、
前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出工程と、
車両の進行方向、モデルにおける車両が走行する高さである走行領域高さ、モデルにおける車両が走行する幅である走行領域幅、およびモデルにおけるカメラが設置された位置の高さであるカメラ垂直設置位置に基づいて、当該車両の走行する空間のモデルを生成し、画像座標系の各座標について、画像の横幅または縦幅に含まれる画素数に応じた値と、画像座標系の座標の横方向または縦方向の成分との所定の加減算の結果に、カメラの画素ピッチを乗算することで、空間座標系の座標を算出し、算出した空間座標系の各座標の位置が、モデルの下面部、上面部および側面部のいずれの領域内に位置するかを判定することにより、空間座標系の各座標がモデルの下面部、上面部および側面部のいずれに位置するかを判定し、モデルの上面部、下面部、側面部の領域のいずれかに位置すると判定された空間座標系の各座標について、位置すると判定された上面部、下面部、側面部の領域ごとに、空間座標系の座標に応じた値を焦点距離で除した値に、カメラが画像を撮影するサンプルレートに対応する時間に移動する障害物の移動距離であって焦点距離から障害物までの距離の変化に対応する移動距離を乗じた値を、カメラ垂直設置位置、走行領域高さ、または走行領域幅で除した値を、仮想的な動きベクトルの垂直方向または水平方向の成分とすることで、前記モデルの空間座標系の各領域の仮想的な動きベクトルを算出する仮想動きベクトル算出工程と、
前記動きベクトルと前記仮想的な動きベクトルとの差分ベクトルの大きさが閾値以上となる領域を障害物の領域として検出する障害物検出工程と、
を含んだことを特徴とする障害物検出方法。
An obstacle detection method for detecting an obstacle that affects driving of a vehicle from an image captured by a camera,
An image storage step of acquiring images at different times from the camera and storing them in a storage device;
A motion vector calculation step of calculating a motion vector in each region of the image based on images at different times stored in the storage device;
The vertical direction of the camera , which is the height of the traveling area, which is the height in which the vehicle travels in the model, the traveling area width, in which the vehicle travels in the model , and the height where the camera is installed in the model Based on the position, a model of the space in which the vehicle travels is generated. For each coordinate in the image coordinate system, a value corresponding to the number of pixels included in the horizontal or vertical width of the image and the horizontal direction of the coordinate in the image coordinate system Or, by multiplying the result of the predetermined addition and subtraction with the vertical component by the pixel pitch of the camera, the coordinates of the spatial coordinate system are calculated, and the position of each coordinate of the calculated spatial coordinate system is the lower surface portion of the model, By determining which area of the upper surface portion or the side surface portion is located, it is determined whether each coordinate of the spatial coordinate system is positioned on the lower surface portion, the upper surface portion, or the side surface portion of the model, and the upper surface of the model Part For each coordinate of the spatial coordinate system determined to be located in either the lower surface portion or the side surface region, the upper surface portion, the lower surface portion, and the side surface region determined to be positioned correspond to the coordinates of the spatial coordinate system. The value obtained by dividing the value by the focal length is multiplied by the moving distance of the obstacle moving at the time corresponding to the sample rate at which the camera takes an image and corresponding to the change in the distance from the focal distance to the obstacle. The value obtained by dividing the obtained value by the camera vertical installation position, the travel area height, or the travel area width is used as the vertical or horizontal component of the virtual motion vector, so that each of the spatial coordinate systems of the model A virtual motion vector calculation step of calculating a virtual motion vector of the region;
An obstacle detection step of detecting an area where a difference vector between the motion vector and the virtual motion vector is greater than or equal to a threshold as an obstacle area;
The obstacle detection method characterized by including.
前記仮想動きベクトル算出工程は、焦点距離の2乗と、空間座標系の水平方向の成分の値の2乗との和を、焦点距離で除した値と、単位時間当たりの水平方向の車両の回転角と、カメラが画像を撮影するサンプルレートに対応する時間との積を補正量として算出し、前記仮想的な動きベクトルの水平方向の成分に、該補正量を加えることで、前記仮想的な動きベクトルを補正することを特徴とする請求項1に記載の障害物検出方法。 The virtual motion vector calculation step includes a value obtained by dividing the sum of the square of the focal length and the square of the value of the horizontal component of the spatial coordinate system by the focal length, and the horizontal vehicle per unit time. By calculating the product of the rotation angle and the time corresponding to the sample rate at which the camera captures an image as a correction amount, and adding the correction amount to the horizontal component of the virtual motion vector , the virtual The obstacle detection method according to claim 1, wherein a correct motion vector is corrected. カメラによって撮像された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出プログラムであって、
前記カメラから異なる時点での画像を取得して記憶装置に記憶する画像記憶手順と、
前記記憶装置に記憶された異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手順と、
車両の進行方向、モデルにおける車両が走行する高さである走行領域高さ、モデルにおける車両が走行する幅である走行領域幅、およびモデルにおけるカメラが設置された位置の高さであるカメラ垂直設置位置に基づいて、当該車両の走行する空間のモデルを生成し、画像座標系の各座標について、画像の横幅または縦幅に含まれる画素数に応じた値と、画像座標系の座標の横方向または縦方向の成分との所定の加減算の結果に、カメラの画素ピッチを乗算することで、空間座標系の座標を算出し、算出した空間座標系の各座標の位置が、モデルの下面部、上面部および側面部のいずれの領域内に位置するかを判定することにより、空間座標系の各座標がモデルの下面部、上面部および側面部のいずれに位置するかを判定し、モデルの上面部、下面部、側面部の領域のいずれかに位置すると判定された空間座標系の各座標について、位置すると判定された上面部、下面部、側面部の領域ごとに、空間座標系の座標に応じた値を焦点距離で除した値に、カメラが画像を撮影するサンプルレートに対応する時間に移動する障害物の移動距離であって焦点距離から障害物までの距離の変化に対応する移動距離を乗じた値を、カメラ垂直設置位置、走行領域高さ、または走行領域幅で除した値を、仮想的な動きベクトルの垂直方向または水平方向の成分とすることで、前記モデルの空間座標系の各領域の仮想的な動きベクトルを算出する仮想動きベクトル算出手順と、
前記動きベクトルと前記仮想的な動きベクトルとの差分ベクトルの大きさが閾値以上となる領域を障害物の領域として検出する障害物検出手順と、
をコンピュータに実行させることを特徴とする障害物検出プログラム。
An obstacle detection program for detecting an obstacle that affects driving of a vehicle from an image captured by a camera,
Image storage procedure for acquiring images at different times from the camera and storing them in a storage device;
A motion vector calculation procedure for calculating a motion vector in each region of the image based on images at different times stored in the storage device;
The vertical direction of the camera , which is the height of the traveling area, which is the height in which the vehicle travels in the model, the traveling area width, in which the vehicle travels in the model , and the height where the camera is installed in the model Based on the position, a model of the space in which the vehicle travels is generated. For each coordinate in the image coordinate system, a value corresponding to the number of pixels included in the horizontal or vertical width of the image and the horizontal direction of the coordinate in the image coordinate system Or, by multiplying the result of the predetermined addition and subtraction with the vertical component by the pixel pitch of the camera, the coordinates of the spatial coordinate system are calculated, and the position of each coordinate of the calculated spatial coordinate system is the lower surface portion of the model, By determining which area of the upper surface portion or the side surface portion is located, it is determined whether each coordinate of the spatial coordinate system is positioned on the lower surface portion, the upper surface portion, or the side surface portion of the model, and the upper surface of the model Part For each coordinate of the spatial coordinate system determined to be located in either the lower surface portion or the side surface region, the upper surface portion, the lower surface portion, and the side surface region determined to be positioned correspond to the coordinates of the spatial coordinate system. The value obtained by dividing the value by the focal length is multiplied by the moving distance of the obstacle moving at the time corresponding to the sample rate at which the camera takes an image and corresponding to the change in the distance from the focal distance to the obstacle. The value obtained by dividing the obtained value by the camera vertical installation position, the travel area height, or the travel area width is used as the vertical or horizontal component of the virtual motion vector, so that each of the spatial coordinate systems of the model A virtual motion vector calculation procedure for calculating a virtual motion vector of the region;
An obstacle detection procedure for detecting, as an obstacle area, an area where the magnitude of a difference vector between the motion vector and the virtual motion vector is equal to or greater than a threshold;
Is executed by a computer.
カメラによって撮像された画像から車両の走行に影響を及ぼす障害物を検出する障害物検出装置であって、
前記カメラから異なる時点での画像を取得し、取得した異なる時点での画像に基づいて当該画像の各領域における動きベクトルを算出する動きベクトル算出手段と、
車両の進行方向、モデルにおける車両が走行する高さである走行領域高さ、モデルにおける車両が走行する幅である走行領域幅、およびモデルにおけるカメラが設置された位置の高さであるカメラ垂直設置位置に基づいて、当該車両の走行する空間のモデルを生成し、画像座標系の各座標について、画像の横幅または縦幅に含まれる画素数に応じた値と、画像座標系の座標の横方向または縦方向の成分との所定の加減算の結果に、カメラの画素ピッチを乗算することで、空間座標系の座標を算出し、算出した空間座標系の各座標の位置が、モデルの下面部、上面部および側面部のいずれの領域内に位置するかを判定することにより、空間座標系の各座標がモデルの下面部、上面部および側面部のいずれに位置するかを判定し、モデルの上面部、下面部、側面部の領域のいずれかに位置すると判定された空間座標系の各座標について、位置すると判定された上面部、下面部、側面部の領域ごとに、空間座標系の座標に応じた値を焦点距離で除した値に、カメラが画像を撮影するサンプルレートに対応する時間に移動する障害物の移動距離であって焦点距離から障害物までの距離の変化に対応する移動距離を乗じた値を、カメラ垂直設置位置、走行領域高さ、または走行領域幅で除した値を、仮想的な動きベクトルの垂直方向または水平方向の成分とすることで、前記モデルの空間座標系の各領域の仮想的な動きベクトルを算出する仮想動きベクトル算出手段と、
前記動きベクトルと前記仮想的な動きベクトルとの差分ベクトルの大きさが閾値以上となる領域を障害物の領域として検出する障害物検出手段と、
を備えたことを特徴とする障害物検出装置。
An obstacle detection device that detects an obstacle that affects driving of a vehicle from an image captured by a camera,
Motion vector calculation means for acquiring images at different points in time from the camera, and calculating a motion vector in each region of the image based on the acquired images at different points in time;
The vertical direction of the camera , which is the height of the traveling area, which is the height in which the vehicle travels in the model, the traveling area width, in which the vehicle travels in the model , and the height where the camera is installed in the model Based on the position, a model of the space in which the vehicle travels is generated. For each coordinate in the image coordinate system, a value corresponding to the number of pixels included in the horizontal or vertical width of the image and the horizontal direction of the coordinate in the image coordinate system Or, by multiplying the result of the predetermined addition and subtraction with the vertical component by the pixel pitch of the camera, the coordinates of the spatial coordinate system are calculated, and the position of each coordinate of the calculated spatial coordinate system is the lower surface portion of the model, By determining which area of the upper surface portion or the side surface portion is located, it is determined whether each coordinate of the spatial coordinate system is positioned on the lower surface portion, the upper surface portion, or the side surface portion of the model, and the upper surface of the model Part For each coordinate of the spatial coordinate system determined to be located in either the lower surface portion or the side surface region, the upper surface portion, the lower surface portion, and the side surface region determined to be positioned correspond to the coordinates of the spatial coordinate system. The value obtained by dividing the value by the focal length is multiplied by the moving distance of the obstacle moving at the time corresponding to the sample rate at which the camera takes an image and corresponding to the change in the distance from the focal distance to the obstacle. The value obtained by dividing the obtained value by the camera vertical installation position, the travel area height, or the travel area width is used as the vertical or horizontal component of the virtual motion vector, so that each of the spatial coordinate systems of the model Virtual motion vector calculation means for calculating a virtual motion vector of the region;
Obstacle detection means for detecting an area where a difference vector between the motion vector and the virtual motion vector is greater than or equal to a threshold as an obstacle area;
An obstacle detection device comprising:
JP2006325852A 2006-12-01 2006-12-01 Obstacle detection method, obstacle detection program, and obstacle detection apparatus Expired - Fee Related JP4847303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006325852A JP4847303B2 (en) 2006-12-01 2006-12-01 Obstacle detection method, obstacle detection program, and obstacle detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006325852A JP4847303B2 (en) 2006-12-01 2006-12-01 Obstacle detection method, obstacle detection program, and obstacle detection apparatus

Publications (2)

Publication Number Publication Date
JP2008140155A JP2008140155A (en) 2008-06-19
JP4847303B2 true JP4847303B2 (en) 2011-12-28

Family

ID=39601537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006325852A Expired - Fee Related JP4847303B2 (en) 2006-12-01 2006-12-01 Obstacle detection method, obstacle detection program, and obstacle detection apparatus

Country Status (1)

Country Link
JP (1) JP4847303B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4788798B2 (en) 2009-04-23 2011-10-05 トヨタ自動車株式会社 Object detection device
TWI399706B (en) * 2010-03-23 2013-06-21 Avermedia Information Inc Warning system and method for detecting obstacle

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4201958B2 (en) * 2000-04-26 2008-12-24 日本放送協会 Moving image object extraction device
JP4848097B2 (en) * 2001-06-13 2011-12-28 三菱重工業株式会社 MONITORING MONITORING METHOD AND DEVICE
JP4013872B2 (en) * 2003-09-26 2007-11-28 日産自動車株式会社 Obstacle detection device

Also Published As

Publication number Publication date
JP2008140155A (en) 2008-06-19

Similar Documents

Publication Publication Date Title
US11816991B2 (en) Vehicle environment modeling with a camera
JP5251800B2 (en) Object tracking device and program
US8564657B2 (en) Object motion detection system based on combining 3D warping techniques and a proper object motion detection
JP5538411B2 (en) Vehicle perimeter monitoring device
KR102399963B1 (en) Road plane output with lateral slope
JP4052650B2 (en) Obstacle detection device, method and program
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
US11338807B2 (en) Dynamic distance estimation output generation based on monocular video
JP5023186B2 (en) Object motion detection system based on combination of 3D warping technique and proper object motion (POM) detection
CN112349144B (en) Monocular vision-based vehicle collision early warning method and system
JP2007300181A (en) Periphery monitoring apparatus and periphery monitoring method and program thereof
JP6520740B2 (en) Object detection method, object detection device, and program
JP7135665B2 (en) VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM
JP2008276308A (en) Video image processing apparatus, video image processing system, and navigation device
JP5281867B2 (en) Vehicle traveling speed control device and method
JP2009252198A (en) Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus
JP2009245042A (en) Traffic flow measurement device and program
JP6241172B2 (en) Vehicle position estimation device and vehicle position estimation method
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP5125214B2 (en) Obstacle detection method and obstacle detection device
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JP4847303B2 (en) Obstacle detection method, obstacle detection program, and obstacle detection apparatus
JP6488226B2 (en) Runway parameter estimation apparatus and program
JP5832850B2 (en) Lane monitoring system and lane monitoring method
JP3951734B2 (en) Vehicle external recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees