JP2013097390A - Own vehicle travel estimation method and own vehicle travel estimation program - Google Patents

Own vehicle travel estimation method and own vehicle travel estimation program Download PDF

Info

Publication number
JP2013097390A
JP2013097390A JP2011236394A JP2011236394A JP2013097390A JP 2013097390 A JP2013097390 A JP 2013097390A JP 2011236394 A JP2011236394 A JP 2011236394A JP 2011236394 A JP2011236394 A JP 2011236394A JP 2013097390 A JP2013097390 A JP 2013097390A
Authority
JP
Japan
Prior art keywords
vehicle
vector
image
movement
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011236394A
Other languages
Japanese (ja)
Other versions
JP2013097390A5 (en
JP5833887B2 (en
Inventor
Masanori Ozaki
正憲 小崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2011236394A priority Critical patent/JP5833887B2/en
Publication of JP2013097390A publication Critical patent/JP2013097390A/en
Publication of JP2013097390A5 publication Critical patent/JP2013097390A5/ja
Application granted granted Critical
Publication of JP5833887B2 publication Critical patent/JP5833887B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an own vehicle travel estimation method which can accurately estimate an own vehicle travel parameter even when a large object exists in an image, and an own vehicle travel estimation program.SOLUTION: An own vehicle travel estimation method concerning one embodiment of this invention is a method having the steps of: photographing the surroundings of a vehicle with a camera equipped on the vehicle in a prescribed frame period; detecting motion vectors among a plurality of images taken by the camera; obtaining travel parameters of an own vehicle from the detected motion vectors; newly detecting motion vectors by using images taken by the camera after taking the plurality of images used for obtaining the travel parameters of the own vehicle; detecting motion vectors which are within a prescribed threshold value when compared with travel vectors of the own vehicle corresponding to the travel parameters of the own vehicle, as background vectors from among the newly detected motion vectors; and newly obtaining travel parameters of the own vehicle by using the background vectors.

Description

本発明の実施形態は、自車移動推定方法および自車移動推定プログラムに関する。   Embodiments described herein relate generally to a host vehicle movement estimation method and a host vehicle movement estimation program.

最近、自動車などの車両の運転を支援するための技術として、たとえば、車載カメラにより撮像された画像にもとづいて車両と対象物との衝突可能性を判定する技術がある。この種の技術において、車載カメラにより撮像された画像から対象物を抽出するためには、自車の並進成分および回転成分(以下、自車移動パラメータという)の情報が必要となる。   Recently, as a technique for supporting driving of a vehicle such as an automobile, for example, there is a technique for determining the possibility of collision between a vehicle and an object based on an image captured by an in-vehicle camera. In this type of technology, in order to extract an object from an image captured by an in-vehicle camera, information on a translation component and a rotation component of the own vehicle (hereinafter referred to as an own vehicle movement parameter) is required.

自車移動パラメータを推定する方法としては、たとえば車載カメラにより撮像された画像から動きベクトルを検出し、この検出した動きベクトルから推定する方法が知られている。この方法では、車載カメラにより撮像された画像内の被写体は静止物が支配的であり、画像から検出される動きベクトルは静止物の動きベクトルであるという前提のもと、検出した動きベクトルから自車移動パラメータを推定するようになっている。   As a method for estimating the own vehicle movement parameter, for example, a method is known in which a motion vector is detected from an image captured by an in-vehicle camera and is estimated from the detected motion vector. In this method, the subject in the image captured by the in-vehicle camera is predominantly a stationary object, and the motion vector detected from the image is the motion vector of the stationary object. The vehicle movement parameter is estimated.

特願2008−203992号公報Japanese Patent Application No. 2008-203992

しかし、車載カメラにより撮像された画像内において大きな物体が横切ると、検出される動きベクトルは自車の移動方向とは無関係の方向をもつものが多くなってしまい、自車移動パラメータを推定することが難しくなってしまう。また、車載カメラにより撮像された画像内において車両の近くに大きな物体が存在すると、この物体の位置の検出誤差が自車移動パラメータの精度に大きく影響し、自車移動パラメータを推定することが難しくなってしまう。   However, when a large object crosses the image captured by the in-vehicle camera, the detected motion vector has many directions that are unrelated to the direction of movement of the vehicle, and the vehicle movement parameter is estimated. Becomes difficult. In addition, if there is a large object near the vehicle in the image captured by the in-vehicle camera, the detection error of the position of this object greatly affects the accuracy of the own vehicle movement parameter, and it is difficult to estimate the own vehicle movement parameter. turn into.

本発明の一実施形態に係る自車移動推定方法は、上述した課題を解決するために、車両に設けられたカメラが所定のフレーム周期で前記車両の周囲を撮像するステップと、前記カメラにより撮像された複数の画像間の動きベクトルを検出するステップと、検出された動きベクトルから自車の移動パラメータを求めるステップと、前記自車の移動パラメータを求める際に利用された前記複数の画像の撮像の後に前記カメラにより撮像された画像を用いて新たに動きベクトルを検出するステップと、前記新たに検出された動きベクトルのうち、前記自車の移動パラメータに対応する自車の移動ベクトルとの比較で所定の閾値以内であるものを背景ベクトルとして検出するステップと、この背景ベクトルを用いて新たに自車の移動パラメータを求めるステップと、を有する方法である。   In order to solve the above-described problem, a method for estimating movement of a host vehicle according to an embodiment of the present invention includes a step in which a camera provided in a vehicle images the surroundings of the vehicle at a predetermined frame period, and an image is captured by the camera. Detecting a motion vector between the plurality of images obtained, obtaining a movement parameter of the own vehicle from the detected motion vector, and capturing the plurality of images used when obtaining the movement parameter of the own vehicle A step of detecting a new motion vector using an image captured by the camera after the comparison with a movement vector of the own vehicle corresponding to the movement parameter of the own vehicle among the newly detected motion vectors The step of detecting a vector within the predetermined threshold as a background vector, and using this background vector, a new movement parameter of the host vehicle is obtained. A method is a method having.

本発明の一実施形態に係る自車移動推定方法を実施するための自車移動推定装置の一例を示すブロック図。The block diagram which shows an example of the own vehicle movement estimation apparatus for enforcing the own vehicle movement estimation method which concerns on one Embodiment of this invention. 図1に示す主制御部のCPUにより初期の自車移動パラメータを求める際の手順を示すフローチャート。The flowchart which shows the procedure at the time of calculating | requiring the initial own vehicle movement parameter by CPU of the main-control part shown in FIG. 座標系と回転方向の関係の一例を示す説明図。Explanatory drawing which shows an example of the relationship between a coordinate system and a rotation direction. 空間上の特徴点の位置zと路面との関係の一例を示す説明図。Explanatory drawing which shows an example of the relationship between the position z of the feature point in space, and a road surface. 図1に示す主制御部のCPUにより画像内に大きな物体が存在しても正確に自車移動パラメータを推定する際の手順を示すフローチャート。The flowchart which shows the procedure at the time of estimating the own vehicle movement parameter correctly, even if a big object exists in an image by CPU of the main-control part shown in FIG. 図5のS15で背景ベクトル検出部により実行される背景ベクトル判定処理の手順の一例を示すサブルーチンフローチャート。FIG. 6 is a subroutine flowchart illustrating an example of a background vector determination process executed by a background vector detection unit in S15 of FIG. (a)は、魚眼カメラの左1/4視野および右1/4視野をyz平面に平行に配置された左画面および右画面にそれぞれ射影する例を示す説明図、(b)は、魚眼カメラの左1/4視野および右1/4視野をy軸に並行かつyz平面に対して所定の傾きを持つよう配置された左画面および右画面にそれぞれ投影する例を示す説明図、(c)は、魚眼カメラの左1/4視野および右1/4視野をそれぞれxz平面に平行に配置された左画面および右画面にそれぞれ射影する例を示す説明図。(A) is explanatory drawing which shows the example which each projects the left 1/4 visual field and right 1/4 visual field of a fish-eye camera on the left screen and right screen which are arrange | positioned in parallel with yz plane, (b) is fish FIG. 5 is an explanatory diagram showing an example in which the left 1/4 field of view and the right 1/4 field of view of an eye camera are respectively projected onto a left screen and a right screen arranged in parallel with the y axis and having a predetermined inclination with respect to the yz plane; (c) is explanatory drawing which shows the example which each projects the left 1/4 visual field and right 1/4 visual field of a fish-eye camera on the left screen and right screen respectively arrange | positioned in parallel with xz plane. 図7(a)に示す場合における動きベクトルの算出方法を説明するための図。The figure for demonstrating the calculation method of the motion vector in the case shown to Fig.7 (a).

本発明に係る自車移動推定方法および自車移動推定プログラムの実施の形態について、添付図面を参照して説明する。   Embodiments of a host vehicle movement estimation method and a host vehicle movement estimation program according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明の一実施形態に係る自車移動推定方法を実施するための自車移動推定装置10の一例を示すブロック図である。   FIG. 1 is a block diagram showing an example of a host vehicle movement estimation apparatus 10 for implementing the host vehicle movement estimation method according to an embodiment of the present invention.

自車移動推定装置10は、カメラ11、主制御部12、記憶部13、灯火装置16、クラクション17、スピーカ18および表示装置19を有する。   The own vehicle movement estimation device 10 includes a camera 11, a main control unit 12, a storage unit 13, a lighting device 16, a horn 17, a speaker 18, and a display device 19.

カメラ11は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成され、自家用自動車等の車両の周囲の映像を取り込んで画像データを生成して主制御部12に与える。   The camera 11 is composed of a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The camera 11 captures a video around a vehicle such as a private car and generates image data to be supplied to the main controller 12. .

たとえば後方を監視する場合、カメラ11は車両後部のナンバープレート付近に路面と平行な線からやや下向きに配設される。カメラ11には、より広範な車両外画像が取得可能なように広角レンズや魚眼レンズが取り付けられてもよい。また、車両の側方を監視する場合、カメラ11はサイドミラー付近に配設される。また、複数のカメラ11を用いることにより広範な車外周囲画像を取り込むようにしてもよい。   For example, when monitoring the rear, the camera 11 is disposed slightly downward from a line parallel to the road surface in the vicinity of the license plate at the rear of the vehicle. A wide-angle lens or a fisheye lens may be attached to the camera 11 so that a wider range of outside-vehicle images can be acquired. When monitoring the side of the vehicle, the camera 11 is disposed near the side mirror. In addition, a wide range of vehicle surrounding images may be captured by using a plurality of cameras 11.

主制御部12は、たとえばCPU、RAM、ROMを備えたマイクロコントローラにより構成される。主制御部12のCPUは、ROMなどの記憶媒体に記憶された自車移動推定プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って画像内に大きな物体が存在しても正確に自車移動パラメータを推定する処理を実行する。主制御部12のRAMは、CPUが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。主制御部12のROMなどの記憶媒体は、自車移動推定プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。   The main control unit 12 is configured by a microcontroller including a CPU, a RAM, and a ROM, for example. The CPU of the main control unit 12 loads the own vehicle movement estimation program stored in a storage medium such as a ROM and data necessary for executing the program into the RAM, and a large object exists in the image according to the program. However, the processing for accurately estimating the own vehicle movement parameter is executed. The RAM of the main control unit 12 provides a work area for temporarily storing programs and data executed by the CPU. The storage medium such as the ROM of the main control unit 12 stores the own vehicle movement estimation program and various data necessary for executing these programs.

なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、CPUにより読み取り可能な記録媒体を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は図示しないネットワーク接続部を介して電子ネットワークを介してダウンロードされるように構成してもよい。   A storage medium such as a ROM has a configuration including a recording medium readable by a CPU, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Or you may comprise so that all may be downloaded via an electronic network via the network connection part which is not shown in figure.

なお、この場合、ネットワーク接続部は、ネットワークの形態に応じた種々の情報通信用プロトコルを実装し、この各種プロトコルに従って主制御部12と他の車両のECUなどの電気機器とを電子ネットワークを介して接続する。この接続には、電子ネットワークを介した電気的な接続などを適用することができる。ここで電子ネットワークとは、電気通信技術を利用した情報通信網全般を意味し、無線/有線LAN(Local Area Network)やインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワークなどを含む。   In this case, the network connection unit implements various information communication protocols according to the network form, and the main control unit 12 and electric devices such as ECUs of other vehicles are connected via the electronic network according to the various protocols. Connect. For this connection, an electrical connection via an electronic network can be applied. Here, an electronic network means an information communication network using telecommunications technology in general, in addition to a wireless / wired LAN (Local Area Network) and the Internet network, a telephone communication line network, an optical fiber communication network, a cable communication network, Includes satellite communications networks.

記憶部13は、主制御部12によるデータの読み書きが可能な不揮発性のメモリであり、あらかじめ、過去フレームまでの自車移動パラメータ、角度閾値ThA、差閾値ThSおよび比閾値ThRを記憶している。また、新たに得られた背景ベクトルもここに記憶される。これらの情報は、電子ネットワークを介してまたは光ディスクなどの可搬型記憶媒体を介して更新されてもよい。   The storage unit 13 is a non-volatile memory in which data can be read and written by the main control unit 12, and stores in advance the vehicle movement parameters up to the past frame, the angle threshold value ThA, the difference threshold value ThS, and the ratio threshold value ThR. . A newly obtained background vector is also stored here. These pieces of information may be updated via an electronic network or a portable storage medium such as an optical disk.

灯火装置16は、一般的なヘッドライトにより構成され、主制御部12により制御されて点滅(いわゆるパッシング)を行うことにより、たとえば自車両の外部に対して警告を行う。   The lighting device 16 is configured by a general headlight, and is controlled by the main control unit 12 to blink (so-called passing), for example, to warn the outside of the host vehicle.

クラクション17は、主制御部12により制御されて自車両の外部に対して警告音を出力する。   The horn 17 is controlled by the main control unit 12 and outputs a warning sound to the outside of the host vehicle.

スピーカ18は、自車両の車内に設けられ、主制御部12により制御されて自車両の運転者に対してビープ音や危険が迫っていることを知らせるための情報などの各種情報に対応した音声を出力する。   The speaker 18 is provided in the host vehicle and is controlled by the main control unit 12 to respond to various information such as a beep and information for notifying the driver of the host vehicle that a danger is imminent. Is output.

表示装置19は、運転者が視認可能な位置に設けられ、車載用の一般的なディスプレイやカーナビゲーションシステム、HUD(ヘッドアップディスプレイ)などの表示出力装置を用いることができ、主制御部12の制御に従って、カメラ11の撮像画像や危険が迫っていることを知らせるための情報などの各種情報を表示する。   The display device 19 is provided at a position visible to the driver, and a display output device such as a general vehicle-mounted display, a car navigation system, or a HUD (head-up display) can be used. In accordance with the control, various information such as a captured image of the camera 11 and information for notifying that the danger is imminent are displayed.

続いて、主制御部12のCPUによる機能実現部の構成について説明する。   Next, the configuration of the function realization unit by the CPU of the main control unit 12 will be described.

図1に示すように、主制御部12のCPUは、自車移動推定プログラムによって、少なくとも平面画像生成部21、動きベクトル検出部22、背景ベクトル検出部23、自車移動算出部24および物体ベクトル処理部25として機能する。この各部21−25は、RAMの所要のワークエリアを、データの一時的な格納場所として利用する。なお、これらの機能実現部は、CPUを用いることなく回路などのハードウエアロジックによって構成してもよい。   As shown in FIG. 1, the CPU of the main control unit 12 executes at least a plane image generation unit 21, a motion vector detection unit 22, a background vector detection unit 23, a host vehicle movement calculation unit 24, and an object vector according to the host vehicle movement estimation program. It functions as the processing unit 25. Each unit 21-25 uses a required work area in the RAM as a temporary storage location for data. In addition, you may comprise these function implementation parts by hardware logics, such as a circuit, without using CPU.

平面画像生成部21は、カメラ11により撮像された画像にもとづいて平面画像を生成する。たとえばカメラ11に魚眼レンズが取り付けられている場合は、平面画像生成部21は、カメラ11により撮像された魚眼画像を通常の2次元画像に正規化するとともに、この正規化画像にもとづいて、あらかじめ定められた視点の平面画像を生成する。   The planar image generation unit 21 generates a planar image based on the image captured by the camera 11. For example, when a fisheye lens is attached to the camera 11, the planar image generation unit 21 normalizes the fisheye image captured by the camera 11 into a normal two-dimensional image, and based on the normalized image in advance. A plane image of a predetermined viewpoint is generated.

動きベクトル検出部22は、ブロックマッチング法や勾配法などを用いて、平面画像生成部21により生成された複数の平面画像から画素ごとに動きベクトルを算出する。   The motion vector detection unit 22 calculates a motion vector for each pixel from a plurality of plane images generated by the plane image generation unit 21 using a block matching method, a gradient method, or the like.

背景ベクトル検出部23は、自車移動算出部24により算出された自車の移動パラメータ(自車の並進成分Rおよび回転成分T)にもとづいて自車の移動ベクトルを算出する。そして、この自車の移動ベクトルと、自車の移動パラメータの算出に用いられたフレームよりも後に撮影されたフレーム画像から動きベクトル検出部22により検出された動きベクトルと、を比較し、所定の閾値以内にある動きベクトルを背景ベクトルとして検出する。   The background vector detection unit 23 calculates the movement vector of the own vehicle based on the movement parameters (the translation component R and the rotation component T of the own vehicle) calculated by the own vehicle movement calculation unit 24. Then, the movement vector of the own vehicle is compared with the motion vector detected by the motion vector detecting unit 22 from the frame image taken after the frame used for calculating the movement parameter of the own vehicle. A motion vector within the threshold is detected as a background vector.

背景ベクトル検出部23は、この所定の閾値として、記憶部13に記憶された角度閾値ThA、差閾値ThSおよび比閾値ThRを用いることができる。   The background vector detection unit 23 can use the angle threshold ThA, the difference threshold ThS, and the ratio threshold ThR stored in the storage unit 13 as the predetermined threshold.

自車移動算出部24は、まず、動きベクトルにもとづいて、初期の自車移動パラメータを算出する。もしくは初期状態は停車していると判断して、自車移動パラメータを0または小さいパラメータにしておく。次に、背景ベクトル検出部23によってこの初期の自車移動パラメータにもとづいて背景ベクトルが検出されると、この検出された背景ベクトルにもとづいて、新たに自車移動パラメータを算出する。そして、この新たに算出したパラメータを、背景ベクトル検出部23に与える。   The own vehicle movement calculation unit 24 first calculates an initial own vehicle movement parameter based on the motion vector. Alternatively, it is determined that the vehicle is stopped in the initial state, and the own vehicle movement parameter is set to 0 or a small parameter. Next, when a background vector is detected based on the initial vehicle movement parameter by the background vector detection unit 23, a new vehicle movement parameter is calculated based on the detected background vector. Then, this newly calculated parameter is given to the background vector detection unit 23.

物体ベクトル処理部25は、背景ベクトル検出部23により背景ベクトルとして検出されなかった動きベクトルを物体ベクトルとしてあつかい、この物体ベクトルから得られた物体の接近状況に応じて灯火装置16、クラクション17、スピーカ18および表示装置19の少なくとも1つを介して運転者に対して警告を行う。   The object vector processing unit 25 treats a motion vector that has not been detected as a background vector by the background vector detection unit 23 as an object vector, and the lighting device 16, the horn 17, the speaker according to the approaching state of the object obtained from the object vector A warning is given to the driver via at least one of 18 and the display device 19.

次に、本実施形態に係る自車移動推定装置10の動作の一例について説明する。   Next, an example of operation | movement of the own vehicle movement estimation apparatus 10 which concerns on this embodiment is demonstrated.

図2は、図1に示す主制御部12のCPUにより初期の自車移動パラメータを求める際の手順を示すフローチャートである。図2において、Sに数字を付した符号は、フローチャートの各ステップを示す。   FIG. 2 is a flowchart showing a procedure for obtaining an initial own vehicle movement parameter by the CPU of the main control unit 12 shown in FIG. In FIG. 2, a symbol with a number added to S indicates each step of the flowchart.

まず、ステップS1において、カメラ11は、少なくとも路面を含む車両周囲の画像を取り込んで画像信号を生成して平面画像生成部21に与える   First, in step S <b> 1, the camera 11 captures an image around the vehicle including at least a road surface, generates an image signal, and supplies the image signal to the planar image generation unit 21.

次に、ステップS2において、平面画像生成部21は、カメラ11により撮像された画像にもとづいて平面画像を生成する。   Next, in step S <b> 2, the planar image generation unit 21 generates a planar image based on the image captured by the camera 11.

次に、ステップS3において、動きベクトル検出部22は、平面画像生成部21により生成された複数の平面画像から画素ごとに動きベクトルを算出する。   Next, in step S <b> 3, the motion vector detection unit 22 calculates a motion vector for each pixel from the plurality of planar images generated by the planar image generation unit 21.

次に、ステップS4において、自車移動算出部24は、ステップS2で算出された動きベクトルにもとづいて、初期の自車移動パラメータを算出する。   Next, in step S4, the own vehicle movement calculation unit 24 calculates initial own vehicle movement parameters based on the motion vector calculated in step S2.

以上の手順により、初期の自車移動パラメータを求めることができる。   The initial own vehicle movement parameter can be obtained by the above procedure.

ここで、背景ベクトル検出部23による自車移動パラメータにもとづく自動移動ベクトルの算出方法について説明する。   Here, a method of calculating the automatic movement vector based on the own vehicle movement parameter by the background vector detection unit 23 will be described.

図3は、座標系と回転方向の関係の一例を示す説明図である。以下の説明では、図3に示すように、進行方向をz軸、路面法線方向をy軸、進行方向および路面法線方向に互いに直交する方向をx軸とする座標系を用いる場合の例について示す。このとき、水平線を真横に見えるようにし進行方向をz軸からずらしても良い。また、動きベクトルのx、y、z成分をそれぞれu、v、wとあらわすものとする。また、図3においては、x軸、y軸、z軸周りの回転をそれぞれRx、Ry、Rzとして示した。   FIG. 3 is an explanatory diagram illustrating an example of the relationship between the coordinate system and the rotation direction. In the following description, as shown in FIG. 3, an example of using a coordinate system in which the traveling direction is the z axis, the road surface normal direction is the y axis, and the direction orthogonal to the traveling direction and the road surface normal direction is the x axis. Show about. At this time, the advancing direction may be shifted from the z axis so that the horizontal line can be seen right beside. Also, the x, y, and z components of the motion vector are represented as u, v, and w, respectively. In FIG. 3, the rotations about the x-axis, y-axis, and z-axis are shown as Rx, Ry, and Rz, respectively.

カメラ11により撮像された画像は、平面画像生成部21により、理想的にはz=fで表されるカメラ投影面31に展開されることになる。ここで、fはカメラ11の焦点距離であるものとする。   The image captured by the camera 11 is developed on the camera projection plane 31 ideally represented by z = f by the planar image generation unit 21. Here, f is the focal length of the camera 11.

自車移動での画面の回転方向および並進方向をそれぞれR(Rx、Ry、Rz)およびT(Tx、Ty、Tz)とする。このとき、自車移動の回転方向と並進方向は(−Rx、−Ry、−Rz)および(−Tx, −Ty, −Tz)となる。   The rotation direction and translation direction of the screen when the vehicle is moving are assumed to be R (Rx, Ry, Rz) and T (Tx, Ty, Tz), respectively. At this time, the rotation direction and translation direction of the own vehicle movement are (−Rx, −Ry, −Rz) and (−Tx, −Ty, −Tz).

公知の式により、自車移動ベクトル(x、y、cu、cv)=(x座標位置、y座標位置、x方向ベクトル、y方向ベクトル)は、自車移動パラメータから次のように求めることができる。
wu = -(x・y / f)・Rx + ((f・f + x・x) / f)・Ry - y・Rz
wv = -((f・f + y・y) / f)・Rx + (x・y / f )・Ry + x・Rz
tu = (f・Tx - x・Tz) / z
tv = (f・Ty - y・Tz) / z
cu = tu + wu
cv = tv + wv
According to a known equation, the own vehicle movement vector (x, y, cu, cv) = (x coordinate position, y coordinate position, x direction vector, y direction vector) can be obtained from the own vehicle movement parameter as follows. it can.
wu =-(x ・ y / f) ・ Rx + ((f ・ f + x ・ x) / f) ・ Ry-y ・ Rz
wv =-((f ・ f + y ・ y) / f) ・ Rx + (x ・ y / f) ・ Ry + x ・ Rz
tu = (f ・ Tx-x ・ Tz) / z
tv = (f ・ Ty-y ・ Tz) / z
cu = tu + wu
cv = tv + wv

ここで、tu,tvは並進成分、wu,wvは回転成分をそれぞれ表す。このときzは地面外ではある値(Zmax)で制限(たとえば全ての特徴点がZmaxにあるものと仮定)し、地面はその値より小さくする。収束点FOE(FOEx、FOEy)とするとき、計算を簡単にするために水平線の傾きは無し、FOEx=0とし、FOEyはある程度地面方向の解像度を上げるためにずらすのを許容して計算する。そのために、平面画像生成部21は、水平線が真横となるよう、かつ収束点がx=0の位置になるように平面画像を生成することが好ましい。   Here, tu and tv represent translation components, and wu and wv represent rotation components, respectively. At this time, z is limited to a value (Zmax) outside the ground (for example, assuming that all feature points are at Zmax), and the ground is made smaller than that value. When the convergence point FOE (FOEx, FOEy) is used, there is no inclination of the horizontal line for simplifying the calculation, FOEx = 0, and FOEy is calculated by allowing the shift to increase the resolution in the ground direction to some extent. Therefore, it is preferable that the planar image generation unit 21 generates a planar image so that the horizontal line is directly beside and the convergence point is at the position of x = 0.

図4は、空間上の特徴点の位置zと路面との関係の一例を示す説明図である。   FIG. 4 is an explanatory diagram showing an example of the relationship between the position z of the feature point in space and the road surface.

背景が遠すぎる場合、並進移動をしても動きベクトルはとても小さい。しかし、それ以外の場合は、特徴点の動きベクトルはある程度の大きさを持つ。図4に示すように、カメラから路面までの距離をDgndとすると、例えばDgndまでの距離の10倍以上を背景とみなす場合には、Dgnd=Zmax/10とする。   If the background is too far away, the motion vector is very small even with translation. However, in other cases, the motion vector of the feature point has a certain size. As shown in FIG. 4, when the distance from the camera to the road surface is Dgnd, for example, when 10 times or more of the distance to Dgnd is regarded as the background, Dgnd = Zmax / 10.

画像から検出した動きベクトルのz座標は、次のように計算できる。
z = (Dgnd・f / cos(θgnd)) / (y - FOEy) (zはZmaxで制限)
θgnd = atan(FOEy / f)
The z coordinate of the motion vector detected from the image can be calculated as follows.
z = (Dgnd ・ f / cos (θgnd)) / (y-FOEy) (z is limited by Zmax)
θgnd = atan (FOEy / f)

図5は、図1に示す主制御部12のCPUにより画像内に大きな物体が存在しても正確に自車移動パラメータを推定する際の手順を示すフローチャートである。図5において、Sに数字を付した符号は、フローチャートの各ステップを示す。   FIG. 5 is a flowchart showing a procedure when the CPU of the main control unit 12 shown in FIG. 1 accurately estimates the own vehicle movement parameter even when a large object exists in the image. In FIG. 5, reference numerals with numbers added to S indicate steps in the flowchart.

ステップS11において、背景ベクトル検出部23は、自車移動パラメータにもとづいて自車移動ベクトルを算出する。この自車移動パラメータとしては、たとえば図2のステップS4で算出される初期の自車移動パラメータを用いることができる。   In step S11, the background vector detection unit 23 calculates the own vehicle movement vector based on the own vehicle movement parameter. As the own vehicle movement parameter, for example, the initial own vehicle movement parameter calculated in step S4 of FIG. 2 can be used.

次に、ステップS12において、カメラ11は、少なくとも路面を含む車両周囲の画像を取り込んで画像信号を生成して平面画像生成部21に与える。このとき取り込まれる画像は、初期の移動パラメータの算出に用いられた画像よりも後に撮影されたものとなる。換言すれば、この後のステップで利用される自車の移動パラメータは、このステップS12で取り込まれるフレームよりも過去のフレームにもとづいて算出されたものである。   Next, in step S <b> 12, the camera 11 captures an image around the vehicle including at least the road surface, generates an image signal, and supplies the image signal to the planar image generation unit 21. The image captured at this time is taken after the image used for calculating the initial movement parameter. In other words, the movement parameter of the own vehicle used in the subsequent step is calculated based on a frame that is earlier than the frame captured in step S12.

次に、ステップS13において、平面画像生成部21は、ステップS12でカメラ11により撮像された画像にもとづいて平面画像を生成する。   Next, in step S13, the planar image generation unit 21 generates a planar image based on the image captured by the camera 11 in step S12.

次に、ステップS14において、動きベクトル検出部22は、平面画像生成部21により生成された複数の平面画像から画素ごとに動きベクトルを算出する。   Next, in step S <b> 14, the motion vector detection unit 22 calculates a motion vector for each pixel from the plurality of planar images generated by the planar image generation unit 21.

次に、ステップS15において、背景ベクトル検出部23は、過去のフレームにもとづいて自車移動算出部24により算出された自車移動パラメータから自車の移動ベクトルを算出する。そして、背景ベクトル検出部23は、この自車の移動ベクトルと、自車の移動パラメータの算出に用いられたフレームよりも後に撮影されたフレーム画像から動きベクトル検出部22により検出された動きベクトルと、を比較し、所定の閾値以内にある動きベクトルを背景ベクトルとして検出する。   Next, in step S15, the background vector detection unit 23 calculates the movement vector of the own vehicle from the own vehicle movement parameter calculated by the own vehicle movement calculation unit 24 based on the past frame. Then, the background vector detection unit 23 detects the movement vector of the own vehicle and the motion vector detected by the motion vector detection unit 22 from the frame image taken after the frame used for calculating the movement parameter of the own vehicle. , And a motion vector within a predetermined threshold is detected as a background vector.

より具体的には、ステップS11で算出された自車移動ベクトル(cu、cv)=(x方向ベクトル、y方向ベクトル)と、ステップS14で画像から検出される動きベクトル(pu、pv)=(x方向ベクトル、y方向ベクトル)とを比較し、この動きベクトルが所定の閾値以内にあるか否か、すなわち背景ベクトルとして検出するか否かを判定する。   More specifically, the own vehicle movement vector (cu, cv) = (x direction vector, y direction vector) calculated in step S11 and the motion vector (pu, pv) detected from the image in step S14 = ( x direction vector and y direction vector) and determine whether or not the motion vector is within a predetermined threshold, that is, whether or not to detect as a background vector.

なお、回転成分をキャンセルした状態でのベクトルである(pu−wu、pv−wv)と(tu、tv)とを比較しても良い。   Note that (pu-wu, pv-wv) and (tu, tv), which are vectors in a state where the rotation component is canceled, may be compared.

ステップS15において背景ベクトルであると判定された動きベクトルは、背景ベクトル検出部23により記憶部13に格納される(ステップS16)。   The motion vector determined to be the background vector in step S15 is stored in the storage unit 13 by the background vector detection unit 23 (step S16).

一方、ステップS15において背景ベクトルではないと判定された動きベクトルは、物体ベクトルとして物体ベクトル処理部25に与えられる。物体ベクトル処理部25は、この物体ベクトルから物体を検出する処理を行い(ステップS17)、得られた物体の接近状況に応じて灯火装置16、クラクション17、スピーカ18および表示装置19の少なくとも1つを介して運転者に対して警告を行う(ステップS18)。なお、背景ベクトルと物体ベクトルの閾値付近は、どちらにもせず捨てても良い。   On the other hand, the motion vector determined not to be the background vector in step S15 is given to the object vector processing unit 25 as an object vector. The object vector processing unit 25 performs a process of detecting an object from the object vector (step S17), and at least one of the lighting device 16, the horn 17, the speaker 18, and the display device 19 according to the approaching state of the obtained object. A warning is given to the driver via (step S18). Note that the vicinity of the threshold value of the background vector and the object vector may be discarded instead of either.

次に、ステップS19において、背景ベクトル検出部23は、動きベクトルを全て検出したか否かを判定する。未検出の動きベクトルがある場合はステップS14に戻り、全て検出している場合はステップS20に進む。   Next, in step S19, the background vector detection unit 23 determines whether or not all the motion vectors have been detected. If there is an undetected motion vector, the process returns to step S14, and if all have been detected, the process proceeds to step S20.

そして、ステップS20において、自車移動算出部24は、記憶部13に記憶された背景ベクトルを用いて、自車移動パラメータを算出する。この背景ベクトルを用いた自車移動パラメータの算出方法の詳細については後述する。   In step S <b> 20, the own vehicle movement calculation unit 24 calculates the own vehicle movement parameter using the background vector stored in the storage unit 13. Details of the calculation method of the own vehicle movement parameter using the background vector will be described later.

以上の手順により、画像内に大きな物体が存在しても正確に自車移動パラメータを推定することができる。   According to the above procedure, the own vehicle movement parameter can be accurately estimated even when a large object exists in the image.

本実施形態に係る自車移動推定装置10は、ある程度遠い位置にある特徴点、あるいは地面の特徴点の背景ベクトルのみを用いて自車移動パラメータを算出する。このため、たとえば画面上に大きな物体がある場合や、画面内を大きな物体が横切る場合でも、これらの物体の動きベクトルは背景ベクトルとしては検出されず、正確に自車移動パラメータを算出することができる。また、背景ベクトルのみを計算に用いるため、非常に計算が軽いとともに、画像以外の入力情報を必要としない。   The own vehicle movement estimation apparatus 10 according to the present embodiment calculates the own vehicle movement parameter using only the feature points that are located at some distance away or the background vectors of the feature points on the ground. For this reason, for example, even when there are large objects on the screen or when large objects cross the screen, the motion vectors of these objects are not detected as background vectors, and the own vehicle movement parameter can be calculated accurately. it can. In addition, since only the background vector is used for the calculation, the calculation is very light and input information other than the image is not required.

続いて、画像から検出された動きベクトルを背景ベクトルとして検出するか否かの判定方法について、より詳細に説明する。   Next, a method for determining whether or not to detect a motion vector detected from an image as a background vector will be described in more detail.

図6は、図5のS15で背景ベクトル検出部23により実行される背景ベクトル判定処理の手順の一例を示すサブルーチンフローチャートである。   FIG. 6 is a subroutine flowchart showing an example of the procedure of the background vector determination process executed by the background vector detection unit 23 in S15 of FIG.

背景ベクトル検出部23は、画像から検出された動きベクトルと自車移動ベクトルとの比較により、近い動きベクトルであれば次のフレームで使用する自車移動パラメータを計算するための背景ベクトルとする。判断する順番としては、たとえば、角度で比較し、差で比較し、比で比較する。なお、処理の開始時は通常止まったところから始まるが、そうでない場合がある。そのため少しの時間の間は、背景ベクトルとなりやすいように条件を変更してもよいし、物体を検出しないようにしても良い。   By comparing the motion vector detected from the image with the own vehicle movement vector, the background vector detection unit 23 sets the background vector for calculating the own vehicle movement parameter used in the next frame if it is a close motion vector. As the order of determination, for example, comparison is made by angle, comparison by difference, and comparison by ratio. It should be noted that when processing starts, it usually starts from where it stopped, but it may not be the case. Therefore, for a short time, the condition may be changed so that the background vector is likely to be obtained, or an object may not be detected.

ステップS31において、背景ベクトル検出部23は、画像から検出された動きベクトルと自車移動ベクトルの角度差が、記憶部13にあらかじめ記憶された角度閾値ThA以下であるか否かを判定する。   In step S <b> 31, the background vector detection unit 23 determines whether the angle difference between the motion vector detected from the image and the own vehicle movement vector is equal to or smaller than the angle threshold ThA stored in the storage unit 13 in advance.

角度の比較の方法は、検出された動きベクトルのままでの角度比較と、回転成分をキャンセルしたベクトルでの角度比較を行う。つまり、下記の2通りのベクトル角度比較を行う。
(pu、pv)と(tu + wu、tv + wv)
(pu - wu、pv - wv)と(tu、tv)
The angle comparison method performs angle comparison using the detected motion vector as it is and angle comparison using a vector in which the rotation component is canceled. That is, the following two vector angle comparisons are performed.
(pu, pv) and (tu + wu, tv + wv)
(pu-wu, pv-wv) and (tu, tv)

FOE付近では、自車移動パラメータの誤差によってベクトルの向きがずれるため、どちらの角度比較でも角度がずれているときに背景ベクトルとはせず物体のベクトルと判定する(ステップS31のNO)。この結果、背景ベクトルとしてふさわしくない動きベクトルを検出してしまうことを防ぐことができる。また、動きベクトルの検出精度が高い場合には、どちらかの角度がずれているときのみ物体ベクトルとして検出してもよい。   In the vicinity of the FOE, the direction of the vector is deviated due to an error in the own vehicle movement parameter. Therefore, when the angle is deviated in either angle comparison, the vector is determined as the object vector instead of the background vector (NO in step S31). As a result, it is possible to prevent a motion vector that is not suitable as a background vector from being detected. Further, when the motion vector detection accuracy is high, it may be detected as an object vector only when one of the angles is shifted.

なお、動きベクトルが小さいと、ノイズの影響が大きくなり動きベクトルの向きがばらばらになってしまう。一方、ある程度大きければ、向きに関してはノイズの影響を受けにくくなる。したがって、角度の比較は、動きベクトルの大きさが所定の大きさ以上の場合のみ行うようにするとよい。   Note that if the motion vector is small, the influence of noise increases and the direction of the motion vector varies. On the other hand, if it is large to some extent, the direction is less susceptible to noise. Therefore, the angle comparison is preferably performed only when the magnitude of the motion vector is equal to or larger than a predetermined magnitude.

角度閾値ThAより大きな角度差がある場合は、ステップS32に進み、物体ベクトルと判定して図5のステップS17に進む。一方、角度差が角度閾値ThA以下である場合は、ステップS33に進む。   If there is an angle difference larger than the angle threshold ThA, the process proceeds to step S32, and the object vector is determined and the process proceeds to step S17 in FIG. On the other hand, when the angle difference is equal to or smaller than the angle threshold value ThA, the process proceeds to step S33.

次に、ステップS33において、背景ベクトル検出部23は、画像から検出された動きベクトルと自車移動ベクトルの大きさの差が、記憶部13にあらかじめ記憶された差閾値ThS以下であるか否かを判定する。   Next, in step S33, the background vector detection unit 23 determines whether or not the difference between the magnitude of the motion vector detected from the image and the own vehicle movement vector is equal to or less than the difference threshold ThS stored in the storage unit 13 in advance. Determine.

大きさの比較においても、回転成分をキャンセルした状態で比較しても良い。また、大きさの差の比較においては、計算を簡略化するために、u(x方向のベクトル)かv(y方向のベクトル)の自車移動ベクトルの大きいほうのみで計算しても良い。   Also in the size comparison, the comparison may be performed in a state where the rotation component is canceled. In order to simplify the calculation of the difference in size, the calculation may be performed using only the larger one of the vehicle movement vectors of u (vector in the x direction) or v (vector in the y direction).

大きさの差が閾値ThS以下である場合は、ステップS34に進みこの動きベクトルを背景ベクトルと判定して図5のステップS16に進む。一方、大きさの差が差閾値ThSより大きい場合は、ステップS35に進み比の判定を行う。   If the magnitude difference is equal to or smaller than the threshold ThS, the process proceeds to step S34, and the motion vector is determined as the background vector, and the process proceeds to step S16 in FIG. On the other hand, if the difference in size is larger than the difference threshold ThS, the process proceeds to step S35 to determine the ratio.

なお、背景ベクトルの誤検出を防ぐよう、差閾値ThSは次のように重み付けするとよい。   In order to prevent erroneous detection of the background vector, the difference threshold ThS may be weighted as follows.

まず、自車移動パラメータが大きい場合、振動などにより自車移動パラメータの変化量が大きくなる。このため、自車移動パラメータが大きい場合には、差閾値を大きくする。このとき最大値制限をしてもよい。
s1 = ThS・|R|・|T| / (|Rs|・|Ts|)
(s1がThSより小さい場合はs1 = ThS)
|R|:自車移動パラメータの回転成分の大きさ
|T|:自車移動パラメータの並進成分の大きさ
|Rs|:大きいとする自車移動パラメータの回転成分の大きさ
|Ts|:大きいとする自車移動パラメータの並進成分の大きさ
First, when the own vehicle movement parameter is large, the amount of change in the own vehicle movement parameter increases due to vibration or the like. For this reason, when the own vehicle movement parameter is large, the difference threshold value is increased. At this time, the maximum value may be limited.
s1 = ThS ・ | R | ・ | T | / (| Rs | ・ | Ts |)
(If s1 is smaller than ThS, s1 = ThS)
| R |: Rotation component size of own vehicle movement parameter
| T |: Size of translation component of own vehicle movement parameter
| Rs |: The magnitude of the rotation component of the own vehicle movement parameter
| Ts |: Magnitude of translation component of own vehicle movement parameter

また、画面の中心より外側になるにしたがい、検出した動きベクトルまでの距離が遠くなる。このため、ノイズの影響がその分増幅されやすくなり、動きベクトルの検出精度が悪くなることになる。したがって、距離が遠いほど差閾値を大きくする。
s2 = s1・(√(f・f + x・x + y・y)) / f
In addition, the distance to the detected motion vector becomes longer as it goes outside the center of the screen. For this reason, the influence of noise is more likely to be amplified, and the motion vector detection accuracy is deteriorated. Therefore, the difference threshold is increased as the distance increases.
s2 = s1 ・ (√ (f ・ f + x ・ x + y ・ y)) / f

さらに、画面の下になるに従い路面となり、自車に近づく。このため、zの値が小さくなり、自車移動ベクトルの影響が大きくなる。したがって、自車移動パラメータがずれていた場合の影響度が大きくなる。そこで、zが近いほど差閾値を大きくする。
s3 = s2・Zmax / z
Furthermore, it becomes a road surface as it goes to the bottom of the screen, and approaches the own vehicle. For this reason, the value of z becomes small and the influence of the own vehicle movement vector becomes large. Therefore, the degree of influence when the own vehicle movement parameter is shifted increases. Therefore, the difference threshold is increased as z is closer.
s3 = s2 ・ Zmax / z

また、この乗算分をさらに乗じて、より誤差があっても背景ベクトルとなりやすくしてもよい。   Further, this multiplication may be further multiplied to make it easier to become a background vector even if there is an error.

角度の比較で物体ベクトルとならず、かつ大きさの差の比較で背景ベクトルとならなかった動きベクトルについて、ステップS35において、背景ベクトル検出部23は、画像から検出された動きベクトルと自車移動ベクトルの比が、記憶部13にあらかじめ記憶された比閾値ThR以下であるか否かを判定する。比の1からの差が比閾値ThR以下である場合は、ステップS34に進みこの動きベクトルを背景ベクトルと判定して図5のステップS16に進む。一方、比の1からの差が比閾値ThRより大きい場合はステップS32に進み、物体ベクトルと判定して図5のステップS17に進む。   For a motion vector that does not become an object vector in the angle comparison and does not become a background vector in the size difference comparison, in step S35, the background vector detection unit 23 moves the motion vector detected from the image and the own vehicle movement. It is determined whether or not the vector ratio is less than or equal to a ratio threshold ThR stored in the storage unit 13 in advance. If the difference from 1 in the ratio is equal to or less than the ratio threshold ThR, the process proceeds to step S34, the motion vector is determined as the background vector, and the process proceeds to step S16 in FIG. On the other hand, when the difference from 1 is larger than the ratio threshold ThR, the process proceeds to step S32, is determined as an object vector, and the process proceeds to step S17 in FIG.

なお、比の比較においても、回転成分をキャンセルした状態で比較しても良い。たとえば比が1に近ければ背景とみなし、そうでなければ背景とはしない。また、計算を簡略化するために、u(x方向のベクトル)かv(y方向のベクトル)の自車移動ベクトルの大きいほうのみで計算しても良い。   In comparison of the ratio, the comparison may be performed in a state where the rotation component is canceled. For example, if the ratio is close to 1, it is regarded as the background, otherwise it is not regarded as the background. In order to simplify the calculation, the calculation may be performed using only the larger one of the own vehicle movement vectors of u (vector in the x direction) or v (vector in the y direction).

次に、カメラ11が左右の領域を撮影可能に構成される場合について説明する。   Next, a case where the camera 11 is configured to be able to capture the left and right areas will be described.

魚眼レンズを用いる場合など、カメラ11が左右の領域を撮影可能である場合、正面だけではなく、左右にも画像を用意しておいてもよい。このとき、自車移動パラメータを左右の方向に展開できるように、画像を真横に設置するか、斜めなどでの画像で取得したベクトルを真横の平面に射影変換させる。   When the camera 11 can capture the left and right areas, such as when using a fisheye lens, images may be prepared not only on the front but also on the left and right. At this time, the image is placed directly beside so that the own vehicle movement parameter can be developed in the left and right directions, or the vector acquired by the oblique image or the like is projectively transformed to the beside plane.

例えば左画像の場合、回転パラメータRl(Rlx、Rly、Rlz)は正面の回転パラメータを使用して次のように書ける。
Rlx = Rz
Rly = Ry
Rlz = -Rx
For example, in the case of the left image, the rotation parameter Rl (Rlx, Rly, Rlz) can be written as follows using the front rotation parameter.
Rlx = Rz
Rly = Ry
Rlz = -Rx

同様に、左画像の並進パラメータTl(Tlx、Tly、Tlz)は正面の並進パラメータを使用して次のように書ける。
Tlx = Tz
Tly = Ty
Tlz = -Tx
Similarly, the translation parameter Tl (Tlx, Tly, Tlz) of the left image can be written using the front translation parameter as follows:
Tlx = Tz
Tly = Ty
Tlz = -Tx

となる。右画像の場合、回転パラメータをRr(Rrx、Rry、Rrz)、並進パラメータをTr(Trx、Try、Trz)とすると、正面のパラメータより下記のようになる。
Rrx = -Rz
Rry = Ry
Rrz = Rx
Trx = -Tz
Try = Ty
Trz = Tx
It becomes. In the case of the right image, assuming that the rotation parameter is Rr (Rrx, Rry, Rrz) and the translation parameter is Tr (Trx, Try, Trz), the following parameters are obtained from the front parameters.
Rrx = -Rz
Rry = Ry
Rrz = Rx
Trx = -Tz
Try = Ty
Trz = Tx

求めたい左側のzは、正面画像のFOEyの位置より、画面の右側を+xとすると、次のように表せる。
z = (Dgnd・f / cos(θgnd)) / (y - FOEy・x / f) (zはZmaxで制限)
θgnd = atan(FOEy / f)
The left side z to be obtained can be expressed as follows from the position of FOEy in the front image, assuming that the right side of the screen is + x.
z = (Dgnd ・ f / cos (θgnd)) / (y-FOEy ・ x / f) (z is limited by Zmax)
θgnd = atan (FOEy / f)

同様に画面の右側を+xとすると、右側のzは次のように表せる。
z = (Dgnd・f / cos(θgnd)) / (y + FOEy・x / f) (zはZmaxで制限)
θgnd = atan(FOEy / f)
Similarly, if the right side of the screen is + x, z on the right side can be expressed as follows.
z = (Dgnd ・ f / cos (θgnd)) / (y + FOEy ・ x / f) (z is limited by Zmax)
θgnd = atan (FOEy / f)

以上のパラメータを使用して、正面の画像と同様の処理を行い、背景ベクトルを検出することができる。また、左右画像から検出した背景ベクトルは、自車移動パラメータの計算に用いてもよい。また、回転成分の計算は並進成分の計算と見分けがつきやすい正面のみとしても良い。それぞれの方向によって得られた自車移動パラメータは、最後に正面の方向のパラメータとして一つにする。その場合、平均でもいいし、ベクトル数で重み付けしても良い。   Using the above parameters, the background vector can be detected by performing the same processing as the front image. Further, the background vector detected from the left and right images may be used for calculating the own vehicle movement parameter. In addition, the calculation of the rotation component may be performed only on the front surface that can be easily distinguished from the calculation of the translation component. The vehicle movement parameter obtained for each direction is finally set as one parameter for the front direction. In that case, it may be average or weighted by the number of vectors.

続いて、図5のステップS20で自車移動算出部24により実行される、背景ベクトルを用いた自車移動パラメータの算出方法の詳細について説明する。   Next, details of the method for calculating the own vehicle movement parameter using the background vector, which is executed by the own vehicle movement calculation unit 24 in step S20 of FIG. 5, will be described.

まず、自車移動パラメータの回転成分Rを計算する。得られた背景ベクトルを(x1、y1、u1、v1)・・・(xn、yn、un、vn)=(x座標位置、y座標位置、x方向ベクトル、y 方向ベクトル)とした場合、下記の計算式の最小2乗解を求めればよい。ただし、nは1以上の整数を表す。   First, the rotation component R of the own vehicle movement parameter is calculated. When the obtained background vector is (x1, y1, u1, v1) (xn, yn, un, vn) = (x coordinate position, y coordinate position, x direction vector, y direction vector), What is necessary is just to obtain | require the least squares solution of these calculation formulas. However, n represents an integer of 1 or more.

Figure 2013097390
Figure 2013097390

次に上記の公知の回転成分計算により得られたRを使用し、並進成分Tの計算を行う。得られた背景ベクトルを(x1、y1、z1、u1、v1)・・・(xn、yn、zn、un、vn)=(x座標位置、y座標位置、z座標位置、x方向ベクトル、y方向ベクトル)とした場合、下記の計算式の最小2乗解を求めればよい。ただしnは1以上の整数を表す。   Next, the translation component T is calculated using R obtained by the above-mentioned known rotation component calculation. The obtained background vector is (x1, y1, z1, u1, v1) (xn, yn, zn, un, vn) = (x coordinate position, y coordinate position, z coordinate position, x direction vector, y (Direction vector), a least squares solution of the following formula may be obtained. However, n represents an integer of 1 or more.

Figure 2013097390
Figure 2013097390

次に、上記の公知の回転成分計算により得られたRを使用し、収束点FOE(FOEx、FOEy)の計算を行う。得られた背景ベクトルを(x1、y1、u1、v1)・・・(xn、yn、un、vn) = (x座標位置、y座標位置、x方向ベクトル、y 方向ベクトル)とした場合、下記の計算式の最小2乗解を求めればよい。ただしnは1以上の整数を表す。   Next, the convergence point FOE (FOEx, FOEy) is calculated using R obtained by the known rotation component calculation. When the obtained background vector is (x1, y1, u1, v1) (xn, yn, un, vn) = (x coordinate position, y coordinate position, x direction vector, y direction vector), What is necessary is just to obtain | require the least squares solution of these calculation formulas. However, n represents an integer of 1 or more.

Figure 2013097390
Figure 2013097390

さらに、以下の条件を加えることにより、上記の公知の計算を単純化することができる。なお、以下の条件は、得られる背景ベクトルが少ない場合に使用してもよい。
FOEx = 0
FOEy = 一定(キャリブレーション必須)
Rx = 0
Ry = 可変(計算する対象)
Rz = (-FOEy / f)・Ry
Tx = 0
Ty = (FOEy / f)・Tz
Tz = 可変(計算する対象)
Furthermore, the above known calculation can be simplified by adding the following conditions. The following conditions may be used when there are few obtained background vectors.
FOEx = 0
FOEy = constant (calibration required)
Rx = 0
Ry = variable (object to be calculated)
Rz = (-FOEy / f) ・ Ry
Tx = 0
Ty = (FOEy / f) ・ Tz
Tz = variable (object to be calculated)

FOEyに値を持たせるのは、ある程度地面方向にし、地面側の解像度を上げて、障害物を検出しやすくするためである。計算を単純化するために、FOEy = −f / 2やFOEy = −fとしてもよい。   The reason why FOEy is given a value is to make it easier to detect an obstacle by making the ground direction to some extent and increasing the resolution on the ground side. In order to simplify the calculation, FOEy = −f / 2 or FOEy = −f may be used.

また、FOExが0ではない場合、下記のようにして計算しても良い。
Rx = (-FOEx / f)・Ry
Tx = (FOEx / f)・Tz
When FOEx is not 0, the calculation may be performed as follows.
Rx = (-FOEx / f) ・ Ry
Tx = (FOEx / f) ・ Tz

上記の計算式で得られる結果は、ばらつきが大きい。そのため、自車が動いているほど自車パラメータの変化量が大きいと判断し、得られたベクトル(u、v)の大きさの平均に定数を乗じてベクトルの制限を入れてもよい。このとき画面の端ほど遠いためベクトルが大きくなることを考慮し、f/(√(f・f + x・x + y・y))をかけてもよい。また、地面はベクトルが大きくなることを考慮し、ベクトルの大きさにz/Zmaxをかけても良い。また、回転成分をキャンセルした(u−wu、v−wv)を使用してもよい。以上をすべて考慮した場合のベクトルの大きさの平均を求めると下記のようになる。
Ans = (1 / n)・Σ((√(X・X + Y・Y))・(f / F)・(z / Zmax))
X = u - wu
Y = v - wv
F = √(f・f + x・x + y・y)
wu = -(x・y / f)・Rx + ((f・f + x・x) / f)・Ry - y・Rz
wv = -((f・f + y・y) / f)・Rx + (x・y / f)・Ry + x・Rz
上記により得られた結果によっては、ほとんど動かない場合や動きすぎる場合がある。このため、最大最小制限を入れる。次に、それぞれの自車移動パラメータに固有の比例定数をかけて、それを制限とする。また、最初にキャリブレーションするなどして初期値がある程度信用できる場合は、初期値側(止まっている側)への変化量の制限を、2倍ゆるくするなどで緩和して、初期値側へ行きやすくしてもよい。
The results obtained with the above formulas vary greatly. For this reason, it may be determined that the amount of change in the own vehicle parameter increases as the own vehicle moves, and the average of the obtained vectors (u, v) may be multiplied by a constant to limit the vector. At this time, f / (√ (f · f + x · x + y · y)) may be applied in consideration of the fact that the vector becomes larger because it is farther from the edge of the screen. Also, considering that the vector becomes large on the ground, z / Zmax may be applied to the magnitude of the vector. Moreover, you may use (u-wu, v-wv) which canceled the rotation component. The average of the vector sizes when all of the above are taken into consideration is as follows.
Ans = (1 / n) ・ Σ ((√ (X ・ X + Y ・ Y)) ・ (f / F) ・ (z / Zmax))
X = u-wu
Y = v-wv
F = √ (f ・ f + x ・ x + y ・ y)
wu =-(x ・ y / f) ・ Rx + ((f ・ f + x ・ x) / f) ・ Ry-y ・ Rz
wv =-((f ・ f + y ・ y) / f) ・ Rx + (x ・ y / f) ・ Ry + x ・ Rz
Depending on the result obtained by the above, there is a case where it hardly moves or moves too much. For this reason, a maximum and minimum limit is included. Next, each vehicle movement parameter is multiplied by a specific proportionality constant to limit it. Also, if the initial value can be trusted to some extent by performing calibration first, the restriction on the amount of change to the initial value side (stopped side) is relaxed by loosening twice, etc., to the initial value side. It may be easy to go.

次に、フレーム画像を複数領域に分割して背景ベクトルを検出する方法について説明する。   Next, a method for detecting a background vector by dividing a frame image into a plurality of regions will be described.

図7(a)は、魚眼カメラの左1/4視野および右1/4視野をyz平面に平行に配置された左画面42および右画面43にそれぞれ射影する例を示す説明図であり、(b)は、魚眼カメラの左1/4視野および右1/4視野をy軸に並行かつyz平面に対して所定の傾きを持つよう配置された左画面42および右画面43にそれぞれ投影する例を示す説明図であり、(c)は、魚眼カメラの左1/4視野および右1/4視野をそれぞれxz平面に平行に配置された左画面42および右画面43にそれぞれ射影する例を示す説明図である。図7(a)〜(c)のいずれにおいても、魚眼カメラの正面左1/4視野および正面右1/4視野は正面41に投影されるものとする。   FIG. 7A is an explanatory diagram showing an example in which the left quarter view and the right quarter view of the fisheye camera are projected onto the left screen 42 and the right screen 43 arranged in parallel to the yz plane, respectively. (B) Projects the left 1/4 field of view and the right 1/4 field of view of the fisheye camera on the left screen 42 and the right screen 43 arranged in parallel with the y axis and having a predetermined inclination with respect to the yz plane, respectively. It is explanatory drawing which shows the example to perform, (c) each projects the left 1/4 visual field and right 1/4 visual field of a fish-eye camera on the left screen 42 and the right screen 43 which are arrange | positioned in parallel with xz plane, respectively. It is explanatory drawing which shows an example. In any of FIGS. 7A to 7C, the front left 1/4 field of view and the front right 1/4 field of view of the fisheye camera are projected on the front surface 41.

また、図8は、図7(a)に示す場合における動きベクトルの算出方法を説明するための図である。   FIG. 8 is a diagram for explaining a motion vector calculation method in the case shown in FIG.

図7に示すように、180度見渡せる魚眼カメラのようなカメラを用いる場合、図8に示すように画像を正面41、左画面42および右画面43に3分割し、各面において背景ベクトルを取得してもよい。このとき水平線あたりのみとしてもよい。また、路面でのベクトルを使用するのであれば(z / Zmax)で乗算し正規化しておく。また、違う画面方向や円筒状の画像や球状の画像を平面に引き伸ばした画像で得られたベクトルを射影変換などして正面と真横の面でのベクトルにしてもよい。このときFOEは正面画像の中心とし水平線は真横になるように画像またはベクトルを射影変換する。得られたベクトルを横方向のみとし、画面の横ほどベクトルが大きくなるので小さくし、地面ほどベクトルが大きくなるので小さくする。以上で得られたベクトルを45度ごとの4つの領域に分けて平均化する。   As shown in FIG. 7, when using a camera such as a fish-eye camera that can look around 180 degrees, the image is divided into a front 41, a left screen 42, and a right screen 43 as shown in FIG. You may get it. At this time, it may be only around the horizontal line. If a vector on the road surface is used, it is normalized by multiplying by (z / Zmax). Further, a vector obtained from an image obtained by extending a plane of a different screen direction, a cylindrical image, or a spherical image may be converted into a vector for the front and right sides by projective transformation. At this time, the image or vector is projectively transformed so that the FOE is the center of the front image and the horizontal line is directly beside. The obtained vector is set only in the horizontal direction, the vector becomes larger as the width of the screen becomes smaller, and the vector becomes larger as the ground becomes smaller. The vector obtained as described above is divided into four regions every 45 degrees and averaged.

たとえば図7(a)に示す場合、得られるベクトルをそれぞれ、正面左がUfl、正面右がUfr、左横がUsl、右横がUsrとし、得られる角度をそれぞれ正面左がθfl、正面右がθfr、左横がθsl、右横がθsrするとき、まず、画面の右を+xとすると、正面画像に対しては次式が成り立つ。   For example, in the case shown in FIG. 7A, the obtained vectors are Ufl on the front left, Ufr on the front right, Usl on the left side, Usr on the right side, and the obtained angles are θfl on the front left and When θfr, the left side is θsl, and the right side is θsr, first, assuming that the right side of the screen is + x, the following equation holds for the front image.

Ufl = (1 / n)・Σ(u・(f / √(f・f + x・x))・(z / Zmax))
θfl = (1 / n)・Σacos(x / f) (= 90°〜135°)
Ufr = (1 / n)・Σ(u・(f / √(f・f + x・x))・(z / Zmax))
θfr = (1 / n)・Σacos(x / f) (= 45°〜90°)
Ufl = (1 / n) ・ Σ (u ・ (f / √ (f ・ f + x ・ x)) ・ (z / Zmax))
θfl = (1 / n) ・ Σacos (x / f) (= 90 ° to 135 °)
Ufr = (1 / n) ・ Σ (u ・ (f / √ (f ・ f + x ・ x)) ・ (z / Zmax))
θfr = (1 / n) ・ Σacos (x / f) (= 45 ° ~ 90 °)

また、画面の右を+xとすると、左画面に対しては次式が成り立つ。
Usl = (1 / n)・Σ(u・(f / √(f・f + x・x))・(z / Zmax))
θsl = 180°- (1 / n)・Σasin(x / f) (= 135°〜180°)
If the right side of the screen is + x, the following equation holds for the left screen.
Usl = (1 / n) ・ Σ (u ・ (f / √ (f ・ f + x ・ x)) ・ (z / Zmax))
θsl = 180 °-(1 / n) ・ Σasin (x / f) (= 135 ° to 180 °)

また、画面の右を+xとすると、右画面に対しては次式が成り立つ。
Usr = (1 / n)・Σ(u・(f / √(f・f + x・x))・(z / Zmax))
θsr = -(1 / n)・Σasin(x / f) (= 0°〜45°)
If the right side of the screen is + x, the following equation holds for the right screen.
Usr = (1 / n) ・ Σ (u ・ (f / √ (f ・ f + x ・ x)) ・ (z / Zmax))
θsr =-(1 / n) ・ Σasin (x / f) (= 0 ° ~ 45 °)

なお、ここでは図7(a)で示す場合について、すなわち画像面を真正面と真横とする場合について計算しているが、図7(b)や(c)などの違う向きで画像取得しても、半円上でのベクトルの長さとする計算にすればよい。また、円柱状を平面に引き伸ばした画像でベクトルを取得した場合にはx方向が角度となるため、距離での正規化(f / √(f・f + x・x))はせず、角度もそのまま平均とすればよい。   Here, the calculation is performed for the case shown in FIG. 7A, that is, the case where the image plane is the front side and the side side. However, even if the images are acquired in different directions such as FIGS. 7B and 7C. The length of the vector on the semicircle may be calculated. In addition, when a vector is acquired from an image obtained by extending a cylindrical shape to a plane, the x direction becomes an angle. Therefore, normalization with distance (f / √ (f · f + x · x)) is not performed, and the angle is Can be averaged as is.

得られた結果は大雑把なベクトルであるため、y軸回転成分Ryとz方向成分Tzのみを計算する。4つのベクトルは円上のベクトルとなる。そのベクトルをRyとTzのみで構成されていると仮定しているので、回転成分をUroとすると下記の式が得られる。
f・Tz / Zmax = -(Ufl - Uro) / cos(θfl)
f・Tz / Zmax = -(Ufr - Uro) / cos(θfr)
f・Tz / Zmax = -(Usl - Uro) / cos(θsl)
f・Tz / Zmax = -(Usr - Uro) / cos(θsr)
Ry = Uro / f
Since the obtained result is a rough vector, only the y-axis rotation component Ry and the z-direction component Tz are calculated. The four vectors are vectors on a circle. Since it is assumed that the vector is composed only of Ry and Tz, the following equation is obtained when the rotation component is Uro.
f ・ Tz / Zmax =-(Ufl-Uro) / cos (θfl)
f ・ Tz / Zmax =-(Ufr-Uro) / cos (θfr)
f ・ Tz / Zmax =-(Usl-Uro) / cos (θsl)
f ・ Tz / Zmax =-(Usr-Uro) / cos (θsr)
Ry = Uro / f

上記より2点を選べばRyとTzが連立方程式により導き出される。   If two points are selected from the above, Ry and Tz are derived by simultaneous equations.

上記の計算精度が上がるように、並進成分が小さく見えるUflとUfrによりRyを導き、そのRyを使用して、並進成分の大きくなるUslとUsrにより導き出したTzを平均化してTzとしても良い。   In order to improve the above calculation accuracy, Ry may be derived from Ufl and Ufr in which the translation component appears to be small, and Tz derived from Usl and Usr in which the translation component becomes large may be averaged to be Tz.

また、背景ベクトルに近い物体のベクトルを背景ベクトルとしてしまっている可能性を考慮し、4つのベクトルをすべて使用して計算しても良い。その場合、UflとUfrにより導出したRyと、UslとUsrにより導出したRyを平均化したものをRyとする。そして、それぞれの計算式にRyを代入しそれぞれのTzを導き出し、平均化したものをTzとする。または、最小2乗解を導き出してもよい。   In consideration of the possibility that an object vector close to the background vector is a background vector, the calculation may be performed using all four vectors. In this case, Ry is obtained by averaging Ry derived from Ufl and Ufr and Ry derived from Usl and Usr. Then, Ry is substituted into each calculation formula to derive each Tz, and the average is Tz. Alternatively, a least square solution may be derived.

また、2点による解は6通りで導き出すことができるが、導き出した解の中間の値(たとえば真中2点の平均)をRyとTzとしてもよい。この場合、背景ベクトルに近い物体ベクトルを背景ベクトルとしてしまっている場合にも、ある程度無視することができるようになる。   In addition, six solutions can be derived from two points, but an intermediate value of the derived solutions (for example, the average of two middle points) may be Ry and Tz. In this case, even when an object vector close to the background vector is used as the background vector, it can be ignored to some extent.

また、計算を単純化するために、ベクトル平均の位置を下記のように4分割した中間の位置とし、計算で使用する位置としてもよい。
θsr = 45°/ 2
θfr =θsr + 45°
θfl =θfr + 45°
θsl =θfl + 45°
In order to simplify the calculation, the position of the vector average may be an intermediate position divided into four as described below, and may be a position used in the calculation.
θsr = 45 ° / 2
θfr = θsr + 45 °
θfl = θfr + 45 °
θsl = θfl + 45 °

上記のように単純化した角度だとすると、ベクトルがRyとTzのみで構成されていると仮定しているため、左右対称の位置にあるベクトルを平均するとRy成分のみとなる。また、Ry成分をキャンセルすると左右対称の位置にあるベクトルは極性が逆で同じ大きさになる。   Assuming that the angle is simplified as described above, it is assumed that the vector is composed only of Ry and Tz. Therefore, if the vectors at the symmetrical positions are averaged, only the Ry component is obtained. When the Ry component is canceled, the vectors at the left and right symmetrical positions have the opposite polarity and the same magnitude.

Ryを計算するためには並進成分の影響を受けにくい正面2つのベクトルの平均((Ufl+Ufr)/2)を使用しても良い。また、物体のベクトルに結果がひきずられるのを防ぐために、4つのベクトルすべての平均((Ufl+Ufr+Usl+Usr)/4)を使用してもよい。また、たとえば正面でベクトルが得られなかった場合には、横の2つのベクトルの平均((Usl+Usr)/2)を用いても良い。得られた平均値Uroは回転成分のみであるとみなし、
Ry = Uro / f
In order to calculate Ry, an average ((Ufl + Ufr) / 2) of two front vectors which are not easily affected by the translation component may be used. Also, the average of all four vectors ((Ufl + Ufr + Usl + Usr) / 4) may be used to prevent the result from being dragged by the object vector. For example, when a vector is not obtained in the front, an average of two horizontal vectors ((Usl + Usr) / 2) may be used. The average value Uro obtained is considered to be only the rotational component,
Ry = Uro / f

となる。次にTzを計算する。4箇所のベクトルの回転成分をキャンセルすると、
Ufl = Ufl - Uro
Ufr = Ufr - Uro
Usl = Usl - Uro
Usr = Usr - Uro
It becomes. Next, Tz is calculated. If you cancel the rotational components of the four vectors,
Ufl = Ufl-Uro
Ufr = Ufr-Uro
Usl = Usl-Uro
Usr = Usr-Uro

が得られる。得られた結果は理想的には並進成分のみとなり、θ=22.5°とすると次のようになる。
Ufl ≒ -Ufr
Usl ≒ -Usr
Usl / cos(θ) ≒ Ufl / cos(90°-θ)
→Usl ≒ Ufl / tan(θ)
Usl / cos(θ) = f・Tz / Zmax
→Tz = Zmax・Usl / (f・cos(θ))
Is obtained. The obtained result ideally has only a translational component, and when θ = 22.5 °, the result is as follows.
Ufl ≒ -Ufr
Usl ≒ -Usr
Usl / cos (θ) ≒ Ufl / cos (90 ° -θ)
→ Usl ≒ Ufl / tan (θ)
Usl / cos (θ) = f ・ Tz / Zmax
→ Tz = Zmax ・ Usl / (f ・ cos (θ))

よって並進成分は大きくなりやすいUslとUsrを使用し、
Tz = Zmax・((Usl-Usr)/2) / (f・cos(θ))
Therefore, the translation component uses Usl and Usr, which tend to be large,
Tz = Zmax ・ ((Usl-Usr) / 2) / (f ・ cos (θ))

としても良いし、4つのベクトルのすべてを使用し、
Tz = Zmax・((Usl-Usr+(Ufl-Ufr)/tan(θ))/4) / (f・cos(θ))
Or use all four vectors,
Tz = Zmax ・ ((Usl-Usr + (Ufl-Ufr) / tan (θ)) / 4) / (f ・ cos (θ))

としても良いし、Uslだけを使用して
Tz = Zmax・Usl / (f・cos(θ))
Or just use Usl
Tz = Zmax ・ Usl / (f ・ cos (θ))

としても良いし、Usrだけを使用して
Tz = -Zmax・Usr / (f・cos(θ))
Or just use Usr
Tz = -Zmax ・ Usr / (f ・ cos (θ))

としても良い。また、ベクトルが2箇所からしか得られなかった場合には、回転成分をUroとすると、
Ufl - Uro ≒ -(Ufr - Uro)
Usl - Uro ≒ -(Usr - Uro)
Usl - Uro ≒ (Ufl - Uro) / tan(θ)
It is also good. If the vector can only be obtained from two places, and the rotation component is Uro,
Ufl-Uro ≒-(Ufr-Uro)
Usl-Uro ≒-(Usr-Uro)
Usl-Uro ≒ (Ufl-Uro) / tan (θ)

より、Uroを連立方程式で計算して導き出し、RyとTzを計算しても良い。   Thus, Uro may be calculated and derived by simultaneous equations, and Ry and Tz may be calculated.

以上により得られたRyとTzの付近になるように、自車移動パラメータに制限を入れる。また、Rx、Rz、Tx、Tyも下記の式により導かれた値で、その付近になるように自車移動パラメータに制限を入れる。
Rx = (-FOEx / f)・Ry
Rz = (-FOEy / f)・Ry
Tx = (FOEx / f)・Tz
Ty = (FOEy / f)・Tz
The own vehicle movement parameter is limited so as to be in the vicinity of Ry and Tz obtained as described above. Rx, Rz, Tx, and Ty are values derived from the following equations, and the own vehicle movement parameters are limited so that they are in the vicinity thereof.
Rx = (-FOEx / f) ・ Ry
Rz = (-FOEy / f) ・ Ry
Tx = (FOEx / f) ・ Tz
Ty = (FOEy / f) ・ Tz

また、水平線を真横ではない状態から真横になるように変換しているのであれば、その分逆回転させる。   In addition, if the horizontal line is converted from a state that is not directly beside, to the beside, the reverse rotation is performed accordingly.

なお、ここで得られたパラメータを制限としては使用せずに、そのまま自車移動パラメータとして使用してもよい。また、4分割したが、8分割などもっと細かくしても良いし、2分割や3分割に荒くしても良い。また、45度ごとの領域ではなく、30度などの別の角度としても良いし、領域ごとに角度を変えても良い。この場合、左右で同じ角度領域であることが望ましい。   In addition, you may use the parameter obtained here as an own vehicle movement parameter as it is, without using it as a restriction | limiting. Further, although divided into four, it may be finer, such as eight, or may be roughly divided into two or three. Moreover, it is good also as another angle, such as 30 degree, instead of the area | region for every 45 degree | times, and you may change an angle for every area | region. In this case, it is desirable that the angle region is the same on the left and right.

次に、車両の挙動上の制約による制限について説明する。   Next, limitations due to restrictions on vehicle behavior will be described.

車の挙動には制約があるため、この制約に応じた制限を加えてもよい。たとえば、滑りがない場合、回転するためにはタイヤが前後についているためある程度並進する必要があるという制限がある。これらの制限1−9を以下に例示する。また、パラメータが異常値の可能性もあるため、制限の変化量に制限を入れても良い。   Since there is a restriction on the behavior of the car, a restriction corresponding to this restriction may be added. For example, when there is no slip, there is a restriction that it is necessary to translate to some extent because the tire is attached to the front and rear in order to rotate. These restrictions 1-9 are exemplified below. Further, since there is a possibility that the parameter is an abnormal value, a limit change amount may be set.

制限1は、FOEyのずれ分RyがあればRzがある、という制限である。
Rz = (-FOEy / f)・Ry
Restriction 1 is a restriction that there is Rz if there is a shift amount Ry of FOEy.
Rz = (-FOEy / f) ・ Ry

同様に下記のように、変数の位置を変えたパラメータに関しても制限を入れてもよい。
Ry = Rz / (-FOEy / f)
FOEy = -f・Rz / Ry
Similarly, as described below, a restriction may be placed on a parameter whose position of a variable is changed.
Ry = Rz / (-FOEy / f)
FOEy = -f ・ Rz / Ry

制限2は、FOEyのずれ分TzがあればTyがある、という制限である。
Ty = (FOEy / f)・Tz
The restriction 2 is a restriction that there is Ty if there is a shift amount Tz of FOEy.
Ty = (FOEy / f) ・ Tz

同様に、変数の位置を変えたパラメータに関しても制限を入れてもよい。   Similarly, a restriction may be placed on a parameter whose position of a variable is changed.

制限3は、FOExのずれ分RyがあればRxがある、という制限である。
Rx = (-FOEx / f)・Ry
Restriction 3 is a restriction that there is Rx if there is a shift amount Ry of FOEx.
Rx = (-FOEx / f) ・ Ry

同様に、変数の位置を変えたパラメータに関しても制限を入れてもよい。   Similarly, a restriction may be placed on a parameter whose position of a variable is changed.

制限4は、FOExのずれ分TzがあればTxがある、という制限である。
Tx = (FOEx / f)・Tz
Limit 4 is a limit that Tx exists if there is a shift Tz of FOEx.
Tx = (FOEx / f) ・ Tz

同様に、変数の位置を変えたパラメータに関しても制限を入れてもよい。   Similarly, a restriction may be placed on a parameter whose position of a variable is changed.

制限5は、RyがあればTzがある、という制限である。
画面方向へ前進中 Tz = -A・|Ry|
画面方向から後進中 Tz = A・|Ry|
The restriction 5 is a restriction that if there is Ry, there is Tz.
Moving forward in screen direction Tz = -A ・ | Ry |
Moving backward from screen direction Tz = A ・ | Ry |

Aは最大に陀角を持たせたときの比例定数である。Tzの大きさがここでの値より小さい場合の制限とする。前進か後進かはCAN(Communication Area Network)による情報や、Tzの符号が変わらない方向とすればよい。   A is a proportionality constant when the maximum depression angle is given. This is a limitation when the magnitude of Tz is smaller than the value here. Whether the vehicle is moving forward or backward may be in a direction in which information by CAN (Communication Area Network) and the sign of Tz do not change.

制限6は、TxはTzが必要である、という制限である。
B = A・|Tz|
Limit 6 is a limit that Tx requires Tz.
B = A ・ | Tz |

Aをある程度小さい値にしておいて、(FOEx/f)・Tz±Bの間になるようにTxを制限する。   A is set to a small value to some extent, and Tx is limited to be between (FOEx / f) · Tz ± B.

制限7は、TyはTzが必要である、という制限である。
B = A・|Tz|
The restriction 7 is a restriction that Ty requires Tz.
B = A ・ | Tz |

Aをある程度小さい値にしておいて、(FOEy/f)・Tz±Bの間になるようにTyを制限する。   Ty is limited to a value between AFO and (FOEy / f) · Tz ± B with a small value.

制限8は、逆方向への進行は少し許容されるが大きい値とはならない、という制限である。例えば、自車が後進する場合にのみバックカメラの撮像画像を表示装置19に表示しない場合などでも、坂などでブレーキを踏まなかった場合では、画面への前進方向のみの極性のTzとならない場合がある。だが、大きい値とはならない。そのため逆の極性となった場合の大きさに制限を入れる。
画面方向へ前進中 Tz < A
画面方向から後進中 Tz > -A
Aは小さい正の値となる。
The limit 8 is a limit that advancing in the reverse direction is allowed a little but not a large value. For example, even when the captured image of the back camera is not displayed on the display device 19 only when the host vehicle is moving backward, if the brake is not stepped on a hill or the like, the polarity Tz of only the forward direction to the screen is not obtained. There is. However, it is not a large value. For this reason, a limit is placed on the size when the polarity is reversed.
Moving forward in screen direction Tz <A
Moving backward from the screen direction Tz> -A
A is a small positive value.

制限9は、Ry、Tzがある閾値より小さい場合には、停車していると判定する、という制限である。
Rx = 0
Ry = 0
Rz = 0
Tz = A
Tx = (FOEx / f)・Tz
Ty = (FOEy / f)・Tz
The restriction 9 is a restriction that it is determined that the vehicle is stopped when Ry and Tz are smaller than a certain threshold value.
Rx = 0
Ry = 0
Rz = 0
Tz = A
Tx = (FOEx / f) ・ Tz
Ty = (FOEy / f) ・ Tz

Aは小さい値にするが、Tzは画面方向へ前進中はマイナス、画面方向から後進中はプラスにする。前進か後進かはCANによる情報や、Tzの符号が変わらない方向とすればよい。また、ベクトルの角度比較をする場合を考慮し、パラメータを0とはせず小さい値を入れる。   A is set to a small value, but Tz is set to a negative value when moving forward in the screen direction, and set to a positive value when moving backward from the screen direction. Whether the vehicle is moving forward or backward may be in the direction in which the information by CAN and the sign of Tz do not change. In consideration of the case of vector angle comparison, the parameter is not set to 0 and a small value is entered.

次に、路面ベクトルによる制限について説明する。   Next, the restriction by the road surface vector will be described.

前進している場合でも背景が遠すぎる場合には背景がほとんど動かない一方で、z座標のリミットを入れているためにパラメータが大きくずれてしまう。このため、路面に描かれた線などが物体と誤判定されたり、路面にある物体が路面の模様である背景ベクトルと誤判定されたりする場合がある。   Even when the vehicle is moving forward, if the background is too far, the background hardly moves. On the other hand, since the z coordinate limit is set, the parameter is greatly shifted. For this reason, a line drawn on the road surface may be erroneously determined as an object, or an object on the road surface may be erroneously determined as a background vector that is a road surface pattern.

この誤判定を回避するために、まず、物体は路面と接地していて、接地位置ではベクトルが得られるという前提にする。そして画面の下から動きベクトルを検出し、水平線より下の指定した角度以下である程度の大きさがあり背景ベクトルとなったベクトル数が指定した数となったら、後述する計算で自車移動パラメータを補正する。背景ベクトルの誤検出を考慮し、自車移動パラメータの変化量に制限を入れる。変化量の制限内で補正しきれた場合には、補正後に検出される動きベクトルを背景ベクトルと判定する際の基準を厳しくして、物体として検出しやすくさせる。具体的には、たとえば差閾値ThSをS1−S3へ大きく重み付けする処理を実行しない、あるいはその影響度を小さくするとよい。   In order to avoid this erroneous determination, it is first assumed that the object is in contact with the road surface and a vector is obtained at the contact position. Then, the motion vector is detected from the bottom of the screen, and if the number of vectors that have a certain size below the specified angle below the horizontal line and become the background vector reaches the specified number, the vehicle movement parameter is calculated by the calculation described later. to correct. In consideration of erroneous detection of the background vector, the amount of change in the own vehicle movement parameter is limited. When the correction is completed within the limit of the amount of change, the standard for determining the motion vector detected after the correction as a background vector is strict so that it can be easily detected as an object. Specifically, for example, the process of heavily weighting the difference threshold ThS to S1-S3 may not be executed, or the degree of influence thereof may be reduced.

また、左右の画像より得られたベクトルを使用して画像を補正してもよい。その場合ベクトルを射影変換させる。左右の画像を使用することにより、正面画像では見えない真横の画像を使用することができる。また、逆に下記の式を左右の画像での自車移動パラメータにして計算し、正面の画像での自車移動パラメータに変換してもよい。   The image may be corrected using vectors obtained from the left and right images. In that case, the vector is projectively transformed. By using the left and right images, it is possible to use a side image that is not visible in the front image. Conversely, the following equation may be calculated using the own vehicle movement parameters in the left and right images and converted into the own vehicle movement parameters in the front image.

補正する処理の前提として、自車の挙動上補正するパラメータはRy、Tzのみとし、Rx、Rz、Tx、Tyは、
Rx = (-FOEx / f)・Ry
Rz = (-FOEy / f)・Ry
Tx = (FOEx / f)・Tz
Ty = (FOEy / f)・Tz
As a premise of the correction process, the parameters to be corrected are only Ry and Tz on the behavior of the own vehicle, and Rx, Rz, Tx, and Ty are
Rx = (-FOEx / f) ・ Ry
Rz = (-FOEy / f) ・ Ry
Tx = (FOEx / f) ・ Tz
Ty = (FOEy / f) ・ Tz

で導き出すことにする。そのため導き出したいパラメータはΔRyとΔTzとなる。   It will be derived in. Therefore, the parameters to be derived are ΔRy and ΔTz.

これらのパラメータΔRyおよびΔTzを連立方程式で解く場合、公知の式である、
wu = -(x・y / f)・Rx + ((f・f + x・x) / f)・Ry - y・Rz
wv = -((f・f + y・y) / f)・Rx + (x・y / f )・Ry + x・Rz
tu = (f・Tx - x・Tz) / z
tv = (f・Ty - y・Tz) / z
When these parameters ΔRy and ΔTz are solved by simultaneous equations, they are known equations.
wu =-(x ・ y / f) ・ Rx + ((f ・ f + x ・ x) / f) ・ Ry-y ・ Rz
wv =-((f ・ f + y ・ y) / f) ・ Rx + (x ・ y / f) ・ Ry + x ・ Rz
tu = (f ・ Tx-x ・ Tz) / z
tv = (f ・ Ty-y ・ Tz) / z

より、
Axr = -FOEy / f
Axt = FOEy / f
ΔRx = Axr・ΔRy
ΔTx = Axt・ΔTz
Ayr = -FOEy / f
Ayt = FOEy / f
ΔRz = Ayr・ΔRy
ΔTy = Ayt・ΔTz
Than,
Axr = -FOEy / f
Axt = FOEy / f
ΔRx = Axr ・ ΔRy
ΔTx = Axt ・ ΔTz
Ayr = -FOEy / f
Ayt = FOEy / f
ΔRz = Ayr ・ ΔRy
ΔTy = Ayt ・ ΔTz

を代入すると、
Δwu = (-(x・y / f) ・Axr + (f・f + x・x) / f - y・Ayr)・ΔRy
Δwv = (-((f・f + y・y) / f) ・Axr + x・y / f + x・Ayr)・ΔRy
Δtu = (f・Axt - x)・ΔTz / z
Δtv = (f・Ayt - y)・ΔTz / z
Substituting
Δwu = (-(x ・ y / f) ・ Axr + (f ・ f + x ・ x) / f-y ・ Ayr) ・ ΔRy
Δwv = (-((f ・ f + y ・ y) / f) ・ Axr + x ・ y / f + x ・ Ayr) ・ ΔRy
Δtu = (f ・ Axt-x) ・ ΔTz / z
Δtv = (f ・ Ayt-y) ・ ΔTz / z

正しい背景としているため、下記の条件が満たされる。
u - (wu + Δwu) = tu + Δtu
v - (wv + Δwv) = tv + Δtv
The following conditions are satisfied because the background is correct.
u-(wu + Δwu) = tu + Δtu
v-(wv + Δwv) = tv + Δtv

以上の条件より、連立方程式でΔRyとΔTzが導かれる。指定数分のベクトルで同じ処理を行い、得られたΔRyとΔTzを平均化するなどする。得られたΔRyとΔTzによりΔRxとΔRzとΔTxとΔTyも作り出し、補正する。   From the above conditions, ΔRy and ΔTz are derived by simultaneous equations. The same processing is performed with a specified number of vectors, and the obtained ΔRy and ΔTz are averaged. Based on the obtained ΔRy and ΔTz, ΔRx, ΔRz, ΔTx, and ΔTy are also created and corrected.

上記の連立方程式による計算は煩雑であり重い。そこで、より簡単な処理となるよう、縦成分は並進成分、横成分は回転成分とみなしてパラメータΔRyおよびΔTzを導いてもよい。すなわち、自車に近い地面の検出されるベクトルは、縦成分がほぼ並進成分(Ty,Tz)となるため、並進成分の変化量ΔRyを無視し、下記のような補正量になる。
v - wv = tv
→v - (-((f・f + y・y) / f) ・Axr + x・y / f + x・Ayr)・Ry= (f・Ayt - y)・(Tz + ΔTz) / z
→ΔTz = (v - (-((f・f + y・y) / f) ・Axr + x・y / f + x・Ayr)・Ry)・z / (f・Ayt - y) - Tz
The calculation by the above simultaneous equations is complicated and heavy. Therefore, for easier processing, the parameters ΔRy and ΔTz may be derived by regarding the vertical component as a translation component and the horizontal component as a rotation component. In other words, since the vertical component of the detected vector on the ground near the host vehicle is almost the translation component (Ty, Tz), the translation component change amount ΔRy is ignored and the correction amount is as follows.
v-wv = tv
→ v-(-((f ・ f + y ・ y) / f) ・ Axr + x ・ y / f + x ・ Ayr) ・ Ry = (f ・ Ayt-y) ・ (Tz + ΔTz) / z
→ ΔTz = (v-(-((f ・ f + y ・ y) / f) ・ Axr + x ・ y / f + x ・ Ayr) ・ Ry) ・ z / (f ・ Ayt-y)-Tz

以上により得られたΔTzより横成分を計算してΔRyを導くと、
u - wu = tu
→u - (-(x・y / f) ・Axr + (f・f + x・x) / f - y・Ayr)・(Ry + ΔRy) = (f・Axt - x)・(Tz + ΔTz) / z
→ΔRy = (u - (f・Axt - x)・(Tz + ΔTz) / z) / (-(x・y / f) ・Axr + (f・f + x・x) / f - y・Ayr) - Ry
When ΔRy is derived by calculating the lateral component from ΔTz obtained as described above,
u-wu = tu
→ u-(-(x ・ y / f) ・ Axr + (f ・ f + x ・ x) / f-y ・ Ayr) ・ (Ry + ΔRy) = (f ・ Axt-x) ・ (Tz + ΔTz ) / z
→ ΔRy = (u-(f ・ Axt-x) ・ (Tz + ΔTz) / z) / (-(x ・ y / f) ・ Axr + (f ・ f + x ・ x) / f-y ・ Ayr )-Ry

となる。指定数分のベクトルで同じ処理を行い、得られたΔRyとΔTzを平均化するなどする。得られたΔRyとΔTzによりΔRxとΔRzとΔTxとΔTyも作り出し、補正する。   It becomes. The same processing is performed with a specified number of vectors, and the obtained ΔRy and ΔTz are averaged. Based on the obtained ΔRy and ΔTz, ΔRx, ΔRz, ΔTx, and ΔTy are also created and corrected.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

たとえば、別の場所に取り付けられた複数のカメラによって得られた複数の画像を用いて、並列に処理を行ってもよい。この場合、物体に周りを囲まれた場合であっても、どこかのカメラによって自車移動パラメータを特定することができる可能性が高くなる。   For example, the processing may be performed in parallel using a plurality of images obtained by a plurality of cameras attached to different locations. In this case, even when the object is surrounded, the possibility that the own vehicle movement parameter can be specified by some camera is increased.

また、本発明の実施形態では、フローチャートの各ステップは、記載された順序に沿って時系列的に行われる処理の例を示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行される処理をも含むものである。   Further, in the embodiment of the present invention, each step of the flowchart shows an example of processing that is performed in time series in the order described. The process to be executed is also included.

10 自車移動推定装置
11 カメラ
12 主制御部
13 記憶部
21 平面画像生成部
22 動きベクトル検出部
23 背景ベクトル検出部
24 自車移動算出部
25 物体ベクトル処理部
DESCRIPTION OF SYMBOLS 10 Own vehicle movement estimation apparatus 11 Camera 12 Main control part 13 Storage part 21 Plane image generation part 22 Motion vector detection part 23 Background vector detection part 24 Own vehicle movement calculation part 25 Object vector processing part

Claims (10)

車両に設けられたカメラが所定のフレーム周期で前記車両の周囲を撮像するステップと、
前記カメラにより撮像された複数の画像間の動きベクトルを検出するステップと、
検出された動きベクトルから自車の移動パラメータを求めるステップと、
前記自車の移動パラメータを求める際に利用された前記複数の画像の撮像の後に前記カメラにより撮像された画像を用いて新たに動きベクトルを検出するステップと、
前記新たに検出された動きベクトルのうち、前記自車の移動パラメータに対応する自車の移動ベクトルとの比較で所定の閾値以内であるものを背景ベクトルとして検出するステップと、
この背景ベクトルを用いて新たに自車の移動パラメータを求めるステップと、
を有する自車移動推定方法。
A camera provided on the vehicle images the surroundings of the vehicle at a predetermined frame period;
Detecting a motion vector between a plurality of images captured by the camera;
Obtaining a moving parameter of the own vehicle from the detected motion vector;
Detecting a new motion vector using an image captured by the camera after capturing the plurality of images used in determining the movement parameter of the host vehicle;
Detecting, as a background vector, the newly detected motion vector that is within a predetermined threshold in comparison with the movement vector of the own vehicle corresponding to the movement parameter of the own vehicle;
Using this background vector to obtain a new movement parameter of the vehicle,
The own vehicle movement estimation method comprising:
前記新たに動きベクトルを検出するステップは、
前記車両から進行方向に所定の距離以上離れた位置にある特徴点もしくは路面上にある特徴点の動きベクトルを検出するステップである、
請求項1記載の自車移動推定方法。
The step of detecting a new motion vector comprises:
Detecting a motion vector of a feature point on a road surface or a feature point located at a position more than a predetermined distance in the traveling direction from the vehicle,
The own vehicle movement estimation method according to claim 1.
前記車両の周囲を撮像するステップは、
前記車両に設けられた魚眼カメラが所定のフレーム周期で前記車両の正面画像、左画像および右画像を含む魚眼画像を撮像するステップであり、
前記検出された動きベクトルから自車の移動パラメータを求めるステップは、
前記魚眼画像に含まれる前記正面画像、左画像および右画像のそれぞれから前記自車の移動パラメータを求めるステップであり、
前記背景ベクトルとして検出するステップは、
前記正面画像、左画像および右画像のそれぞれから前記背景ベクトルを検出するステップであり、
前記新たに自車の移動パラメータを求めるステップは、
前記正面画像、左画像および右画像のそれぞれから検出された前記背景ベクトルから自車の移動パラメータを求め、この前記正面画像、左画像および前記右画像のそれぞれから求められた自車の移動パラメータにもとづいて新たに自車の移動パラメータを求めるステップである、
請求項1または2に記載の自車移動推定方法。
Imaging the surroundings of the vehicle,
A fisheye camera provided in the vehicle captures a fisheye image including a front image, a left image, and a right image of the vehicle at a predetermined frame period;
The step of obtaining the movement parameter of the own vehicle from the detected motion vector includes:
Obtaining a moving parameter of the own vehicle from each of the front image, the left image and the right image included in the fisheye image;
Detecting as the background vector comprises:
Detecting the background vector from each of the front image, left image and right image;
The step of newly obtaining the movement parameter of the own vehicle includes:
The movement parameter of the own vehicle is obtained from the background vector detected from each of the front image, the left image, and the right image, and the movement parameter of the own vehicle is obtained from each of the front image, the left image, and the right image. It is a step to newly determine the movement parameter of the own vehicle based on
The own vehicle movement estimation method according to claim 1 or 2.
前記新たに自車の移動パラメータを求めるステップは、
前記背景ベクトルのうち、全ての前記背景ベクトルの平均から所定の範囲内にある背景ベクトルを用いて新たに自車の移動パラメータを求めるステップである、
請求項1ないし3のいずれか1項に記載の自車移動推定方法。
The step of newly obtaining the movement parameter of the own vehicle includes:
Among the background vectors, a step of newly obtaining a movement parameter of the own vehicle using a background vector within a predetermined range from an average of all the background vectors.
The own vehicle movement estimation method according to any one of claims 1 to 3.
前記車両の周囲の画像を複数に分割し、分割領域ごとに前記背景ベクトルを検出するステップと、
前記分割領域ごとに検出された前記背景ベクトルにもとづいて前記並進成分の前記車両の進行方向成分および前記回転成分の路面法線方向軸周り成分を求める仮パラメータ算出ステップと、
前記並進成分の前記車両の進行方向成分および前記回転成分の路面法線方向軸周り成分の値が前記仮パラメータ算出ステップで求められた値からそれぞれ所定の値以内となるよう、前記新たに求められた自車の移動パラメータを制限するステップと、
をさらに有する、
請求項1ないし4のいずれか1項に記載の自車移動推定方法。
Dividing the image around the vehicle into a plurality of areas, and detecting the background vector for each divided area;
A provisional parameter calculating step for obtaining a traveling direction component of the vehicle of the translation component and a component around a road surface normal direction axis of the rotation component based on the background vector detected for each of the divided regions;
The newly calculated value is such that the translational component of the translational component of the vehicle and the component of the rotational component around the road surface normal axis are within predetermined values from the values obtained in the temporary parameter calculating step. Limiting the movement parameters of the own vehicle,
Further having
The own vehicle movement estimation method according to any one of claims 1 to 4.
前記車両の挙動上の制限を用いて前記新たに求められた自車の移動パラメータを制限するステップ、
をさらに有する、
請求項1ないし5のいずれか1項に記載の自車移動推定方法。
Limiting the newly determined movement parameter of the host vehicle using a restriction on the behavior of the vehicle;
Further having
The own vehicle movement estimation method according to any one of claims 1 to 5.
前記車両の周囲の画像のうち下側の画像領域に含まれる前記車両近傍の画像から車両近傍路面の動きベクトルを取得するステップと、
前記車両近傍路面の動きベクトルを用いて前記新たに求められた自車の移動パラメータを補正するステップと、
をさらに有する、
請求項1ないし6のいずれか1項に記載の自車移動推定方法。
Obtaining a motion vector of a vehicle vicinity road surface from an image of the vicinity of the vehicle included in a lower image region of images around the vehicle;
Correcting the newly determined movement parameter of the host vehicle using a motion vector of the road surface near the vehicle;
Further having
The own vehicle movement estimation method according to any one of claims 1 to 6.
前記車両近傍路面の動きベクトルを用いて前記新たに求められた自車の移動パラメータを補正するステップを実行した後に新たに検出された動きベクトルのうち、前記補正後の自車の移動パラメータに対応する自車の移動ベクトルとの比較で前記所定の閾値よりも小さい差以内であるものを背景ベクトルとして検出するステップ、
をさらに有する、
請求項7記載の自車移動推定方法。
Corresponding to the corrected movement parameter of the own vehicle among the newly detected motion vectors after executing the step of correcting the newly obtained movement parameter of the own vehicle using the motion vector of the road surface near the vehicle Detecting a background vector that is within a difference smaller than the predetermined threshold in comparison with the movement vector of the own vehicle,
Further having
The own vehicle movement estimation method according to claim 7.
前記車両の複数個所に設けられた複数のカメラのそれぞれにより、互いに異なる前記車両の周囲画像が撮像されるステップ、
をさらに有し、
前記複数のカメラのそれぞれに撮像された画像にもとづいて得られる複数の自車の移動パラメータの1つを前記新たに求められた自車の移動パラメータとする、
請求項1ないし8のいずれか1項に記載の自車移動推定方法。
Steps in which different images around the vehicle are captured by each of a plurality of cameras provided at a plurality of locations of the vehicle;
Further comprising
One of the plurality of own vehicle movement parameters obtained based on the images captured by each of the plurality of cameras is the newly obtained own vehicle movement parameter,
The own vehicle movement estimation method according to any one of claims 1 to 8.
コンピュータに、
車両に設けられたカメラが所定のフレーム周期で撮像した前記車両の周囲の画像を取得するステップと、
前記カメラにより撮像された複数の画像間の動きベクトルを検出するステップと、
検出された動きベクトルから自車の移動パラメータを求めるステップと、
前記自車の移動パラメータを求める際に利用された前記複数の画像の撮像後に前記カメラにより撮像された画像を用いて新たに動きベクトルを検出するステップと、
前記新たに検出された動きベクトルのうち、前記自車の移動パラメータに対応する自車の移動ベクトルとの比較で所定の閾値以内であるものを背景ベクトルとして検出するステップと、
この背景ベクトルを用いて新たに自車の移動パラメータを求めるステップと、
を実行させるための自車移動推定プログラム。
On the computer,
Acquiring a surrounding image of the vehicle captured by a camera provided in the vehicle at a predetermined frame period;
Detecting a motion vector between a plurality of images captured by the camera;
Obtaining a moving parameter of the own vehicle from the detected motion vector;
A step of newly detecting a motion vector using an image captured by the camera after capturing the plurality of images used when determining the movement parameter of the own vehicle;
Detecting, as a background vector, the newly detected motion vector that is within a predetermined threshold in comparison with the movement vector of the own vehicle corresponding to the movement parameter of the own vehicle;
Using this background vector to obtain a new movement parameter of the vehicle,
A vehicle movement estimation program for executing
JP2011236394A 2011-10-27 2011-10-27 Own vehicle movement estimation method and own vehicle movement estimation program Expired - Fee Related JP5833887B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011236394A JP5833887B2 (en) 2011-10-27 2011-10-27 Own vehicle movement estimation method and own vehicle movement estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011236394A JP5833887B2 (en) 2011-10-27 2011-10-27 Own vehicle movement estimation method and own vehicle movement estimation program

Publications (3)

Publication Number Publication Date
JP2013097390A true JP2013097390A (en) 2013-05-20
JP2013097390A5 JP2013097390A5 (en) 2014-11-27
JP5833887B2 JP5833887B2 (en) 2015-12-16

Family

ID=48619315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011236394A Expired - Fee Related JP5833887B2 (en) 2011-10-27 2011-10-27 Own vehicle movement estimation method and own vehicle movement estimation program

Country Status (1)

Country Link
JP (1) JP5833887B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9950667B2 (en) 2014-12-19 2018-04-24 Hyundai Mobis Co., Ltd. Vehicle system for detecting object and operation method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107123128B (en) * 2017-04-24 2019-07-16 南京邮电大学 A kind of state of motion of vehicle estimation method guaranteeing accuracy

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092459A (en) * 2006-10-04 2008-04-17 Toyota Motor Corp Periphery monitoring apparatus
JP2008203992A (en) * 2007-02-16 2008-09-04 Omron Corp Detection device, method, and program thereof
JP2010002985A (en) * 2008-06-18 2010-01-07 Alpine Electronics Inc Moving vector calculation device, obstacle detection device and moving vector calculation method
JP2010517139A (en) * 2007-01-18 2010-05-20 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for detecting and tracking a vehicle
JP2011013978A (en) * 2009-07-02 2011-01-20 Kyushu Institute Of Technology Method and apparatus for detecting object based on estimation of background image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092459A (en) * 2006-10-04 2008-04-17 Toyota Motor Corp Periphery monitoring apparatus
JP2010517139A (en) * 2007-01-18 2010-05-20 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for detecting and tracking a vehicle
JP2008203992A (en) * 2007-02-16 2008-09-04 Omron Corp Detection device, method, and program thereof
JP2010002985A (en) * 2008-06-18 2010-01-07 Alpine Electronics Inc Moving vector calculation device, obstacle detection device and moving vector calculation method
JP2011013978A (en) * 2009-07-02 2011-01-20 Kyushu Institute Of Technology Method and apparatus for detecting object based on estimation of background image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9950667B2 (en) 2014-12-19 2018-04-24 Hyundai Mobis Co., Ltd. Vehicle system for detecting object and operation method thereof

Also Published As

Publication number Publication date
JP5833887B2 (en) 2015-12-16

Similar Documents

Publication Publication Date Title
JP5108605B2 (en) Driving support system and vehicle
KR102240197B1 (en) Tracking objects in bowl-shaped imaging systems
JP7038345B2 (en) Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device
JP4970926B2 (en) Vehicle periphery monitoring device
US20090015675A1 (en) Driving Support System And Vehicle
US11233983B2 (en) Camera-parameter-set calculation apparatus, camera-parameter-set calculation method, and recording medium
US9122936B2 (en) Detecting device, detection method, and computer program product
JPWO2008139529A1 (en) Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2009290645A (en) In-vehicle unit
JP6337504B2 (en) Image processing apparatus, moving body, robot, device control method and program
US20130182896A1 (en) Gradient estimation apparatus, gradient estimation method, and gradient estimation program
JP6803570B2 (en) Camera parameter set calculation device, camera parameter set calculation method, and program
US20160037154A1 (en) Image processing system and method
CN110651295A (en) Image processing apparatus, image processing method, and program
JP2014165810A (en) Parameter acquisition device, parameter acquisition method and program
JP2011254436A (en) Mobile object detection device and mobile object detection method
US20110267430A1 (en) Detection Device of Planar Area and Stereo Camera System
JP5173551B2 (en) Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto
JP5695405B2 (en) Image processing apparatus for vehicle and image processing method for vehicle
JP2012198857A (en) Approaching object detector and approaching object detection method
JP5833887B2 (en) Own vehicle movement estimation method and own vehicle movement estimation program
US9280826B2 (en) Distance determination using a monoscopic imager in a vehicle
CN111260538B (en) Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
CN116529758A (en) Image and/or image point correction method, camera-based system and vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141008

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151030

R150 Certificate of patent or registration of utility model

Ref document number: 5833887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees