JP5773334B2 - Optical flow processing apparatus and display radius map generation apparatus - Google Patents

Optical flow processing apparatus and display radius map generation apparatus Download PDF

Info

Publication number
JP5773334B2
JP5773334B2 JP2012010554A JP2012010554A JP5773334B2 JP 5773334 B2 JP5773334 B2 JP 5773334B2 JP 2012010554 A JP2012010554 A JP 2012010554A JP 2012010554 A JP2012010554 A JP 2012010554A JP 5773334 B2 JP5773334 B2 JP 5773334B2
Authority
JP
Japan
Prior art keywords
block
display
image
display block
radius
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012010554A
Other languages
Japanese (ja)
Other versions
JP2013149175A (en
Inventor
柴田 健吾
健吾 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Co Ltd
Original Assignee
Suzuki Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Co Ltd filed Critical Suzuki Motor Co Ltd
Priority to JP2012010554A priority Critical patent/JP5773334B2/en
Publication of JP2013149175A publication Critical patent/JP2013149175A/en
Application granted granted Critical
Publication of JP5773334B2 publication Critical patent/JP5773334B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理により走行環境を確認する技術分野に関連し、特に、移動体に装備され走行環境の物体を抽出する技術に関する。   The present invention relates to a technical field for confirming a traveling environment by image processing, and more particularly to a technique for extracting an object of a traveling environment that is mounted on a moving body.

移動体は、例えば、四輪車、二輪車、電動車などである。運転者は、駐車のための操作時等を除き、通常、走行する前方を視る。車線変更や、右左折時には、各種ミラーで後方を確認する。また、移動体には、運転者からの死角がある。移動体の前方、側方及び後方などの周囲を走行環境という。
運転者による走行環境の確認を支援するシステムとして、移動体である自車に設置したカメラで走行環境を撮像し、この画像又は補正・編集した画像を表示部に表示する手法や、画像処理をして一定の条件を満たす際に警報を発する手法などがある。
走行環境確認のために有用な画像処理として、時間的な差のある2枚の画像間で同一物体を抽出し、その物体間の変位ベクトルをオプティカルフローとして生成する手法がある。
The moving body is, for example, a four-wheeled vehicle, a two-wheeled vehicle, an electric vehicle, or the like. The driver usually looks forward in front of the vehicle, except during an operation for parking. When changing lanes or turning left and right, check the back with various mirrors. Further, the moving body has a blind spot from the driver. The surroundings such as the front, side, and rear of the moving body are referred to as a traveling environment.
As a system that supports the confirmation of the driving environment by the driver, a method of imaging the driving environment with a camera installed in the vehicle that is a moving body, and displaying this image or a corrected / edited image on the display unit, image processing, etc. Thus, there is a method of issuing an alarm when a certain condition is satisfied.
As image processing useful for confirming the driving environment, there is a method of extracting the same object between two images having a time difference and generating a displacement vector between the objects as an optical flow.

特許文献1には、オプティカルフローを用いて走行環境中の移動体を抽出することを目的として、オプティカルフロー群を複数の小領域に分割し、放射状の一定範囲に含まれる小領域を一つの移動体と認識する手法(段落0018から0020,0027から0029,図3)が開示されている。
特許文献2には、オプティカルフローを用いて後続車両の接近の判定を目的として、相対速度が大きく車間距離が短いほどオプティカルフローが大きくなる性質から、このオプティカルフローの大きさの平均値に基づいて、接近の程度を判定する(段落0010、0020から0022、0029から0030,図4)する手法が開示されている。
特許文献3には、テンプレートマッチングによるオプティカルフローを用いて侵入者を追跡監視することを目的として、当初のテンプレートの周辺にウインドウを設定し、ウインドウを周回しつつオプティカルフローの一致率が高いウインドウを探索し、一致率の高いウインドウの方向へテンプレートを平行移動(段落0009、0043から0047)させる手法が開示されている。
特許文献4には、画像の背景に周期的な構造物が存在する場合でも移動体のオプティカルフローのみを抽出することを目的として、時間的に連続する3つの画像間の2つのオプティカルフローの関係から、静止物体に起因する偽のオプティカルフローを判定する手法が開示されている。
特許文献5(同一出願人及び発明者)には、広角レンズを用いたカメラで撮像した画像の座標値とワールド座標系の座標値とをイメージプレーン上での補正計算により対応させる手法が開示されている。
特許文献6(同一出願人)には、広角歪みを有する画像の補正計算に際して画像を同心円状に3領域に区分して領域毎に最適な補正計算をする手法が開示されている。
In Patent Document 1, an optical flow group is divided into a plurality of small areas for the purpose of extracting a moving body in a running environment using an optical flow, and a small area included in a certain radial range is moved to a single movement. A method for recognizing a body (paragraphs 0018 to 0020, 0027 to 0029, FIG. 3) is disclosed.
In Patent Document 2, for the purpose of determining the approach of the following vehicle using the optical flow, the optical flow becomes larger as the relative speed is larger and the inter-vehicle distance is shorter, and therefore, based on the average value of the size of the optical flow. A method for determining the degree of approach (paragraphs 0010, 0020 to 0022, 0029 to 0030, FIG. 4) is disclosed.
In Patent Document 3, for the purpose of tracking and monitoring an intruder using an optical flow based on template matching, a window is set around the original template, and a window with a high optical flow matching rate is circulated around the window. A method of searching and translating a template in the direction of a window having a high matching rate (paragraphs 0009 and 0043 to 0047) is disclosed.
Patent Document 4 describes the relationship between two optical flows between three temporally continuous images for the purpose of extracting only the optical flow of a moving object even when a periodic structure exists in the background of the image. Thus, a method for determining a false optical flow caused by a stationary object is disclosed.
Patent Document 5 (same applicant and inventor) discloses a method of associating the coordinate value of an image captured by a camera using a wide-angle lens with the coordinate value of the world coordinate system by correction calculation on the image plane. ing.
Patent Document 6 (the same applicant) discloses a method of performing an optimal correction calculation for each region by dividing the image into three regions concentrically for correction calculation of an image having wide-angle distortion.

特開平8-83345号公報JP-A-8-83345 特開平11-259634号公報Japanese Patent Laid-Open No. 11-259634 特開2002-163657号公報JP 2002-163657 A 特開平8-30792号公報JP-A-8-30792 特開2010-218226号公報JP 2010-218226 A 特開2011-054008号公報JP 2011-054008 JP

上記特許文献1では、オプティカルフローのグループ化について、二次元の画像座標系にてグループ化の計算をしているため(段落0026から0028)、自車と移動体との車間距離の遠近に応じて計算精度が低下してしまう。また、自車と移動体とが接近し移動体が大きく撮像される状態では、移動体の輪郭部分のみが抽出されることで、オプティカルフローが離散化してしまい、グループ化が困難となる。
上記特許文献2では、オプティカルフローのグループ化について、フローの総和をフローの総数で除算することでフローの大きさの平均値を算出しているため(段落0029)、自車と移動体との車間距離の変化に応じて抽出されるフローの総数が変化すると、フローの大きさの平均値に含まれる誤差が大きくなってしまう。
上記特許文献3では、テンプレートマッチングの最適化につき、多数のウインドウを生成して一致率を算出しなければならず(段落0043)、そして、ウインドウの設定も総当たりであり(段落0044)、移動体をリアルタイムで検出するための計算コストが膨大となってしまう。
上記特許文献4では、背景に周期的に生じる静止物から生じてしまう偽のオプティカルフローを除去する手法について、オプティカルフローの長さの比に基づいた判定をしているため(段落0014)、自車と静止物との車間距離が変化に弱く安定した除去をすることができない。
In the above-mentioned patent document 1, since the grouping of optical flows is calculated in a two-dimensional image coordinate system (paragraphs 0026 to 0028), it depends on the distance between the vehicle and the moving body. The calculation accuracy is reduced. Further, in a state where the own vehicle and the moving body are close to each other and the moving body is imaged large, only the contour portion of the moving body is extracted, so that the optical flow becomes discrete and grouping becomes difficult.
In the above Patent Document 2, since the average value of the flow size is calculated by dividing the sum of the flows by the total number of flows for the grouping of the optical flows (paragraph 0029), When the total number of flows extracted according to the change in the inter-vehicle distance changes, the error included in the average value of the flow sizes increases.
In the above-mentioned Patent Document 3, for the optimization of template matching, a large number of windows must be generated to calculate the matching rate (paragraph 0043), and the window setting is also brute force (paragraph 0044). The calculation cost for detecting the body in real time becomes enormous.
In the above-mentioned Patent Document 4, since a method for removing a false optical flow generated from a stationary object periodically generated in the background is determined based on a ratio of lengths of optical flows (paragraph 0014), The distance between the vehicle and the stationary object is vulnerable to changes and cannot be removed stably.

[課題1]このように、上記従来例では、自車と移動体との車間距離に変化があると、オプティカルフローの有効性を良好に判定することができない、という不都合があった。
[課題2]また、上記従来例では、自車と移動体との車間距離の変化に応じたオプティカルフローの処理の計算コストが膨大となり、リアルタイムで実行することが難しい、という不都合があった。
[Problem 1] As described above, the conventional example has a disadvantage that the effectiveness of the optical flow cannot be satisfactorily determined if there is a change in the distance between the vehicle and the moving body.
[Problem 2] Further, in the above conventional example, there is an inconvenience that the calculation cost of the optical flow processing according to the change in the inter-vehicle distance between the own vehicle and the moving body becomes enormous and difficult to execute in real time.

[発明の目的]本発明の目的は、自車と移動体との車間距離にかかわらずオプティカルフローの有効性を良好に判定することにある。   [Object of the Invention] An object of the present invention is to satisfactorily determine the effectiveness of the optical flow regardless of the distance between the vehicle and the moving body.

[着眼点]本発明の発明者は、二次元の画像に基づいてオプティカルフローの抽出処理をしつつ、フローの性質を判定する局面では三次元空間での大きさが二次元の画像に現れる状態を参酌可能とすると良い、という点に着目した。そして、三次元空間での大きさと画像での大きさとの対応関係を考慮した画像処理とすることで、上記課題を解決できるのではないか、との着想に至った。   [Focus Point] The inventor of the present invention performs an optical flow extraction process based on a two-dimensional image, and the state in which the size in the three-dimensional space appears in the two-dimensional image in the aspect of determining the flow property We focused on the point that it would be good to be able to consider. And it came to the idea that the above problem could be solved by performing image processing in consideration of the correspondence between the size in the three-dimensional space and the size in the image.

[課題解決手段1]実施例1に対応する第1群の本発明は、オプティカルフロー処理装置であり、自車の周辺を連続して撮像するカメラと、前記カメラから入力される画像をテンプレートで区画画像に区画すると共に時間的に前後する前記区画画像間のフローを抽出するフロー抽出部と、前記画像に撮像される範囲の三次元空間にて予め定められた位置及び大きさの仮想ブロックを前記画像の二次元の画像座標系に表示ブロックとして投影する表示ブロック管理部と、前記フローの始点又は終点での前記表示ブロックの大きさを参照して当該フローの有効性を判定処理するフロー判定処理部とを備えた、という構成を採っている。
これにより、上記課題1を解決した。
[Problem Solving Means 1] The first group of the present invention corresponding to the first embodiment is an optical flow processing apparatus, and a camera that continuously captures the periphery of the vehicle and an image input from the camera as a template. A flow extraction unit that extracts a flow between the divided images that are divided into divided images and that temporally moves back and forth, and a virtual block that has a predetermined position and size in a three-dimensional space of a range captured by the image A display block management unit that projects a display block onto a two-dimensional image coordinate system of the image, and a flow determination that determines the validity of the flow with reference to the size of the display block at the start point or end point of the flow It is configured to include a processing unit.
Thereby, the said subject 1 was solved.

[課題解決手段2] 実施例2に対応する第2群の本発明は、表示半径マップ生成装置であり、フロー抽出用の画像に撮像される範囲の三次元空間で予め定められた同一の大きさの複数の仮想ブロックを生成する仮想ブロック生成部と、当該複数の前記仮想ブロックをそれぞれ前記画像の二次元の画像座標系に投影することで表示ブロックを算出する表示ブロック算出部と、前記表示ブロックの面積を表示ブロック面積として算出する面積算出部と、前記表示ブロック面積を円の面積とした際の半径を算出することで表示ブロック半径を算出する表示ブロック半径算出部と、前記表示ブロック半径と前記画像の位置とを相関させることで表示半径マップを生成する相関生成部とを備えた、という構成を採っている。
これにより、上記課題2を解決した。
[Problem Solving Means 2] A second group of the present invention corresponding to the second embodiment is a display radius map generation device, and has the same size predetermined in a three-dimensional space of a range captured by an image for flow extraction. A virtual block generation unit that generates a plurality of virtual blocks; a display block calculation unit that calculates a display block by projecting each of the plurality of virtual blocks onto a two-dimensional image coordinate system of the image; and the display An area calculation unit that calculates a block area as a display block area; a display block radius calculation unit that calculates a display block radius by calculating a radius when the display block area is a circle area; and the display block radius And a correlation generation unit that generates a display radius map by correlating the position of the image with the position of the image.
Thereby, the said subject 2 was solved.

本発明は、本明細書の記載及び図面を考慮して各請求項記載の用語の意義を解釈し、各請求項に係る発明を認定すると、各請求項に係る発明は、上記背景技術等との関連において次の有利な効果を奏する。   The present invention interprets the meaning of the terms described in each claim in consideration of the description of the present specification and the drawings, and certifies the invention according to each claim. There are the following advantageous effects in relation to

[発明の作用効果1] 課題解決手段1のオプティカルフロー処理装置は、フロー抽出部が、時間的に前後する前記区画画像間のフローを抽出すると、表示ブロック管理部が、三次元空間にて予め定められた位置及び大きさの仮想ブロックを画像の二次元の画像座標系に表示ブロックとして投影する。そして、フロー判定処理部は、フローの始点又は終点での前記表示ブロックの大きさを参照して当該フローの有効性を判定処理する。
従って、フロー判定処理部は、三次元空間での大きさを二次元の画像に投影した表示ブロックの大きさを参照しつつ、その表示ブロックの範囲内のフローの有効性を判定することができる。このため、車間距離に応じた表示大のギャップを表示ブロックの参照により解消して、精度良くフローの有効性を判定することができる。
[Functional Effect 1 of the Invention] In the optical flow processing apparatus of the problem solving means 1, when the flow extraction unit extracts a flow between the divided images that move back and forth in time, the display block management unit in advance in a three-dimensional space. A virtual block having a predetermined position and size is projected as a display block on the two-dimensional image coordinate system of the image. The flow determination processing unit determines the validity of the flow with reference to the size of the display block at the start point or end point of the flow.
Therefore, the flow determination processing unit can determine the effectiveness of the flow within the range of the display block while referring to the size of the display block obtained by projecting the size in the three-dimensional space onto the two-dimensional image. . For this reason, the display-sized gap corresponding to the inter-vehicle distance can be eliminated by referring to the display block, and the effectiveness of the flow can be accurately determined.

[発明の作用効果2] 課題解決手段2の表示半径マップ生成装置は、表示ブロック算出部が、三次元空間で同一の大きさの仮想ブロックを二次元の画像座標系に投影することで表示ブロックを算出すると、面積算出部が、この表示ブロックの表示ブロック面積を算出する。そして、表示ブロック半径算出部は、前記表示ブロック面積を円の面積とした際の半径を算出することで表示ブロック半径を算出し、相関生成部が、前記表示ブロック半径と前記画像の位置とを相関させた表示半径マップを生成する。
従って、表示ブロック算出部は、予め、三次元空間では同一の大きさで、画像座標系ではそれぞれ大きさの異なる表示ブロックを算出しておくことができる。
さらに、表示ブロック半径算出部が、表示ブロック面積に基づいて表示ブロック半径を算出しておくため、この表示ブロックの大きさの相違という二次元の位置に関連した三次元での情報を「半径」という長さの情報に単純化することができる。
そして、相関生成部が、表示ブロック半径と前記画像の位置とを相関させた表示半径マップを生成するため、オプティカルフロー処理装置が参照し易いマップを予め単純なデータ構造で生成しておくことができる。
[Operation Effect 2 of the Invention] In the display radius map generation device of the problem solving means 2, the display block calculation unit projects a virtual block of the same size in a three-dimensional space onto a two-dimensional image coordinate system. Then, the area calculation unit calculates the display block area of this display block. The display block radius calculation unit calculates a display block radius by calculating a radius when the display block area is an area of a circle, and the correlation generation unit calculates the display block radius and the position of the image. Generate a correlated display radius map.
Therefore, the display block calculation unit can calculate in advance display blocks having the same size in the three-dimensional space and different sizes in the image coordinate system.
Further, since the display block radius calculation unit calculates the display block radius based on the display block area, the three-dimensional information related to the two-dimensional position of the difference in the size of the display block is “radius”. It can be simplified to information of length.
Then, since the correlation generation unit generates a display radius map in which the display block radius is correlated with the position of the image, a map that can be easily referred to by the optical flow processing device may be generated in advance with a simple data structure. it can.

図1は、本発明の一実施形態の構成例を示すブロック図である。(実施例1)FIG. 1 is a block diagram illustrating a configuration example of an embodiment of the present invention. (Example 1) 図2は、フローと表示ブロックとの関係例を示す説明図である。(実施例1から2)FIG. 2 is an explanatory diagram illustrating an example of a relationship between a flow and a display block. (Examples 1 and 2) 図3は、仮想ブロックと表示ブロックとの関係例を示す説明図である。(実施例1から2)FIG. 3 is an explanatory diagram illustrating an example of a relationship between a virtual block and a display block. (Examples 1 and 2) 図4(A)から(C)は、接近車の特徴に応じてフロー及び表示ブロックが算出された一例を示す説明図である。(実施例1から2)FIGS. 4A to 4C are explanatory diagrams illustrating an example in which a flow and a display block are calculated according to the characteristics of an approaching vehicle. (Examples 1 and 2) 図5(A)から(B)は、広角での画像の例とこの画角の画像での表示ブロックの一例を示す説明図である。(実施例1から2)FIGS. 5A to 5B are explanatory diagrams showing an example of an image at a wide angle and an example of a display block at an image at this angle of view. (Examples 1 and 2) 図6は、仮定地上高の例を示す説明図である。(実施例1から2)FIG. 6 is an explanatory diagram illustrating an example of the assumed ground height. (Examples 1 and 2) 図7(A)から(B)は、仮定地上高と表示ブロックとの関係の一例を示す説明図である。(実施例1から2)FIGS. 7A to 7B are explanatory diagrams illustrating an example of the relationship between the assumed ground height and the display block. (Examples 1 and 2) 図8(A)及び(B)は、表示ブロックを利用してフローをグループ化した一例を示す説明図である。(実施例1から2)8A and 8B are explanatory diagrams illustrating an example in which flows are grouped using display blocks. (Examples 1 and 2) 図9は、本発明の実施例2の構成例を示すブロック図である。(実施例2)FIG. 9 is a block diagram illustrating a configuration example of the second embodiment of the present invention. (Example 2) 図10は、表示ブロック面積の算出例を示す説明図である。(実施例1から2)FIG. 10 is an explanatory diagram illustrating a calculation example of the display block area. (Examples 1 and 2) 図11(A)及び(B)はワールド座標系とカメラ座標系と画像座標系との関係例を示す説明図である。(実施例1から2)11A and 11B are explanatory diagrams illustrating an example of the relationship among the world coordinate system, the camera coordinate system, and the image coordinate system. (Examples 1 and 2) 表示ブロック及び表示ブロック半径を算出する情報処理の一例を示すフローチャートである。(実施例1から2)It is a flowchart which shows an example of the information processing which calculates a display block and a display block radius. (Examples 1 and 2) 図12に示す情報処理での仮想ブロックベクトル等の一例を示す説明図である。(実施例1から2)It is explanatory drawing which shows an example of the virtual block vector etc. in the information processing shown in FIG. (Examples 1 and 2) 図14(A)から(C)は図12に示す情報処理の手順4から手順6に対応する状況の一例を示す説明図である。(実施例1から2)14A to 14C are explanatory diagrams illustrating an example of a situation corresponding to the procedure 4 to procedure 6 of the information processing illustrated in FIG. (Examples 1 and 2) 図15(A)から(F)広角又は補正した画像とそれぞれの表示ブロックとの関係例を示す説明図である。(実施例1から2)FIGS. 15A to 15F are explanatory diagrams illustrating a relationship example between a wide-angle or corrected image and each display block. (Examples 1 and 2) 図16は、仮想ブロックと表示ブロックとの対応関係の一例を示す説明図である。(実施例1から2)FIG. 16 is an explanatory diagram illustrating an example of a correspondence relationship between a virtual block and a display block. (Examples 1 and 2) 図17は、表示ブロックを算出する別解でのベクトル等の例を示す説明図である。(実施例2)FIG. 17 is an explanatory diagram illustrating an example of a vector or the like in another solution for calculating a display block. (Example 2) 図18(A)から(C)は仮想円盤を回転及びシフトさせる別解での一例を示す説明図である。FIGS. 18A to 18C are explanatory diagrams showing an example of another solution for rotating and shifting the virtual disk. 図19(A)から(C)は図12に示す情報処理の手順5にて仮想円盤を回転させた一例を示す説明図である。FIGS. 19A to 19C are explanatory views showing an example in which the virtual disk is rotated in the procedure 5 of the information processing shown in FIG.

発明を実施するための形態として、2つの実施例を開示する。実施例1はオプティカルフロー処理装置であり、実施例2は表示半径マップ生成装置である。実施例1から2までを含めて実施形態という。実施例1のオプティカルフロー処理装置で、実施例2の手法により生成する表示半径マップを使用することもできる。   Two embodiments are disclosed as modes for carrying out the invention. The first embodiment is an optical flow processing device, and the second embodiment is a display radius map generation device. Embodiments including Examples 1 and 2 are referred to as embodiments. The display radius map generated by the method of the second embodiment can be used in the optical flow processing apparatus of the first embodiment.

本実施形態は、実空間上の任意の位置及び速度の基点となる一定領域と、ドライバーに表示する画像IMとを対応づける手法であり、特に、車間距離の遠近に対応する表示サイズの変化を技術的に合理的な手法で円滑に対応付ける。
すなわち、本実施形態は、仮想ブロックIBを、画面上に表示される仮想ブロックIBのサイズに基づく表示ブロックBDや表示半径マップ34と対応付けることで、実空間上での位置、速度及び範囲を二次元の画像IM上で判別材料として使用可能とする。
The present embodiment is a method of associating a fixed area as a base point of an arbitrary position and speed in real space with an image IM displayed on a driver, and in particular, a change in display size corresponding to the distance between vehicles. Smoothly correspond with technically rational methods.
That is, in this embodiment, the virtual block IB is associated with the display block BD and the display radius map 34 based on the size of the virtual block IB displayed on the screen, so that the position, speed, and range in the real space can be changed. It can be used as a discriminating material on a three-dimensional image IM.

オプティカルフロー処理(相関法)は、時間的に連続する2枚の画像IMを対象とした情報処理であり、前回撮像した前画像IMと、前画像IMの次に撮像した現画像IMとを比較することでオプティカルフローを抽出する。本明細書では、オプティカルフローを「フローFlw」と省略する。
フロー抽出処理では、予め定められたテンプレートTで前画像及び現画像を多数の矩形領域(区画)に区切り、前画像の区画と相関性の高い現画像の区画を探索する。この区画の比較・探索をブロックマッチングという。そして、前画像の区画の画像の特徴と最も良く一致する現画像の区画を探索し、特徴が相関する程度が一定以上の区画をフローFlwで結びつける。このフローFlwはベクトルであり、その大きさ(フロー長)は相対速度に比例し、フロー向きは進行方向に関連する。
Optical flow processing (correlation method) is information processing for two images IM that are temporally continuous, and compares the previous image IM captured last time with the current image IM captured next to the previous image IM. To extract the optical flow. In this specification, the optical flow is abbreviated as “flow Flw”.
In the flow extraction process, the previous image and the current image are divided into a number of rectangular areas (sections) using a predetermined template T, and a section of the current image having a high correlation with the section of the previous image is searched. This section comparison / search is called block matching. Then, a section of the current image that best matches the feature of the image of the section of the previous image is searched, and sections whose degree of feature correlation is equal to or greater than a certain level are connected by the flow Flw. This flow Flw is a vector, the magnitude (flow length) is proportional to the relative velocity, and the flow direction is related to the traveling direction.

このように、フローFlwは、移動前となる前画像IM上に配置したテンプレートTの区画(矩形領域)から、移動後となる現画像IMの座標上の区画を結ぶ移動ベクトルである。移動前の区画の基準点がフローFlwの始点[U0, V0]、移動後の区画の基準点がフローFlwの終点[U1, V1]となる。現画像IMが前画像IMとなると、現画像IMでフロー終点[U1, V1]であった区画は、前画像IMとしてフロー始点[U0, V0]となる。
ブロックマッチングでの特徴量としては、相違度 (SAD, Sum of Absolute Difference) や正規化相互相関 (NCC, Normalized cross-corelation) 等の評価値がある。この評価値の偏差が最も小さい区画の一致箇所を探索することで、前画像IMから現画像IMに向けて一致した区画間にフローFlwを配置する。
As described above, the flow Flw is a movement vector that connects the section (rectangular area) of the template T arranged on the previous image IM before the movement to the section on the coordinates of the current image IM after the movement. The reference point of the partition before movement is the start point [U0, V0] of the flow Flw, and the reference point of the partition after movement is the end point [U1, V1] of the flow Flw. When the current image IM becomes the previous image IM, the section that was the flow end point [U1, V1] in the current image IM becomes the flow start point [U0, V0] as the previous image IM.
As feature quantities in block matching, there are evaluation values such as a degree of difference (SAD, Sum of Absolute Difference) and a normalized cross-corelation (NCC). The flow Flw is arranged between the matching sections from the previous image IM to the current image IM by searching for a matching position of the section having the smallest deviation of the evaluation value.

このフロー抽出手法では、道路の路面等、特徴のない平坦な画像では不特定多数の位置に区画間の一致箇所が発生してしまう。このような平坦な区画画像AIMから発生するフローFlwの大きさや方向は一定には定まらず、路面の荒れ具合や照明条件によっては、抽出されるフローFlwが接近車MAを示すフローFlwと同じ性質を持つ場合がある。このような誤検出フローFlwは接近車MAの有無を判断する際に非常に大きな障害となる。   In this flow extraction method, in a flat image having no characteristics such as a road surface of a road, coincident portions between sections are generated at an unspecified number of positions. The size and direction of the flow Flw generated from such a flat section image AIM is not fixed, and depending on how the road surface is rough and lighting conditions, the extracted flow Flw has the same properties as the flow Flw indicating the approaching vehicle MA May have. Such an erroneous detection flow Flw is a very large obstacle when determining the presence or absence of an approaching vehicle MA.

このような路面等と移動体とを情報処理により区別するには、ブロックマッチングの際に、区画画像AIM内の輝度値について、その分散(ばらつき)、差分、またはソーベルフィルタ等の微分処理をし、その処理結果である評価値を算出すると良い。これらの評価値を使用すると、移動体の特徴量を持たない区画画像AIMを区別し、フローFlwの検出対象外と判定することができる。これにより、接近車MAではないフローFlwをノイズとして除去することができる。
ところで、自車と移動体の車間距離が短くなると、テンプレートTの区画画像AIMに含まれる実空間での大きさが小さくなり、移動体の表面が拡大されてくる。移動体が四輪車であると、区画画像AIMは、例えば、そのボディの板面をクローズアップした状態まで拡大される。すると、この区画画像AIMでは特徴的な要素を持たず、輝度値が単一な画像となってしまう。
In order to distinguish such a road surface and the like from a moving body by information processing, the luminance value in the divided image AIM is subjected to dispersion processing (variation), difference, or differential processing such as a Sobel filter at the time of block matching. Then, it is preferable to calculate an evaluation value that is the processing result. When these evaluation values are used, it is possible to distinguish the segment image AIM that does not have the feature amount of the moving body and determine that it is not the detection target of the flow Flw. Thereby, the flow Flw that is not the approaching vehicle MA can be removed as noise.
By the way, when the distance between the own vehicle and the moving body becomes shorter, the size of the template T in the real space included in the section image AIM becomes smaller, and the surface of the moving body is enlarged. When the moving body is a four-wheeled vehicle, the section image AIM is enlarged to, for example, a state in which the plate surface of the body is closed up. Then, the section image AIM does not have a characteristic element, and the luminance value becomes a single image.

通常、ブロックマッチングの精度維持や処理負担の均質化のために、テンプレートTの各区画画像AIMの大きさは同一となっている。このため、車間距離が短くなるにつれて、遠近表示により、区画画像AIMに対応する実空間での相関寸法が小さくなる。すると、特徴を有していた移動体が撮像されている区画画像AIMであっても、車間距離が短くなることで、特徴がなくなり、フローFlwを抽出できなくなる。特に、微分処理等による路面判定処理が機能する例では、特徴量を持たない区画画像AIMについては、処理対象外となる。   Normally, the size of each section image AIM of the template T is the same for maintaining the accuracy of block matching and homogenizing the processing burden. For this reason, as the inter-vehicle distance becomes shorter, the correlation size in the real space corresponding to the section image AIM becomes smaller due to the perspective display. As a result, even in the divided image AIM in which the moving body having the feature is captured, the feature is lost and the flow Flw cannot be extracted because the inter-vehicle distance is shortened. In particular, in an example in which road surface determination processing such as differentiation processing functions, a section image AIM that does not have a feature amount is not processed.

すなわち、接近車MAの撮像範囲に配置される区画画像AIMであっても、車間距離によっては、フローFlwが上手く抽出されない区画が生じてしまう。その結果、判別可能となる区画画像AIMは、接近車MAの各物体の輪郭、タイヤや、ライト・バンパー等の輝度変化の大きい部分についてのみとなる。
この状況下では、接近後に残るフローFlwは離散的な配置となり、隣接するフローFlwの間隔が開くため、隣接するフローFlwの集合(フローグループFlwG)を単位とした判定に関連する処理が困難となり、接近車MAを連続して追跡する処理の精度が低下してしまう。
このように、自車MTと接近車MAとの車間距離が変化すると、第1に、同一サイズの区画画像AIMでは接近した接近車MAの全体をフローFlwとして検出できなくなってしまう。第2に、同一の接近車MAから生じるフローFlwが離散的で接続しなくなってしまうため、フローFlwをグループ化して判定する処理の精度が悪化してしまう。
このような課題に対し、本実施形態では、表示ブロックBDを参照してフローFlwの有効性を判定することで、接近車MAの検出精度を向上させる。
That is, even in the section image AIM arranged in the imaging range of the approaching vehicle MA, a section in which the flow Flw is not successfully extracted may be generated depending on the inter-vehicle distance. As a result, the section image AIM that can be discriminated is only for the contour of each object of the approaching vehicle MA, the tire, the light bumper, and the like where the luminance change is large.
Under this circumstance, the flow Flw remaining after the approach is discretely arranged, and the interval between the adjacent flows Flw is widened, so that the processing related to the determination based on the set of adjacent flows Flw (flow group FlwG) becomes difficult. The accuracy of the process of continuously tracking the approaching vehicle MA will decrease.
As described above, when the inter-vehicle distance between the host vehicle MT and the approaching vehicle MA changes, first, the approaching vehicle MA as a whole that is approaching cannot be detected as the flow Flw in the same-sized section image AIM. Second, since the flow Flw generated from the same approaching vehicle MA is discrete and is not connected, the accuracy of the process of grouping and determining the flow Flw is deteriorated.
In this embodiment, the accuracy of detecting the approaching vehicle MA is improved by determining the effectiveness of the flow Flw with reference to the display block BD.

<1 オプティカルフロー処理装置>
<1.1 表示ブロック>
まず、本実施形態の実施例1を開示する。実施例1は、オプティカルフロー処理装置100であって、車間距離の変化による検出誤差を低減するために、三次元の仮想ブロックIBと二次元の表示ブロックBDとを対応させる。これにより、二次元で検出したフローFlwの有効性を三次元情報の参酌により判定処理可能とするものである。
<1 Optical flow processor>
<1.1 Display block>
First, Example 1 of this embodiment is disclosed. The first embodiment is an optical flow processing apparatus 100 in which a three-dimensional virtual block IB and a two-dimensional display block BD are associated with each other in order to reduce detection errors due to changes in the inter-vehicle distance. As a result, the validity of the flow Flw detected in two dimensions can be determined by taking the three-dimensional information into consideration.

実施例1のオプティカルフロー処理装置100は、その主要な要素として、カメラ10と、フロー抽出部12と、表示ブロック管理部14と、フロー判定処理部16とを備えている。
図1に示す例では、表示ブロック管理部14が、表示ブロック半径関連処理18と、仮想ブロック特定処理20と、仮定地上高処理22と、表示半径マップ34とを備えている。
The optical flow processing apparatus 100 according to the first embodiment includes a camera 10, a flow extraction unit 12, a display block management unit 14, and a flow determination processing unit 16 as main elements.
In the example illustrated in FIG. 1, the display block management unit 14 includes a display block radius related process 18, a virtual block specifying process 20, an assumed ground height process 22, and a display radius map 34.

カメラ10は、自車MTの周辺を連続して撮像する。撮像した画像IMはフロー抽出部12に入力される。このカメラ10について、カメラ10の姿勢を示す外部パラメータと、レンズ歪み等を示す内部パラメータとを予めキャリブレーション等により求めておくと良い。カメラ10のレンズは、通常のものでも良いし、広角でも良い。駐車支援用の後方確認用カメラ10を使用しても良い。   The camera 10 continuously captures the periphery of the host vehicle MT. The captured image IM is input to the flow extraction unit 12. For this camera 10, an external parameter indicating the attitude of the camera 10 and an internal parameter indicating lens distortion or the like may be obtained in advance by calibration or the like. The lens of the camera 10 may be a normal lens or a wide angle. You may use the camera 10 for back assistance for parking assistance.

フロー抽出部12は、カメラ10から入力される画像IMをテンプレートTで区画画像AIMに区画すると共に、時間的に前後する前記区画画像AIM間のフローFlwを抽出する。
図2に示すように、フロー抽出部12は、画像IMにテンプレートTを重ねることで、画像IMの各領域を多数の区画画像AIMに区画する。区画は、隙間をとって配置すると良いが、隙間無く配置することもできる。そして、フロー抽出部12は、時間的に前後する2つの区画画像IM間で、区画画像AIMの特徴が一致する区画間にフローのFlw始点[U0, V0]と終点[U1, V1]とを定義する。この「一致」は、上述のように完全な一致のみではなく、特徴量の一致度が高い場合を含む。
フローFlwの始点[U0, V0]は時間的に前の画像IMに、フローFlwの終点[U1, V1]は時間的に後(現在)の画像IMに配置する。フローFlwの始点[U0, V0]と終点[U1, V1]とでは区画画像AIMの特徴が一致するため、このフローFlwは、接近車MA等の同一部分が近づいてきている状態を表す。
図2に示す例では、画像IMの全面にテンプレートTを配置しているが、画像IM中、接近車MAが走行可能な範囲に対してのみテンプレートTを配置するようにしても良い。
フローFlwの抽出の情報処理自体は、従来例と同様の手法を採用することができる。
The flow extraction unit 12 partitions the image IM input from the camera 10 into the partition images AIM using the template T, and extracts the flow Flw between the partition images AIM that are temporally changed.
As shown in FIG. 2, the flow extraction unit 12 partitions each region of the image IM into a number of partitioned images AIM by superimposing the template T on the image IM. The compartments are preferably arranged with a gap, but can also be arranged without a gap. The flow extraction unit 12 then sets the Flw start point [U0, V0] and the end point [U1, V1] of the flow between the two partition images IM that are temporally adjacent to each other and the features of the partition image AIM match. Define. This “match” includes not only perfect match as described above, but also a case where the degree of match of feature amounts is high.
The start point [U0, V0] of the flow Flw is arranged in the temporally previous image IM, and the end point [U1, V1] of the flow Flw is arranged in the temporally subsequent (current) image IM. Since the features of the section image AIM match at the start point [U0, V0] and the end point [U1, V1] of the flow Flw, the flow Flw represents a state in which the same part such as the approaching vehicle MA is approaching.
In the example shown in FIG. 2, the template T is arranged on the entire surface of the image IM. However, the template T may be arranged only in a range where the approaching vehicle MA can travel in the image IM.
For the information processing itself of the flow Flw extraction, the same technique as in the conventional example can be adopted.

本実施例1では、表示ブロック管理部14は、前記画像IMに撮像される範囲の三次元空間にて予め定められた位置及び大きさの仮想ブロックIBを前記画像IMの二次元の画像座標系UVに表示ブロックBDとして投影する。仮想ブロックIBは三次元形状で、表示ブロックBDは二次元形状である。三次元空間に多数生成する仮想ブロックIBは、同一の大きさとすると情報処理が容易となるが、個別に位置を管理可能な際には異なる大きさとしても良い。
カメラ10の近くの仮想ブロックIBは、遠方の仮想ブロックIBよりも画像座標系UVにて大きく投影される。すなわち、遠近法により、無限遠点の仮想ブロックIBは極小で、遠くの仮想ブロックIBは小さく、カメラ10に近づくにつれて大きくなる。
表示ブロックBDは、画像座標系UVの座標値(位置)と関連づけられた仮想ブロックIBの大きさである。従って、三次元空間の物体が、画像IM上、遠近法により大きさが変わる程度を表すことができる。この表示ブロックBDは、必要な際に投影処理等をして算出するようにしても良いし、実施例2等の手法を用いて予め算出しておき、表示半径マップ34のデータを記録しておくようにしても良い。
In the first embodiment, the display block management unit 14 uses a virtual block IB having a predetermined position and size in a three-dimensional space in a range captured by the image IM as a two-dimensional image coordinate system of the image IM. Project as UV display block BD. The virtual block IB has a three-dimensional shape, and the display block BD has a two-dimensional shape. A large number of virtual blocks IB generated in the three-dimensional space can be easily processed if they have the same size, but they may have different sizes when their positions can be managed individually.
The virtual block IB near the camera 10 is projected larger in the image coordinate system UV than the far virtual block IB. That is, according to the perspective method, the virtual block IB at the infinity point is extremely small, the far virtual block IB is small, and increases as the camera 10 is approached.
The display block BD is the size of the virtual block IB associated with the coordinate value (position) of the image coordinate system UV. Accordingly, it is possible to represent the degree to which the size of the object in the three-dimensional space changes in the perspective on the image IM. The display block BD may be calculated by performing a projection process or the like when necessary, or may be calculated in advance using the method of the second embodiment and the data of the display radius map 34 is recorded. You may make it leave.

フロー判定処理部16は、前記フローFlwの始点[U0, V0]又は終点[U1, V1]での前記表示ブロックBDの大きさを参照して当該フローFlwの有効性を判定処理する。
フロー判定処理部16は、表示ブロックBDの大きさを判別材料として、フローFlwの有効性を判定処理する。表示ブロックBDは、画像IM上、遠近法により三次元空間の物体の大きさが変わる程度を表している。このため、フロー判定処理部16は、画像IM上のみを対象とする画像処理の工夫によりフローFlwの有効性を判定するのではなく、抽出されたフローFlwの実際の三次元空間での大きさを参照してフローFlwの有効性を判定することができる。このため、特に、接近車MAなど画像IM内で移動する対象物のフローFlwを効果的に抽出することができる。
The flow determination processing unit 16 determines the validity of the flow Flw with reference to the size of the display block BD at the start point [U0, V0] or the end point [U1, V1] of the flow Flw.
The flow determination processing unit 16 determines the effectiveness of the flow Flw using the size of the display block BD as a discrimination material. The display block BD represents the extent to which the size of the object in the three-dimensional space is changed by perspective on the image IM. For this reason, the flow determination processing unit 16 does not determine the effectiveness of the flow Flw by devising the image processing only for the image IM, but the size of the extracted flow Flw in the actual three-dimensional space. The validity of the flow Flw can be determined with reference to FIG. Therefore, in particular, it is possible to effectively extract the flow Flw of the object that moves in the image IM such as the approaching vehicle MA.

そして、フロー判定処理部16による有効性の判定処理は、直接的に個々のフローFlwの有効・無効を判定する処理の他、表示ブロックを使用してフローFlwをグループ化することで間接的にフローFlwの有効・無効を判定する処理や、フローFlwの連続性についての有効性を判定する処理や、そのために新たなテンプレートTの配置位置を求める処理や、このようなテンプレートTの動的な配置等の連続的な処理によりフローFlwの有効性を判定する処理等を含む。   The validity determination process by the flow determination processing unit 16 is indirectly performed by grouping the flow Flw using a display block in addition to the process of directly determining validity / invalidity of each flow Flw. Processing to determine the validity / invalidity of the flow Flw, processing to determine the validity of the continuity of the flow Flw, processing to determine the placement position of a new template T for that purpose, and dynamic processing of such a template T This includes processing for determining the effectiveness of the flow Flw by continuous processing such as placement.

図3に示すように、本実施形態では、図中左側のワールド座標系XYZにて、フローFlwは、仮想ブロックIBが始点[U0, V0]から終点[U1, V1]に移動したと判定する。図3に示す例では、この仮想ブロックIBは球体で、大きさ(仮想ブロック半径IBr)は同一である。この同一の大きさの球体は、画像座標系UVでは、遠近法(自車MTとの車間距離)に応じて画像IMでの表示上の大きさが変化する。すなわち、カメラ10から奥行き方向(図11(A)のz軸)に遠方となるほど小さくなり、カメラ10に近づくほど仮想ブロックIBは大きく撮像される。   As shown in FIG. 3, in this embodiment, in the world coordinate system XYZ on the left side of the drawing, the flow Flw determines that the virtual block IB has moved from the start point [U0, V0] to the end point [U1, V1]. . In the example shown in FIG. 3, the virtual block IB is a sphere and has the same size (virtual block radius IBr). In the image coordinate system UV, the size of the sphere having the same size changes in the display on the image IM according to the perspective (the distance between the vehicle MT and the vehicle). That is, the distance from the camera 10 in the depth direction (z axis in FIG. 11A) becomes smaller, and the virtual block IB is imaged larger as it gets closer to the camera 10.

図4(A)に接近車MAの一例を示す。本実施形態では、図4(B)に示すように、接近車MAを仮想ブロックIBの集合として扱う。図4(B)に示す例では、フローFlwが検出された位置に、有効な仮想ブロックIBが存在すると考える。すなわち、フローFlwは、車両を構成する仮想的なブロック群のうちの「ある1つのブロック」の移動を元に発生したものと考える。このように、本実施例では、接近車MAを三次元空間上に存在する仮想的な平面状のブロックの集合体としてモデル化する。
そして、この仮想ブロックIBを二次元画像IM上へ投影変換可能とする。フローFlw抽出位置を実空間三次元座標(ワールド座標系XYZ)に変換し、変換した実空間位置に対し設定した仮想ブロックIBを、透視変換により再度二次元画像IMの平面上へ変換することで、車間距離と物体の表示サイズに関するギャップに対応する。
すなわち、図4(C)に示すように、仮想ブロックIBを基準にフローFlwの有効性の判定処理をすると、車間距離による表示ギャップに対応することができる。
FIG. 4A shows an example of the approaching vehicle MA. In the present embodiment, as shown in FIG. 4B, the approaching vehicle MA is handled as a set of virtual blocks IB. In the example shown in FIG. 4B, it is assumed that a valid virtual block IB exists at the position where the flow Flw is detected. That is, the flow Flw is considered to have occurred based on the movement of “a certain block” in the virtual block group constituting the vehicle. Thus, in the present embodiment, the approaching vehicle MA is modeled as an aggregate of virtual planar blocks existing in the three-dimensional space.
The virtual block IB can be projected and converted onto the two-dimensional image IM. By converting the flow Flw extraction position to real space 3D coordinates (world coordinate system XYZ), and converting the virtual block IB set for the converted real space position back onto the plane of the 2D image IM by perspective transformation Corresponding to gaps between vehicle distance and object display size.
That is, as shown in FIG. 4C, when the validity determination process of the flow Flw is performed based on the virtual block IB, it is possible to deal with a display gap based on the inter-vehicle distance.

各仮想ブロックIBを実空間で同一のサイズとしても、カメラ10からの距離及び画像IMの歪曲に応じて二次元画像IM上ではその表示サイズが変化する。フローFlwは、この三次元空間での仮想ブロックIBの全体のうち、一部の仮想ブロックIB群の移動について、二次元画像IMに現れる変化を捉えたものとして取り扱う。フローFlwの源泉を仮想ブロックIBの集合とするため、フローFlwの始点[U0, V0]及び終点[U1, V1]の仮想ブロックIBの周辺には、他にも性質を同類とする仮想ブロックIBによる集合が存在すると仮定することができる。この実空間上に想定した仮想ブロックIBとその画像IM上での表示サイズに基づく処理により、接近車MAの一部を示すフローFlwに対して、自車MTとの車間距離の遠近に応じて変化する画像IMの平面上の表示サイズとのギャップに左右されにくい処理を実現する。   Even if each virtual block IB has the same size in the real space, the display size changes on the two-dimensional image IM according to the distance from the camera 10 and the distortion of the image IM. The flow Flw handles the movement of a part of the virtual blocks IB in the entire virtual block IB in the three-dimensional space as capturing the change appearing in the two-dimensional image IM. Since the source of the flow Flw is a set of virtual blocks IB, there are other virtual blocks IB of similar nature around the virtual block IB at the start point [U0, V0] and the end point [U1, V1] of the flow Flw. It can be assumed that there exists a set by By processing based on the virtual block IB assumed in the real space and the display size on the image IM, the flow Flw indicating a part of the approaching vehicle MA is changed according to the distance between the vehicle and the own vehicle MT. Realizes processing that is less affected by the gap with the display size on the plane of the changing image IM.

・1.1 表示ブロックの効果
上述のように、フロー抽出部12が、時間的に前後する前記区画画像AIM間のフローFlwを抽出すると、表示ブロック管理部14が、三次元空間にて予め定められた位置及び大きさの仮想ブロックIBを画像IMの二次元の画像座標系UVに表示ブロックBDとして投影する。そして、フロー判定処理部16は、フローFlwの始点[U0, V0]又は終点[U1, V1]での前記表示ブロックBDの大きさを参照して当該フローFlwの有効性を判定処理する。
従って、フロー判定処理部16は、三次元空間での対象物の大きさを参照しつつ、その表示ブロックBDの範囲内外のフローFlwの有効性を判定することができる。このため、車間距離に応じた表示大のギャップを表示ブロックBDの参照により解消して、精度良くフローFlwの有効性を判定することができる。
このように、画像IMのみを対象とする画像処理ではなく、実際の三次元空間での対象物の大きさを参照してフローFlwの有効性を判定するため、自車MTと接近車MA等の移動体との車間距離に変化があっても、フローFlwの検出やそのグループ化の精度を安定させることができる。そして、フローFlw群に基づいて同一の移動体の移動を連続して安定的に抽出することができる。
表示ブロックBDを使用したフローFlwの有効性判定処理により、車間距離に応じた表示大のギャップ解消し、移動体の検出精度を向上させることができる。
特に、自車MTと接近車MAとの車間距離が刻々と変化する接近車MAの検出では、遠近法の影響により同一の接近車MAから抽出されるフローFlwの数が接近に伴って増加し、また範囲が拡大しても、表示ブロックBDを参照することで、フローFlwの有効性、接近車MAの同一性、フローFlwのグループ化、及び無効なフローFlwの除去等を効果的に処理することができる。
1.1 Effect of Display Block As described above, when the flow extraction unit 12 extracts the flow Flw between the segment images AIM that are temporally changed, the display block management unit 14 is predetermined in the three-dimensional space. A virtual block IB having a position and a size is projected as a display block BD on the two-dimensional image coordinate system UV of the image IM. Then, the flow determination processing unit 16 refers to the size of the display block BD at the start point [U0, V0] or the end point [U1, V1] of the flow Flw to determine the validity of the flow Flw.
Therefore, the flow determination processing unit 16 can determine the effectiveness of the flow Flw within and outside the range of the display block BD while referring to the size of the object in the three-dimensional space. For this reason, the display-sized gap corresponding to the inter-vehicle distance can be eliminated by referring to the display block BD, and the effectiveness of the flow Flw can be accurately determined.
As described above, since the effectiveness of the flow Flw is determined by referring to the size of the object in the actual three-dimensional space, not the image processing only for the image IM, the own vehicle MT and the approaching vehicle MA, etc. Even if there is a change in the distance between the vehicle and the moving body, the detection accuracy of the flow Flw and its grouping can be stabilized. The movement of the same moving object can be continuously and stably extracted based on the flow Flw group.
With the flow Flw validity determination process using the display block BD, the display-size gap corresponding to the inter-vehicle distance can be eliminated, and the detection accuracy of the moving object can be improved.
In particular, in the detection of an approaching vehicle MA in which the inter-vehicle distance between the host vehicle MT and the approaching vehicle MA changes every moment, the number of flows Flw extracted from the same approaching vehicle MA increases with the approach due to the influence of perspective. In addition, even if the range is expanded, referencing the display block BD effectively handles the validity of the flow Flw, the identity of the approaching vehicle MA, the grouping of the flow Flw, the removal of the invalid flow Flw, etc. can do.

<1.2 表示ブロック半径>
実施例1では、表示ブロックを表すデータ構造をより簡易な仕組みとすることができる。この例では、表示ブロック管理部14が、表示ブロック半径関連処理18を備える。
この表示ブロック半径関連処理18は、当該表示ブロックBDを円近似するとともに、近似した円の半径を表示ブロック半径BDrとして当該表示ブロックBDの大きさに関連させる。
<1.2 Display block radius>
In the first embodiment, the data structure representing the display block can be a simpler mechanism. In this example, the display block management unit 14 includes a display block radius related process 18.
The display block radius related processing 18 approximates the display block BD as a circle and associates the approximate circle radius with the size of the display block BD as the display block radius BDr.

再度図3を参照すると、表示ブロックBDを円近似すると、その表示ブロック半径BDrの値を特定するのみで、表示ブロックBDの特徴を管理することができる。すなわち、表示ブロック管理部14は、仮想ブロックIBの仮想ブロック半径IBrの長さに対応する表示ブロック半径BDrを管理することで、実空間の大きさが画像IMの座標値[U, V]毎にどの程度の大きさとなるか、表示ブロック半径BDrを用いて管理することができる。
この表示ブロック半径BDrは、リアルタイムに必要な時点で算出するようにしても良いし、実施例2の手法により予め算出しマップ化しておくようにしても良い。マップ化しておく場合、表示ブロック管理部14は、予め、この表示半径マップ34を記憶する。
また、表示ブロックBD又は表示ブロック半径BDrを画像IMの座標値[U, V]に対応させるのではなく、実空間での位置を表すワールド座標系XYZの座標値[X, Y, Z]に対応させる際には、予め画像座標系UVとワールド座標系XYZとを対応させたマップ(特許文献5の計測マップ,XZtoUVマップ)を使用して対応させると良い。
Referring to FIG. 3 again, when the display block BD is circularly approximated, the characteristics of the display block BD can be managed only by specifying the value of the display block radius BDr. In other words, the display block management unit 14 manages the display block radius BDr corresponding to the length of the virtual block radius IBr of the virtual block IB, so that the size of the real space becomes the coordinate value [U, V] of the image IM. It can be managed using the display block radius BDr.
The display block radius BDr may be calculated at a necessary time in real time, or may be calculated and mapped in advance by the method of the second embodiment. In the case of mapping, the display block management unit 14 stores the display radius map 34 in advance.
Also, the display block BD or the display block radius BDr is not made to correspond to the coordinate value [U, V] of the image IM, but to the coordinate value [X, Y, Z] of the world coordinate system XYZ representing the position in the real space. When making correspondence, it is preferable to make correspondence using a map (measurement map, XZtoUV map of Patent Document 5) in which the image coordinate system UV and the world coordinate system XYZ are made to correspond in advance.

図5(A)及び(B)に示すように、表示ブロック半径BDrで特定される円近似した表示ブロックBDは遠近(車間距離)に応じた表示ギャップを良好に表すことができる。このため、簡易なデータ構造を使用して正確な処理を高速に実行することができる。さらに、図5(A)に示す広角レンズを用いた画像IMであっても、そのゆがみの影響をなくしてフローFlwの有効性判定処理を単純化することができる。   As shown in FIGS. 5A and 5B, the display block BD approximated by a circle specified by the display block radius BDr can satisfactorily represent a display gap corresponding to the perspective (distance between vehicles). For this reason, accurate processing can be executed at high speed using a simple data structure. Furthermore, even for the image IM using the wide-angle lens shown in FIG. 5A, the effect of the flow Flw can be simplified by eliminating the influence of the distortion.

・1.2 表示ブロック半径の効果
上述のように、表示ブロック半径関連処理18が、当該表示ブロックBDを円近似するとともに、近似した円の半径を表示ブロック半径BDrとして当該表示ブロックBDの大きさに関連させるため、半径という簡易なデータで、三次元空間での遠近に対応した表示ブロックBDの情報を特定し、表現することができる。そして、座標値と表示ブロック半径BDrという簡易なデータ構造とすることで、処理を正確かつ高速にすることができ、特に、リアルタイム処理を低コストで実現することができる。
1.2 Effect of Display Block Radius As described above, the display block radius related process 18 approximates the display block BD as a circle and relates to the size of the display block BD using the approximate circle radius as the display block radius BDr. Therefore, the information of the display block BD corresponding to the perspective in the three-dimensional space can be specified and expressed with simple data called the radius. The simple data structure of the coordinate value and the display block radius BDr allows the processing to be performed accurately and at high speed, and in particular, real-time processing can be realized at low cost.

<1.3 仮想ブロックと検出用速度>
実施例1では、表示ブロックBDの参照により静止物等から生じるフローFlwを良好に無効とすることができる。この例では、前記表示ブロック管理部14が、仮想ブロック特定処理20を備える。
この仮想ブロック特定処理20は、前記三次元空間にて前記自車MTに接近する車両について予め定められた検出用速度に基づいて、前記仮想ブロックIBの前記三次元空間での大きさを特定する。
<1.3 Virtual block and detection speed>
In the first embodiment, the flow Flw generated from a stationary object or the like can be effectively invalidated by referring to the display block BD. In this example, the display block management unit 14 includes a virtual block specifying process 20.
The virtual block specifying process 20 specifies the size of the virtual block IB in the three-dimensional space based on a predetermined detection speed for a vehicle approaching the host vehicle MT in the three-dimensional space. .

再度図3を参照すると、それぞれの表示ブロックBDの大きさは仮想ブロックIBの位置及び大きさに応じて定められる。そして、仮想ブロックIBの大きさは、球体とする際には、仮想ブロック半径IBrの長さとして任意に設定できる。この仮想ブロック半径IBrは、ワールド座標系XYZでの実際の長さに応じて定めても良いが、この例では、検出用速度に応じて定めることで、無効なフローFlwの判定処理を簡易に実現する。   Referring to FIG. 3 again, the size of each display block BD is determined according to the position and size of the virtual block IB. The size of the virtual block IB can be arbitrarily set as the length of the virtual block radius IBr when it is a sphere. This virtual block radius IBr may be determined according to the actual length in the world coordinate system XYZ, but in this example, by determining according to the detection speed, the invalid flow Flw determination process can be simplified. Realize.

例えば、ビデオレート(1/30 [sec] )間で接近する接近車MAの移動により検出したフローFlwの始点[U0, V0]から終点[U1, V1]を実空間上の直線移動成分として速度に換算し、その検出用速度(設定上限速度)で指定したしきい値条件を満足するかの判定を行うことで、無効なフローFlwを排除することができる。すなわち、路面等の背景は静止しており速度が0 [m/sec]であるため、路面等から生じたフローFlwの速度は検出用速度以下となる。   For example, the flow Flw start point [U0, V0] to the end point [U1, V1] detected by the movement of the approaching vehicle MA approaching between the video rates (1/30 [sec]) is used as a linear movement component in real space. Ineffective flow Flw can be eliminated by determining whether or not the threshold condition specified by the detection speed (set upper limit speed) is satisfied. That is, since the background of the road surface and the like is stationary and the speed is 0 [m / sec], the speed of the flow Flw generated from the road surface or the like is equal to or lower than the detection speed.

仮想ブロックIBがフローFlw発生の源泉であるため、この仮想ブロックIBの大きさを検出用速度に応じて定めると無効なフローFlwを排除しやすくなり、さらに、表示ブロックBDの大きさが有効なフローFlwに必要な速度以上の速度と対応するため、表示ブロックBDを参照としたフローFlwの有効性判定処理にて、同様に、速度が0で無効となるフローFlwを排除しやすくなる。
このように、仮想ブロックIBを、検出用速度に応じた半径に持つ球(あるいはN角形)を設定することで、フローFlwの有効性を判定する最適な大きさを得ることができる。
Since the virtual block IB is the source of the flow Flw generation, if the size of the virtual block IB is determined according to the detection speed, it becomes easy to eliminate the invalid flow Flw, and the size of the display block BD is effective. In order to correspond to a speed higher than the speed required for the flow Flw, in the flow Flw validity determination process with reference to the display block BD, similarly, it becomes easy to eliminate the flow Flw that is invalid when the speed is 0.
As described above, by setting a sphere (or N-gon) having a radius corresponding to the detection speed for the virtual block IB, an optimum size for determining the effectiveness of the flow Flw can be obtained.

・1.3 仮想ブロックと検出用速度の効果
上述のように、仮想ブロック特定処理20が、三次元空間にて前記自車MTに接近する車両について予め定められた検出用速度に基づいて、前記仮想ブロックIBの前記三次元空間での大きさを特定するため、表示ブロックBDで特定される三次元空間での大きさに満たないフローFlwがある際には、当該フローFlwは検出用速度に満たないため、無効と判定することができる。このように、検出用速度に基づいて仮想ブロックBDの大きさを定めることで、仮想ブロックIB及び表示ブロックBDフローFlwの有効性を自然に判定できる最適な大きさとすることができる。
1.3 Effect of Virtual Block and Detection Speed As described above, the virtual block specifying process 20 is performed based on the detection speed predetermined for a vehicle approaching the host vehicle MT in a three-dimensional space. In order to specify the size of the IB in the three-dimensional space, when there is a flow Flw that is less than the size in the three-dimensional space specified by the display block BD, the flow Flw is less than the detection speed. Therefore, it can be determined to be invalid. In this way, by determining the size of the virtual block BD based on the detection speed, it is possible to obtain an optimal size that can naturally determine the effectiveness of the virtual block IB and the display block BD flow Flw.

<1.4 仮定地上高Yconst>
実施例1では、画像IMの2つの座標値[U, V]とワールド座標系の3つの座標値[X, Y, Z]とを実用的に対応させることができる。この例では、表示ブロック管理部14が、仮定地上高処理22を備えた。
仮定地上高処理22は、仮想ブロックIBの三次元空間での高さを当該三次元空間にて予め定められた仮定地上高Yconstに仮定して、仮想ブロックIBを画像座標系UVでの表示ブロックBDの位置に投影する。
<1.4 Assumed ground height Yconst>
In the first embodiment, the two coordinate values [U, V] of the image IM can be practically associated with the three coordinate values [X, Y, Z] of the world coordinate system. In this example, the display block management unit 14 includes the assumed ground height processing 22.
The assumed ground height processing 22 assumes the height of the virtual block IB in the three-dimensional space to be the assumed ground height Yconst predetermined in the three-dimensional space, and displays the virtual block IB in the image coordinate system UV display block. Project to BD position.

図6を参照すると、実施例1ではカメラ10を自車MTの後方に設置し、自車MTの後方の走行環境を撮影する。カメラ10を下向きに傾けて設置することで、接近車MA等の移動体を撮像できる範囲を広くしている。そして、カメラ10の光軸(z軸)を法線とする平面でカメラ10の焦点位置にある平面がイメージプレーンIP(特許文献5での理想平面)である。
図6に示すように、仮定地上高Yconstは、フローFlwを抽出する特徴量の多いバンパー付近の高さとすると良い。第1の仮定地上高Yconst1はバンパーと車体とのつなぎ目、第2の仮定地上高Yconst2はバンパー下部と路面GTとの境界で輝度差が大きく現れやすい高さである。
Referring to FIG. 6, in the first embodiment, the camera 10 is installed behind the host vehicle MT and the traveling environment behind the host vehicle MT is photographed. By setting the camera 10 tilted downward, the range in which a moving body such as the approaching vehicle MA can be imaged is widened. Then, a plane that is a normal line with the optical axis (z axis) of the camera 10 and that is at the focal position of the camera 10 is an image plane IP (ideal plane in Patent Document 5).
As shown in FIG. 6, the assumed ground height Yconst is preferably a height near a bumper having a large amount of features for extracting the flow Flw. The first hypothetical ground height Yconst1 is a joint where the bumper and the vehicle body are connected, and the second hypothetical ground height Yconst2 is a height where a luminance difference is likely to appear at the boundary between the bumper lower part and the road surface GT.

図7(A)に示すように、仮定地上高Yconstを使用すると、撮像範囲の三次元空間に仮定地上高Yconstによる切断平面を定義することができる。そして、フローFlwは仮定地上高Yconst平面上を移動する。
図7(B)に示すように、図7(A)に示すフローFlwの終点[U1, V1]の表示ブロックBDを参照すると、カメラ10に近い側の表示ブロックBDが大きく現れる。
この例では、仮定地上高Yconstによる切断平面上にて、表示ブロックBDの大きさを参照して、各フローFlwの有効性を判断することができるため、各フローFlwが同一の接近車MAから生じているか否かの判定や、個々のフローFlwが同一の接近車MAによる連続したフローFlwであるのかの判定や、接近車MAの車速を計算して各フローFlwが次に現れる予想位置の算出などを高精度に行うことができる。
すなわち、仮定地上高Yconstと、表示ブロックBDとを使用することで、各フローFlwの有効性の判定処理を低コストで効果的に行うことができる。
As shown in FIG. 7A, when the assumed ground height Yconst is used, a cutting plane based on the assumed ground height Yconst can be defined in the three-dimensional space of the imaging range. Then, the flow Flw moves on the assumed ground height Yconst plane.
As shown in FIG. 7B, when the display block BD at the end point [U1, V1] of the flow Flw shown in FIG. 7A is referenced, the display block BD closer to the camera 10 appears greatly.
In this example, since the effectiveness of each flow Flw can be determined on the cutting plane based on the assumed ground height Yconst with reference to the size of the display block BD, each flow Flw is from the same approaching vehicle MA. Judgment of whether or not it occurs, whether each flow Flw is a continuous flow Flw by the same approaching vehicle MA, and calculating the vehicle speed of the approaching vehicle MA, the predicted position where each flow Flw appears next Calculations can be performed with high accuracy.
That is, by using the assumed ground height Yconst and the display block BD, it is possible to effectively perform the process of determining the effectiveness of each flow Flw at a low cost.

・1.4 仮定地上高Yconstの効果
上述のように、仮定地上高処理22が、前記仮想ブロックIBの前記三次元空間での高さを当該三次元空間にて予め定められた仮定地上高Yconstに仮定して、前記仮想ブロックIBを前記画像座標系UVでの前記表示ブロックBDの位置に投影するため、画像IMの2つの座標値[U, V]とワールド座標系XYZの3つの座標値[X, Y, Z]とを実用的に対応させることができる。しかも、対象物の高さを一定値に仮定することで、抽出されるFlwの連続性を高めることができる。
そして、仮想ブロックIBの高さを仮定地上高Yconstとするため、表示ブロックBDは同一の高さの仮想ブロックIBについての遠近による大きさの相違を示すデータとなり、遠方から至近距離まで直線的で円錐型となる表示ブロックBDを得ることができる。
1.4 Effect of Assumed Ground Height Yconst As described above, the assumed ground height processing 22 assumes the height of the virtual block IB in the three-dimensional space as the assumed ground height Yconst predetermined in the three-dimensional space. Then, in order to project the virtual block IB onto the position of the display block BD in the image coordinate system UV, two coordinate values [U, V] of the image IM and three coordinate values [X of the world coordinate system XYZ [X , Y, Z] can be matched practically. Moreover, the continuity of the extracted Flw can be increased by assuming the height of the object to be a constant value.
And since the height of the virtual block IB is assumed to be the assumed ground height Yconst, the display block BD becomes data indicating the difference in size for the virtual block IB of the same height, and is linear from far to close. A conical display block BD can be obtained.

<1.5 有効性判定処理>
本実施例1では、表示ブロック管理部14は、表示ブロックBDを生成するのではなく、予め作成された表示ブロックBDについてのデータをマップとして記憶しておき、フローFlwの有効性判定処理に際して参照するようにしても良い。
<1.5 Effectiveness judgment processing>
In the first embodiment, the display block management unit 14 does not generate the display block BD, but stores data about the display block BD created in advance as a map, which is referred to during the validity determination process of the flow Flw. You may make it do.

この例では、表示ブロック管理部14は、表示半径マップ34を記憶すると良い。
表示半径マップ34は、画像IMに撮像される範囲の三次元空間にて予め定められた位置及び同一の大きさの仮想ブロックIBを前記画像の二次元の画像座標系UVに表示ブロックBDとして予め投影したデータである。この表示半径マップ34に含まれるデータは、画像IMの座標値[U, V]又はこの座標値に対応するワールド座標系XYZでの座標値[X, Y, Z]と、表示ブロックBDの大きさやその表示ブロック半径BDrとを対応させたデータである。この表示ブロック半径BDrを対応させたマップを特に表示半径マップ34という。
そして、フロー判定処理部16は、フローFlwの有効性の判定に際して、表示半径マップ34を参照することで、前記フローFlwの始点[U0, V0]又は終点[U1, V1]での前記表示ブロックBDの大きさのデータを使用することができる。
In this example, the display block management unit 14 may store the display radius map 34.
The display radius map 34 stores a virtual block IB having a predetermined position and the same size in a three-dimensional space in a range captured by the image IM as a display block BD in the two-dimensional image coordinate system UV of the image. Projected data. The data included in the display radius map 34 includes the coordinate values [U, V] of the image IM or the coordinate values [X, Y, Z] in the world coordinate system XYZ corresponding to the coordinate values, and the size of the display block BD. The data corresponds to the display block radius BDr. A map corresponding to the display block radius BDr is particularly referred to as a display radius map 34.
The flow determination processing unit 16 refers to the display radius map 34 when determining the validity of the flow Flw, so that the display block at the start point [U0, V0] or the end point [U1, V1] of the flow Flw. BD size data can be used.

フロー判定部16は、表示ブロック管理部14が生成するデータを参照する場合も、表示半径マップ34を参照する場合も、同一の情報処理を行うことができる。
フロー判定部16による有効性判定処理はニーズや必要な精度に応じて多様であるが、ここでは、上述した有効性判定処理の他、(1).グループ化、(2).動的テンプレート、(3).他のマップとの関係について開示する。
The flow determination unit 16 can perform the same information processing both when referring to the data generated by the display block management unit 14 and when referring to the display radius map 34.
The effectiveness determination processing by the flow determination unit 16 varies depending on needs and required accuracy. Here, in addition to the above-described effectiveness determination processing, (1) grouping, (2) dynamic template, (3) Disclose the relationship with other maps.

・1.5(1) グループ化
フローFlwの有効性判定処理の一種に、接近車MAの識別と接近の程度等の判定がある。
一般に、検出したフロー群のうち、フロー位置、フロー長及びフロー向きに基づいて接近車MAの可能性のあるフローFlwを抽出し、このフローFlwに隣接するフローFlwの集合をグループ化して、このフローグループFlwGが接近車MAに起因するフロー群であるとして、接近車MAを特定する。
そして、1台の接近車MAを細かくパーツ単位(例えば、タイヤ・窓・ライト・ボディ・・・)で監視したとしても、全てのパーツの持つ移動量や移動方向は接近車MAとの移動と一体であるため、同じ移動成分となる。従って、等しい性質(速度、方向、その連続性)を持つフローFlwの集合を接近車MAと推定することができる。
・ 1.5 (1) Grouping One type of flow Flw effectiveness determination process is identification of approaching vehicle MA and determination of the degree of approach.
Generally, out of the detected flow group, a flow Flw that may be an approaching vehicle MA is extracted based on the flow position, flow length, and flow direction, and a set of flows Flw adjacent to this flow Flw is grouped, and this The approaching vehicle MA is identified assuming that the flow group FlwG is a flow group caused by the approaching vehicle MA.
Even if one approaching vehicle MA is closely monitored in parts (for example, tires, windows, lights, bodies, etc.), the amount and direction of movement of all parts is the same as that of the approaching vehicle MA. Since they are integral, they have the same moving component. Therefore, a set of flows Flw having the same properties (speed, direction, continuity) can be estimated as the approaching vehicle MA.

このように、カメラ10から入力される画像IMに基づいてフローFlwを抽出する後方監視システム等では、検出したフローFlwのグループ化により、接近車MAの有無及びその接近の程度等を判定することができる。
また、フローFlwの性質に強い類似性のあるフローグループFlwGがある領域と、そうでない領域とを情報処理により区別することができる。このフローFlwの分布に基づいた評価を併用することもできる。一方、任意のある時点(画像間)で単独に存在するフローFlwと、その他類似要素から発生するノイズや誤検出フローを分別して接近車MAの存在を判定するのは困難である。
As described above, in the rear monitoring system or the like that extracts the flow Flw based on the image IM input from the camera 10, the presence / absence of the approaching vehicle MA and the degree of approach thereof are determined by grouping the detected flow Flw. Can do.
Further, it is possible to distinguish an area where there is a flow group FlwG having a strong similarity to the nature of the flow Flw and an area where the flow group FlwG does not exist by information processing. Evaluation based on the distribution of the flow Flw can be used in combination. On the other hand, it is difficult to determine the presence of the approaching vehicle MA by classifying the flow Flw that exists independently at any given time (between images), noise generated from other similar elements, and erroneous detection flows.

フローFlwのグループ化処理はフローFlwの有効性判定に有用である。しかし、フローFlwが理想的に集合した分布をなす車間距離の範囲は短く、車間が離れすぎても近づきすぎても隣接フロー群の評価が困難で、望ましいグループ化の処理ができなくなる。   The flow Flw grouping process is useful for determining the effectiveness of the flow Flw. However, the range of the inter-vehicle distance in which the flows Flw form an ideally aggregated distribution is short, and it is difficult to evaluate the adjacent flow group even if the inter-vehicle distance is too far or too close, and the desired grouping process cannot be performed.

図8に示す例では、フロー判定処理部16は、図8(A)にて抽出したフローFlwを図8(B)に示す表示ブロックBDに変換している。図8(A)では、フローFlwであることが判明するようにフローFlwを示す矢印を大きく描いている。   In the example illustrated in FIG. 8, the flow determination processing unit 16 converts the flow Flw extracted in FIG. 8A into the display block BD illustrated in FIG. 8B. In FIG. 8A, an arrow indicating the flow Flw is drawn large so that the flow Flw can be identified.

図8(B)に示す例では、 フロー判定処理部16は、表示ブロックBDの重なり合いに基づいてフローFlwをグループ化する。抽出されたフローFlwは、フローグループFlwG(1)と、フローグループFlwG(2)と、フローグループFlwG(3)とに区分される。
このようにフローFlwをグループ化することで、画像IMでの大きさではなく、実空間での大きさに基づいてグループ化することができる。このグループ化により、個別のフローFlwを対象とした接近車MAの判定処理よりも容易に接近車MAの有無を判定することができる。
このように、フロー終点[U1, V1]の表示ブロックBDに基づいてフローFlwをグループ化することで、接近車MAの検出精度を向上させることができる。
In the example shown in FIG. 8B, the flow determination processing unit 16 groups the flows Flw based on the overlapping of the display blocks BD. The extracted flow Flw is divided into a flow group FlwG (1), a flow group FlwG (2), and a flow group FlwG (3).
By grouping the flows Flw in this way, they can be grouped based on the size in the real space, not the size in the image IM. By this grouping, the presence / absence of the approaching vehicle MA can be determined more easily than the determination process of the approaching vehicle MA for the individual flow Flw.
Thus, by grouping the flows Flw based on the display block BD of the flow end point [U1, V1], the detection accuracy of the approaching vehicle MA can be improved.

・1.5(2) 動的テンプレート
上述したグループ化処理により接近車MAを発見しても、さらに車間距離が縮まると、接近車MAがズームアップされた状態となり、区画画像AIMに対して接近車MAの特徴が大きくなりすぎることで、フローFlwが離散化し、グループを構成するフローFlwがなくなり、単独フローFlwのみとなると、接近車MAを見失ってしまう。
この場合、単独フローFlwに関しても、周辺にテンプレートT(区画)を動的に追加できれば、単独フローFlwから派生するフローFlwで再びグループを形成できる。このテンプレートTの動的追加により、車間が詰まった状態でも接近車MAの連続検出性能を確保できる。
この動的なテンプレートTの配置に際して、表示ブロックBDを使用すると、極めて効果的な位置にテンプレートTを配置することができる。
また、全体のテンプレートTを粗くすることで情報処理量を減少させつつ、接近車MAの候補となるフローFlwが検出された際にその周辺に動的にテンプレートTを配置することで接近車MAの検出精度を高める際にも、表示ブロックBDを参照した動的テンプレートの配置が有効である。
・ 1.5 (2) Dynamic template Even if the approaching vehicle MA is found by the above-described grouping process, the approaching vehicle MA is zoomed in when the inter-vehicle distance is further reduced, and the approaching vehicle MA is compared with the section image AIM. Since the flow Flw is discretized due to the excessively large feature, and there is no flow Flw constituting the group, and there is only the single flow Flw, the approaching vehicle MA is lost.
In this case, regarding the single flow Flw, if the template T (section) can be dynamically added to the periphery, a group can be formed again with the flow Flw derived from the single flow Flw. Due to the dynamic addition of the template T, the continuous detection performance of the approaching vehicle MA can be secured even when the space between the vehicles is clogged.
When the dynamic template T is arranged, the template T can be arranged at a very effective position by using the display block BD.
In addition, when the flow Flw that is a candidate of the approaching vehicle MA is detected while reducing the amount of information processing by roughening the entire template T, the approaching vehicle MA is dynamically arranged around the flow Flw. In order to improve the detection accuracy, dynamic template placement with reference to the display block BD is also effective.

この動的テンプレートTの追加は、正規のフローFlwの検出位置に存在する仮想ブロックIBの周辺には、別の仮想ブロックIBが存在するものと仮定し、動的テンプレートTを配置する処理である。動的テンプレートTは、表示ブロックBDに基づいて配置することで、すなわち、フローFlwの検出位置から投影された二次元画像平面での仮想ブロックIBの表示サイズを基に配置することで、車間距離と物体の表示サイズに関するギャップに対応し、接近車MAを効果的に抽出することができる。
この例では、検出したフローFlwの終点[U1, V1]、さらに終点[U1, V1]の周囲に位置する表示ブロックBDの範囲内に新たなテンプレートを動的に追加することで、次画像IM、次々画像IMと連続してフローFlwを抽出することができる。
そして、連続検出されるフローFlwの挙動や連続検出性を確認処理することで、接近車MAの存在を判断しドライバーへ情報提示することができる。
The addition of the dynamic template T is a process of arranging the dynamic template T on the assumption that another virtual block IB exists around the virtual block IB existing at the detection position of the normal flow Flw. . The dynamic template T is arranged based on the display block BD, that is, the arrangement based on the display size of the virtual block IB on the two-dimensional image plane projected from the detection position of the flow Flw. The approaching vehicle MA can be extracted effectively corresponding to the gap regarding the display size of the object.
In this example, the next image IM is added by dynamically adding a new template within the range of the display block BD located around the end point [U1, V1] of the detected flow Flw and the end point [U1, V1]. The flow Flw can be extracted successively from the image IM one after another.
Then, by confirming the behavior and continuous detectability of the flow Flw that is continuously detected, the presence of the approaching vehicle MA can be determined and information can be presented to the driver.

BDr[U, V]を画像IMの座標値[U, V]での半径マップの参照値とする。フローFlwの検出位置[U, V]に対し、線分[U ± BDr[U, V], V]はYconst平面と仮想ブロックIBの交線であるとして扱い、この線分 [U ± BDr[U, V], V]をM等分した分割点座標[U[i],V[i]]を求める。
[U[i],V[i]]=[(U[i]−2×R[i])+2×R[i]/M, V[i]] そして、分割点座標[U[i],V[i]]へ計M個の区画(テンプレートT)を登録する。
Let BDr [U, V] be the reference value of the radius map at the coordinate value [U, V] of the image IM. For the detection position [U, V] of the flow Flw, the line segment [U ± BDr [U, V], V] is treated as the intersection of the Yconst plane and the virtual block IB, and this line segment [U ± BDr [ Divide point coordinates [U [i], V [i]] by dividing U, V], V] into M equal parts.
[U [i], V [i]] = [(U [i] −2 × R [i]) + 2 × R [i] / M, V [i]] and the dividing point coordinates [U [i] , V [i]], a total of M sections (template T) are registered.

この表示ブロックBDや表示ブロック半径BDrを用いた動的な区画の配置により、テンプレートマッチングを最適化することができ、かつ、この処理を低コストで行うことができる。そして、2つの画像IM間の最適化ではなく、テンプレートTの配置の連続的な最適化を継続することで、移動体の特徴部分を確実に追跡し続けることができる。   Template matching can be optimized by the dynamic arrangement of the partitions using the display block BD and the display block radius BDr, and this processing can be performed at low cost. Then, by continuing the continuous optimization of the arrangement of the template T instead of the optimization between the two images IM, it is possible to reliably keep track of the characteristic portion of the moving object.

検出した接近フローFlwの終端の表示ブロック半径BDrに基づいて、この終端の周辺に区画を動的に配置する手法では、検出フローFlwが接近車MAの輪郭部の位置から検出された場合でも、車間距離の遠近に関わらず、最低1/2以上は接近車MAの本体を示す位置へ区画を配置することができる。   Based on the display block radius BDr at the end of the detected approach flow Flw, in the method of dynamically arranging the section around this end, even when the detection flow Flw is detected from the position of the contour portion of the approaching vehicle MA, Regardless of the distance between the vehicles, the section can be arranged at a position indicating the main body of the approaching vehicle MA at least 1/2 or more.

・1.5(3) 他のマップとの関係
表示ブロックBDを用いることで、画像IMの二次元座標にてフローFlwの有効性判定を行うことができるが、接近車MAの車速と関係する情報などワールド座標系XYZであるとより正確な判定が可能な項目もある。
このため、画像座標系UVとワールド座標系XYZとを相互に変換可能であると便利であるが、カメラ10が広角で線形とするには補正が必要となる場合などは、複雑な非線形方程式や多項方程式を求める必要があり、また、二次元での2つの情報では三次元の3つの情報(位置)を求めることはできない。
・ 1.5 (3) Relationship with other maps By using the display block BD, the validity of the flow Flw can be determined with the two-dimensional coordinates of the image IM, but information related to the vehicle speed of the approaching vehicle MA, etc. Some items can be determined more accurately in the world coordinate system XYZ.
For this reason, it is convenient that the image coordinate system UV and the world coordinate system XYZ can be converted to each other. However, when the camera 10 needs to be corrected to be linear at a wide angle, complicated nonlinear equations and It is necessary to obtain a polynomial equation, and three information (position) in three dimensions cannot be obtained from two information in two dimensions.

同一出願人及び発明者の特許文献5には、駐車支援用の広角レンズを使用したバックアイカメラ10を元に画像座標系UVの二次元座標と、実空間のワールド座標系XYZの座標値との相関を円滑に取得するための計測マップが開示されている。
仮想ブロックIBの仮想ブロック中心IBcを、ある任意の高さYconst平面に位置するよう設定することで、特許文献5に開示した手法により、画像座標系UVの表示ブロック中心BDc[U,V]をワールド座標系XYZでの仮想ブロック中心IBc[X,Yconst,Z]に変換することができる。
さらに実施例2で開示する円盤円周点ICeiと仮想ブロック円周点IBeiとを対応させておくと、画像IMでの当該表示ブロックBDの円周分布や表示サイズ、表示ブロック半径BDrに関するワールド座標系XYZでのデータを取得することができる。
Patent document 5 of the same applicant and the inventor includes two-dimensional coordinates of an image coordinate system UV based on a back-eye camera 10 using a wide-angle lens for parking assistance, and coordinate values of a world coordinate system XYZ in real space. A measurement map for smoothly acquiring the correlation is disclosed.
By setting the virtual block center IBc of the virtual block IB to be located on a certain arbitrary height Yconst plane, the display block center BDc [U, V] of the image coordinate system UV is obtained by the method disclosed in Patent Document 5. It can be converted to the virtual block center IBc [X, Yconst, Z] in the world coordinate system XYZ.
Further, if the disk circumference point ICei and the virtual block circumference point IBei disclosed in the second embodiment are associated with each other, the world coordinates regarding the circumference distribution and display size of the display block BD in the image IM, and the display block radius BDr. Data in system XYZ can be acquired.

画像座標系UVとワールド座標系XYZとを対応させるには、特許文献5記載の手法では、イメージプレーンIPで広角の補正処理をする際、中心からの距離が所定値以下の際にはTsaiの歪曲近似を実施し、所定値を超える際には対数近似を計算する。
同一出願人の特許文献6記載の手法では、所定値ではなく、所定範囲で連続的・段階的に補正手法を変化させて計算する。
表示ブロックBDを使用したフローFlwの有効性判定処理との関係では、どちらの補正手法も採用でき、また、計測マップの作成手法もどのようなものであっても良い。
In order to make the image coordinate system UV and the world coordinate system XYZ correspond to each other, according to the method described in Patent Document 5, when performing wide-angle correction processing with the image plane IP, when the distance from the center is a predetermined value or less, A distortion approximation is performed, and when a predetermined value is exceeded, a logarithmic approximation is calculated.
In the method described in Patent Document 6 of the same applicant, the calculation is performed by changing the correction method continuously and stepwise within a predetermined range instead of a predetermined value.
In relation to the validity determination processing of the flow Flw using the display block BD, either correction method can be adopted, and any measurement map creation method can be used.

・1.5 有効性判定処理の効果
上述のように、表示ブロックBD又は表示ブロックBDrは様々なフロー有効性判定処理に有用であり、グループ作成、動的テンプレート登録、連続検出したフローFlw毎の評価(連続性の確認・移動成分の変化)などの処理の効率を高め安定させることができる。
-1.5 Effect of validity determination processing As described above, the display block BD or the display block BDr is useful for various flow validity determination processing, and includes group creation, dynamic template registration, and evaluation for each flow Flw detected continuously ( The efficiency of processing such as confirmation of continuity and change in moving components) can be increased and stabilized.

<2 表示半径マップ生成装置>
<2.1 表示半径マップの生成>
次に、実施例2を開示する。実施例2は、表示半径マップ生成装置であって、三次元情報を簡易なデータ構造で二次元に投影させておくことで、オプティカルフローの処理に際してリアルタイムに三次元の情報を参酌しようとするものである。
表示ブロックBDのサイズを求める際に、浮動少数演算や除算処理を数回必要とするため、非常に高いシステム計算能力が必要とされる。すると、リアルタイム性を要求される接近車検出システムへの実装が難しい。そこで事前にオフライン計算した後、あらかじめ表示ブロックBDの大きさ、例えば表示ブロック半径BDrをフローFlwの有効検出範囲に絞りマップとして登録しておくと良い。事前にマップ化することによって、数値計算ではなくデータマップの参照という形で必要に応じて表示ブロックBDのデータを取得することができるため、処理の高速化が可能となり、高い計算コストを有しない安価なシステムでの実装が可能となる。
<2 Display radius map generator>
<2.1 Display radius map generation>
Next, Example 2 is disclosed. Example 2 is a display radius map generation device that attempts to take into consideration three-dimensional information in real time when processing an optical flow by projecting three-dimensional information in two dimensions with a simple data structure. It is.
When obtaining the size of the display block BD, a floating-point operation and a division process are required several times, so that a very high system calculation capability is required. Then, it is difficult to mount on an approaching vehicle detection system that requires real-time performance. Therefore, after offline calculation in advance, the size of the display block BD, for example, the display block radius BDr, may be registered in advance as an aperture map in the effective detection range of the flow Flw. By mapping in advance, the data of the display block BD can be acquired as needed in the form of a data map reference instead of numerical calculation, so the processing speed can be increased and there is no high calculation cost Implementation in an inexpensive system is possible.

実施例2の表示半径マップ生成装置200は、その主要な要素として、仮想ブロック生成部24と、表示ブロック算出部26と、面積算出部28と、表示ブロック半径算出部30と、相関生成部32と、表示半径マップ34とを備えている。   The display radius map generation apparatus 200 according to the second embodiment includes, as main elements, a virtual block generation unit 24, a display block calculation unit 26, an area calculation unit 28, a display block radius calculation unit 30, and a correlation generation unit 32. And a display radius map 34.

図9を参照して各部(各工程)の内容を説明する。各部の情報処理は後述の仮想円盤ICによる算出とすることもできるため、対応する算式の番号を明記するが、図9に示す例では、各数式による以外の情報処理によっても計算結果(表示半径マップ34)を得ることができる。また、各部の動作を時間的に順序づけて把握すると、一連の方法を構成する工程となる。各部及び対応する各工程の情報処理は、ECU等で実行されるプログラムによって実現することができる。   The contents of each part (each process) will be described with reference to FIG. Since the information processing of each part can be calculated by a virtual disk IC, which will be described later, the number of the corresponding formula is specified. In the example shown in FIG. 9, the calculation result (display radius) is also obtained by information processing other than each formula. A map 34) can be obtained. Further, when the operations of the respective parts are grasped in order in time, it becomes a process constituting a series of methods. Information processing of each part and each corresponding process can be realized by a program executed by an ECU or the like.

まず、仮想ブロック生成部24は、画像IMに撮像される範囲の三次元空間で予め定められた同一の大きさの複数の仮想ブロックIBを生成する(仮想ブロック生成工程,式(2))。
表示ブロック算出部26は、当該複数の前記仮想ブロックIBをそれぞれ前記画像IMの二次元の画像座標系UVに投影することで表示ブロックBDを算出する(表示ブロック算出工程,式(3),(4),(5),(6),(7);(10))。
面積算出部28は、前記表示ブロックBDの面積を表示ブロック面積BDaとして算出する(面積算出工程, 式(8))。図10に示すように、N角形の表示ブロック面積BDaから表示ブロック半径BDrを求めることができる。
表示ブロック半径算出部30は、前記表示ブロック面積BDaを円の面積とした際の半径を算出することで表示ブロック半径BDrを算出する(表示ブロック半径算出工程,式(9))。
相関生成部32は、前記表示ブロック半径BDrと前記画像IMの位置とを相関させることで表示半径マップ34を生成する(相関生成工程)。
これら各部の各処理(工程)は、対応する算式及び図12に示す手順による計算処理を備えるようにしても良い。
First, the virtual block generation unit 24 generates a plurality of virtual blocks IB having the same size in a three-dimensional space in a range captured by the image IM (virtual block generation step, equation (2)).
The display block calculation unit 26 calculates the display block BD by projecting each of the plurality of virtual blocks IB onto the two-dimensional image coordinate system UV of the image IM (display block calculation step, equations (3), ( 4), (5), (6), (7); (10)).
The area calculation unit 28 calculates the area of the display block BD as the display block area Bda (area calculation step, equation (8)). As shown in FIG. 10, the display block radius BDr can be obtained from the N-gonal display block area BDa.
The display block radius calculation unit 30 calculates the display block radius BDr by calculating the radius when the display block area Bda is the area of a circle (display block radius calculation step, equation (9)).
The correlation generation unit 32 generates a display radius map 34 by correlating the display block radius BDr and the position of the image IM (correlation generation step).
Each process (process) of each of these units may include a calculation process according to a corresponding formula and the procedure shown in FIG.

表示半径マップ34への登録値は、直径や面積そのものでも良いが、表示半径マップ34への登録値を半径とすることで、接近車MAの判定処理に都合が良い。なお、カメラ10と接近車MAとが接近しすぎると半径は発散していくため、適当な上限をつけ上限をクリップし、実用的には、表示マップ34への登録は適当な上限値までとすると良い。
この仮想ブロックIBおよび表示半径マップ34は、テンプレートTの動的な登録、フローFlwの連続性の確認や移動成分の変化を評価する基準、フローグループFlwGを生成して連続計測結果や履歴をFlwで共有する手法、ノイズ判定の際の制御用のパラメータなどに使用することができる。
The registered value in the display radius map 34 may be the diameter or the area itself, but by using the registered value in the display radius map 34 as the radius, it is convenient for the determination process of the approaching vehicle MA. If the camera 10 and the approaching vehicle MA are too close to each other, the radius will diverge, so an appropriate upper limit is clipped and the upper limit is clipped. In practice, registration to the display map 34 is limited to an appropriate upper limit. Good.
The virtual block IB and the display radius map 34 generate the dynamic registration of the template T, the continuity confirmation of the flow Flw, the reference for evaluating the change of the moving component, the flow group FlwG, and the continuous measurement result and history as Flw. This method can be used for a method shared by each other, a control parameter for noise determination, and the like.

・計測マップとの関係
ワールド座標系XYZの座標値を使用して車両後方で有効監視エリアを定める。画像IMの左右方向に対応するX方向について最小値をXmin、最大値をXmaxとし、上下方向に対応するZ方向について最小値をZmin、最大値をZmaxとする。
有効監視エリアを[Xmin〜Xmax][Zmin〜Zmax]とし計測マップを8ビットとする。画像座標UV上の座標[U, V]は、X計測マップXmap、Z計測マップZmap上の座標データXmap[U, V]、Zmap[U, V]を参照することで、実空間の三次元座標[X,Y,Z]の8ビット換算値[Xpa, Yconst, Zpa]: −128 ≦ Xpa ≦ 127 0 ≦ Zpa ≦ 255(単位はマップbitとする。Z:255[マップbit]で実空間Zmax [mm])として取得できる。
・ Relationship with the measurement map The effective monitoring area is defined behind the vehicle using the coordinate values of the world coordinate system XYZ. The minimum value is Xmin and the maximum value is Xmax in the X direction corresponding to the left and right direction of the image IM, the minimum value is Zmin and the maximum value is Zmax in the Z direction corresponding to the vertical direction.
The effective monitoring area is [Xmin to Xmax] [Zmin to Zmax], and the measurement map is 8 bits. The coordinates [U, V] on the image coordinates UV can be obtained by referring to the X measurement map Xmap, the coordinate data Xmap [U, V], Zmap [U, V] on the Z measurement map Zmap. 8-bit converted value [Xpa, Yconst, Zpa] of coordinates [X, Y, Z]: −128 ≤ Xpa ≤ 127 0 ≤ Zpa ≤ 255 (Unit is map bit. Z: 255 [map bit] in real space Zmax [mm]).

仮定地上高Yconstは計測マップ作成時に設定した固定値であるので、取り得るXpa, ,Zpaの値は256×256通りの組み合わせとなる。
従って、256×256サイズの表示半径マップ34(データテーブル)を作成し、Yp = Yconstと固定し、Xpa ,ZpaをもとのXp ,Zpへ換算した後、仮想ブロックIBの仮想ブロック中心IBcの位置を[Xp, Yconst, Zp]と定義することで、画像IM上に検出される全てのフローFlwに対応した表示ブロックBDの情報を表示半径マップ34に登録することができる。
表示ブロックBDの情報を表示ブロック半径BDrとする際には、この例では、表示半径マップ34は256×256サイズとなる。
Since the assumed ground height Yconst is a fixed value set when the measurement map is created, the possible values of Xpa, Zpa are 256 × 256 combinations.
Therefore, after creating the display radius map 34 (data table) of 256 × 256 size, fixing Yp = Yconst, and converting Xpa and Zpa to the original Xp and Zp, the virtual block center IBc of the virtual block IB By defining the position as [Xp, Yconst, Zp], information of the display block BD corresponding to all the flows Flw detected on the image IM can be registered in the display radius map 34.
When the information of the display block BD is set as the display block radius BDr, in this example, the display radius map 34 has a size of 256 × 256.

表示半径マップ34への登録を表示ブロック面積BDaではなく、表示ブロック半径BDr(直径でも良い)とすることで、表示半径マップ34への登録値を小さくしリソースを節約することができる。例えば、半径で20ピクセルの場合、表示半径マップ34登録に5ビット必要で、直径で40ピクセルの場合登録に6ビット必要となる。面積で1256ピクセルであると、マップ登録に11ビット必要となってしまう。   By setting the registration to the display radius map 34 not to the display block area BDa but to the display block radius BDr (which may be a diameter), it is possible to reduce the registration value to the display radius map 34 and save resources. For example, when the radius is 20 pixels, 5 bits are required for registering the display radius map 34, and when the diameter is 40 pixels, 6 bits are required for registration. If the area is 1256 pixels, 11 bits are required for map registration.

このように、計測マップのX, Z位置を座標軸(参照キー)に持ち、対応する表示ブロックBDの表示サイズをデータ化した表示半径マップ34を作成することができる。
実空間上に想定した仮想円盤ICの表示サイズ(表示ブロック半径BDr)を定義した表示半径マップ34の導入により、接近車MAの判定をリアルタイム処理できる。すなわち、仮想ブロックIBを円盤に見立て、浮動少数演算、乗算処理などを必要とする仮想ブロックIBの画像上の表示サイズ計算を事前にオフライン計算しマップ化することで、フローFlwの有効性判定処理の計算コストを低減することができる。
特に画像IMに歪を含むよう広角カメラ10での対応において効率的に処理を実施できる。
In this way, the display radius map 34 having the X and Z positions of the measurement map on the coordinate axes (reference keys) and converting the display size of the corresponding display block BD into data can be created.
By introducing the display radius map 34 that defines the display size (display block radius BDr) of the virtual disk IC assumed in the real space, the determination of the approaching vehicle MA can be processed in real time. In other words, the virtual block IB is regarded as a disk, and the display size calculation on the image of the virtual block IB, which requires floating-point arithmetic, multiplication processing, etc., is calculated offline and mapped in advance, thereby determining the validity of the flow Flw The calculation cost can be reduced.
In particular, processing can be efficiently performed in correspondence with the wide-angle camera 10 so that the image IM includes distortion.

また、計測マップ上の三次元座標と、画像平面状の座標との逆相関を取るため、X, Z位置と画像IM上のU, V座標をマップ(以下 XZtoUVマップ)化すると良い。このXZtoUVマップの利用により、フローFlwの処理中の複雑な数値演算を回避することができ、効率的な処理を実現できる。   Further, in order to obtain an inverse correlation between the three-dimensional coordinates on the measurement map and the coordinates on the image plane, it is preferable to map the X and Z positions and the U and V coordinates on the image IM (hereinafter referred to as XZtoUV map). By using this XZtoUV map, complicated numerical calculations during the flow Flw processing can be avoided, and efficient processing can be realized.

・2.1 表示半径マップの生成の効果
上述のように、面積算出部28が、表示ブロックBDの面積を表示ブロック面積BDaとして算出し、表示ブロック半径算出部30が、前記表示ブロック面積BDaを円の面積とした際の半径を算出することで表示ブロック半径BDrを算出するため、実空間での三次元形状の大きさが遠近によって変化する程度を半径という簡易な長さの情報で表すことができる。そして、相関生成部32が、前記表示ブロック半径BDrと前記画像IMの位置とを相関させた表示半径マップ34を生成するため、画像IMのフローFlwの座標値[U, V]を特定すると対応する三次元空間での車間距離を反映させた大きさの情報を得ることができる。そして、画像座標系UVの座標値[U, V]をワールド座標系XYZの座標値[X , Y, Z]に予め対応させておく例では、フローFlwのワールド座標系での座標値[X , Y, Z]を特定すると、その位置での仮想ブロックBDの大きさを直ちに参照することができる。
また、画像IMの上下方向に対応する遠近について表示ブロックBD大きさの相違を半径として表す他、画像IMの左右方向にて表示ブロックBDの形状に歪みが生じても、表示ブロック半径BDrで管理することで表示ブロックBDを円にて扱うこととなるため、表示ブロックBDを使用した様々な有効性判定処理を低コストで安定して実行することができる。
このように、表示半径マップBDrを予め算出し、画像IMの座標値[U, V]又はワールド座標系XYZの座標値[X , Y, Z]に対応させておくことで、三次元を良好に二次元化し、高速処理が可能となり、フローFlwの有効性判定処理を低コストで高精度に実行することができる。
さらに、この例では、カメラ10の姿勢や、広角の有無及び程度や、画角や、その他レンズ歪みなどハードウエアの状態を設計上唯一の状態としなくとも、個別に表示ブロック半径BDrを算出することで遠近ギャップ等をソフトウエアの処理で解消することができる。すなわち、表示ブロック半径BDrを算出する手法により、カメラ10や撮像範囲についての設計上の選択肢を大幅に向上させることができる。
2.1 Effects of Generating Display Radius Map As described above, the area calculation unit 28 calculates the area of the display block BD as the display block area BDi, and the display block radius calculation unit 30 calculates the display block area BDi as a circle. Since the display block radius BDr is calculated by calculating the radius when the area is used, the extent to which the size of the three-dimensional shape in real space changes depending on the perspective can be expressed by simple length information called the radius. . Then, when the correlation generation unit 32 generates the display radius map 34 in which the display block radius BDr and the position of the image IM are correlated, it corresponds when the coordinate value [U, V] of the flow Flw of the image IM is specified. The information of the size reflecting the inter-vehicle distance in the three-dimensional space can be obtained. In the example in which the coordinate values [U, V] of the image coordinate system UV are associated in advance with the coordinate values [X, Y, Z] of the world coordinate system XYZ, the coordinate values [X , Y, Z], it is possible to immediately refer to the size of the virtual block BD at that position.
In addition, the difference in the size of the display block BD for the perspective corresponding to the vertical direction of the image IM is expressed as a radius, and even if the shape of the display block BD is distorted in the horizontal direction of the image IM, it is managed by the display block radius BDr. Thus, since the display block BD is handled in a circle, various validity determination processes using the display block BD can be stably executed at a low cost.
In this way, the display radius map BDr is calculated in advance, and the three-dimensional quality is improved by corresponding to the coordinate values [U, V] of the image IM or the coordinate values [X, Y, Z] of the world coordinate system XYZ. Therefore, the flow Flw validity determination process can be executed at low cost and with high accuracy.
Further, in this example, the display block radius BDr is calculated individually without setting the hardware state such as the posture of the camera 10, the presence / absence and degree of wide angle, the angle of view, and other lens distortion in the design. Thus, the perspective gap and the like can be resolved by software processing. That is, the method of calculating the display block radius BDr can greatly improve the design options for the camera 10 and the imaging range.

<2.2 仮想円盤による算出>
本実施例2では、ワールド座標系XYZの仮想ブロックIBをカメラ座標系xyzでの計算を介して画像座標系UVの表示ブロック半径BDrと関連させるよりも具体的な情報処理を開示する。この例では、仮想ブロックIBを球とし、計算上、球体である仮想ブロックIBを二次元に投影するために仮想円盤ICを定め、この仮想円盤ICに情報処理を加えることで表示ブロックBDを算出する。
<2.2 Calculation using virtual disk>
In the second embodiment, more specific information processing is disclosed than associating the virtual block IB of the world coordinate system XYZ with the display block radius BDr of the image coordinate system UV through calculation in the camera coordinate system xyz. In this example, a virtual block IB is assumed to be a sphere, and a virtual disk IC is defined to project the virtual block IB, which is a sphere, two-dimensionally, and a display block BD is calculated by adding information processing to the virtual disk IC. To do.

すなわち、この例では、仮想ブロックIBの形状を円盤として扱うことができる。例えば、ワールド座標系の座標値[X,Y,Z] = [Xp,Yp,Zp]の位置で接近車MAを示すフローFlwが検出された場合、接近車MAを構成する仮想円盤ICの内の任意の一つがこの[Xp,Yp,Zp]を中心に移動したと考え、仮想円盤ICが画面に表示されるサイズ(表示ブロックBDの大きさ)を以下の手順1から手順9の情報処理により画像IM上への仮想円盤ICの投影面積として求める。   That is, in this example, the shape of the virtual block IB can be handled as a disk. For example, when the flow Flw indicating the approaching vehicle MA is detected at the position of the coordinate value [X, Y, Z] = [Xp, Yp, Zp] in the world coordinate system, the virtual disk IC constituting the approaching vehicle MA is detected. The size of the virtual disk IC displayed on the screen (the size of the display block BD) is set to the information processing from step 1 to step 9 below, assuming that any one of has moved around this [Xp, Yp, Zp] To obtain the projected area of the virtual disk IC on the image IM.

図11に座標系の定義例を示す。図11(A),(B)に示す例では、カメラ座標系xyzのx軸とワールド座標系XYZのX軸と画像座標系UVのU軸とは平行であり、カメラ座標系xyzのy軸と世界座標系XYZのY軸と画像座標系UVのV軸とが平行である。ワールド座標系XYZのZ軸は路面と平行で車両の後方に向き、カメラ座標系xyzのz軸はカメラ10の光軸と一致する。
以下、数式のデータ名(値や符号)の名称の末尾にwを付した値は特にワールド座標系XYZでの座標値であることを示し、末尾にcを付した値はカメラ座標系xyzでの座標値であることを示す。w又はcを付していない場合には、どちらであっても計算可能であることを示す。
FIG. 11 shows a definition example of the coordinate system. In the example shown in FIGS. 11A and 11B, the x axis of the camera coordinate system xyz, the X axis of the world coordinate system XYZ, and the U axis of the image coordinate system UV are parallel, and the y axis of the camera coordinate system xyz. And the Y axis of the world coordinate system XYZ and the V axis of the image coordinate system UV are parallel. The Z axis of the world coordinate system XYZ is parallel to the road surface and faces the rear of the vehicle, and the z axis of the camera coordinate system xyz coincides with the optical axis of the camera 10.
In the following, the value of the mathematical data name (value or sign) with the suffix w indicates that it is a coordinate value, especially in the world coordinate system XYZ, and the suffix c is the camera coordinate system xyz Indicates that the coordinate value is. If w or c is not attached, it indicates that either can be calculated.

図12に示す例では、仮想円盤ICによる算出処理は、手順1から手順9までで、手順3から5はカメラ座標系xyzでの計算、手順6はワールド座標系XYZでの計算、手順7から9は画像座標系UVでの計算である。   In the example shown in FIG. 12, calculation processing by the virtual disk IC is from procedure 1 to procedure 9, procedures 3 to 5 are calculations in the camera coordinate system xyz, procedures 6 are calculations in the world coordinate system XYZ, and procedures 7 to 9 is a calculation in the image coordinate system UV.

まず、カメラ座標系xyzの原点OCを、次のように表す。このカメラ座標原点OCは、レンズ焦点位置で、画像座標系U,Vの中心からカメラ座標系のz方向に焦点距離fの位置にある。
ワールド座標系[X, Y, Z] = [OrgXw, OrgYw, OrgZw]
カメラ座標系 [x, y, z] = [OrgXc, OrgYc, OrgZc] =[0,0,0]
求める仮想ブロック(球体又は円盤)の中心位置は、仮定地上高Yconstを採用し、次の通りである。
ワールド座標系[X, Y, Z] = [Xp, Yconst, Zp]
First, the origin OC of the camera coordinate system xyz is expressed as follows. This camera coordinate origin OC is a lens focal position, and is located at a focal length f in the z direction of the camera coordinate system from the center of the image coordinate systems U and V.
World coordinate system [X, Y, Z] = [OrgXw, OrgYw, OrgZw]
Camera coordinate system [x, y, z] = [OrgXc, OrgYc, OrgZc] = [0,0,0]
The hypothetical ground height Yconst is adopted as the center position of the desired virtual block (sphere or disk) as follows.
World coordinate system [X, Y, Z] = [Xp, Yconst, Zp]

・手順1: カメラ座標原点OCをワールド座標系XYZへ変換する。
カメラ座標原点OCの位置は[x, y, z] = [0,0,0]であるので、カメラキャリブレーションデータrnn, tnを用いると次式(1a)と表すことができ、カメラ座標原点ワールド座標 [OrgXw, OrgYw, OrgZw]は次式(1b)で求めることができる。なお、レンズ焦点位置はイメージプレーンIP上の中心となるのでレンズ歪の有無に関わらず、この座標変換式(1b)を適用することができる。
なお、式の番号を示す数字にa,b,c等のアルファベットが付されている式について、その式の番号を示す数字で言及する際には、アルファベットで識別するすべての式を含む。例えば、式(2)というときには、式(2a)と式(2b)とを含む。
式(1b)の添字の-1は逆行列てあることを示す
Procedure 1: Convert the camera coordinate origin OC to the world coordinate system XYZ.
Since the position of the camera coordinate origin OC is [x, y, z] = [0, 0, 0], it can be expressed by the following equation (1a) using the camera calibration data rnn, tn. World coordinates [OrgXw, OrgYw, OrgZw] can be obtained by the following equation (1b). Since the lens focal position is the center on the image plane IP, this coordinate conversion formula (1b) can be applied regardless of the presence or absence of lens distortion.
It should be noted that when an expression such as a, b, c, etc. is added to a numeral indicating an expression number, when referring to the numeral indicating the expression number, all expressions identified by the alphabet are included. For example, the expression (2) includes expressions (2a) and (2b).
The subscript -1 in equation (1b) indicates that there is an inverse matrix.

・手順2:仮想ブロックベクトルIBvを算出する。
図13に示すように、仮想ブロック生成部24は、カメラ座標原点ワールド座標系OW[OrgXw, OrgYw, OrgZw]から前記仮想ブロックIBの中心IBo[Xp, Yp, Zp]までのベクトルVecを、仮想ブロックベクトルIBv[VecX, VecY, VecZ]として当該ワールド座標系にて算出する。仮想ブロックIBの中心IBoの高さYpは、ここでは仮定地上高Yconstであり、仮想ブロック生成部24は、次式(2)により仮想ブロックベクトルIBvを算出することができる。
Procedure 2: Calculate virtual block vector IBv.
As illustrated in FIG. 13, the virtual block generation unit 24 generates a vector Vec from the camera coordinate origin world coordinate system OW [OrgXw, OrgYw, OrgZw] to the center IBo [Xp, Yp, Zp] of the virtual block IB. The block vector IBv [VecX, VecY, VecZ] is calculated in the world coordinate system. Here, the height Yp of the center IBo of the virtual block IB is the assumed ground height Yconst, and the virtual block generator 24 can calculate the virtual block vector IBv by the following equation (2).

・手順3:仮想ブロック回転角IBeiを算出する。
仮想ブロック生成部24は、当該仮想ブロックベクトルIBv[VecX, VecY, VecZ]をカメラ座標系xyzに変換するとともに、当該仮想ブロックベクトルIBv[VecX, VecY, VecZ]の前記原点OCを中心とした回転角度を仮想ブロック回転角IBei[0, φ、ψ]として算出する。
すなわち、仮想ブロック生成部24は、ワールド座標系の仮想ブロックベクトルIBv[VecXw, VecYw, VecZw]をカメラの外部パラメータを使用してカメラ座標系の仮想ブロックベクトルIBv[VecXc, VecYc, VecZc]に変換する。
そして、仮想ブロック生成部24は、カメラ座標系xyzにて、原点(レンズ焦点)周りに各三次元軸まわりの回転角度[θ,φ,ψ]を求める。仮想円盤ICの回転は面積変化とは独立するのでθ=0.0(固定)と仮定する。すると、空間の回転変換より、次式(3a)が成り立つため次式(3b)及び(3c)にて仮想ブロック回転角IBei[0,φ,ψ]を求めることができる。
ここで、Y軸周り回転角φについてはφとφ±πの2通りの解が発生するが、表裏の関係となり、計算結果に影響は及ばず、調整不要である。
Procedure 3: Calculate virtual block rotation angle IBei.
The virtual block generator 24 converts the virtual block vector IBv [VecX, VecY, VecZ] into the camera coordinate system xyz and rotates the virtual block vector IBv [VecX, VecY, VecZ] around the origin OC. The angle is calculated as a virtual block rotation angle IBei [0, φ, ψ].
That is, the virtual block generation unit 24 converts the virtual block vector IBv [VecXw, VecYw, VecZw] in the world coordinate system into the virtual block vector IBv [VecXc, VecYc, VecZc] in the camera coordinate system using the external parameters of the camera. To do.
Then, the virtual block generation unit 24 obtains a rotation angle [θ, φ, ψ] about each three-dimensional axis around the origin (lens focal point) in the camera coordinate system xyz. Since the rotation of the virtual disk IC is independent of the area change, it is assumed that θ = 0.0 (fixed). Then, since the following equation (3a) is established from the rotation transformation of the space, the virtual block rotation angle IBei [0, φ, ψ] can be obtained by the following equations (3b) and (3c).
Here, there are two solutions for the rotation angle φ around the Y-axis, φ and φ ± π, but they are front-back relations and do not affect the calculation results and need not be adjusted.

・手順4:円盤円周点ICeiを算出する。
図14(A)に示すように、仮想ブロック生成部24は、前記原点OCの周りに、前記仮想ブロックIBの大きさに対応した半径rの仮想円盤ICを生成する。そして、仮想ブロック生成部24は、当該仮想円盤ICの円周上の点をN分割することで円盤円周点ICei[Xei, Yei, Zei]を算出する。記号eiのiは円周点の番号である。
ここでは、仮想円盤ICの初期角度[θ0,φ0,ψ0]=[0,0,0]とする。すなわち、仮想円盤ICをカメラ座標系xyzのyz平面に設定する。この仮想円盤ICの円周上の点を360度/N分割して、分割点の番号をeiとし、各円周上の分割点ICei[Xei, Yei, Zei]の位置を次式(4)により求める。仮想円盤ICの半径rは、仮想ブロックIBの実空間での大きさに応じて定めても良いし、上述した「1.3仮想ブロックと検出用速度」にて開示した手法で定めるようにしても良い。
Procedure 4: Calculate the disk circumference point ICei.
As shown in FIG. 14A, the virtual block generator 24 generates a virtual disk IC having a radius r corresponding to the size of the virtual block IB around the origin OC. Then, the virtual block generation unit 24 calculates the disk circumference point ICei [Xei, Yei, Zei] by dividing the points on the circumference of the virtual disk IC into N. The symbol ei i is the number of the circumference point.
Here, it is assumed that the initial angle [θ0, φ0, ψ0] = [0, 0, 0] of the virtual disk IC. That is, the virtual disk IC is set on the yz plane of the camera coordinate system xyz. Dividing the point on the circumference of this virtual disk IC by 360 degrees / N, the division point number is ei, and the position of the division point ICei [Xei, Yei, Zei] on each circumference is given by the following equation (4) Ask for. The radius r of the virtual disk IC may be determined according to the size of the virtual block IB in the real space, or may be determined by the method disclosed in “1.3 Virtual Block and Detection Speed” described above. .

・手順5:円盤円周点ICeiを回転変換する。
図14(B)に示すように、仮想ブロック生成部24は、当該カメラ座標系xyzにて当該複数の前記円盤円周点ICei[Xei, Yei, Zei]を式(5)によりそれぞれ前記仮想ブロック回転角IBei[0, φ、ψ]で回転変換する。
-Procedure 5: The disk circumference point ICei is rotationally converted.
As shown in FIG. 14B, the virtual block generation unit 24 calculates the plurality of disk circumference points ICei [Xei, Yei, Zei] in the camera coordinate system xyz by the equation (5), respectively. Rotation conversion is performed at the rotation angle IBei [0, φ, ψ].

仮想円盤ICを構成するN角形のN点を求める計算についてワールド座標系を基準に計算(別解として後述)をしても良いが、ここでは、カメラ座標系を基準に回転等の変換計算を行う。カメラ座標系xyzの原点周りで回転の計算をすると、不要な虚像等が生じずに計算量や判別処理を低減することができる。   The calculation for obtaining the N-point N of the N-square that composes the virtual disk IC may be performed based on the world coordinate system (described later as another solution), but here, conversion calculation such as rotation is performed based on the camera coordinate system. Do. If the rotation is calculated around the origin of the camera coordinate system xyz, the amount of calculation and the discrimination process can be reduced without generating an unnecessary virtual image or the like.

・手順6:仮想ブロック円周点IBeiを算出する。
図14(C)に示すように、仮想ブロック生成部24は、回転変換した当該複数の前記円盤円周点ICei[Xeiθ, Yeiφ, Zeiψ]を前記ワールド座標系XYZに変換するとともに、次式(6)の計算により前記仮想ブロックベクトルIBv[VecX, VecY, VecZ]でシフト移動させることで、当該ワールド座標系XYZにて仮想ブロック円周点IBei[Xeiθp, Yeiφp, Zeiψp]を求める。
Procedure 6: Calculate the virtual block circumference point IBei.
As shown in FIG. 14C, the virtual block generation unit 24 converts the plurality of the disk circumference points ICei [Xeiθ, Yeiφ, Zeiψ] that have been rotationally converted into the world coordinate system XYZ, 6) The virtual block circumferential point IBei [Xeiθp, Yeiφp, Zeiψp] is obtained in the world coordinate system XYZ by shifting the virtual block vector IBv [VecX, VecY, VecZ] by the calculation of 6).

このように、仮想ブロック生成部24は、外部パラメータの逆変換を使用して円盤円周点ICei[Xeiθ, Yeiφ, Zeiψ]の各頂点を一旦ワールド座標系に戻し、続いて、仮想円盤ICの各ワールド座標[Xeiθ, Yeiφ, Zeiψ]に仮想ブロックベクトルIBv[VecX, VecY, VecZ]を加算することで、ワールド座標系で表される実空間上でシフト移動し、オフセット分を調整する。   As described above, the virtual block generation unit 24 temporarily returns each vertex of the disk circumference point ICei [Xeiθ, Yeiφ, Zeiψ] to the world coordinate system using the inverse transformation of the external parameter, and then continues to the virtual disk IC. By adding the virtual block vector IBv [VecX, VecY, VecZ] to each world coordinate [Xeiθ, Yeiφ, Zeiψ], shift movement is performed in the real space represented by the world coordinate system, and the offset is adjusted.

・手順7:表示ブロック円周点BDeiを算出する。
前記表示ブロック算出部26は、ワールド座標系XYZの前記仮想ブロック円周点IBei[Xeiθp, Yeiφp, Zeiψp]を透視座標変換することで、次式(7)のように前記画像IMの画像座標系UVでの表示ブロック円周点BDei[Uei, Vei]に変換する。
すなわち、表示ブロック算出部26は、仮想ブロックIBの全円周点IBei[Xeiθp, Yeiφp, Zeiψp]を二次元の画像座標系UVに投影することで、表示ブロック円周点BDei[Uei, Vei]を算出する。
Step 7: Display block circumference point BDei is calculated.
The display block calculation unit 26 performs perspective coordinate transformation on the virtual block circumference point IBei [Xeiθp, Yeiφp, Zeiψp] in the world coordinate system XYZ, thereby obtaining an image coordinate system of the image IM as shown in the following equation (7). Convert to display block circumference point BDei [Uei, Vei] in UV.
In other words, the display block calculation unit 26 projects all the circumferential points IBei [Xeiθp, Yeiφp, Zeiψp] of the virtual block IB onto the two-dimensional image coordinate system UV, so that the display block circumferential point BDei [Uei, Vei] Is calculated.

・手順8:表示ブロック面積BDaを算出する。
前記面積算出部28は、当該複数の前記表示ブロック円周点BDei[Uei, Vei]に囲まれた前記表示ブロックBDの面積を表示ブロック面積BDaとして算出する。
すなわち、画像IM上の投影点[Ue1, Ve1]〜[UeN, VeN]に囲まれた領域について、表示ブロック面積BDaを求める。この、表示ブロック面積BDaは実際に画像IMに[Ue1, Ve1]〜[UeN, VeN]で囲まれた領域を描画して、その描画画素数から求めることもできるが、例えば、以下のように仮想円盤をN角形と見立ててヘロンの公式などを利用して近似的に求めることもできる。
Procedure 8: Display block area Bda is calculated.
The area calculation unit 28 calculates an area of the display block BD surrounded by the plurality of display block circumference points BDei [Uei, Vei] as a display block area Bda.
That is, the display block area BBa is obtained for the region surrounded by the projection points [Ue1, Ve1] to [UeN, VeN] on the image IM. The display block area Bda can be obtained from the number of pixels drawn by actually drawing a region surrounded by [Ue1, Ve1] to [UeN, VeN] on the image IM. For example, as shown below, The virtual disk can be approximated by using Heron's formula and the like, assuming N-square.

まず[Ue1,Ve1]〜[UeN, VeN]と同様に、仮想円盤ICの中心ICo[Xp Yconst, Zp]に関して投影座標変換を行い画像平面上の位置[Ue0, Ve0]を求める。
そして、[Ue0, Ve0]と[Uei, Vei], [Uei+1,Vei+1]の隣り合う2点で囲まれる3角形に着目する。
3点を結ぶ辺[ai,bi,ci]を次式(8a)により求める。
これを[Ue1, Ve1]〜[UeN, VeN]まで繰り返し実行して、ヘロンの面積公式で求めた各分割三角形の面積総和により、次式(8b),(8c)により仮想円盤ICの画像IM上での表示ブロック面積BDaを求める。
First, similarly to [Ue1, Ve1] to [UeN, VeN], the projection coordinate transformation is performed on the center ICo [Xp Yconst, Zp] of the virtual disk IC to obtain the position [Ue0, Ve0] on the image plane.
Then, pay attention to a triangle surrounded by two adjacent points [Ue0, Ve0] and [Uei, Vei], [Uei + 1, Vei + 1].
The side [ai, bi, ci] connecting the three points is obtained by the following equation (8a).
This is repeatedly executed from [Ue1, Ve1] to [UeN, VeN], and the image IM of the virtual disk IC is obtained by the following formulas (8b) and (8c) from the total area of each divided triangle obtained by the Heron area formula. The display block area Bda above is obtained.

なお、[Ue0, Ve0]あるいは[Ue1, Ve1]〜[UeN, VeN]が画像IMの外に変換されるときは、該当辺を画像IMの枠との交点でクリップ(切り取り)し、画面の隅とクリップ点で囲まれる領域を計算する。
全ての点が画面外に変換されるときや、三角形が一つも形成されないような位置は面積を0でクリップし無効扱いとする。
When [Ue0, Ve0] or [Ue1, Ve1] to [UeN, VeN] is converted outside the image IM, the corresponding side is clipped (cut) at the intersection with the frame of the image IM, and the screen Calculate the area enclosed by the corners and clip points.
When all the points are converted to the outside of the screen, or when no triangle is formed, the area is clipped with 0 and treated as invalid.

・手順9:表示ブロック半径BDrを算出する。
続いて、表示ブロック半径算出部30は、前記表示ブロック面積BDaを円の面積とした際の半径を算出することで表示ブロック半径BDrを算出する。
すなわち、仮想円盤ICの大きさを示す場合、表示面積で取り扱うのではなく、求めた表示ブロック面積BDaについて表示ブロック半径BDrを次式(9)により変換して近似半径として扱うことが可能である。
特に歪みを持つカメラ10では、歪みの影響で投影した影響で外部に移る点が画面中央側へ偏芯するため表示仮想円盤がより真円に近くなる。よって円によるN角形の近似効率が良い。
Step 9: Calculate the display block radius BDr.
Subsequently, the display block radius calculation unit 30 calculates a display block radius BDr by calculating a radius when the display block area BDi is set as a circle area.
That is, when the size of the virtual disk IC is indicated, it is possible to treat the display block radius BDr as the approximate radius by converting the display block radius BDr with the following expression (9) for the obtained display block area BDa, instead of using the display area. .
In particular, in the camera 10 having distortion, the display virtual disk becomes closer to a perfect circle because the point moved to the outside due to the influence of the distortion is eccentric to the center of the screen. Therefore, the efficiency of approximating the N-gon by a circle is good.

・手順10: 表示半径マップを生成する。
そして、相関生成部32は、前記表示ブロック半径BDrと前記画像IMの位置とを相関させることで表示半径マップ34を生成する(ステップS10)。
Step 10: Generate a display radius map.
Then, the correlation generation unit 32 generates the display radius map 34 by correlating the display block radius BDr and the position of the image IM (step S10).

図15(A)は広角カメラ10を使用した原画像、図15(B)は特許文献5記載の手法で広角歪みを補正した補正画像で両者とも本実施例での画像IMである。
仮定地上高Yconstを設定し、画像座標系の解像度に応じた無限遠点に相当する位置から自車MTの近くまでに配置した球体の仮想ブロックIBの表示ブロックBDを求めた。この表示ブロックBDを画像IMに重ねた図を図15(C)及び(D)に示す。
図15(E)及び(F)はそれぞれ図15(C)及び(D)の表示ブロックBDのみを抜き出した図である。
このように、表示ブロックはカメラ10の広角の程度や、補正の手法等にかかわらず事後的な計算により求めることができる。
15A is an original image using the wide-angle camera 10, and FIG. 15B is a corrected image obtained by correcting wide-angle distortion by the method described in Patent Document 5, both of which are images IM in this embodiment.
A hypothetical ground height Yconst was set, and a display block BD of a spherical virtual block IB arranged from a position corresponding to an infinite point according to the resolution of the image coordinate system to the vicinity of the host vehicle MT was obtained. FIGS. 15C and 15D show the display block BD superimposed on the image IM.
FIGS. 15E and 15F are diagrams in which only the display block BD of FIGS. 15C and 15D is extracted.
In this way, the display block can be obtained by a posteriori calculation regardless of the wide-angle level of the camera 10 and the correction method.

次に、図16から図18を参照して仮想ブロックIBから表示ブロックBDを生成する際の変形について説明する。手順8では、表示ブロック面積BDaを算出する際に、仮想円盤ICをN角形で近似した。このN角形は、本来、真円を近似した正N角形とする。   Next, a modification when the display block BD is generated from the virtual block IB will be described with reference to FIGS. In procedure 8, the virtual disk IC is approximated by an N-gon when calculating the display block area BDa. This N-gon is originally a regular N-gon that approximates a perfect circle.

図16に示すように、画像IM上の表示では、投影時の遠近等により定義した仮想球体(球体の仮想ブロックIB)の設定位置(中心位置)によって異なる変形・扁平度を持つN角形が発生する。この変形度には、カメラ10のレンズの歪みや視差も影響する。
このため、表示ブロックBDは、厳密には円ではなく変形したN角形を使用してフローの有効性等の判定処理をすると理想的である。しかし、画像IMの座標値(位置)に応じて多様なN角形を個別に取り扱うのは非常に困難である。
このため、表示ブロックBDを近似円で取り扱うと良い。この近似円である表示ブロックBDであっても、(1)フローFlwの有効性判定処理時に、実空間への変換なく画像IM[U, V]の範囲でフローFlwの正誤評価等が可能であり、(2)画像IM[U, V]で評価する場合、半径で取り扱う方が容易である。
As shown in FIG. 16, in the display on the image IM, N-shaped polygons having different deformation and flatness are generated depending on the setting position (center position) of the virtual sphere (spherical virtual block IB) defined by the perspective at the time of projection, etc. To do. This degree of deformation is also affected by lens distortion and parallax of the camera 10.
Therefore, strictly speaking, it is ideal that the display block BD uses a deformed N-gon instead of a circle to determine the validity of the flow. However, it is very difficult to handle various N-gons individually according to the coordinate values (positions) of the image IM.
For this reason, the display block BD is preferably handled with an approximate circle. Even in the case of the display block BD that is an approximate circle, (1) it is possible to evaluate the correctness of the flow Flw within the range of the image IM [U, V] without conversion to the real space during the validity determination process of the flow Flw. Yes, (2) When evaluating with the image IM [U, V], it is easier to handle with the radius.

再度図15(C)を参照すると、広角歪み有りの非線形状態の画像IMでは、N角形は円に近い。図15(D)を参照すると、広角歪みを補正した画像IMでのN角形は、楕円形状となっている。これら表示ブロックBDは、表示ブロック半径BDrから円を描画する手法では、画像の歪みや補正にかかわらず円形となる。   Referring to FIG. 15C again, in the non-linear image IM with wide-angle distortion, the N-gon is close to a circle. Referring to FIG. 15D, the N-gon in the image IM in which the wide-angle distortion is corrected is an elliptical shape. These display blocks BD are circular regardless of image distortion or correction in the method of drawing a circle from the display block radius BDr.

次に、図17から図18を参照して図12に示した上記手順5等の別解を検討する。図12に示す手順の番号をnとして、手順nの別解にはaを付加して手順naとする。例えば、図12に示す手順4の別解は手順4aである。
表示半径マップ34の作成に関しては、別解として、次のような円盤モデルを元にしても求めることができる。仮想ブロックIB(球体)の中心座標を[X,Y,Z] = [Xp,Yconst,Zp]半径をRとする。手順3までは上述した手法と同様である。
手順1:カメラ座標原点ワールド系OWを求める。
手順2:図17に示すように、カメラ座標原点ワールド系OWと球体の中心を結ぶ距離L(ベクトルの長さ)を次式(10)により求める。
Next, another solution such as the procedure 5 shown in FIG. 12 will be examined with reference to FIGS. The procedure number shown in FIG. 12 is set to n, and a is added to another solution of procedure n as procedure na. For example, another solution of the procedure 4 shown in FIG. 12 is a procedure 4a.
The creation of the display radius map 34 can be obtained based on the following disk model as another solution. Let [X, Y, Z] = [Xp, Yconst, Zp] radius be the center coordinate of the virtual block IB (sphere). The procedure up to procedure 3 is the same as that described above.
Procedure 1: Obtain the camera coordinate origin world system OW.
Procedure 2: As shown in FIG. 17, a distance L (vector length) connecting the camera coordinate origin world system OW and the center of the sphere is obtained by the following equation (10).

そして、さらに球体の中心位置[Xp, Yconst, Zp]をカメラ座標系[xp, yp, zp]へ変換する。
手順3:カメラ座標系にて、[xp, yp, zp]への回転角度[θ,φ,ψ]を求める。
但し、θ:x軸周り、φ:y軸周り、ψ:z軸周りのカメラ座標系xyzでの回転角度である。また、ベクトルの回転を求めるため、拘束条件としてθ=0とする。
Further, the center position [Xp, Yconst, Zp] of the sphere is converted into the camera coordinate system [xp, yp, zp].
Procedure 3: Find the rotation angle [θ, φ, ψ] to [xp, yp, zp] in the camera coordinate system.
Here, θ: rotation angle in the camera coordinate system xyz around the x axis, φ: around the y axis, and ψ: around the z axis. Further, in order to obtain the rotation of the vector, θ = 0 is set as a constraint condition.

手順4a: 図18(A)のように仮想円盤ICと、円盤中心を通る長さLのベクトルで構成されたモデルを定義する。この仮想円盤ICはN角形で定義してN個の頂点座標で与えると良い。
手順5a: 図18(B)及び(C)のように、仮想円盤ICと、円盤中心を通る長さLのベクトルを[θ,φ,ψ]= [θa,φa,ψa]分カメラ座標系で回転させる。
Procedure 4a: A model composed of a virtual disk IC and a vector of length L passing through the center of the disk is defined as shown in FIG. This virtual disk IC may be defined as an N square and given by N vertex coordinates.
Step 5a: As shown in FIGS. 18B and 18C, a virtual disk IC and a vector of length L passing through the center of the disk are represented by [θ, φ, ψ] = [θa, φa, ψa] camera coordinate system Rotate with

手順6a: 仮想円盤ICを逆変換によりワールド座標系XYZへ戻す。別解では手順7以降は図12に示す手順と同様である。
但し、この別解では、この時にφ については解がφaとφ±πの2つ発生するので、別途判別をしなければならない。よって、以下手順4b以降のように、図12に示す提案した現手法で対応する方が判別の手間を省くことができ、かつ間違いが少ない。
Procedure 6a: The virtual disk IC is returned to the world coordinate system XYZ by inverse transformation. In another solution, the procedure from step 7 is the same as the procedure shown in FIG.
However, in this alternative solution, there are two solutions for φ 1 at this time, φa and φ ± π, which must be separately determined. Therefore, as in the procedure 4b and subsequent steps, the method corresponding to the proposed current method shown in FIG.

ここで、図19を参照して図12に示した手順での計算例を、手順nbとして再説明する。
手順4b: 図19(A)に示すように、仮想円盤をyz平面に設定したモデル定義する。仮想円盤はN角形で定義してN個の頂点座標で与える。
手順5b: 図19(B)に示すように、仮想円盤と、円盤中心を通る長さLのベクトルを[θ,φ,ψ]= [θa,φa,ψa]分カメラ座標系で回転させる。
Here, with reference to FIG. 19, a calculation example in the procedure shown in FIG. 12 will be described again as a procedure nb.
Procedure 4b: As shown in FIG. 19A, a model is defined in which a virtual disk is set on the yz plane. A virtual disk is defined by an N-gon and given by N vertex coordinates.
Procedure 5b: As shown in FIG. 19B, the virtual disk and a vector of length L passing through the center of the disk are rotated by [θ, φ, ψ] = [θa, φa, ψa] in the camera coordinate system.

手順6b: 仮想円盤を逆変換によりワールド座標系へ戻す。
手順7b: ワールド座標系に戻した座標群について、カメラ座標原点分および仮想球体中心分のオフセット量を考慮し[Vecx, Vecy, Vecz]で円盤をシフトさせ仮想円盤N頂点をワールド座標系で求める。
つまりこの操作では、設定時にカメラ座標原点OCからの距離Lが無ければ(独立に扱えば)、φについて発生した解がφaとφ±πのどちらの場合でも、図19(B)及び(C)に示すように、円盤面の裏表の関係となるので座標系操作に影響を与えない。
Step 6b: Return the virtual disk to the world coordinate system by inverse transformation.
Step 7b: For the coordinate group returned to the world coordinate system, the offset of the camera coordinate origin and the virtual sphere center is taken into account, and the disk is shifted with [Vecx, Vecy, Vecz] to obtain the virtual disk N vertex in the world coordinate system .
In other words, in this operation, if there is no distance L from the camera coordinate origin OC at the time of setting (if handled independently), even if the solution generated for φ is either φa or φ ± π, FIGS. As shown in (2), the operation of the coordinate system is not affected because of the relationship between the front and back of the disk surface.

・2.2 仮想円盤による算出の効果
上述のように、仮想ブロック生成部24が、仮想ブロックベクトルIBvと仮想ブロック回転角IBbとを算出し、これと前後して、仮想ブロック生成部24は、原点に前記仮想ブロックの大きさに対応した半径の仮想円盤ICを生成して当該仮想円盤ICの円周上の点をN分割することで円盤円周点ICeiを算出する。そして、仮想ブロックIB自体を対象として計算するのではなく、カメラ座標原点ワールド系OWを中心とする仮想円盤ICの円盤円周点ICeiを対象として回転変換すると、計算上判別の難しい虚像が現れることなく、位置が同一の仮想円盤ICの表裏として現れる。従って、個別に虚像であるか否かの判別をする必要がない。さらに、ワールド座標系XYZの前記仮想ブロック円周点ICeiを透視座標変換することで前記画像IMの画像座標系UVでの表示ブロック円周点BDeiに変換し、当該複数の前記表示ブロック円周点BDeiに囲まれた前記表示ブロックの面積を表示ブロック面積として算出するため、レンズ歪みや画角との関係等で表示ブロック円周点BDeiの形状が真円ではなくなる場合でも、N角形の形状として歪みを面積に正確に表すことができ、さらに、歪みのあるN角形の面積から表示ブロック半径BDrを求めることで表示ブロックBDを円形に修正することができる。
このように、仮想円盤を用いた算出により、虚像の判別等の計算量を低減し、さらに、広角その他の歪みがあっても歪みによる大きさ(面積)の変化に精度良く対応した表示ブロック半径BDrを求めることができる。
2.2 Effects of calculation by virtual disk As described above, the virtual block generation unit 24 calculates the virtual block vector IBv and the virtual block rotation angle IBb, and before and after this, the virtual block generation unit 24 sets the origin to the origin. A disk circular point ICei is calculated by generating a virtual disk IC having a radius corresponding to the size of the virtual block and dividing points on the circumference of the virtual disk IC into N parts. And if the virtual block IB itself is not calculated, but the rotational transformation is performed on the disk circumference point ICei of the virtual disk IC centered on the camera coordinate origin world system OW, a virtual image that is difficult to discriminate on calculation appears. It appears as the front and back of the virtual disk IC with the same position. Therefore, it is not necessary to individually determine whether the image is a virtual image. Further, the virtual block circumference point ICei of the world coordinate system XYZ is transformed into a display block circumference point BDei in the image coordinate system UV of the image IM by perspective coordinate transformation, and the plurality of the display block circumference points Since the area of the display block surrounded by BDei is calculated as the display block area, even if the shape of the display block circumference point BDei is not a perfect circle due to the relationship with lens distortion, angle of view, etc. The distortion can be accurately expressed in the area, and the display block BD can be corrected to a circle by obtaining the display block radius BDr from the area of the N-gon with distortion.
In this way, the calculation using a virtual disk reduces the amount of calculation for discriminating virtual images, etc., and the display block radius that accurately responds to changes in size (area) due to distortion even when there is wide-angle or other distortion BDr can be obtained.

10 カメラ
12 フロー抽出部
14 表示ブロック管理部
16 フロー判定処理部
18 表示ブロック半径関連処理
20 仮想ブロック特定処理
22 仮定地上高処理
24 仮想ブロック生成部
26 表示ブロック算出部
28 面積算出部
30 表示ブロック半径算出部
32 相関生成部
34 表示半径マップ
MT 自車
MA 接近車
Flw フロー
FlwG フローグループ
UV 画像座標系
OC カメラ座標原点
OW カメラ座標原点ワールド系
IP イメージプレーン
xyz カメラ座標系
XYZ ワールド座標系
IM 画像
IB 仮想ブロック
IBc 仮想ブロック中心
IBv 仮想ブロックベクトル
IBb 仮想ブロック回転角
IBr 仮想ブロック半径
IC 仮想円盤
ICei 円盤円周点
IBei 仮想ブロック円周点
BD 表示ブロック
BDr 表示ブロック半径
BDa 表示ブロック面積
BDei 表示ブロック円周点
f 焦点距離
DESCRIPTION OF SYMBOLS 10 Camera 12 Flow extraction part 14 Display block management part 16 Flow determination process part 18 Display block radius related process 20 Virtual block specific process 22 Assumed ground height process 24 Virtual block generation part 26 Display block calculation part 28 Area calculation part 30 Display block radius Calculation unit 32 Correlation generation unit 34 Display radius map
MT
MA approaching vehicle
Flw flow
FlwG flow group
UV image coordinate system
OC camera coordinate origin
OW Camera coordinate origin world system
IP image plane
xyz camera coordinate system
XYZ world coordinate system
IM image
IB virtual block
IBc virtual block center
IBv virtual block vector
IBb Virtual block rotation angle
IBr virtual block radius
IC virtual disk
ICei disk circumference
IBei virtual block circumference
BD display block
BDr Display block radius
BDa Display block area
BDei Display block circumference point
f Focal length

Claims (9)

自車の周辺を連続して撮像するカメラと、
前記カメラから入力される画像をテンプレートで区画画像に区画すると共に時間的に前後する前記区画画像間のフローを抽出するフロー抽出部と、
前記画像に撮像される範囲の三次元空間にて予め定められた位置及び大きさの仮想ブロックを前記画像の二次元の画像座標系に表示ブロックとして投影する表示ブロック管理部と、
前記フローの始点又は終点での前記表示ブロックの大きさを参照して当該フローの有効性を判定処理するフロー判定処理部と、を備えた、
ことを特徴としたオプティカルフロー処理装置。
A camera that continuously captures the area around the vehicle,
A flow extraction unit that divides an image input from the camera into division images with a template and extracts a flow between the division images that are temporally mixed;
A display block management unit that projects a virtual block having a predetermined position and size in a three-dimensional space of a range captured by the image as a display block on a two-dimensional image coordinate system of the image;
A flow determination processing unit that determines the validity of the flow with reference to the size of the display block at the start point or end point of the flow,
An optical flow processing device characterized by that.
前記表示ブロック管理部が、当該表示ブロックを円近似するとともに近似した円の半径を表示ブロック半径として当該表示ブロックの大きさに関連させる前記表示ブロック半径関連処理を備えた、
ことを特徴とした請求項1記載のオプティカルフロー処理装置。
The display block management unit includes the display block radius related processing for approximating the display block to a circle and relating the approximated circle radius as a display block radius to the size of the display block.
The optical flow processing apparatus according to claim 1, wherein:
前記表示ブロック管理部が、前記三次元空間にて前記自車に接近する車両について予め定められた検出用速度に基づいて、前記仮想ブロックの前記三次元空間での大きさを特定する仮想ブロック特定処理を備えた、
ことを特徴とした請求項1又は2記載のオプティカルフロー処理装置。
The display block management unit specifies the virtual block size in the three-dimensional space based on a predetermined detection speed for a vehicle approaching the host vehicle in the three-dimensional space. With processing,
The optical flow processing apparatus according to claim 1 or 2, wherein
前記表示ブロック管理部が、前記仮想ブロックの前記三次元空間での高さを当該三次元空間にて予め定められた仮定地上高に仮定して、前記仮想ブロックを前記画像座標系での前記表示ブロックの位置に投影する仮定地上高処理を備えた、
ことを特徴とした請求項1,2又は3記載のオプティカルフロー処理装置。
The display block management unit assumes the height of the virtual block in the three-dimensional space to be an assumed ground height predetermined in the three-dimensional space, and displays the virtual block in the image coordinate system. With hypothetical ground processing that projects to the block position,
The optical flow processing apparatus according to claim 1, 2 or 3.
フロー抽出用の画像に撮像される範囲の三次元空間で予め定められた同一の大きさの複数の仮想ブロックを生成する仮想ブロック生成部と、
当該複数の前記仮想ブロックをそれぞれ前記画像の二次元の画像座標系に投影することで表示ブロックを算出する表示ブロック算出部と、
前記表示ブロックの面積を表示ブロック面積として算出する面積算出部と、
前記表示ブロック面積を円の面積とした際の半径を算出することで表示ブロック半径を算出する表示ブロック半径算出部と、
前記表示ブロック半径と前記画像の位置とを相関させることで表示半径マップを生成する相関生成部と、を備えた、
ことを特徴とする表示半径マップ生成装置。
A virtual block generation unit that generates a plurality of virtual blocks of the same size predetermined in a three-dimensional space in a range captured by an image for flow extraction;
A display block calculation unit for calculating a display block by projecting the plurality of virtual blocks onto a two-dimensional image coordinate system of the image,
An area calculation unit for calculating the area of the display block as a display block area;
A display block radius calculating unit that calculates a display block radius by calculating a radius when the display block area is an area of a circle;
A correlation generation unit that generates a display radius map by correlating the display block radius and the position of the image,
A display radius map generation device characterized by the above.
前記仮想ブロック生成部は、
カメラ座標系にて焦点位置である原点をワールド座標系の三次元空間に変換したカメラ座標原点ワールド座標系から前記仮想ブロックの中心までのベクトルを仮想ブロックベクトルとして当該ワールド座標系にて算出し、
当該仮想ブロックベクトルをカメラ座標系に変換するとともに、当該仮想ブロックベクトルの前記原点を中心とした回転角度を仮想ブロック回転角として算出し、
前記原点に前記仮想ブロックの大きさに対応した半径の仮想円盤を生成して当該仮想円盤の円周上の点をN分割することで円盤円周点を算出し、
当該カメラ座標系にて当該複数の前記円盤円周点をそれぞれ前記仮想ブロック回転角で回転変換し、
回転変換した当該複数の前記円盤円周点を前記ワールド座標系に変換するとともに前記仮想ブロックベクトルでシフト移動させることで当該ワールド座標系にて仮想ブロック円周点を算出し、
前記表示ブロック算出部は、
ワールド座標系の前記仮想ブロック円周点を透視座標変換することで前記画像の画像座標系での表示ブロック円周点に変換し、
前記面積算出部は、
当該複数の前記表示ブロック円周点に囲まれた前記表示ブロックの面積を表示ブロック面積として算出する、
ことを特徴とする請求項5記載の表示半径マップ生成装置。
The virtual block generator is
A vector from the camera coordinate origin world coordinate system converted from the origin that is the focal position in the camera coordinate system to the three-dimensional space of the world coordinate system to the center of the virtual block is calculated as a virtual block vector in the world coordinate system,
Converting the virtual block vector to the camera coordinate system, calculating a rotation angle around the origin of the virtual block vector as a virtual block rotation angle,
By generating a virtual disk with a radius corresponding to the size of the virtual block at the origin and dividing the point on the circumference of the virtual disk by N, the disk circumference point is calculated,
In the camera coordinate system, each of the plurality of disk circumferential points is rotationally transformed at the virtual block rotation angle, respectively.
The virtual block circumference point is calculated in the world coordinate system by shifting the rotation of the plurality of the disk circumference points to the world coordinate system and shifting the virtual block vector.
The display block calculation unit
By transforming the virtual block circumference point of the world coordinate system into a perspective coordinate transformation to the display block circumference point in the image coordinate system of the image,
The area calculation unit
Calculating an area of the display block surrounded by the plurality of display block circumference points as a display block area;
6. The display radius map generating apparatus according to claim 5, wherein the display radius map generating apparatus is a display radius map generating apparatus.
フロー抽出用の画像に撮像される範囲の三次元空間で予め定められた同一の大きさの複数の仮想ブロックを生成する仮想ブロック生成工程と、
当該複数の前記仮想ブロックをそれぞれ前記画像の二次元の画像座標系に投影することで表示ブロックを算出する表示ブロック算出工程と、
前記表示ブロックの面積を表示ブロック面積として算出する面積算出工程と、
前記表示ブロック面積を円の面積とした際の半径を算出することで表示ブロック半径を算出する表示ブロック半径算出工程と、
前記表示ブロック半径と前記画像の位置とを相関させることで表示半径マップを生成する相関生成工程と、を備えた、
ことを特徴とする表示半径マップ生成方法。
A virtual block generating step for generating a plurality of virtual blocks having the same size in a three-dimensional space in a range captured by an image for flow extraction;
A display block calculating step of calculating a display block by projecting each of the plurality of virtual blocks onto a two-dimensional image coordinate system of the image;
Calculating an area of the display block as a display block area;
A display block radius calculating step of calculating a display block radius by calculating a radius when the display block area is an area of a circle;
A correlation generation step of generating a display radius map by correlating the display block radius and the position of the image,
A display radius map generation method characterized by that.
請求項7記載の方法を演算装置を用いて実行するための表示半径マップ生成用プログラム。   A display radius map generation program for executing the method according to claim 7 using an arithmetic unit. 自車の周辺を連続して撮像するカメラと、
前記カメラから入力される画像をテンプレートで区画画像に区画すると共に時間的に前後する前記区画画像間のフローを抽出するフロー抽出部と、
前記画像に撮像される範囲の三次元空間にて予め定められた位置及び同一の大きさの仮想ブロックを前記画像の二次元の画像座標系に表示ブロックとして予め投影した表示半径マップを記憶する表示ブロック管理部と、
前記フローの始点又は終点での前記表示ブロックの大きさを前記表示半径マップから参照して当該フローの有効性を判定処理するフロー判定処理部と、を備えた、
ことを特徴としたオプティカルフロー処理装置。
A camera that continuously captures the area around the vehicle,
A flow extraction unit that divides an image input from the camera into division images with a template and extracts a flow between the division images that are temporally mixed;
A display for storing a display radius map in which a virtual block having a predetermined position and the same size in a three-dimensional space of a range captured by the image is projected as a display block on the two-dimensional image coordinate system of the image The block manager,
A flow determination processing unit that determines the effectiveness of the flow by referring to the display radius map with respect to the size of the display block at the start point or the end point of the flow,
An optical flow processing device characterized by that.
JP2012010554A 2012-01-22 2012-01-22 Optical flow processing apparatus and display radius map generation apparatus Active JP5773334B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012010554A JP5773334B2 (en) 2012-01-22 2012-01-22 Optical flow processing apparatus and display radius map generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012010554A JP5773334B2 (en) 2012-01-22 2012-01-22 Optical flow processing apparatus and display radius map generation apparatus

Publications (2)

Publication Number Publication Date
JP2013149175A JP2013149175A (en) 2013-08-01
JP5773334B2 true JP5773334B2 (en) 2015-09-02

Family

ID=49046592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012010554A Active JP5773334B2 (en) 2012-01-22 2012-01-22 Optical flow processing apparatus and display radius map generation apparatus

Country Status (1)

Country Link
JP (1) JP5773334B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015055993A (en) * 2013-09-11 2015-03-23 アルパイン株式会社 Rear lateral side vehicle detection device and rear lateral side vehicle detection method
DE102014109062A1 (en) * 2014-06-27 2015-12-31 Connaught Electronics Ltd. Method for tracking a target vehicle approaching a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle
EP3613208A4 (en) * 2017-06-02 2020-06-24 SZ DJI Technology Co., Ltd. Systems and methods for multi-target tracking and autofocusing based on deep machine learning and laser radar

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116527A (en) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd Method and device for detecting solid body
JP2007078358A (en) * 2005-09-09 2007-03-29 Sumitomo Electric Ind Ltd Measurement device for mobile body, signal control system, measurement method of mobile body, and computer program
JP5012718B2 (en) * 2008-08-01 2012-08-29 トヨタ自動車株式会社 Image processing device
JP2010146478A (en) * 2008-12-22 2010-07-01 Toyota Motor Corp Object detection device
JP2010218226A (en) * 2009-03-17 2010-09-30 Suzuki Motor Corp Measurement map generation device and traveling environment confirmation device

Also Published As

Publication number Publication date
JP2013149175A (en) 2013-08-01

Similar Documents

Publication Publication Date Title
JP6675448B2 (en) Vehicle position detecting method and device
CN107577988B (en) Method, device, storage medium and program product for realizing side vehicle positioning
CN108638999B (en) Anti-collision early warning system and method based on 360-degree look-around input
JP5689907B2 (en) Method for improving the detection of a moving object in a vehicle
JP4919036B2 (en) Moving object recognition device
US11407363B2 (en) Method for calculating a tow hitch position
JP6328327B2 (en) Image processing apparatus and image processing method
US11887336B2 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
JP2007527569A (en) Imminent collision detection based on stereoscopic vision
CN112507862B (en) Vehicle orientation detection method and system based on multitasking convolutional neural network
JP2002352225A (en) Obstacle detector and its method
CN108645375B (en) Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system
JP7050763B2 (en) Detection of objects from camera images
JP7107931B2 (en) Method and apparatus for estimating range of moving objects
WO2021120574A1 (en) Obstacle positioning method and apparatus for autonomous driving system
Ponsa et al. On-board image-based vehicle detection and tracking
CN111105452A (en) High-low resolution fusion stereo matching method based on binocular vision
JP5773334B2 (en) Optical flow processing apparatus and display radius map generation apparatus
JP4967758B2 (en) Object movement detection method and detection apparatus
JP2013069045A (en) Image recognition device, image recognition method, and image recognition program
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
Álvarez et al. Perception advances in outdoor vehicle detection for automatic cruise control
EP3629292A1 (en) Reference point selection for extrinsic parameter calibration
JP2013149177A (en) Optical flow processor
Lin et al. Road obstacle detection in stereo vision based on UV-disparity

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150608

R151 Written notification of patent or utility model registration

Ref document number: 5773334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150621