JP2010245802A - Control support device - Google Patents

Control support device Download PDF

Info

Publication number
JP2010245802A
JP2010245802A JP2009091778A JP2009091778A JP2010245802A JP 2010245802 A JP2010245802 A JP 2010245802A JP 2009091778 A JP2009091778 A JP 2009091778A JP 2009091778 A JP2009091778 A JP 2009091778A JP 2010245802 A JP2010245802 A JP 2010245802A
Authority
JP
Japan
Prior art keywords
bird
image
angle information
edge
eye view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009091778A
Other languages
Japanese (ja)
Inventor
Nagateru Yo
長輝 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009091778A priority Critical patent/JP2010245802A/en
Publication of JP2010245802A publication Critical patent/JP2010245802A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a control support device capable of reducing loads for control support. <P>SOLUTION: In the control support device, each of cameras C_1-C_4 is provided on a vehicle in an obliquely downward posture and captures a field around the vehicle. A CPU 12p converts a field image output from each of the cameras C_1-C_4 to a bird's-eye view image, and extracts an edge from the converted bird's-eye view image. The CPU 12p also detects the angle information of a line drawn by the extracted edge corresponding to a plurality of positions on the extracted edge, and executes control support processing such as warning corresponding to predetermined angle information for which the number of times of detection exceeds a reference in the detected angle information. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、操縦支援装置に関し、特に、移動体に斜め下向きの姿勢で設けられて移動体の周辺の被写界を捉えるカメラから出力された被写界像に基づいて操縦者の操作を支援する、操縦支援装置に関する。   The present invention relates to a steering assistance device, and in particular, assists a pilot's operation based on an object scene image output from a camera that is provided in a slanting downward posture on a moving object and captures the object scene around the moving object. The present invention relates to a steering assist device.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、車両の前部に搭載されたカメラから出力された路面画像が、俯瞰変換ユニットによって俯瞰画像に変換される。強度プロファイル作成ユニットは、俯瞰画像に現れる路面の路幅方向における複数の位置で、路幅方向に直交する方向の輝度を積分する。レーンマーカ検出ユニットは、強度プロファイル作成ユニットによって検出された積分輝度の分布に基づいて、路面に設置されたレーンマーカの位置を検出する。これによって、車両がレーンから逸脱したときに速やかに警報を発生することができる。   An example of this type of device is disclosed in Patent Document 1. According to this background art, the road surface image output from the camera mounted in the front part of the vehicle is converted into an overhead view image by the overhead view conversion unit. The intensity profile creation unit integrates the luminance in the direction orthogonal to the road width direction at a plurality of positions in the road width direction of the road surface appearing in the overhead image. The lane marker detection unit detects the position of the lane marker installed on the road surface based on the integrated luminance distribution detected by the intensity profile creation unit. Thus, an alarm can be promptly generated when the vehicle departs from the lane.

特開2004−145852号公報JP 2004-145852 A

しかし、背景技術では、路幅方向における複数の位置で路幅方向に直交する方向の輝度を積分する必要があり、過負荷が懸念される。   However, in the background art, it is necessary to integrate the luminance in the direction orthogonal to the road width direction at a plurality of positions in the road width direction, and there is a concern about overload.

それゆえに、この発明の主たる目的は、操縦支援のための負荷を低減することができる、操縦支援装置を提供することである。   Therefore, a main object of the present invention is to provide a steering assistance device that can reduce a load for steering assistance.

この発明に従う操縦支援装置(10:実施例で相当する参照符号。以下同じ)は、移動体(100)に斜め下向きの姿勢で設けられて移動体の周辺の被写界を捉える撮像手段(C_1~C_4)から出力された被写界像を鳥瞰画像に変換する変換手段(S5)、変換手段によって変換された鳥瞰画像からエッジを抽出する抽出手段(S15)、抽出手段によって抽出されたエッジによって描かれる線の角度情報を抽出手段によって抽出されたエッジ上の複数の位置に対応して検出する検出手段(S17~S25)、および検出手段によって検出された角度情報のうち検出回数が基準を上回る特定角度情報に対応して操縦支援処理を実行する処理手段(S31, S35, S51, S53)を備える。   The steering assist device according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) is provided on the moving body (100) in an obliquely downward posture and captures an object scene around the moving body (C_1 ~ C_4) conversion means (S5) for converting the scene image output to the bird's-eye image, extraction means (S15) for extracting an edge from the bird's-eye image converted by the conversion means, and by the edge extracted by the extraction means Detection means (S17 to S25) for detecting the angle information of the drawn line corresponding to a plurality of positions on the edge extracted by the extraction means, and the number of detections out of the angle information detected by the detection means exceeds the reference Processing means (S31, S35, S51, S53) for executing a steering support process corresponding to the specific angle information is provided.

好ましくは、操縦支援処理は操縦者に向けて警告を発生する警告処理(S35)を含む。   Preferably, the steering support process includes a warning process (S35) for generating a warning toward the pilot.

好ましくは、操縦支援処理は特定角度情報を有する線を描くエッジを障害物検知のための判別対象から排除する排除処理(S53)を含む。   Preferably, the steering support process includes an exclusion process (S53) that excludes an edge that draws a line having specific angle information from a discrimination target for obstacle detection.

好ましくは、検出手段は角度情報の分布状態を表すヒストグラムを作成する作成手段(S21)を含み、処理手段は作成手段によって作成されたヒストグラムを参照して操縦支援処理を実行する。   Preferably, the detection means includes a creation means (S21) for creating a histogram representing the distribution state of the angle information, and the processing means executes the steering support process with reference to the histogram created by the creation means.

好ましくは、撮像手段は各々が被写界像を出力する複数のカメラ(C_1~C_4)を含み、抽出手段の抽出処理のために注目するカメラを複数のカメラの間で循環的に更新する更新手段(S13, S39, S41)がさらに備えられる。   Preferably, the imaging unit includes a plurality of cameras (C_1 to C_4) each outputting an object scene image, and updates the target camera for extraction processing of the extraction unit in a cyclic manner between the plurality of cameras. Means (S13, S39, S41) are further provided.

この発明に従う操縦支援方法は、操縦支援装置(10)によって実行される操縦支援方法であって、移動体(100)に斜め下向きの姿勢で設けられて移動体の周辺の被写界を捉える撮像手段(C_1~C_4)から出力された被写界像を鳥瞰画像に変換する変換ステップ(S5)、変換ステップによって変換された鳥瞰画像からエッジを抽出する抽出ステップ(S15)、抽出ステップによって抽出されたエッジによって描かれる線の角度情報を抽出ステップによって抽出されたエッジ上の複数の位置に対応して検出する検出ステップ(S17~S25)、および検出ステップによって検出された角度情報のうち検出回数が基準を上回る特定角度情報に対応して操縦支援処理を実行する処理ステップ(S31, S35, S51, S53)を備える。   The steering support method according to the present invention is a steering support method executed by the steering support device (10), and is provided on the moving body (100) in an obliquely downward posture and captures an object scene around the moving body. A conversion step (S5) for converting the object scene image output from the means (C_1 to C_4) into a bird's-eye image, an extraction step (S15) for extracting an edge from the bird's-eye image converted by the conversion step, and an extraction step. The detection step (S17 to S25) for detecting the angle information of the line drawn by the edge corresponding to a plurality of positions on the edge extracted by the extraction step, and the number of detections among the angle information detected by the detection step Processing steps (S31, S35, S51, S53) for executing the steering support process corresponding to the specific angle information exceeding the reference are provided.

この発明によれば、検出手段によって検出される角度情報は、直線を描くエッジ上の複数の位置が指定された場合に、互いに一致する。また、同じ角度情報の検出回数は、エッジによって描かれる直線の長さが増大するほど増大する。したがって、操縦支援処理は、基準に相当する長さを上回る長さを有する直線状の路面ペイントが撮像手段によって捉えられたときに実行される。また、エッジによって描かれる線の角度情報はエッジ上の複数の位置で検出され、操縦支援処理は検出回数が基準を上回る角度情報に対応して実行される。これによって、操縦支援のための負荷を低減することができる。   According to the present invention, the angle information detected by the detecting means coincides with each other when a plurality of positions on the edge drawing a straight line are designated. Further, the number of detections of the same angle information increases as the length of the straight line drawn by the edge increases. Therefore, the steering assist process is executed when a linear road surface paint having a length exceeding the length corresponding to the reference is captured by the imaging unit. The angle information of the line drawn by the edge is detected at a plurality of positions on the edge, and the steering support process is executed corresponding to the angle information whose number of detection exceeds the reference. As a result, the load for steering assistance can be reduced.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. (A)は車両の正面を眺めた状態を示す図解図であり、(B)は車両の右側面を眺めた状態を示す図解図であり、(C)は車両の背面を眺めた状態を示す図解図であり、(D)は車両の左側面を眺めた状態を示す図解図である。(A) is an illustrative view showing a state of looking at the front of the vehicle, (B) is an illustrative view showing a state of looking at the right side of the vehicle, and (C) shows a state of looking at the back of the vehicle. It is an illustration figure, (D) is an illustration figure which shows the state which looked at the left side surface of the vehicle. 車両に取り付けられた複数のカメラによって捉えられる視野の一例を示す図解図である。It is an illustration figure which shows an example of the visual field caught by the some camera attached to the vehicle. (A)は前カメラの出力に基づく鳥瞰画像の一例を示す図解図であり、(B)は右カメラの出力に基づく鳥瞰画像の一例を示す図解図であり、(C)は左カメラの出力に基づく鳥瞰画像の一例を示す図解図であり、(D)は後カメラの出力に基づく鳥瞰画像の一例を示す図解図である。(A) is an illustrative view showing an example of a bird's-eye view image based on the output of the previous camera, (B) is an illustrative view showing an example of a bird's-eye view image based on the output of the right camera, and (C) is an output of the left camera. It is an illustration figure which shows an example of the bird's-eye view image based on, and (D) is an illustration figure which shows an example of the bird's-eye view image based on the output of a back camera. 図5(A)〜図5(D)に示す鳥瞰画像に基づく全周鳥瞰画像の一例を示す図解図である。FIG. 6 is an illustrative view showing one example of an all-around bird's-eye image based on the bird's-eye image shown in FIGS. 5 (A) to 5 (D). 表示装置によって表示される操縦支援画像の一例を示す図解図である。It is an illustration figure which shows an example of the steering assistance image displayed by a display apparatus. 車両に取り付けられたカメラの角度を示す図解図である。It is an illustration figure which shows the angle of the camera attached to the vehicle. カメラ座標系と撮像面の座標系と世界座標系との関係を示す図解図である。It is an illustration figure which shows the relationship between a camera coordinate system, the coordinate system of an imaging surface, and a world coordinate system. 車両とその近傍の路面ペイントの一例を示す斜視図である。It is a perspective view which shows an example of the road surface paint of a vehicle and its vicinity. 全周鳥瞰図画像の他の一例を示す図解図である。It is an illustration figure which shows another example of an all-around bird's-eye view image. (A)は再現画像の一部を示す図解図であり、(B)は(A)に示す再現画像に対応する差分画像の一部を示す図解図である。(A) is an illustration figure which shows a part of reproduction image, (B) is an illustration figure which shows a part of difference image corresponding to the reproduction image shown to (A). 図12(B)に示す差分画像上に定義された法線ベクトルの一例を示す図解図である。FIG. 13 is an illustrative view showing one example of a normal vector defined on the difference image shown in FIG. 角度方向に対する法線ベクトルの分布状態の一例を示すヒストグラムである。It is a histogram which shows an example of the distribution state of the normal vector with respect to an angle direction. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 他の実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to another Example. 車両とその近傍の障害物および路面ペイントの一例を示す斜視図である。It is a perspective view which shows an example of a vehicle, the obstacle of the vicinity, and road surface paint. 全周鳥瞰図画像のその他の一例を示す図解図である。It is an illustration figure which shows another example of an all-around bird's-eye view image.

[基本的構成]
図1を参照して、この発明の操縦支援装置は、基本的に次のように構成される。撮像手段1は、移動体に斜め下向きの姿勢で設けられて、移動体の周辺の被写界を捉える。変換手段2は、撮像手段1から出力された被写界像を鳥瞰画像に変換する。抽出手段3は、変換手段2によって変換された鳥瞰画像からエッジを抽出する。検出手段4は、抽出手段3によって抽出されたエッジによって描かれる線の角度情報を、抽出手段3によって抽出されたエッジ上の複数の位置に対応して検出する。処理手段5は、検出手段4によって検出された角度情報のうち検出回数が基準を上回る特定角度情報に対応して操縦支援処理を実行する。
[Basic configuration]
Referring to FIG. 1, the steering assist device of the present invention is basically configured as follows. The imaging unit 1 is provided on the moving body in an obliquely downward posture, and captures an object scene around the moving body. The conversion unit 2 converts the object scene image output from the imaging unit 1 into a bird's-eye view image. The extraction unit 3 extracts an edge from the bird's-eye view image converted by the conversion unit 2. The detection unit 4 detects angle information of a line drawn by the edge extracted by the extraction unit 3 corresponding to a plurality of positions on the edge extracted by the extraction unit 3. The processing unit 5 executes the steering support process corresponding to the specific angle information whose number of detection exceeds the reference among the angle information detected by the detection unit 4.

したがって、検出手段4によって検出される角度情報は、直線を描くエッジ上の複数の位置が指定された場合に、互いに一致する。また、同じ角度情報の検出回数は、エッジによって描かれる直線の長さが増大するほど増大する。したがって、操縦支援処理は、基準に相当する長さを上回る長さを有する直線状の路面ペイントが撮像手段1によって捉えられたときに実行される。   Therefore, the angle information detected by the detection unit 4 matches each other when a plurality of positions on the edge drawing a straight line are designated. Further, the number of detections of the same angle information increases as the length of the straight line drawn by the edge increases. Therefore, the steering support process is executed when a linear road surface paint having a length exceeding the length corresponding to the reference is captured by the imaging unit 1.

また、エッジによって描かれる線の角度情報はエッジ上の複数の位置で検出され、操縦支援処理は検出回数が基準を上回る角度情報に対応して実行される。これによって、操縦支援のための負荷を低減することができる。
[実施例]
The angle information of the line drawn by the edge is detected at a plurality of positions on the edge, and the steering support process is executed corresponding to the angle information whose number of detection exceeds the reference. As a result, the load for steering assistance can be reduced.
[Example]

図2に示すこの実施例の操縦支援装置10は、4個のカメラC_1〜C_4を含む。カメラC_1〜C_4はそれぞれ、共通の垂直同期信号Vsyncに応答して、被写界像P_1〜P_4を1/30秒毎に出力する。出力された被写界像P_1〜P_4は、画像処理回路12によって取り込まれる。取り込まれた被写界像P_1〜P_4はそれぞれ、SDRAM12mのワークエリアF1〜F4に書き込まれる。   The steering assistance device 10 of this embodiment shown in FIG. 2 includes four cameras C_1 to C_4. The cameras C_1 to C_4 output scene images P_1 to P_4 every 1/30 seconds in response to the common vertical synchronization signal Vsync. The output scene images P_1 to P_4 are captured by the image processing circuit 12. The captured object scene images P_1 to P_4 are written in the work areas F1 to F4 of the SDRAM 12m, respectively.

図3(A)〜図3(D)を参照して、操縦支援装置10は、地面を走行する車両100に搭載される。具体的には、カメラC_1は、車両100の前方斜め下を向く姿勢で、車両100の前部のほぼ中央に設置される。カメラC_2は、車両100の右斜め下を向く姿勢で、車両100の右側の幅方向ほぼ中央でかつ高さ方向上側に設置される。   Referring to FIGS. 3A to 3D, the steering assist device 10 is mounted on a vehicle 100 that travels on the ground. Specifically, the camera C_1 is installed in a substantially center of the front portion of the vehicle 100 in a posture facing obliquely downward in front of the vehicle 100. The camera C_2 is installed in a posture that faces obliquely downward to the right of the vehicle 100, approximately in the center in the width direction on the right side of the vehicle 100 and on the upper side in the height direction.

カメラC_3は、車両100の後方斜め下を向く姿勢で、車両100の後部の幅方向ほぼ中央でかつ高さ方向上側に設置される。カメラC_4は、車両100の左斜め下を向く姿勢で、車両100の左側の幅方向ほぼ中央でかつ高さ方向上側に設置される。   The camera C_3 is installed in an approximately center in the width direction of the rear portion of the vehicle 100 and on the upper side in the height direction with the posture facing the diagonally downward rearward direction of the vehicle 100. The camera C_4 is installed on the left side of the vehicle 100 substantially in the center in the width direction and on the upper side in the height direction with the posture facing the diagonally lower left side of the vehicle 100.

車両100とその周辺の地面とを鳥瞰した状態を図4に示す。図4によれば、カメラC_1は車両100の前方を捉える視野VW_1を有し、カメラC_2は車両100の右方向を捉える視野VW_2を有し、カメラC_3は車両100の後方を捉える視野VW_3を有し、そしてカメラC_4は車両100の左方向を捉える視野VW_4を有する。また、視野VW_1およびVW_2は共通視野VW_12を有し、視野VW_2およびVW_3は共通視野VW_23を有し、視野VW_3およびVW_4は共通視野VW_34を有し、そして視野VW_4およびVW_1は共通視野VW_41を有する。   FIG. 4 shows a bird's-eye view of the vehicle 100 and the surrounding ground. According to FIG. 4, the camera C_1 has a field of view VW_1 that captures the front of the vehicle 100, the camera C_2 has a field of view VW_2 that captures the right direction of the vehicle 100, and the camera C_3 has a field of view VW_3 that captures the rear of the vehicle 100. The camera C_4 has a field of view VW_4 that captures the left direction of the vehicle 100. Also, the visual fields VW_1 and VW_2 have a common visual field VW_12, the visual fields VW_2 and VW_3 have a common visual field VW_23, the visual fields VW_3 and VW_4 have a common visual field VW_34, and the visual fields VW_4 and VW_1 have a common visual field VW_41.

図2に戻って、画像処理回路12に設けられたCPU12pは、ワークエリアF1に格納された被写界像P_1に基づいて図5(A)に示す鳥瞰画像BEV_1を生成し、ワークエリアF2に格納された被写界像P_2に基づいて図5(B)に示す鳥瞰画像BEV_2を生成する。CPU12pはまた、ワークエリアF3に格納された被写界像P_3に基づいて図5(C)に示す鳥瞰画像BEV_3を生成し、ワークエリアF4に格納された被写界像P_4に基づいて図5(D)に示す鳥瞰画像BEV_4を生成する。鳥瞰画像BEV_1〜BEV_4もまた、ワークエリアF1〜F4に格納される。   Returning to FIG. 2, the CPU 12p provided in the image processing circuit 12 generates the bird's-eye view image BEV_1 shown in FIG. 5A based on the object scene image P_1 stored in the work area F1, and the work area F2 is displayed in the work area F2. Based on the stored scene image P_2, a bird's-eye view image BEV_2 shown in FIG. 5B is generated. The CPU 12p also generates the bird's-eye view image BEV_3 shown in FIG. 5C based on the object scene image P_3 stored in the work area F3, and based on the object scene image P_4 stored in the work area F4. A bird's-eye view image BEV_4 shown in (D) is generated. Bird's-eye view images BEV_1 to BEV_4 are also stored in work areas F1 to F4.

鳥瞰画像BEV_1は視野VW_1を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当し、鳥瞰画像BEV_2は視野VW_2を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当する。また、鳥瞰画像BEV_3は視野VW_3を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当し、鳥瞰画像BEV_4は視野VW_4を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当する。   The bird's-eye view image BEV_1 corresponds to an image captured by the virtual camera looking down the visual field VW_1 in the vertical direction, and the bird's-eye view image BEV_2 corresponds to an image captured by the virtual camera looking down the visual field VW_2 in the vertical direction. The bird's-eye view image BEV_3 corresponds to an image captured by a virtual camera looking down the visual field VW_3 in the vertical direction, and the bird's-eye view image BEV_4 corresponds to an image captured by a virtual camera looking down the visual field VW_4 in the vertical direction.

図5(A)〜図5(D)によれば、鳥瞰画像BEV_1は鳥瞰座標系X1・Y1を有し、鳥瞰画像BEV_2は鳥瞰座標系X2・Y2を有し、鳥瞰画像BEV_3は鳥瞰座標系X3・Y3を有し、そして鳥瞰画像BEV_4は鳥瞰座標系X4・Y4を有する。   According to FIGS. 5A to 5D, the bird's-eye image BEV_1 has a bird's-eye coordinate system X1 and Y1, the bird's-eye image BEV_2 has a bird's-eye coordinate system X2 and Y2, and the bird's-eye image BEV_3 has a bird's-eye coordinate system. The bird's-eye view image BEV_4 has a bird's-eye coordinate system X4 / Y4.

CPU12pは続いて、鳥瞰画像BEV_1〜BEV_4を互いに結合するべく、鳥瞰画像BEV_2〜BEV_4を鳥瞰画像BEV_1を基準として回転および/または移動させる。鳥瞰画像BEV_2〜BEV_4の座標は、図6に示す全周鳥瞰画像を描くように、ワークエリアF2〜F4上で変換される。   Subsequently, the CPU 12p rotates and / or moves the bird's-eye view images BEV_2 to BEV_4 with reference to the bird's-eye view image BEV_1 in order to combine the bird's-eye view images BEV_1 to BEV_4. The coordinates of the bird's-eye view images BEV_2 to BEV_4 are converted on the work areas F2 to F4 so as to draw the all-around bird's-eye view image shown in FIG.

図6において、重複エリアOL_12は共通視野VW_12を再現するエリアに相当し、重複エリアOL_23は共通視野VW_23を再現するエリアに相当する。また、重複エリアOL_34は共通視野VW_34を再現するエリアに相当し、そして重複エリアOL_41は共通視野VW_41を再現するエリアに相当する。   In FIG. 6, the overlapping area OL_12 corresponds to an area that reproduces the common visual field VW_12, and the overlapping area OL_23 corresponds to an area that reproduces the common visual field VW_23. The overlapping area OL_34 corresponds to an area that reproduces the common visual field VW_34, and the overlapping area OL_41 corresponds to an area that reproduces the common visual field VW_41.

さらに、固有エリアOR_1は視野VW1のうち共通視野VW_41およびVW_12を除く一部の視野を再現するエリアに相当し、固有エリアOR_2は視野VW2のうち共通視野VW_12およびVW_23を除く一部の視野を再現するエリアに相当する。また、固有エリアOR_3は視野VW3のうち共通視野VW_23およびVW_34を除く一部の視野を再現するエリアに相当し、固有エリアOR_4は視野VW4のうち共通視野VW_34およびVW_41を除く一部の視野を再現するエリアに相当する。   Further, the unique area OR_1 corresponds to an area that reproduces a part of the visual field VW1 excluding the common visual fields VW_41 and VW_12, and the unique area OR_2 reproduces a part of the visual field VW2 except the common visual fields VW_12 and VW_23. Corresponds to the area to be The unique area OR_3 corresponds to an area that reproduces a part of the visual field VW3 excluding the common visual fields VW_23 and VW_34, and the unique area OR_4 reproduces a part of the visual field VW4 except the common visual fields VW_34 and VW_41. Corresponds to the area to be

車両100の運転席に設置された表示装置14は、重複エリアOL_12〜OL_41が四隅に位置する区画BK1を定義し、定義された区画BLK1に属する一部の鳥瞰画像をワークエリアF1〜F4の各々から読み出す。表示装置14はさらに、読み出された鳥瞰画像を互いに結合し、これによって得られた全周鳥瞰画像の中央に車両100の上部を模したグラフィック画像G1を貼り付ける。この結果、図7に示す操縦支援画像がモニタ画面に表示される。   The display device 14 installed in the driver's seat of the vehicle 100 defines the section BK1 where the overlapping areas OL_12 to OL_41 are located at the four corners, and displays some bird's-eye images belonging to the defined section BLK1 in each of the work areas F1 to F4. Read from. The display device 14 further combines the read bird's-eye images with each other, and pastes a graphic image G1 simulating the upper part of the vehicle 100 at the center of the all-round bird's-eye image obtained thereby. As a result, the steering assistance image shown in FIG. 7 is displayed on the monitor screen.

次に、鳥瞰画像BEV_1〜BEV_4の作成要領について説明する。ただし、鳥瞰画像BEV_1〜BEV_4はいずれも同じ要領で作成されるため、鳥瞰画像BEV_1〜BEV_4を代表して鳥瞰画像BEV3の作成要領を説明する。   Next, how to create the bird's-eye view images BEV_1 to BEV_4 will be described. However, since the bird's-eye images BEV_1 to BEV_4 are all created in the same manner, the creation procedure of the bird's-eye image BEV3 will be described as a representative of the bird's-eye images BEV_1 to BEV_4.

図8を参照して、カメラC_3は車両100の後部に後方斜め下向きに配置される。カメラC_3の俯角を“θd”とすると、図8に示す角度θは“180°−θd”に相当する。また、角度θは、90°<θ<180°の範囲で定義される。   Referring to FIG. 8, camera C_3 is disposed rearward and obliquely downward at the rear of vehicle 100. If the depression angle of the camera C_3 is “θd”, the angle θ shown in FIG. 8 corresponds to “180 ° −θd”. The angle θ is defined in the range of 90 ° <θ <180 °.

図9は、カメラ座標系X・Y・Zと、カメラC_3の撮像面Sの座標系Xp・Ypと、世界座標系Xw・Yw・Zwとの関係を示す。カメラ座標系X・Y・Zは、X軸,Y軸およびZ軸を座標軸とする三次元の座標系である。座標系Xp・Ypは、Xp軸およびYp軸を座標軸とする二次元の座標系である。世界座標系Xw・Yw・Zwは、Xw軸,Yw軸およびZw軸を座標軸とする三次元の座標系である。   FIG. 9 shows the relationship between the camera coordinate system X · Y · Z, the coordinate system Xp · Yp of the imaging surface S of the camera C_3, and the world coordinate system Xw · Yw · Zw. The camera coordinate system X, Y, Z is a three-dimensional coordinate system with the X, Y, and Z axes as coordinate axes. The coordinate system Xp · Yp is a two-dimensional coordinate system having the Xp axis and the Yp axis as coordinate axes. The world coordinate system Xw · Yw · Zw is a three-dimensional coordinate system having the Xw axis, the Yw axis, and the Zw axis as coordinate axes.

カメラ座標系X・Y・Zでは、カメラC3の光学的中心を原点Oとして、光軸方向にZ軸が定義され、Z軸に直交しかつ地面に平行な方向にX軸が定義され、そしてZ軸およびX軸に直交する方向にY軸が定義される。撮像面Sの座標系Xp・Ypでは、撮像面Sの中心を原点として、撮像面Sの横方向にXp軸が定義され、撮像面Sの縦方向にYp軸が定義される。   In the camera coordinate system X, Y, Z, the optical center of the camera C3 is defined as the origin O, the Z axis is defined in the optical axis direction, the X axis is defined in the direction perpendicular to the Z axis and parallel to the ground, and A Y axis is defined in a direction orthogonal to the Z axis and the X axis. In the coordinate system Xp / Yp of the imaging surface S, with the center of the imaging surface S as the origin, the Xp axis is defined in the horizontal direction of the imaging surface S, and the Yp axis is defined in the vertical direction of the imaging surface S.

世界座標系Xw・Yw・Zwでは、カメラ座標系XYZの原点Oを通る鉛直線と地面との交点を原点Owとして、地面と垂直な方向にYw軸が定義され、カメラ座標系X・Y・ZのX軸と平行な方向にXw軸が定義され、そしてXw軸およびYw軸に直交する方向にZw軸が定義される。また、Xw軸からX軸までの距離は“h”であり、Zw軸およびZ軸によって形成される鈍角が上述の角度θに相当する。   In the world coordinate system Xw / Yw / Zw, the intersection of the vertical line passing through the origin O of the camera coordinate system XYZ and the ground is defined as the origin Ow, and the Yw axis is defined in the direction perpendicular to the ground. An Xw axis is defined in a direction parallel to the X axis of Z, and a Zw axis is defined in a direction orthogonal to the Xw axis and the Yw axis. The distance from the Xw axis to the X axis is “h”, and the obtuse angle formed by the Zw axis and the Z axis corresponds to the angle θ described above.

カメラ座標系X・Y・Zにおける座標を(x,y,z)と表記した場合、“x”,“y”および“z”はそれぞれ、カメラ座標系X・Y・ZにおけるX軸成分,Y軸成分およびZ軸成分を示す。撮像面Sの座標系Xp・Ypにおける座標を(xp,yp)と表記した場合、“xp”および“yp”はそれぞれ、撮像面Sの座標系Xp・YpにおけるXp軸成分およびYp軸成分を示す。世界座標系Xw・Yw・Zwにおける座標を(xw,yw,zw)と表記した場合、“xw”,“yw”および“zw”はそれぞれ、世界座標系Xw・Yw・ZwにおけるXw軸成分,Yw軸成分およびZw軸成分を示す。   When coordinates in the camera coordinate system X, Y, and Z are expressed as (x, y, z), “x”, “y”, and “z” are X-axis components in the camera coordinate system X, Y, and Z, respectively. A Y-axis component and a Z-axis component are shown. When the coordinates in the coordinate system Xp / Yp of the imaging surface S are expressed as (xp, yp), “xp” and “yp” respectively represent the Xp-axis component and the Yp-axis component in the coordinate system Xp / Yp of the imaging surface S. Show. When coordinates in the world coordinate system Xw · Yw · Zw are expressed as (xw, yw, zw), “xw”, “yw”, and “zw” are Xw axis components in the world coordinate system Xw · Yw · Zw, The Yw axis component and the Zw axis component are shown.

カメラ座標系X・Y・Zの座標(x,y,z)と世界座標系Xw・Yw・Zwの座標(xw,yw,zw)との間の変換式は、数1で表される。

Figure 2010245802
A conversion formula between the coordinates (x, y, z) of the camera coordinate system X, Y, Z and the coordinates (xw, yw, zw) of the world coordinate system Xw, Yw, Zw is expressed by Formula 1.
Figure 2010245802

ここで、カメラC_3の焦点距離を“f”とすると、撮像面Sの座標系Xp・Ypの座標(xp,yp)とカメラ座標系X・Y・Zの座標(x,y,z)との間の変換式は、数2で表される。

Figure 2010245802
Here, assuming that the focal length of the camera C_3 is “f”, the coordinates (xp, yp) of the coordinate system Xp / Yp of the imaging surface S and the coordinates (x, y, z) of the camera coordinate system X / Y / Z are The conversion formula between is expressed by Equation 2.
Figure 2010245802

また、数1および数2に基づいて数3が得られる。数3は、撮像面Sの座標系Xp・Ypの座標(xp,yp)と二次元地面座標系Xw・Zwの座標(xw,zw)との間の変換式を示す。

Figure 2010245802
Also, Equation 3 is obtained based on Equation 1 and Equation 2. Equation 3 shows a conversion formula between the coordinates (xp, yp) of the coordinate system Xp / Yp of the imaging surface S and the coordinates (xw, zw) of the two-dimensional ground coordinate system Xw / Zw.
Figure 2010245802

また、図5(C)に示す鳥瞰画像BEV_3の座標系である鳥瞰座標系X3・Y3が定義される。鳥瞰座標系X3・Y3は、X3軸及びY3軸を座標軸とする二次元の座標系である。鳥瞰座標系X3・Y3における座標を(x3,y3)と表記した場合、鳥瞰画像BEV_3を形成する各画素の位置は座標(x3,y3)によって表される。“x3”および“y3”はそれぞれ、鳥瞰座標系X3・Y3におけるX3軸成分およびY3軸成分を示す。   Also, a bird's-eye coordinate system X3 / Y3, which is a coordinate system of the bird's-eye image BEV_3 shown in FIG. 5C, is defined. The bird's-eye coordinate system X3 / Y3 is a two-dimensional coordinate system having the X3 axis and the Y3 axis as coordinate axes. When the coordinates in the bird's-eye view coordinate system X3 / Y3 are expressed as (x3, y3), the position of each pixel forming the bird's-eye view image BEV_3 is represented by the coordinates (x3, y3). “X3” and “y3” respectively indicate an X3 axis component and a Y3 axis component in the bird's eye view coordinate system X3 · Y3.

地面を表す二次元座標系Xw・Zwから鳥瞰座標系X3・Y3への投影は、いわゆる平行投影に相当する。仮想カメラつまり仮想視点の高さを“H”とすると、二次元座標系Xw・Zwの座標(xw,zw)と鳥瞰座標系X3・Y3の座標(x3,y3)との間の変換式は、数4で表される。仮想カメラの高さHは予め決められている。

Figure 2010245802
Projection from the two-dimensional coordinate system Xw / Zw representing the ground onto the bird's-eye coordinate system X3 / Y3 corresponds to so-called parallel projection. If the height of the virtual camera, that is, the virtual viewpoint is “H”, the conversion formula between the coordinates (xw, zw) of the two-dimensional coordinate system Xw · Zw and the coordinates (x3, y3) of the bird's-eye coordinate system X3 · Y3 is , Represented by Equation (4). The height H of the virtual camera is determined in advance.
Figure 2010245802

さらに、数4に基づいて数5が得られ、数5および数3に基づいて数6が得られ、そして数6に基づいて数7が得られる。数7は、撮像面Sの座標系Xp・Ypの座標(xp,yp)を鳥瞰座標系X3・Y3の座標(x3,y3)に変換するための変換式に相当する。

Figure 2010245802
Figure 2010245802
Figure 2010245802
Further, based on Equation 4, Equation 5 is obtained, Equation 5 is obtained based on Equation 5 and Equation 3, and Equation 7 is obtained based on Equation 6. Equation 7 corresponds to a conversion formula for converting the coordinates (xp, yp) of the coordinate system Xp / Yp of the imaging surface S into the coordinates (x3, y3) of the bird's eye coordinate system X3 / Y3.
Figure 2010245802
Figure 2010245802
Figure 2010245802

撮像面Sの座標系Xp・Ypの座標(xp,yp)は、カメラC_3によって捉えられた被写界像P_3の座標を表す。したがって、カメラC3からの被写界像P_3は、数7を用いることによって鳥瞰画像BEV_3に変換される。実際には、被写界像P_3はまずレンズ歪み補正などの画像処理を施され、その後に数7によって鳥瞰画像BEV_3に変換される。   The coordinates (xp, yp) of the coordinate system Xp / Yp of the imaging surface S represent the coordinates of the object scene image P_3 captured by the camera C_3. Accordingly, the object scene image P_3 from the camera C3 is converted into the bird's-eye view image BEV_3 by using Equation 7. Actually, the object scene image P_3 is first subjected to image processing such as lens distortion correction, and then converted into a bird's-eye view image BEV_3 by Equation 7.

横断歩道のような路面ペイント200が図10に示す要領で車両100の周辺の地面に描かれている場合には、図11に示す全周鳥瞰画像が上述の区画BK1に対応して作成される。   When the road surface paint 200 such as a pedestrian crossing is drawn on the ground around the vehicle 100 in the manner shown in FIG. 10, the all-around bird's-eye view image shown in FIG. 11 is created corresponding to the section BK1. .

以下の説明では、図11に示す全周鳥瞰画像のうち、図6に示す固有エリアOR_1に対応して再現される一部の画像を“再現画像REP_1”と定義し、図6に示す固有エリアOR_2に対応して再現される一部の画像を“再現画像REP_2”と定義する。同様に、図11に示す鳥瞰画像のうち、図6に示す固有エリアOR_3に対応して再現される一部の画像を“再現画像REP_3”と定義し、図6に示す固有エリアOR_4に対応して再現される一部の画像を“再現画像REP_4”と定義する。   In the following description, a part of the all-around bird's-eye view image shown in FIG. 11 that is reproduced corresponding to the unique area OR_1 shown in FIG. 6 is defined as “reproduced image REP_1”, and the unique area shown in FIG. A part of the image reproduced corresponding to OR_2 is defined as “reproduced image REP_2”. Similarly, of the bird's-eye view image shown in FIG. 11, a part of the image reproduced corresponding to the unique area OR_3 shown in FIG. 6 is defined as “reproduced image REP_3” and corresponds to the unique area OR_4 shown in FIG. A part of the reproduced image is defined as “reproduced image REP_4”.

画像処理回路12では、垂直同期信号Vsyncに応答して変数Mが“1”〜“4”の各々に設定され、各々の数値に対応して以下の処理が実行される。   In the image processing circuit 12, the variable M is set to each of “1” to “4” in response to the vertical synchronization signal Vsync, and the following processing is executed corresponding to each numerical value.

まず、再現画像REP_Mのフレーム間差分を表す差分画像DEF_Mが、差分算出処理によって作成される。この結果、図12(A)に示す再現画像REP_2については、図12(B)に示す差分画像DEF_2が作成される。   First, a difference image DEF_M representing a difference between frames of the reproduced image REP_M is created by the difference calculation process. As a result, for the reproduced image REP_2 shown in FIG. 12A, a differential image DEF_2 shown in FIG. 12B is created.

車両100が動いているときは、前フレームの差分画像REP_Lと現フレームの差分画像REP_Lとの間で車両100の動きを考慮した位置合わせを行う位置合わせ処理が、差分算出処理に先立って実行される。したがって、路面ペイント200のような平面的な模様を表す鳥瞰画像は、原理的には、位置合わせ処理によってフレーム間で互いに一致する。しかし、実際には、鳥瞰画像への変換処理の誤差やフレーム間の位置合わせの誤差が生じるため、路面ペイント200のエッジ(輪郭)に相当する高輝度成分が差分画像DEF_2に現れる。   When the vehicle 100 is moving, an alignment process for performing an alignment considering the movement of the vehicle 100 between the difference image REP_L of the previous frame and the difference image REP_L of the current frame is executed prior to the difference calculation process. The Therefore, a bird's-eye view image representing a planar pattern such as the road surface paint 200 is in principle matched between frames by the alignment process. However, in reality, an error in conversion processing into a bird's-eye view image and an error in alignment between frames occur, and thus a high-luminance component corresponding to an edge (contour) of the road surface paint 200 appears in the difference image DEF_2.

続いて、差分画像DEF_Mに現れたエッジ上のある座標が指定され、指定座標に法線ベクトルが割り当てられる。法線ベクトルは、指定座標においてエッジを描く線と直交するベクトルであり、エッジを描く線の指定座標における角度情報に相当する。座標指定および法線ベクトルの割り当ては、エッジ上の複数の座標に注目して実行される。したがって、図12(B)に示す差分画像DEF_2については、図13に示す要領で複数の法線ベクトルが割り当てられる。   Subsequently, a certain coordinate on the edge appearing in the difference image DEF_M is designated, and a normal vector is assigned to the designated coordinate. The normal vector is a vector orthogonal to a line that draws an edge at designated coordinates, and corresponds to angle information at the designated coordinates of a line that draws an edge. The coordinate designation and the normal vector assignment are executed by paying attention to a plurality of coordinates on the edge. Therefore, for the differential image DEF_2 shown in FIG. 12B, a plurality of normal vectors are assigned in the manner shown in FIG.

こうして割り当てられた法線ベクトルの角度方向における分布状態は、ヒストグラムによって表現される。図13に示すように法線ベクトルが割り当てられた場合、ヒストグラムは図14に示す特性を示す。図14によれば、法線ベクトルの割り当て回数は、路面ペイントのエッジを描く2つの直線にそれぞれ対応する2つの角度で急激に増大する。   The distribution state in the angular direction of the normal vector thus assigned is represented by a histogram. When a normal vector is assigned as shown in FIG. 13, the histogram shows the characteristics shown in FIG. According to FIG. 14, the number of normal vector assignments increases rapidly at two angles respectively corresponding to two straight lines that describe the edge of the road surface paint.

ヒストグラムが完成すると、角度θ_N(N:1,2,…Nmax)に対応する法線ベクトルの割り当て回数が“T_N”として検出される。検出された割り当て回数T_Nは基準値REFと比較され、T_N>REFとなる角度θ_Nが検出されると、操縦支援処理のために警告がスピーカ16から発生される。なお、角度θ_Nおよびθ_N−1の差分はたとえば1°に相当する。   When the histogram is completed, the number of normal vector assignments corresponding to the angle θ_N (N: 1, 2,... Nmax) is detected as “T_N”. The detected number of assignments T_N is compared with the reference value REF, and when an angle θ_N that satisfies T_N> REF is detected, a warning is generated from the speaker 16 for the steering assist process. Note that the difference between the angles θ_N and θ_N−1 corresponds to, for example, 1 °.

CPU12pは、具体的には図15に示す画像作成タスクおよび図16〜図17に示す路面ペイント検知タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ18(図2参照)に記憶される。   Specifically, the CPU 12p executes a plurality of tasks including an image creation task shown in FIG. 15 and a road surface paint detection task shown in FIGS. 16 to 17 in parallel. Note that control programs corresponding to these tasks are stored in the flash memory 18 (see FIG. 2).

図15を参照して、垂直同期信号Vsyncが発生するとステップS1からステップS3に進み、カメラC_1〜C_4から被写界像P_1〜P_4をそれぞれ取り込む。取り込まれた被写界像P_1〜P_4はそれぞれ、ワークエリアF1〜F4に格納される。ステップS5では、取り込まれた被写界像P_1〜P_4に基づいて鳥瞰画像BEV_1〜BEV_4を作成する。ステップS7では、鳥瞰画像BEV_2〜BEV_4に座標変換を施し、鳥瞰画像BEV_1〜BEV_4を互いに結合する。表示装置16のモニタ画面には、座標変換によって結合された全周鳥瞰画像の一部とこれに多重されたグラフィック画像G1が、操縦支援画像として表示される。ステップS7の処理が完了すると、ステップS1に戻る。   Referring to FIG. 15, when the vertical synchronization signal Vsync is generated, the process proceeds from step S1 to step S3, and the object scene images P_1 to P_4 are captured from the cameras C_1 to C_4, respectively. The captured scene images P_1 to P_4 are stored in the work areas F1 to F4, respectively. In step S5, bird's-eye view images BEV_1 to BEV_4 are created based on the captured object scene images P_1 to P_4. In step S7, coordinate conversion is performed on the bird's-eye images BEV_2 to BEV_4, and the bird's-eye images BEV_1 to BEV_4 are combined with each other. On the monitor screen of the display device 16, a part of the all-around bird's-eye view image combined by coordinate transformation and the graphic image G <b> 1 multiplexed thereon are displayed as a steering assistance image. When the process of step S7 is completed, the process returns to step S1.

図16を参照して、ステップS11では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、ステップS13で変数Mを“1”に設定する。ステップS15では、前フレームの再現画像REP_Mと現フレームの差分画像REP_Mとの差分を表す差分画像DEF_Mを作成するべく、差分算出処理を実行する。差分画像DEF_Mには、カメラC_Mで捉えられた物体のエッジ(輪郭成分)に相当する高輝度成分が現れる。   Referring to FIG. 16, in step S11, it is determined whether or not the vertical synchronization signal Vsync is generated. When the determination result is updated from NO to YES, the variable M is set to “1” in step S13. In step S15, a difference calculation process is executed to create a difference image DEF_M representing a difference between the reproduced image REP_M of the previous frame and the difference image REP_M of the current frame. In the difference image DEF_M, a high luminance component corresponding to the edge (contour component) of the object captured by the camera C_M appears.

ステップS17では差分画像DEF_Mに現れたエッジ上のある座標を指定し、ステップS19では指定座標に法線ベクトルを割り当てる。ステップS21では、ステップS19で割り当てられた法線ベクトルの角度を参照してヒストグラムを作成ないし更新する。作成ないし更新されたヒストグラムは、角度方向における法線ベクトルの割り当て回数の分布状態を示す。   In step S17, a certain coordinate on the edge appearing in the difference image DEF_M is designated, and in step S19, a normal vector is assigned to the designated coordinate. In step S21, a histogram is created or updated with reference to the angle of the normal vector assigned in step S19. The created or updated histogram shows the distribution state of the number of normal vector assignments in the angular direction.

ステップS23では、エッジ上での座標指定が完了したか否かを判別する。判別結果がNOであれば、ステップS25でエッジ上の他の座標を指定し、その後にステップS19に戻る。判別結果がYESであれば、ステップS27に進む。したがって、ステップS19〜S21の処理はエッジ上の複数の座標に注目して実行される。   In step S23, it is determined whether or not the coordinate designation on the edge is completed. If the determination result is NO, other coordinates on the edge are designated in step S25, and then the process returns to step S19. If a determination result is YES, it will progress to Step S27. Accordingly, the processing in steps S19 to S21 is executed while paying attention to a plurality of coordinates on the edge.

ステップS27では、変数Nを“1”に設定する。ステップS29では、ヒストグラムを参照して、角度θ_Nに対応する法線ベクトルの割り当て回数を“T_N”として検出する。ステップS31では検出された割り当て回数T_Nが基準値REFを上回るか否かを判別し、ステップS33では変数Nが最大値Nmaxに達したか否かを判別する。   In step S27, the variable N is set to “1”. In step S29, referring to the histogram, the number of normal vector assignments corresponding to the angle θ_N is detected as “T_N”. In step S31, it is determined whether or not the detected number of allocations T_N exceeds the reference value REF. In step S33, it is determined whether or not the variable N has reached the maximum value Nmax.

ステップS31でYESであればステップS35に進み、操縦支援処理のために警告をスピーカ16から発生する。ステップS35の処理が完了すると、ステップS39に進む。ステップS31でNOでかつステップS33でYESであれば、そのままステップS39に進む。ステップS31およびS33のいずれもNOであれば、ステップS37で変数Nをインクリメントし、その後にステップS29に戻る。なお、変数Nのインクリメントによって、角度θ_Nはたとえば1°増大する。   If “YES” in the step S31, the process proceeds to a step S35, and a warning is generated from the speaker 16 for the steering assist process. When the process of step S35 is completed, the process proceeds to step S39. If “NO” in the step S31 and “YES” in the step S33, the process proceeds to a step S39 as it is. If both steps S31 and S33 are NO, the variable N is incremented in step S37, and then the process returns to step S29. As the variable N is incremented, the angle θ_N is increased by 1 °, for example.

ステップS39では変数Mが“4”に達したか否かを判別し、YESであればそのままステップS11に戻る一方、NOであればステップS41で変数MをインクリメントしてからステップS15に戻る。   In step S39, it is determined whether or not the variable M has reached “4”. If YES, the process directly returns to step S11. If NO, the variable M is incremented in step S41 and then returns to step S15.

以上の説明から分かるように、カメラC_1〜C_4の各々は、車両100に斜め下向きの姿勢で設けられて、車両100の周辺の被写界を捉える。CPU12pは、カメラC_1〜C_4の各々から出力された被写界像を鳥瞰画像に変換し(S5)、変換された鳥瞰画像からエッジを抽出する(S15)。CPU12pはまた、抽出されたエッジによって描かれる線の角度情報を抽出されたエッジ上の複数の位置に対応して検出し(S17~S25)、検出された角度情報のうち検出回数が基準を上回る特定角度情報に対応して警告のような操縦支援処理を実行する(S31, S35)。   As can be seen from the above description, each of the cameras C_1 to C_4 is provided on the vehicle 100 in an obliquely downward posture and captures an object scene around the vehicle 100. The CPU 12p converts the object scene image output from each of the cameras C_1 to C_4 into a bird's-eye image (S5), and extracts an edge from the converted bird's-eye image (S15). The CPU 12p also detects angle information of a line drawn by the extracted edge corresponding to a plurality of positions on the extracted edge (S17 to S25), and the number of detection times out of the detected angle information exceeds the reference. A steering support process such as a warning is executed in response to the specific angle information (S31, S35).

したがって、検出される角度情報は、直線を描くエッジ上の複数の位置が指定された場合に、互いに一致する。また、同じ角度情報の検出回数は、エッジによって描かれる直線の長さが増大するほど増大する。したがって、操縦支援処理は、基準に相当する長さを上回る長さを有する直線状の路面ペイントがカメラC_1〜C_4のいずれかによって捉えられたときに実行される。   Accordingly, the detected angle information matches each other when a plurality of positions on the edge drawing a straight line are designated. Further, the number of detections of the same angle information increases as the length of the straight line drawn by the edge increases. Therefore, the steering support process is executed when a linear road surface paint having a length exceeding the length corresponding to the reference is captured by any of the cameras C_1 to C_4.

また、エッジによって描かれる線の角度情報はエッジ上の複数の位置で検出され、操縦支援処理は検出回数が基準を上回る角度情報に対応して実行される。これによって、操縦支援処理にかかる負荷を低減することができる。   The angle information of the line drawn by the edge is detected at a plurality of positions on the edge, and the steering support process is executed corresponding to the angle information whose number of detection exceeds the reference. As a result, the load on the steering assist process can be reduced.

なお、この実施例では、直線で描かれた路面ペイントとして横断歩道を想定しているが、路面ペイントとしては、高速道路のレーンマーカや駐車場の駐車スペースマーカなども想定できる。   In this embodiment, a pedestrian crossing is assumed as a road surface paint drawn in a straight line. However, as a road surface paint, a lane marker on a highway or a parking space marker on a parking lot can be assumed.

また、この実施例では、スピーカを利用して可聴的に警告を発生するようにしているが、モニタ画面を利用して可視的に警告を発生するようにしてもよい。   In this embodiment, a warning is audibly generated using a speaker, but a warning may be generated visually using a monitor screen.

さらに、この実施例では、操縦を支援するために警告の発生するようにしているが、立体的な障害物の検知精度を確保するために、直線状の路面ペイントを表す画像のエッジを障害物の検知のための判別対象から排除する処理を操縦支援処理として実行するようにしてもよい。この場合、好ましくは、図17に示す処理に代えて図18に示す処理が実行される。   Further, in this embodiment, a warning is generated in order to assist the maneuvering. However, in order to ensure the three-dimensional obstacle detection accuracy, the edge of the image representing the straight road surface paint is obstructed. The process of excluding from the determination target for the detection may be executed as the steering support process. In this case, preferably, the process shown in FIG. 18 is executed instead of the process shown in FIG.

なお、図18に示す処理のうち図17に示す処理と同じ処理には同じステップ番号を割り当て、重複した説明は極力省略する。また、鳥瞰画像に基づいて障害物を検知する処理には公知技術を採用することとし、障害物検知処理に関する詳細な説明は省略する。   In addition, the same step number is assigned to the same process as the process shown in FIG. 17 among the processes shown in FIG. 18, and redundant description is omitted as much as possible. In addition, a known technique is adopted for the process of detecting an obstacle based on the bird's-eye view image, and a detailed description regarding the obstacle detection process is omitted.

図18を参照して、ステップS31でYESであれば、角度θ_Nをレジスタ(図示せず)に設定する。ステップS33でYESと判別されるとステップS53に進み、レジスタに設定された角度に対応するエッジ成分を障害物検知のための判別対象から排除する。このような処理が、操縦支援処理に相当する。操縦支援処理が完了すると、ステップS39に進む。   Referring to FIG. 18, if “YES” in the step S31, the angle θ_N is set in a register (not shown). If “YES” is determined in the step S33, the process proceeds to a step S53 so as to exclude the edge component corresponding to the angle set in the register from the determination target for the obstacle detection. Such a process corresponds to a steering support process. When the steering support process is completed, the process proceeds to step S39.

この結果、図19に示すように障害物300が車両100の周辺に存在する場合に、障害物300を表す画像を図20に示す鳥瞰画像から高精度で検知することができる。   As a result, when the obstacle 300 exists around the vehicle 100 as shown in FIG. 19, an image representing the obstacle 300 can be detected with high accuracy from the bird's-eye view image shown in FIG. 20.

上述の実施例に関する注釈事項を以下に示す。この注釈事項は、矛盾がない限り、上述の実施例に任意に組み合わせることが可能である。   The following are notes on the above-described embodiment. This annotation can be arbitrarily combined with the above-described embodiment as long as there is no contradiction.

実施例で述べたような撮影画像から鳥瞰画像を生成する座標変換は、一般に透視投影変換と呼ばれる。この透視投影変換を用いるのではなく、公知の平面射影変換によって撮影画像から鳥瞰画像を生成するようにしてもよい。平面射影変換を用いる場合、撮影画像上の各画素の座標値を鳥瞰画像上の各画素の座標値に変換するためのホモグラフィ行列(座標変換行列)をカメラ校正処理の段階で予め求めておく。ホモグラフィ行列の求め方は公知である。そして、画像変換を行う際に、ホモグラフィ行列に基づいて撮影画像を鳥瞰画像に変換すればよい。いずれにせよ、撮影画像を鳥瞰画像上に投影することによって撮影画像が鳥瞰画像に変換される。   Coordinate conversion for generating a bird's-eye view image from a captured image as described in the embodiment is generally called perspective projection conversion. Instead of using the perspective projection conversion, a bird's-eye view image may be generated from the captured image by a known plane projection conversion. When using planar projective transformation, a homography matrix (coordinate transformation matrix) for converting the coordinate value of each pixel on the captured image into the coordinate value of each pixel on the bird's-eye view image is obtained in advance at the stage of camera calibration processing. . A method for obtaining a homography matrix is known. And when performing image conversion, what is necessary is just to convert a picked-up image into a bird's-eye view image based on a homography matrix. In any case, the captured image is converted into the bird's-eye image by projecting the captured image onto the bird's-eye image.

10 …操縦支援装置
C_1〜C_4 …カメラ
12 …画像処理回路
12p …CPU
12m …SDRAM
14 …表示装置
16 …スピーカ
16 …フラッシュメモリ
100 …車両
DESCRIPTION OF SYMBOLS 10 ... Steering assistance apparatus C_1-C_4 ... Camera 12 ... Image processing circuit 12p ... CPU
12m ... SDRAM
DESCRIPTION OF SYMBOLS 14 ... Display apparatus 16 ... Speaker 16 ... Flash memory 100 ... Vehicle

Claims (6)

移動体に斜め下向きの姿勢で設けられて前記移動体の周辺の被写界を捉える撮像手段から出力された被写界像を鳥瞰画像に変換する変換手段、
前記変換手段によって変換された鳥瞰画像からエッジを抽出する抽出手段、
前記抽出手段によって抽出されたエッジによって描かれる線の角度情報を前記抽出手段によって抽出されたエッジ上の複数の位置に対応して検出する検出手段、および
前記検出手段によって検出された角度情報のうち検出回数が基準を上回る特定角度情報に対応して操縦支援処理を実行する処理手段を備える、操縦支援装置。
Conversion means for converting the object scene image output from the image pickup means provided in the moving body in an obliquely downward posture and capturing the object scene around the moving object into a bird's-eye view image;
Extraction means for extracting an edge from the bird's-eye view image converted by the conversion means;
Detection means for detecting angle information of a line drawn by the edge extracted by the extraction means corresponding to a plurality of positions on the edge extracted by the extraction means, and among the angle information detected by the detection means An operation support apparatus comprising processing means for executing operation support processing in response to specific angle information whose number of detections exceeds a reference.
前記操縦支援処理は操縦者に向けて警告を発生する警告処理を含む、請求項1記載の操縦支援装置。   The operation support apparatus according to claim 1, wherein the operation support process includes an alarm process for generating an alarm toward the operator. 前記操縦支援処理は前記特定角度情報を有する線を描くエッジを障害物検知のための判別対象から排除する排除処理を含む、請求項1または2記載の操縦支援装置。   The steering support apparatus according to claim 1, wherein the steering support process includes an exclusion process that excludes an edge that draws a line having the specific angle information from a discrimination target for obstacle detection. 前記検出手段は前記角度情報の分布状態を表すヒストグラムを作成する作成手段を含み、
前記処理手段は前記作成手段によって作成されたヒストグラムを参照して前記操縦支援処理を実行する、請求項1ないし3のいずれかに記載の操縦支援装置。
The detection means includes a creation means for creating a histogram representing a distribution state of the angle information,
The steering support device according to any one of claims 1 to 3, wherein the processing means executes the steering support processing with reference to a histogram created by the creation means.
前記撮像手段は各々が前記被写界像を出力する複数のカメラを含み、
前記抽出手段の抽出処理のために注目するカメラを前記複数のカメラの間で循環的に更新する更新手段をさらに備える、請求項1ないし4のいずれかに記載の操縦支援装置。
The imaging means includes a plurality of cameras each outputting the object scene image,
The steering assist device according to any one of claims 1 to 4, further comprising an update unit that circularly updates a camera of interest for the extraction process of the extraction unit among the plurality of cameras.
操縦支援装置によって実行される操縦支援方法であって、
移動体に斜め下向きの姿勢で設けられて前記移動体の周辺の被写界を捉える撮像手段から出力された被写界像を鳥瞰画像に変換する変換ステップ、
前記変換ステップによって変換された鳥瞰画像からエッジを抽出する抽出ステップ、
前記抽出ステップによって抽出されたエッジによって描かれる線の角度情報を前記抽出ステップによって抽出されたエッジ上の複数の位置に対応して検出する検出ステップ、および
前記検出ステップによって検出された角度情報のうち検出回数が基準を上回る特定角度情報に対応して操縦支援処理を実行する処理ステップを備える、操縦支援方法。
A steering assistance method executed by the steering assistance device,
A conversion step of converting the object scene image output from the imaging means that captures the object scene around the moving object and is provided in an obliquely downward posture to the moving object, to a bird's eye view image;
An extraction step of extracting an edge from the bird's-eye view image converted by the conversion step;
A detection step for detecting angle information of a line drawn by the edge extracted by the extraction step corresponding to a plurality of positions on the edge extracted by the extraction step, and among the angle information detected by the detection step An operation support method comprising a processing step of executing an operation support process in response to specific angle information whose number of detection exceeds a reference.
JP2009091778A 2009-04-06 2009-04-06 Control support device Withdrawn JP2010245802A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009091778A JP2010245802A (en) 2009-04-06 2009-04-06 Control support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009091778A JP2010245802A (en) 2009-04-06 2009-04-06 Control support device

Publications (1)

Publication Number Publication Date
JP2010245802A true JP2010245802A (en) 2010-10-28

Family

ID=43098346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009091778A Withdrawn JP2010245802A (en) 2009-04-06 2009-04-06 Control support device

Country Status (1)

Country Link
JP (1) JP2010245802A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015001747A1 (en) * 2013-07-02 2015-01-08 株式会社デンソー Travel road surface indication detection device and travel road surface indication detection method
JP2015182670A (en) * 2014-03-25 2015-10-22 ダイハツ工業株式会社 Drive support device
WO2020203829A1 (en) * 2019-04-04 2020-10-08 株式会社デンソー Vehicle location determination device, vehicle location determination system, and vehicle location determination method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015001747A1 (en) * 2013-07-02 2015-01-08 株式会社デンソー Travel road surface indication detection device and travel road surface indication detection method
JP2015011665A (en) * 2013-07-02 2015-01-19 株式会社デンソー Apparatus and method for detecting marking on road surface
JP2015182670A (en) * 2014-03-25 2015-10-22 ダイハツ工業株式会社 Drive support device
WO2020203829A1 (en) * 2019-04-04 2020-10-08 株式会社デンソー Vehicle location determination device, vehicle location determination system, and vehicle location determination method
JP2020169906A (en) * 2019-04-04 2020-10-15 株式会社デンソー Vehicle position determination device, vehicle position determination system, and vehicle position determination method
JP7120130B2 (en) 2019-04-04 2022-08-17 株式会社デンソー VEHICLE POSITIONING DEVICE AND VEHICLE POSITIONING METHOD

Similar Documents

Publication Publication Date Title
JP2010141836A (en) Obstacle detecting apparatus
US20140104424A1 (en) Imaging surface modeling for camera modeling and virtual view synthesis
JP2010093605A (en) Maneuvering assisting apparatus
WO2009119110A1 (en) Blind spot display device
JP2009060499A (en) Driving support system, and combination vehicle
JP2010109452A (en) Vehicle surrounding monitoring device and vehicle surrounding monitoring method
JP2007129560A (en) Object detector
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
US20110001819A1 (en) Image Processing Apparatus
JP5178454B2 (en) Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
JP2010117800A (en) Parking lot monitoring device and method
JP2010136289A (en) Device and method for supporting drive
JP5349224B2 (en) Image processing apparatus and image processing method
JP2008262333A (en) Road surface discrimination device and road surface discrimination method
KR20090109437A (en) Method and System for Image Matching While Driving Vehicle
JP2011048520A (en) Device and method for monitoring vehicle periphery
JP2008092459A (en) Periphery monitoring apparatus
JP2010250640A (en) Image processing device
KR20170118077A (en) Method and device for the distortion-free display of an area surrounding a vehicle
JP2015074257A (en) Parking support device
JP2008282067A (en) Approach object detection device and approaching object detection program
JP2010258691A (en) Maneuver assisting apparatus
JP2010245802A (en) Control support device
WO2010035628A1 (en) Steering assistance device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120703