JP6839642B2 - Vehicle control devices, vehicle control methods, and programs - Google Patents

Vehicle control devices, vehicle control methods, and programs Download PDF

Info

Publication number
JP6839642B2
JP6839642B2 JP2017222427A JP2017222427A JP6839642B2 JP 6839642 B2 JP6839642 B2 JP 6839642B2 JP 2017222427 A JP2017222427 A JP 2017222427A JP 2017222427 A JP2017222427 A JP 2017222427A JP 6839642 B2 JP6839642 B2 JP 6839642B2
Authority
JP
Japan
Prior art keywords
vehicle
unit
congested state
traffic control
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017222427A
Other languages
Japanese (ja)
Other versions
JP2019095875A (en
Inventor
三浦 弘
弘 三浦
石川 誠
誠 石川
成光 土屋
成光 土屋
浩司 川邊
浩司 川邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2017222427A priority Critical patent/JP6839642B2/en
Publication of JP2019095875A publication Critical patent/JP2019095875A/en
Application granted granted Critical
Publication of JP6839642B2 publication Critical patent/JP6839642B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両制御装置、車両制御方法、およびプログラムに関する。 The present invention relates to vehicle control devices, vehicle control methods, and programs.

自動車などの車両に搭載され、その車両の走行環境を画像処理によって認識する装置が知られている(例えば特許文献1参照)。 A device that is mounted on a vehicle such as an automobile and recognizes the traveling environment of the vehicle by image processing is known (see, for example, Patent Document 1).

特開2004−265432号公報Japanese Unexamined Patent Publication No. 2004-265432

しかしながら、従来の技術では、走行環境を認識するタイミングが遅い場合があった。 However, in the conventional technique, the timing of recognizing the driving environment may be delayed.

本発明は、このような事情を考慮してなされたものであり、より早いタイミングで走行環境を認識することができる車両制御装置、車両制御方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and one of the objects of the present invention is to provide a vehicle control device, a vehicle control method, and a program capable of recognizing a driving environment at an earlier timing. ..

(1):車両制御装置は、車両の周辺を撮像する撮像部と、前記撮像部により撮像された画像の領域のうち、所定高度以上の空間に対応した上空領域が混雑状態であるか否かを判定し、前記上空領域が混雑状態であると判定した場合、前記車両の前方に、車両又は歩行者の交通が制御される交通制御地点が存在することを推定する推定部と、を備え、前記交通制御地点には、交差点、合流地点、分岐地点、又は踏切が含まれる(1): Whether or not the vehicle control device is in a congested state in the image pickup unit that images the periphery of the vehicle and the sky area corresponding to the space above a predetermined altitude among the areas of the image imaged by the image pickup unit. Is determined, and when it is determined that the sky area is in a congested state, an estimation unit for estimating that a traffic control point where the traffic of the vehicle or a pedestrian is controlled exists in front of the vehicle is provided. The traffic control points include intersections, confluences, branch points, or railroad crossings .

(2):(1)に記載の車両制御装置は、前記推定部が、前記上空領域が混雑状態であると判定した場合、混雑状態である前記上空領域の位置に対応した道路上の位置に、前記交通制御地点が存在することを推定するものである。 (2): When the estimation unit determines that the sky area is in a congested state, the vehicle control device according to (1) is placed at a position on the road corresponding to the position of the sky area in the congested state. , It is estimated that the traffic control point exists.

(3):(1)または(2)に記載の車両制御装置は、前記推定部が、二次元フーリエ変換によって前記上空領域の画素値の変化から求めた空間周波数に基づいて、前記上空領域が混雑状態であるか否かを判定するものである。 (3): In the vehicle control device according to (1) or (2), the sky region is based on the spatial frequency obtained by the estimation unit from the change in the pixel value of the sky region by the two-dimensional Fourier transform. It determines whether or not it is in a congested state.

(4):(3)に記載の車両制御装置は、前記推定部が、前記空間周波数のうち所定周波数以上の成分の強度が閾値以上である場合に、前記上空領域が混雑状態であると判定する。 (4): The vehicle control device according to (3) determines that the sky region is in a congested state when the estimation unit determines that the intensity of a component of the spatial frequency equal to or higher than a predetermined frequency is equal to or higher than a threshold value. To do.

(5):(1)から(4)のうちいずれか1つに記載の車両制御装置は、前記推定部が、更に、前記撮像部により撮像された画像の領域のうち、道路の空間に対応した路面領域が混雑状態であるか否かを判定し、前記上空領域が混雑状態であり、且つ前記路面領域が混雑状態であると判定した場合、前記上空領域および前記路面領域の一方または双方が混雑状態でないと判定した場合に比して、より高い確信度で前記交通制御地点が存在することを推定するものである。 (5): In the vehicle control device according to any one of (1) to (4), the estimation unit further corresponds to the road space in the area of the image captured by the imaging unit. When it is determined whether or not the road surface area is congested and the sky area is congested and the road surface area is congested, one or both of the sky area and the road surface area are determined. It is estimated that the traffic control point exists with a higher degree of certainty than when it is determined that the vehicle is not in a congested state.

(6):(1)から(5)のうちいずれか1つに記載の車両制御装置は、前記車両が存在する道路から前記交通制御地点の存在を示す道路標示を認識する認識部を更に備え、前記推定部が、前記上空領域が混雑状態であると判定した場合に、前記認識部により前記道路標示が認識された場合、前記認識部により前記道路標示が認識されない場合に比して、より高い確信度で前記交通制御地点が存在することを推定するものである。 (6): The vehicle control device according to any one of (1) to (5) further includes a recognition unit that recognizes a road sign indicating the existence of the traffic control point from the road on which the vehicle is located. When the estimation unit determines that the sky area is in a congested state, the recognition unit recognizes the road sign, as compared with the case where the recognition unit does not recognize the road sign. It is estimated that the traffic control point exists with a high degree of certainty.

(7):(1)から(6)のうちいずれか1つに記載の車両制御装置は、前記車両が存在する道路から前記交通制御地点の存在を示す道路標示を認識する認識部を更に備え、前記推定部が、前記認識部により前記道路標示が認識された場合、前記上空領域が混雑状態であるか否かの判定処理を開始するものである。 (7): The vehicle control device according to any one of (1) to (6) further includes a recognition unit that recognizes a road marking indicating the existence of the traffic control point from the road on which the vehicle is located. When the road marking is recognized by the recognition unit, the estimation unit starts a process of determining whether or not the sky area is in a congested state.

(8):(1)から(5)のうちいずれか1つに記載の車両制御装置は、前記交通制御地点の存在を示す構造物を認識する認識部を更に備え、前記認識部が、前記推定部により前記交通制御地点が存在することが推定された場合、前記構造物の認識処理を開始するものである。 (8): The vehicle control device according to any one of (1) to (5) further includes a recognition unit that recognizes a structure indicating the existence of the traffic control point, and the recognition unit is the recognition unit. When it is estimated by the estimation unit that the traffic control point exists, the recognition process of the structure is started.

(9):(1)から(8)のうちいずれか1つに記載の車両制御装置は、前記車両の少なくとも加減速を制御する運転制御部を更に備え、前記運転制御部が、前記推定部により前記交通制御地点が存在することが推定された場合、前記車両を減速させるものである。 (9): The vehicle control device according to any one of (1) to (8) further includes a driving control unit that controls at least acceleration / deceleration of the vehicle, and the driving control unit is the estimation unit. When it is estimated that the traffic control point exists, the vehicle is decelerated.

(10):撮像部が、車両の周辺を撮像し、推定部が、前記撮像部により撮像された画像の領域のうち、所定高度以上の空間に対応した上空領域が混雑状態であるか否かを判定し、前記上空領域が混雑状態であると判定した場合、前記車両の前方に、車両又は歩行者の交通が制御される交通制御地点が存在することを推定し、前記交通制御地点には、交差点、合流地点、分岐地点、又は踏切が含まれる車両制御方法。 (10): Whether or not the imaging unit images the periphery of the vehicle, and the estimation unit is in a congested state in the sky region corresponding to the space above a predetermined altitude in the region of the image captured by the imaging unit. When it is determined that the sky area is congested, it is estimated that there is a traffic control point in front of the vehicle in which the traffic of the vehicle or pedestrian is controlled, and the traffic control point is located at the traffic control point. A vehicle control method that includes an intersection, a confluence, a fork, or a railroad crossing.

(11):車両の周辺を撮像する撮像部を備える車両に搭載されるコンピュータに、前記撮像部により撮像された画像の領域のうち、所定高度以上の空間に対応した上空領域が混雑状態であるか否かを判定させ、前記上空領域が混雑状態であると判定させた場合、前記車両の前方に、車両又は歩行者の交通が制御される交通制御地点が存在することを推定させ、前記交通制御地点には、交差点、合流地点、分岐地点、又は踏切が含まれるプログラム。
(11): The computer mounted on the vehicle equipped with the image pickup unit that captures the periphery of the vehicle is in a congested state in the sky area corresponding to the space above a predetermined altitude among the areas of the image captured by the image pickup unit. whether to determine, when the sky region was determined to be congested, the front of the vehicle, it is estimated that the traffic control point vehicle or pedestrian traffic is controlled is present, the A program that includes intersections, confluences, junctions, or railroad crossings as traffic control points.

(1)〜(11)によれば、より早いタイミングで走行環境を認識することができる。 According to (1) to (11), the traveling environment can be recognized at an earlier timing.

第1実施形態の車両制御装置を利用した車両システム1の構成図である。It is a block diagram of the vehicle system 1 using the vehicle control device of 1st Embodiment. 第1制御部120および第2制御部160の機能構成図である。It is a functional block diagram of the 1st control unit 120 and the 2nd control unit 160. 画像に対する二次元フーリエ変換の結果の一例を示す図である。It is a figure which shows an example of the result of two-dimensional Fourier transform for an image. 推奨車線に基づいて目標軌道が生成される様子を示す図である。It is a figure which shows how the target track is generated based on the recommended lane. 第1実施形態の自動運転制御装置100により実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process executed by the automatic operation control device 100 of 1st Embodiment. カメラ10によって撮像された画像を模式的に示す図である。It is a figure which shows typically the image taken by the camera 10. 対象領域の設定位置の一例を示す図である。It is a figure which shows an example of the setting position of a target area. 対象領域の設定位置の一例を示す図である。It is a figure which shows an example of the setting position of a target area. 対象領域の設定位置の一例を示す図である。It is a figure which shows an example of the setting position of a target area. 対象領域の設定位置の一例を示す図である。It is a figure which shows an example of the setting position of a target area. 第1実施形態の自動運転制御装置100により実行される処理の他の例を示すフローチャートである。It is a flowchart which shows the other example of the process executed by the automatic operation control apparatus 100 of 1st Embodiment. 対象領域から画像の特徴として抽出された空間周波数の一例を示す図である。It is a figure which shows an example of the spatial frequency extracted as a feature of an image from a target area. 対象領域から画像の特徴として抽出された空間周波数の一例を示す図である。It is a figure which shows an example of the spatial frequency extracted as a feature of an image from a target area. 所定の道路標示の一例を示す図である。It is a figure which shows an example of the predetermined road marking. 対象領域の設定位置の他の例を示す図である。It is a figure which shows another example of the setting position of a target area. 第2実施形態の自動運転制御装置100により実行される処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process executed by the automatic operation control device 100 of 2nd Embodiment. テクスチャとパワースペクトル画像との対比の一例を示す図である。It is a figure which shows an example of the contrast between a texture and a power spectrum image. テクスチャとパワースペクトル画像との対比の一例を示す図である。It is a figure which shows an example of the contrast between a texture and a power spectrum image. テクスチャとパワースペクトル画像との対比の一例を示す図である。It is a figure which shows an example of the contrast between a texture and a power spectrum image. パワースペクトル値がスペクトル閾値STH以上であることを許容する閾値の設定方法を説明するための図である。It is a figure for demonstrating the setting method of the threshold value which allows the power spectrum value to be equal to or more than a spectrum threshold value STH. パワースペクトル値がスペクトル閾値STH以上であることを許容する閾値の設定方法を説明するための図である。It is a figure for demonstrating the setting method of the threshold value which allows the power spectrum value to be equal to or more than a spectrum threshold value STH. 実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the automatic operation control device 100 of an embodiment.

以下、図面を参照し、本発明の車両制御装置、車両制御方法、およびプログラムの実施形態について説明する。以下の実施形態では、車両制御装置が自動運転(自律運転)可能な車両に適用されるものとして説明する。自動運転は、例えば、車両に搭乗した乗員の操作に依らずに、車両の操舵または加減速のうち一方または双方を制御して車両を走行させる態様である。自動運転には、ACC(Adaptive Cruse Control)やLKAS(Lane Keeping Assist)等の運転支援が含まれてもよい。 Hereinafter, embodiments of the vehicle control device, vehicle control method, and program of the present invention will be described with reference to the drawings. In the following embodiment, the vehicle control device will be described as being applied to a vehicle capable of automatic driving (autonomous driving). The automatic driving is, for example, a mode in which the vehicle is driven by controlling one or both of the steering and acceleration / deceleration of the vehicle without depending on the operation of the occupant on the vehicle. The automatic driving may include driving assistance such as ACC (Adaptive Cruse Control) and LKAS (Lane Keeping Assist).

<第1実施形態>
[全体構成]
図1は、第1実施形態の車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両(以下、自車両Mと称する)は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機を備える場合、電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
<First Embodiment>
[overall structure]
FIG. 1 is a configuration diagram of a vehicle system 1 using the vehicle control device of the first embodiment. The vehicle on which the vehicle system 1 is mounted (hereinafter referred to as the own vehicle M) is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and its drive source is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or the like. Alternatively, it is a combination of these. When the electric motor is provided, the electric motor operates by using the electric power generated by the generator connected to the internal combustion engine or the electric power generated by the secondary battery or the fuel cell.

車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。 The vehicle system 1 includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, a navigation device 50, and the like. It includes an MPU (Map Positioning Unit) 60, a driving operator 80, an automatic driving control device 100, a traveling driving force output device 200, a braking device 210, and a steering device 220. These devices and devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted or another configuration may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。カメラ10は、「撮像部」の一例である。 The camera 10 is, for example, a digital camera using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). One or a plurality of cameras 10 are attached to an arbitrary position of a vehicle (hereinafter, referred to as own vehicle M) on which the vehicle system 1 is mounted. When photographing the front, the camera 10 is attached to the upper part of the front windshield, the back surface of the rearview mirror, and the like. The camera 10 periodically and repeatedly images the periphery of the own vehicle M, for example. The camera 10 may be a stereo camera. The camera 10 is an example of an “imaging unit”.

レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 radiates radio waves such as millimeter waves around the own vehicle M, and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and orientation) of the object. One or a plurality of radar devices 12 may be attached to any position of the own vehicle M. The radar device 12 may detect the position and velocity of the object by the FM-CW (Frequency Modulated Continuous Wave) method.

ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。 The finder 14 is a LIDAR (Light Detection and Ranging). The finder 14 irradiates the periphery of the own vehicle M with light and measures the scattered light. The finder 14 detects the distance to the target based on the time from light emission to light reception. The emitted light is, for example, a pulsed laser beam. One or a plurality of finder 14s may be attached to any position of the own vehicle M.

物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、必要に応じて、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。 The object recognition device 16 performs sensor fusion processing on the detection results of a part or all of the camera 10, the radar device 12, and the finder 14, and recognizes the position, type, speed, and the like of the object. The object recognition device 16 outputs the recognition result to the automatic operation control device 100. Further, the object recognition device 16 may output the detection results of the camera 10, the radar device 12, and the finder 14 to the automatic driving control device 100 as they are, if necessary.

通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両mと通信し、或いは無線基地局を介して各種サーバ装置と通信する。他車両mは、例えば、自車両Mと同様に、自動運転が行われる車両であってもよいし、手動運転が行われる車両であってもよく、特段の制約はない。手動運転とは、前述した自動運転とは異なり、運転操作子80に対する乗員の操作に応じて自車両Mの加減速および操舵が制御されることをいう。 The communication device 20 communicates with another vehicle m existing in the vicinity of the own vehicle M by using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or the like. Communicates with various server devices via a wireless base station. Like the own vehicle M, the other vehicle m may be a vehicle that is automatically driven or a vehicle that is manually driven, and there are no particular restrictions. The manual operation is different from the automatic operation described above, and means that the acceleration / deceleration and steering of the own vehicle M are controlled according to the operation of the occupant with respect to the driving operator 80.

HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。 The HMI 30 presents various information to the occupants of the own vehicle M and accepts input operations by the occupants. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys and the like.

車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the own vehicle M, an acceleration sensor that detects the acceleration, a yaw rate sensor that detects the angular velocity around the vertical axis, an orientation sensor that detects the direction of the own vehicle M, and the like.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。経路決定部53により決定された地図上経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された地図上経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a routing unit 53, and the first map information 54 is stored in a storage device such as an HDD (Hard Disk Drive) or a flash memory. Holds. The GNSS receiver 51 identifies the position of the own vehicle M based on the signal received from the GNSS satellite. The position of the own vehicle M may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40. The navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partially or wholly shared with the above-mentioned HMI 30. The route determination unit 53, for example, has a route from the position of the own vehicle M (or an arbitrary position input) specified by the GNSS receiver 51 to the destination input by the occupant using the navigation HMI 52 (hereinafter, hereafter). The route on the map) is determined with reference to the first map information 54. The first map information 54 is, for example, information in which a road shape is expressed by a link indicating a road and a node connected by the link. The first map information 54 may include road curvature, POI (Point Of Interest) information, and the like. The map route determined by the route determination unit 53 is output to the MPU 60. Further, the navigation device 50 may perform route guidance using the navigation HMI 52 based on the map route determined by the route determination unit 53. The navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by an occupant. Further, the navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire the route on the map returned from the navigation server.

MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、経路において分岐箇所や合流箇所などが存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 functions as, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 61 divides the route provided by the navigation device 50 into a plurality of blocks (for example, divides the route every 100 [m] with respect to the vehicle traveling direction), and refers to the second map information 62 for each block. Determine the recommended lane. The recommended lane determination unit 61 determines which lane to drive from the left. The recommended lane determination unit 61 determines the recommended lane so that the own vehicle M can travel on a reasonable route to proceed to the branch destination when there is a branch point, a merging point, or the like on the route.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。 The second map information 62 is more accurate map information than the first map information 54. The second map information 62 includes, for example, information on the center of the lane, information on the boundary of the lane, and the like. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like. The second map information 62 may be updated at any time by accessing another device using the communication device 20.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。 The driving controller 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a deformed steering wheel, a joystick, and other controls. A sensor for detecting the amount of operation or the presence or absence of operation is attached to the operation operator 80, and the detection result is the automatic operation control device 100, or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to a part or all of 220.

自動運転制御装置100は、例えば、第1制御部120および第2制御部160を備える。第1制御部120は、特徴抽出部132と、推定部134とを備える。第1制御部120および第2制御部160の其々の構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。 The automatic operation control device 100 includes, for example, a first control unit 120 and a second control unit 160. The first control unit 120 includes a feature extraction unit 132 and an estimation unit 134. Each component of the first control unit 120 and the second control unit 160 is realized by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). In addition, some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). It may be realized by the part; including circuitry), or it may be realized by the cooperation of software and hardware.

図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現される。これによって、自動運転の信頼性が担保される。 FIG. 2 is a functional configuration diagram of the first control unit 120 and the second control unit 160. The first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 140. The first control unit 120, for example, realizes a function by AI (Artificial Intelligence) and a function by a model given in advance in parallel. For example, the function of "recognizing an intersection" is executed in parallel with the recognition of an intersection by deep learning or the like and the recognition based on predetermined conditions (there are signals that can be pattern matched, road markings, etc.), and both are executed. It is realized by scoring and comprehensively evaluating. This ensures the reliability of autonomous driving.

認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力される情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体には、他車両mや静止した障害物などが含まれる。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。また、認識部130は、カメラ10の撮像画像に基づいて、自車両Mがこれから通過するカーブの形状を認識する。認識部130は、カーブの形状をカメラ10の撮像画像から実平面に変換し、例えば、二次元の点列情報、或いはこれと同等なモデルを用いて表現した情報を、カーブの形状を示す情報として行動計画生成部140に出力する。 The recognition unit 130 determines the position, speed, acceleration, and other states of objects around the own vehicle M based on the information input from the camera 10, the radar device 12, and the finder 14 via the object recognition device 16. recognize. Objects include other vehicles m and stationary obstacles. The position of the object is recognized as, for example, a position on absolute coordinates with the representative point (center of gravity, center of drive axis, etc.) of the own vehicle M as the origin, and is used for control. The position of the object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented area. The "state" of an object may include acceleration or jerk of the object, or "behavioral state" (eg, whether or not the vehicle is changing lanes or is about to change lanes). Further, the recognition unit 130 recognizes the shape of the curve that the own vehicle M is about to pass based on the image captured by the camera 10. The recognition unit 130 converts the shape of the curve from the image captured by the camera 10 into a real plane, and for example, two-dimensional point sequence information or information expressed using a model equivalent thereto is information indicating the shape of the curve. Is output to the action plan generation unit 140.

また、認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線などの道路面に描かれた道路標示や、道路標識、障害物、赤信号、料金所、その他の道路事象を認識する。 Further, the recognition unit 130 recognizes, for example, the lane (traveling lane) in which the own vehicle M is traveling. For example, the recognition unit 130 has a road marking line pattern (for example, an arrangement of a solid line and a broken line) obtained from the second map information 62 and a road marking line around the own vehicle M recognized from the image captured by the camera 10. By comparing with the pattern of, the driving lane is recognized. The recognition unit 130 may recognize the traveling lane by recognizing not only the road marking line but also the running road boundary (road boundary) including the road marking line, the shoulder, the curb, the median strip, the guardrail, and the like. .. In this recognition, the position of the own vehicle M acquired from the navigation device 50 and the processing result by the INS may be added. In addition, the recognition unit 130 recognizes road markings drawn on the road surface such as a temporary stop line, road signs, obstacles, red lights, tollhouses, and other road events.

認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。また、これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。 When recognizing the traveling lane, the recognition unit 130 recognizes the position and posture of the own vehicle M with respect to the traveling lane. The recognition unit 130 determines, for example, the deviation of the reference point of the own vehicle M from the center of the lane and the angle formed by the center of the lane in the traveling direction of the own vehicle M with respect to the relative position of the own vehicle M with respect to the traveling lane. And may be recognized as a posture. Further, instead of this, the recognition unit 130 sets the position of the reference point of the own vehicle M with respect to any side end portion (road division line or road boundary) of the traveling lane, and the relative position of the own vehicle M with respect to the traveling lane. May be recognized as.

認識部130の特徴抽出部132は、カメラ10によって撮像された画像(デジタル画像)から特徴を抽出する。特徴は、例えば、二次元空間である画像の空間周波数や、輝度または色彩のエッジ密度、輝度または色彩のヒストグラムの分散などを含む。例えば、特徴抽出部132は、画像に対して、FFT(Fast Fourier Transform)などの二次元フーリエ変換を行い、画像の水平方向に関する画素値の変化(画素値の変化の周期性)と、垂直方向に関する画素値の変化(画素値の変化の周期性)との其々を角周波数に変換する。以下、水平方向に関する角周波数をμと表現し、垂直方向に関する角周波数をνと表現して説明する。 The feature extraction unit 132 of the recognition unit 130 extracts features from an image (digital image) captured by the camera 10. Features include, for example, the spatial frequency of an image, which is a two-dimensional space, the edge density of luminance or color, the variance of a histogram of luminance or color, and the like. For example, the feature extraction unit 132 performs a two-dimensional Fourier transform such as FFT (Fast Fourier Transform) on the image, and changes the pixel value in the horizontal direction of the image (periodicity of the change in the pixel value) and the vertical direction. Each of the changes in the pixel value (periodicity of the change in the pixel value) is converted into an angular frequency. Hereinafter, the angular frequency in the horizontal direction is expressed as μ, and the angular frequency in the vertical direction is expressed as ν.

例えば、特徴抽出部132は、画像に対して、所定のサイズ(所定のアスペクト比且つ所定の面積)の領域(以下、検出窓と称する)を設定し、この設定した検出窓の位置を変更しながら、検出窓と重なる画像領域の空間周波数を二次元フーリエ変換によって抽出する。例えば、所定のサイズは、後述する対象領域よりも小さいサイズに設定される。 For example, the feature extraction unit 132 sets an area (hereinafter, referred to as a detection window) of a predetermined size (a predetermined aspect ratio and a predetermined area) with respect to the image, and changes the position of the set detection window. However, the spatial frequency of the image area that overlaps the detection window is extracted by the two-dimensional Fourier transform. For example, the predetermined size is set to a size smaller than the target area described later.

図3は、画像に対する二次元フーリエ変換の結果の一例を示す図である。図示の例では、角周波数μおよび角周波数νのスペクトルの2乗の絶対値であるパワースペクトルを、グレースケールの画像で表している。画像の中心Oは、角周波数μおよび角周波数νが共にゼロである原点を表しており、この点Oに近いほど低周波成分のパワースペクトルを表し、遠いほど高周波成分のパワースペクトルを表している。パワースペクトル画像では、パワースペクトルが大きいほど白く、パワースペクトルが小さいほど黒く表現している。 FIG. 3 is a diagram showing an example of the result of the two-dimensional Fourier transform on the image. In the illustrated example, the power spectrum, which is the absolute value of the squares of the spectra of the angular frequency μ and the angular frequency ν, is represented by a grayscale image. The center O of the image represents the origin where both the angular frequency μ and the angular frequency ν are zero. The closer to this point O, the more the power spectrum of the low frequency component, and the farther it is, the more the power spectrum of the high frequency component. .. In the power spectrum image, the larger the power spectrum, the whiter the image, and the smaller the power spectrum, the blacker the image.

認識部130の推定部134は、特徴抽出部132により抽出された特徴に基づいて、自車両Mの前方に交通制御地点が存在することを推定する。交通制御地点とは、車両や歩行者などの交通が制御される地点であり、例えば、交差点、合流地点、分岐地点、踏切などを含む。また、推定部134は、交通制御地点の周辺に構造物が存在することを推定してもよい。交通制御地点の周辺の構造物とは、例えば、信号機、車両感知器、交通情報案内板、道路標識、ガードレール、街路灯、カーブミラーといった、三次元の実体のある物体であってもよいし、道路標示などの二次元の実体のある物体であってもよい。 The estimation unit 134 of the recognition unit 130 estimates that the traffic control point exists in front of the own vehicle M based on the features extracted by the feature extraction unit 132. The traffic control point is a point where traffic such as a vehicle or a pedestrian is controlled, and includes, for example, an intersection, a confluence point, a branch point, a railroad crossing, and the like. Further, the estimation unit 134 may estimate that a structure exists in the vicinity of the traffic control point. The structure around the traffic control point may be a three-dimensional physical object such as a traffic light, a vehicle detector, a traffic information board, a road sign, a guard rail, a street light, or a curved mirror. It may be an object with a two-dimensional substance such as a road sign.

また、推定部134は、交通制御地点が存在することを推定する際に、その推定の確信度を導出してもよい。確信度とは、例えば、交通制御地点が存在することの蓋然性の程度を表す指標である。 Further, the estimation unit 134 may derive the certainty of the estimation when estimating the existence of the traffic control point. The degree of certainty is, for example, an index showing the degree of probability that a traffic control point exists.

行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自動運転において順次実行されるイベントを決定する。イベントには、例えば、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従しながら定速走行する追従走行イベント、前走車両を追い越す追い越しイベント、障害物との接近を回避するための制動および/または操舵を行う回避イベント、カーブを走行するカーブ走行イベント、交差点や横断歩道、踏切などの交通制御地点を通過する通過イベント、車線変更イベント、合流イベント、分岐イベント、自動停止イベント、自動運転を終了して手動運転に切り替えるためのテイクオーバイベントなどがある。追従走行とは、例えば、予め決められた設定車速(例えば50〜100[km/h])の範囲内で自車両を加速または減速させて、自車両と前走車両との相対距離(車間距離)を一定に維持させる走行態様である。 In principle, the action plan generation unit 140 travels in the recommended lane determined by the recommended lane determination unit 61, and further determines events to be sequentially executed in automatic driving so as to be able to respond to the surrounding conditions of the own vehicle M. To do. Events include, for example, a constant-speed driving event in which the vehicle travels in the same lane at a constant speed, a follow-up driving event in which the vehicle travels at a constant speed while following the vehicle in front, an overtaking event in which the vehicle in front is overtaken, and avoiding approaching an obstacle. Avoidance events for braking and / or steering, curve driving events, passing events passing through traffic control points such as intersections, pedestrian crossings, and crossings, lane change events, merging events, branching events, automatic stops There are events, takeover events for ending automatic operation and switching to manual operation. Follow-up travel is, for example, the relative distance (inter-vehicle distance) between the own vehicle and the preceding vehicle by accelerating or decelerating the own vehicle within a predetermined set vehicle speed (for example, 50 to 100 [km / h]). ) Is a running mode that is kept constant.

行動計画生成部140は、起動したイベントに応じて、自車両Mが将来走行する目標軌道を生成する。各機能部の詳細については後述する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。 The action plan generation unit 140 generates a target trajectory on which the own vehicle M will travel in the future in response to the activated event. Details of each functional unit will be described later. The target trajectory includes, for example, a velocity element. For example, the target track is expressed as a sequence of points (track points) to be reached by the own vehicle M. The track point is a point to be reached by the own vehicle M for each predetermined mileage (for example, about several [m]) along the road, and separately, for a predetermined sampling time (for example, about 0 comma [sec]). ) Target velocity and target acceleration are generated as part of the target trajectory. Further, the track point may be a position to be reached by the own vehicle M at the sampling time for each predetermined sampling time. In this case, the information of the target velocity and the target acceleration is expressed by the interval of the orbital points.

図4は、推奨車線に基づいて目標軌道が生成される様子を示す図である。図示するように、推奨車線は、目的地までの経路に沿って走行するのに都合が良いように設定される。行動計画生成部140は、推奨車線の切り替わり地点の所定距離(イベントの種類に応じて決定されてよい)手前に差し掛かると、通過イベント、車線変更イベント、分岐イベント、合流イベントなどを起動する。各イベントの実行中に、障害物を回避する必要が生じた場合には、図示するように回避軌道が生成される。 FIG. 4 is a diagram showing how a target trajectory is generated based on the recommended lane. As shown, the recommended lanes are set to be convenient for driving along the route to the destination. The action plan generation unit 140 activates a passing event, a lane change event, a branching event, a merging event, and the like when approaching a predetermined distance (which may be determined according to the type of event) of the recommended lane switching point. If it becomes necessary to avoid an obstacle during the execution of each event, an avoidance trajectory is generated as shown in the figure.

第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 160 sets the traveling driving force output device 200, the brake device 210, and the steering device 220 so that the own vehicle M passes the target trajectory generated by the action plan generation unit 140 at the scheduled time. Control.

図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。行動計画生成部140と、速度制御部164と、操舵制御部166とを合わせたものは、「運転制御部」の一例である。 Returning to FIG. 2, the second control unit 160 includes, for example, an acquisition unit 162, a speed control unit 164, and a steering control unit 166. The combination of the action plan generation unit 140, the speed control unit 164, and the steering control unit 166 is an example of the "operation control unit".

取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。 The acquisition unit 162 acquires the information of the target trajectory (orbit point) generated by the action plan generation unit 140 and stores it in a memory (not shown).

速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。 The speed control unit 164 controls the traveling driving force output device 200 or the braking device 210 based on the speed element associated with the target trajectory stored in the memory.

操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。 The steering control unit 166 controls the steering device 220 according to the degree of bending of the target trajectory stored in the memory. The processing of the speed control unit 164 and the steering control unit 166 is realized by, for example, a combination of feedforward control and feedback control. As an example, the steering control unit 166 executes a combination of feedforward control according to the curvature of the road in front of the own vehicle M and feedback control based on the deviation from the target trajectory.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The traveling driving force output device 200 outputs a traveling driving force (torque) for traveling the vehicle to the drive wheels. The traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU (Electronic Control Unit) that controls them. The ECU controls the above configuration according to the information input from the second control unit 160 or the information input from the operation operator 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits flood pressure to the brake caliper, an electric motor that generates flood pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the second control unit 160 or the information input from the operation operator 80 so that the brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include, as a backup, a mechanism for transmitting the oil pressure generated by the operation of the brake pedal included in the operation operator 80 to the cylinder via the master cylinder. The brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls an actuator according to information input from the second control unit 160 to transmit the oil pressure of the master cylinder to the cylinder. May be good.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, applies a force to the rack and pinion mechanism to change the direction of the steering wheel. The steering ECU drives the electric motor according to the information input from the second control unit 160 or the information input from the operation controller 80, and changes the direction of the steering wheel.

[特徴の抽出処理フロー]
図5は、第1実施形態の自動運転制御装置100により実行される処理の一例を示すフローチャートである。本フローチャートの処理は、例えば、所定の周期で繰り返し行われる。
[Feature extraction processing flow]
FIG. 5 is a flowchart showing an example of processing executed by the automatic operation control device 100 of the first embodiment. The processing of this flowchart is, for example, repeated at a predetermined cycle.

まず、特徴抽出部132は、カメラ10によって撮像された画像に含まれる、ある対象領域に対して、検出窓を設定する(ステップS100)。 First, the feature extraction unit 132 sets a detection window for a certain target area included in the image captured by the camera 10 (step S100).

図6は、カメラ10によって撮像された画像を模式的に示す図である。例えば、自車両Mが走行する道路が直進道路である場合、その道路の車線を区画する複数の区画線(LN1やLN2等)などが画像の消失点P付近で交わる。このような場合に、自車両Mの進行方向前方の遠い位置に信号機や交通情報案内板などが存在する場合、消失点P付近のごく狭い画像領域(例えば図中Rで示す領域)に信号機や交通情報案内板などを示す画像領域が含まれることになる。従って、信号機や交通情報案内板などが精度良く認識されるように、これらの構造物が存在する蓋然性の高い消失点P付近の領域が対象領域に決定される。 FIG. 6 is a diagram schematically showing an image captured by the camera 10. For example, when the road on which the own vehicle M travels is a straight road, a plurality of lane markings (LN1, LN2, etc.) that divide the lanes of the road intersect near the vanishing point P of the image. In such a case, if there is a traffic light, a traffic information guide plate, or the like at a distant position in front of the vehicle M in the traveling direction, the traffic light or the traffic light is located in a very narrow image area (for example, the area indicated by R in the figure) near the vanishing point P. An image area showing a traffic information information board or the like will be included. Therefore, the region near the vanishing point P, where these structures are likely to exist, is determined as the target region so that the traffic signal, the traffic information guide plate, and the like can be recognized with high accuracy.

図7から図10は、対象領域の設定位置の一例を示す図である。例えば、特徴抽出部132は、図7に例示するように、自車両Mを区画する区画線LN1およびLN2が互いに交差する点を消失点Pと見做し、この消失点Pを通る水平線HORよりも垂直方向上側の画像領域を対象領域に決定する。これによって、検出窓を設定する対象となる画像領域が小さくなるため、特徴抽出の処理負荷を軽減することができる。以下、水平線HORよりも垂直方向上側の画像領域を「上空領域」と称して説明する。 7 to 10 are views showing an example of the setting position of the target area. For example, as illustrated in FIG. 7, the feature extraction unit 132 regards the point where the lane markings LN1 and LN2 that partition the own vehicle M intersect with each other as the vanishing point P, and from the horizontal line HOR passing through the vanishing point P. Also determines the image area on the upper side in the vertical direction as the target area. As a result, the image area for which the detection window is set becomes smaller, so that the processing load of feature extraction can be reduced. Hereinafter, the image region above the horizontal line HOR in the vertical direction will be referred to as an “sky region” and will be described.

また、特徴抽出部132は、図8に例示するように、消失点Pを通る水平線HORよりも垂直方向上側であり、且つ水平方向の長さ(幅)が第1所定距離DHOR以下となる条件を満たす画像領域を対象領域に決定してもよい。図示の例では、消失点Pを通る垂直線VERTを基準に左右それぞれ等距離1/2DHORの範囲に含まれる画像領域が対象領域に決定されている。なお、水平方向の長さ(幅)が第1所定距離DHOR以下であるという条件を満たせば、垂直線VERTの右側が2/3DHORであり、左側が1/3DHORといったように、垂直線VERTを基準に左右のいずれかに対象領域が偏していてもよい。これによって、検出窓を設定する対象となる画像領域をより小さくすることができ、更に特徴抽出の処理負荷を軽減することができる。 Further, as illustrated in FIG. 8, the feature extraction unit 132 is above the horizontal line HOR passing through the vanishing point P in the vertical direction, and the length (width) in the horizontal direction is equal to or less than the first predetermined distance D HOR. An image area that satisfies the conditions may be determined as the target area. In the illustrated example, an image region included in a range of equidistant 1 / 2D HOR on each of the left and right sides is determined as a target region with reference to the vertical line VERT passing through the vanishing point P. If the condition that the length (width) in the horizontal direction is equal to or less than the first predetermined distance D HOR is satisfied, the right side of the vertical line VERT is 2 / 3D HOR , the left side is 1 / 3D HOR , and so on. The target area may be biased to the left or right with respect to the line VERT. As a result, the image area for which the detection window is set can be made smaller, and the processing load of feature extraction can be further reduced.

また、特徴抽出部132は、図9に例示するように、消失点Pを通る水平線HORから垂直方向に関して第2所定距離DVERTをとった点P#と、水平線HORと画像端部とが交差する2点との合計3点を繋ぐ辺により形成される三角形を導出し、この導出した三角形の画像領域を、消失点Pを通る水平線HORよりも垂直方向上側の画像領域から除いた残りの画像領域を、対象領域に決定してもよい。これによって、カメラ10の撮像対象である三次元空間(実空間)での信号機などの高さを考慮して検出窓を設定することができる。 Further, as illustrated in FIG. 9, the feature extraction unit 132 intersects a point P # having a second predetermined distance D VERT in the vertical direction from the horizontal line HOR passing through the vanishing point P, the horizontal line HOR, and the image end portion. A triangle formed by a side connecting a total of three points with two points is derived, and the image area of the derived triangle is removed from the image area perpendicular to the horizontal line HOR passing through the vanishing point P, and the remaining image. The area may be determined as the target area. As a result, the detection window can be set in consideration of the height of the traffic light or the like in the three-dimensional space (real space) to be imaged by the camera 10.

また、特徴抽出部132は、図10に例示するように、三角形の画像領域を除いた画像領域であること、消失点Pを通る水平線HORよりも垂直方向上側であること、水平方向の長さ(幅)が第1所定距離DHOR以下となることを含む条件を満たす画像領域を対象領域に決定してもよい。これによって、実空間において信号機などの高さを考慮することができると共に、検出窓の設定対象の画像領域を小さくすることができる。この結果、更に特徴抽出の処理負荷を軽減することができる。 Further, as illustrated in FIG. 10, the feature extraction unit 132 is an image area excluding the triangular image area, is vertically above the horizontal line HOR passing through the vanishing point P, and has a horizontal length. An image region satisfying the condition that the (width) is equal to or less than the first predetermined distance D HOR may be determined as the target region. As a result, the height of the traffic light or the like can be taken into consideration in the real space, and the image area to be set by the detection window can be reduced. As a result, the processing load of feature extraction can be further reduced.

次に、特徴抽出部132は、対象領域に対して設定した検出窓と重畳する画像領域を切り出し、この切り出した画像領域から特徴を抽出する(ステップS102)。例えば、特徴抽出部132は、切り出した画像領域に対して二次元フーリエ変換を行って、空間周波数を抽出する。また、特徴抽出部132は、輝度または色彩のエッジ密度や、輝度または色彩のヒストグラムの分散などを抽出してもよい。 Next, the feature extraction unit 132 cuts out an image area that overlaps with the detection window set for the target area, and extracts features from the cut out image area (step S102). For example, the feature extraction unit 132 performs a two-dimensional Fourier transform on the cut out image region to extract the spatial frequency. Further, the feature extraction unit 132 may extract the edge density of the luminance or the color, the variance of the histogram of the luminance or the color, and the like.

次に、特徴抽出部132は、対象領域の全領域に対して検出窓を設定したか否かを判定し(ステップS104)、対象領域の全領域に対して検出窓を設定していないと判定した場合、S100の処理に戻り、前回設定した検出窓の位置を異なる位置に検出窓を設定し直す。異なる位置とは、例えば、前回設定した検出窓と、今回設定する検出窓とが互いに重なり合わない位置である。 Next, the feature extraction unit 132 determines whether or not the detection window is set for the entire area of the target area (step S104), and determines that the detection window is not set for the entire area of the target area. If so, the process returns to S100, and the detection window is reset to a different position from the previously set position of the detection window. The different positions are, for example, positions where the detection window set last time and the detection window set this time do not overlap each other.

一方、特徴抽出部132は、対象領域の全領域に対して検出窓を設定したと判定した場合、すなわち、対象領域の全領域の空間周波数を導出した場合、本フローチャートの処理を終了する。 On the other hand, when the feature extraction unit 132 determines that the detection window is set for the entire region of the target region, that is, when the spatial frequency of the entire region of the target region is derived, the processing of this flowchart ends.

[交通制御地点が存在することの推定処理フロー]
図11は、第1実施形態の自動運転制御装置100により実行される処理の他の例を示すフローチャートである。本フローチャートの処理は、例えば、所定の周期で繰り返し行われてよい。
[Estimation processing flow for the existence of traffic control points]
FIG. 11 is a flowchart showing another example of the process executed by the automatic operation control device 100 of the first embodiment. The processing of this flowchart may be repeated, for example, at a predetermined cycle.

まず、推定部134は、特徴抽出部132によって対象領域として決められた上空領域から所定の特徴が抽出されたか否かを判定する(ステップS200)。所定の特徴とは、例えば、高周波数領域において、パワースペクトル値またはスペクトル強度が、ある閾値以上の空間周波数である。また、所定の特徴は、密度が閾値以上のエッジであってもよいし、分散が閾値以上の輝度または色彩のヒストグラムであってもよいし、その他の特徴であってもよいし、これらの組み合わせであってもよい。 First, the estimation unit 134 determines whether or not a predetermined feature has been extracted from the sky region determined as the target region by the feature extraction unit 132 (step S200). The predetermined feature is, for example, a spatial frequency in which the power spectrum value or the spectral intensity is equal to or higher than a certain threshold value in a high frequency region. Further, the predetermined feature may be an edge having a density equal to or higher than the threshold value, a histogram of brightness or color having a variance equal to or higher than the threshold value, or another feature, or a combination thereof. It may be.

例えば、上述した図6に示すように、自車両Mの前方に信号機が存在する場合に、消失点Pよりも上側の上空領域に対象領域を設定するため、信号機を支持するポール(電信柱等)や、信号機に電力を供給する複数の電線などが対象領域に含まれやすくなる。これらのポールや電線などの人工物は、一般的に、直線成分が多く、画像に対して一定の方向性を持つのに対して、樹木や土、空といった自然物は直線成分が少なく、決まった方向性を持たない傾向にある。従って、ポールや電線などの人工物の背景として、樹木や土、空といった自然物が存在している場合、背景に対する人工物の境界が明確になりやすい。そのため、対象領域から画像の特徴として抽出される空間周波数は高周波の成分を多く含むことになり、対象領域に検索窓を設定した場合、所定の特徴が抽出されやすくなる。 For example, as shown in FIG. 6 described above, when a traffic light is present in front of the own vehicle M, a pole (telegraph pillar or the like) that supports the traffic light is used to set the target area in the sky area above the vanishing point P. ) And multiple electric wires that supply power to traffic lights are likely to be included in the target area. Artificial objects such as these poles and electric wires generally have many linear components and have a certain direction with respect to the image, whereas natural objects such as trees, soil, and the sky have few linear components. It tends to have no direction. Therefore, when a natural object such as a tree, soil, or the sky exists as a background of an artificial object such as a pole or an electric wire, the boundary of the artificial object with respect to the background tends to be clear. Therefore, the spatial frequency extracted as a feature of the image from the target area contains a large amount of high-frequency components, and when the search window is set in the target area, a predetermined feature can be easily extracted.

図12および図13は、対象領域から画像の特徴として抽出された空間周波数の一例を示す図である。図中横軸は、画像の水平方向の空間周波数である角周波数μまたは画像の垂直方向の空間周波数である角周波数νを表し、縦軸は、パワースペクトルを表している。図12の例では、ある周波数閾値FTH未満の低周波数領域において、パワースペクトルが、ある閾値STH(以下、スペクトル閾値STHと称する)以上であり、周波数閾値FTH以上の高周波数領域において、パワースペクトルが、スペクトル閾値STH未満となっている。このような場合、推定部134は、特徴抽出部132によって対象領域から所定の特徴が抽出されていないと判定する。 12 and 13 are diagrams showing an example of the spatial frequency extracted as a feature of the image from the target region. In the figure, the horizontal axis represents the angular frequency μ which is the horizontal spatial frequency of the image or the angular frequency ν which is the vertical spatial frequency of the image, and the vertical axis represents the power spectrum. In the example of FIG. 12, in the low frequency region below a certain frequency threshold FTH , the power spectrum is equal to or higher than a certain threshold STH (hereinafter referred to as spectrum threshold STH ), and in the high frequency region above the frequency threshold FTH. , The power spectrum is less than the spectrum threshold STH. In such a case, the estimation unit 134 determines that a predetermined feature has not been extracted from the target region by the feature extraction unit 132.

一方、図13の例では、ある周波数閾値FTH未満の低周波数領域と、周波数閾値FTH以上の高周波数領域との双方において、パワースペクトルが、スペクトル閾値STH以上となっている。このような場合、推定部134は、特徴抽出部132によって対象領域から所定の特徴が抽出されたと判定する。 On the other hand, in the example of FIG. 13 , the power spectrum is equal to or higher than the spectral threshold STH in both the low frequency region below a certain frequency threshold FTH and the high frequency region above the frequency threshold FTH. In such a case, the estimation unit 134 determines that a predetermined feature has been extracted from the target region by the feature extraction unit 132.

なお、上記の例では、各周波数のパワースペクトルに対して、一律同じ大きさのスペクトル閾値STHを設けて、パワースペクトルがスペクトル閾値STH以上であるのか否かを判定したがこれに限られない。例えば、推定部134は、周波数が大きいパワースペクトル(高周波なパワースペクトル)ほど、比較対象のスペクトル閾値STHを小さくしてもよい。 In the above example, a spectrum threshold value STH having the same magnitude is uniformly provided for the power spectrum of each frequency, and it is determined whether or not the power spectrum is equal to or higher than the spectrum threshold value STH , but the present invention is limited to this. Absent. For example, the estimation unit 134 may make the spectrum threshold value STH to be compared smaller as the frequency becomes higher (high frequency power spectrum).

推定部134は、対象領域から所定の特徴が抽出されていないと判定した場合、自車両Mの前方に交通制御地点が存在しないと推定する(ステップS202)。 When the estimation unit 134 determines that the predetermined feature is not extracted from the target area, it estimates that the traffic control point does not exist in front of the own vehicle M (step S202).

一方、推定部134は、対象領域から所定の特徴が抽出されたと判定した場合、その所定の特徴が抽出された画像領域(検索窓)が所定数以上存在するか否かを判定する(ステップS204)。 On the other hand, when the estimation unit 134 determines that a predetermined feature has been extracted from the target region, the estimation unit 134 determines whether or not there are a predetermined number or more of image regions (search windows) from which the predetermined feature has been extracted (step S204). ).

例えば、所定の特徴が抽出された画像領域が所定数以上存在する場合、対象領域には高周波成分の空間周波数が多く含まれることなる。上述したように、空間周波数が高周波であるほど、画像の対象領域に対応した三次元空間において、複数のポールが設置されていたり、複数の電線が張り巡らされていたりする蓋然性が高くなり、人間がその空間を視認した時に雑然としている(混雑している)と感じるような景観であることが多い。すなわち、その画像領域が混雑状態であると判断される。このように人間が雑然と感じるほど道路の上空に構造物があふれている場合、そこには信号機や交通情報案内板、道路標識といった構造物が存在する蓋然性が高い傾向にある。従って、推定部134は、所定の特徴が抽出された画像領域が所定数以上存在する場合、すなわち、対象領域が混雑状態である場合、自車両Mの前方に交通制御地点が存在していると推定する(ステップS206)。 For example, when there are a predetermined number or more of image regions from which a predetermined feature is extracted, the target region contains a large amount of spatial frequencies of high frequency components. As described above, the higher the spatial frequency, the higher the probability that multiple poles will be installed or multiple electric wires will be stretched in the three-dimensional space corresponding to the target area of the image. In many cases, the landscape feels cluttered (crowded) when the space is visually recognized. That is, it is determined that the image area is in a congested state. When structures are overflowing above the road so that humans feel cluttered, there is a high possibility that there are structures such as traffic lights, traffic information boards, and road signs. Therefore, the estimation unit 134 determines that the traffic control point exists in front of the own vehicle M when there are a predetermined number or more of image regions from which a predetermined feature is extracted, that is, when the target region is in a congested state. Estimate (step S206).

例えば、推定部134は、混雑状態にある対象領域の位置に対応した三次元空間(カメラ10の撮像空間)の位置に、交通制御地点が存在していると推定する。「対象領域の位置に対応した三次元空間の位置」とは、例えば、画像奥行き方向を、自車両Mの進行方向に変換したときの位置である。従って、自車両Mが道路上を走行している場合、推定部134は、自車両Mの進行方向から見て前方側の道路の周辺に交通制御地点が存在していると推定する。 For example, the estimation unit 134 estimates that the traffic control point exists at a position in the three-dimensional space (imaging space of the camera 10) corresponding to the position of the target area in the congested state. The "position in the three-dimensional space corresponding to the position of the target area" is, for example, a position when the depth direction of the image is converted into the traveling direction of the own vehicle M. Therefore, when the own vehicle M is traveling on the road, the estimation unit 134 estimates that the traffic control point exists around the road on the front side when viewed from the traveling direction of the own vehicle M.

次に、自動運転制御装置100は、自車両Mの前方に交通制御地点が存在していると判定した場合、交通制御地点に自車両Mが相対的に近づくことに備えるための所定の処理を開始する(ステップS208)。これによって本フローチャートの処理が終了する。 Next, when the automatic driving control device 100 determines that the traffic control point exists in front of the own vehicle M, the automatic driving control device 100 performs a predetermined process for preparing for the own vehicle M to relatively approach the traffic control point. Start (step S208). This ends the processing of this flowchart.

所定の処理とは、例えば、道路標示などの二次元状の物体を認識すること、信号機などの三次元状の物体を認識すること、自車両Mを減速させること、といった各種処理のうち一部または全部を含む。 The predetermined process is a part of various processes such as recognizing a two-dimensional object such as a road marking, recognizing a three-dimensional object such as a traffic light, and decelerating the own vehicle M. Or include all.

例えば、所定の処理が二次元状の物体を認識することである場合、認識部130は、自車線の路面から所定の道路標示を認識する処理を開始する。例えば、認識部130は、パターンマッチングなどの画像処理によって、所定の形状や所定の色相などの特徴をもつ記号や文字を、道路標示として認識する。 For example, when the predetermined process is to recognize a two-dimensional object, the recognition unit 130 starts the process of recognizing the predetermined road marking from the road surface of the own lane. For example, the recognition unit 130 recognizes symbols and characters having features such as a predetermined shape and a predetermined hue as road markings by image processing such as pattern matching.

図14は、所定の道路標示の一例を示す図である。例えば、所定の道路標示は、車両が進行することができる方向を表す矢印記号MK1およびMK2や、前方に横断歩道または自転車横断帯があることを表すひし形記号MK3などの各種標示を含む。例えば、認識部130は、これらの例示した記号と同じ形状の二次元の物体が路面に対応した画像領域に存在する場合、これを所定の道路標示として認識する。 FIG. 14 is a diagram showing an example of a predetermined road marking. For example, certain road markings include various markings such as the arrow symbols MK1 and MK2 indicating the direction in which the vehicle can travel, and the diamond symbol MK3 indicating that there is a pedestrian crossing or a bicycle crossing zone ahead. For example, when a two-dimensional object having the same shape as these illustrated symbols exists in the image region corresponding to the road surface, the recognition unit 130 recognizes this as a predetermined road marking.

また、所定の処理が三次元状の物体を認識することである場合、認識部130は、信号機や交通情報案内板、道路標識といった物体を認識する処理を開始する。例えば、認識部130は、パターンマッチングなどの画像処理によって、上述した各種物体を認識する。 When the predetermined process is to recognize a three-dimensional object, the recognition unit 130 starts a process of recognizing an object such as a traffic light, a traffic information guide plate, or a road sign. For example, the recognition unit 130 recognizes the various objects described above by image processing such as pattern matching.

また、所定の処理が自車両Mを減速させることである場合、行動計画生成部140は、目標軌道に速度要素として含まれる目標速度および目標加速度を小さくする。これによって、速度制御部164が、目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御するため、自車両Mが減速する。 Further, when the predetermined process is to decelerate the own vehicle M, the action plan generation unit 140 reduces the target speed and the target acceleration included as speed elements in the target trajectory. As a result, the speed control unit 164 controls the traveling driving force output device 200 or the brake device 210 based on the speed element associated with the target trajectory, so that the own vehicle M decelerates.

なお、図11に示すフローチャートの処理は、所定の周期ごとに繰り返し行われるものとして説明したがこれに限られず、認識部130によって所定の道路標示が認識された場合に開始されてもよい。これによって、交通制御地点が存在する蓋然性が高いと判断できる場合のみ、空間周波数を基に交通制御地点が存在することを推定するため、処理負荷を軽減することができる。 The processing of the flowchart shown in FIG. 11 has been described as being repeatedly performed at predetermined intervals, but the present invention is not limited to this, and may be started when a predetermined road marking is recognized by the recognition unit 130. As a result, the processing load can be reduced because the existence of the traffic control point is estimated based on the spatial frequency only when it can be determined that there is a high probability that the traffic control point exists.

以上説明した第1実施形態によれば、自車両Mの周辺を撮像するカメラ10と、カメラ10の画像の領域のうち、所定高度以上の空間に対応した上空領域が混雑状態であるか否かを判定し、上空領域が混雑状態であると判定した場合、自車両Mの前方に交通制御地点が存在することを推定する推定部134とを備えることにより、より早いタイミングで走行環境を認識することができる。 According to the first embodiment described above, whether or not the camera 10 that captures the periphery of the own vehicle M and the sky area corresponding to the space above a predetermined altitude among the image areas of the camera 10 are in a congested state. When it is determined that the sky area is congested, the driving environment is recognized at an earlier timing by providing the estimation unit 134 that estimates that the traffic control point exists in front of the own vehicle M. be able to.

一般的に、前方を撮像した画像から遠方に存在する構造物(信号機など)を早くから認識しようとした場合、遠方の位置に存在する物体は、近傍の物体に対して相対的に小さい被写体になり、その被写体を写した画像では、全画像領域に対して相対的に狭い画像領域(面積が小さい領域)となる。そのため、処理対象とする画像領域において被写体を占める画素の数が減少しやすく、自車両Mから見て遠くに位置する物体を画像から認識する場合、その位置に何らかの物体が存在していることを認識できたとしても、その物体がどういった種類或いは形状の物体であるのかまでは認識することが難しくなりやすい。また、画素数を多くするために画像の解像度を高めた場合、その解像度が高くなるにつれて認識処理の負荷が増大することから、信号機等の構造物の認識が遅れてしまうことが懸念される。 In general, when trying to recognize a structure (traffic light, etc.) that exists far away from an image captured in front, an object that exists at a distant position becomes a subject that is relatively small compared to a nearby object. In the image of the subject, the image area is relatively narrow (the area is small) with respect to the entire image area. Therefore, the number of pixels occupying the subject in the image area to be processed tends to decrease, and when recognizing an object located far away from the own vehicle M from the image, it is determined that some object exists at that position. Even if it can be recognized, it tends to be difficult to recognize what kind or shape the object is. Further, when the resolution of an image is increased in order to increase the number of pixels, the load of the recognition process increases as the resolution increases, so that there is a concern that the recognition of a structure such as a traffic light may be delayed.

これに対して、第1実施形態では、自車両Mから見て遠方に位置する構造物を形状などから認識するのでなく、画像を二次元フーリエ変換して得られた空間周波数を基に、信号機などの構造物が存在することを推定するため、より早いタイミングで走行環境を認識することができる。また、空間周波数を基に信号機などの構造物が存在することを推定するため、実際に信号機などの構造物が認識されなくともその構造物が存在する蓋然性が高ければ、パターンマッチングなどの画像処理によって構造物を認識する処理を開始するため、画像処理負荷の軽減しつつ、走行環境を認識することができる。また、空間周波数を基に信号機などの構造物が存在することを推定し、その構造物が存在する蓋然性が高いと判断できる場合、所定の処理として自車両Mを減速させることを開始するため、自車両Mの速度がより低い状態において、信号機などの構造物の形状などを認識することができる。この結果、より精度良く交通制御地点を認識することができる。 On the other hand, in the first embodiment, the structure located far away from the own vehicle M is not recognized from the shape or the like, but the signal is based on the spatial frequency obtained by the two-dimensional Fourier transform of the image. Since it is estimated that such a structure exists, the driving environment can be recognized at an earlier timing. In addition, since it is estimated that a structure such as a signal is present based on the spatial frequency, if there is a high probability that the structure will exist even if the structure such as a signal is not actually recognized, image processing such as pattern matching is performed. Since the process of recognizing the structure is started by the above, the driving environment can be recognized while reducing the image processing load. Further, if it is estimated that a structure such as a traffic light exists based on the spatial frequency and it can be determined that there is a high probability that the structure exists, the own vehicle M is started to be decelerated as a predetermined process. When the speed of the own vehicle M is lower, the shape of a structure such as a traffic light can be recognized. As a result, the traffic control point can be recognized more accurately.

<第2実施形態>
以下、第2実施形態について説明する。上述した第1実施形態では、水平線よりも上側の上空領域に対象領域を設定するものとして説明した。これに対して、第2実施形態では、水平線よりも上側の上空領域に加えて、または代えて、水平線よりも下側の領域に対象領域を設定する点で、上述した第1実施形態と異なる。以下、第1実施形態との相違点を中心に説明し、第1実施形態と共通する機能等についての説明は省略する。
<Second Embodiment>
Hereinafter, the second embodiment will be described. In the above-described first embodiment, it has been described that the target area is set in the sky area above the horizon. On the other hand, the second embodiment is different from the above-described first embodiment in that the target area is set in the area below the horizon in addition to or instead of the sky area above the horizon. .. Hereinafter, the differences from the first embodiment will be mainly described, and the description of the functions and the like common to the first embodiment will be omitted.

図15は、対象領域の設定位置の他の例を示す図である。例えば、特徴抽出部132は、図15に例示するように、自車両Mを区画する区画線LN1およびLN2が互いに交差する点を消失点Pと見做し、この消失点Pを通る水平線HORよりも垂直方向上側の上空領域と、水平線HORよりも垂直方向下側であり、且つ区画線LN1およびLN2に囲まれた自車線の画像領域(以下、路面領域と称する)との双方を対象領域に決定する。これによって、上空領域および路面領域の双方から、画像の特徴として、空間周波数を抽出することができる。 FIG. 15 is a diagram showing another example of the setting position of the target area. For example, as illustrated in FIG. 15, the feature extraction unit 132 regards the point where the lane markings LN1 and LN2 that partition the own vehicle M intersect with each other as the vanishing point P, and from the horizontal line HOR passing through the vanishing point P. The target area is both the upper sky area in the vertical direction and the image area of the own lane (hereinafter referred to as the road surface area) which is below the horizontal line HOR in the vertical direction and is surrounded by the lane markings LN1 and LN2. decide. As a result, the spatial frequency can be extracted as a feature of the image from both the sky region and the road surface region.

図16は、第2実施形態の自動運転制御装置100により実行される処理の一例を示すフローチャートである。本フローチャートの処理は、例えば、所定の周期で繰り返し行われてよい。 FIG. 16 is a flowchart showing an example of processing executed by the automatic operation control device 100 of the second embodiment. The processing of this flowchart may be repeated, for example, at a predetermined cycle.

まず、推定部134は、特徴抽出部132によって対象領域として決定された上空領域から所定の特徴が抽出されたか否かを判定する(ステップS300)。推定部134は、上空領域から所定の特徴が抽出されていないと判定した場合、自車両Mの前方に交通制御地点が存在しないと推定する(ステップS302)。 First, the estimation unit 134 determines whether or not a predetermined feature has been extracted from the sky region determined as the target region by the feature extraction unit 132 (step S300). When the estimation unit 134 determines that a predetermined feature has not been extracted from the sky region, it estimates that the traffic control point does not exist in front of the own vehicle M (step S302).

一方、推定部134は、上空領域から所定の特徴が抽出されたと判定した場合、上空領域において所定の特徴が抽出された画像領域(検索窓)が所定数以上存在するか否かを判定する(ステップS304)。推定部134は、所定の特徴が抽出された画像領域が所定数未満であり、上空領域が混雑状態でない場合、S302の処理に進み、自車両Mの前方に交通制御地点が存在しないと推定する。 On the other hand, when it is determined that a predetermined feature is extracted from the sky region, the estimation unit 134 determines whether or not there are a predetermined number or more of image regions (search windows) from which the predetermined feature is extracted in the sky region ( Step S304). When the number of image areas from which predetermined features are extracted is less than a predetermined number and the sky area is not congested, the estimation unit 134 proceeds to the process of S302 and estimates that the traffic control point does not exist in front of the own vehicle M. ..

一方、推定部134は、所定の特徴が抽出された画像領域が所定数以上であり、上空領域が混雑状態である場合、更に、特徴抽出部132によって対象領域に決定された路面領域から所定の特徴が抽出されたか否かを判定する(ステップS306)。推定部134は、路面領域から所定の特徴が抽出されていないと判定した場合、S302の処理に進み、自車両Mの前方に交通制御地点が存在しないと推定する。 On the other hand, in the estimation unit 134, when the number of image regions from which a predetermined feature is extracted is a predetermined number or more and the sky region is in a congested state, the estimation unit 134 further determines from the road surface region determined as the target region by the feature extraction unit 132. It is determined whether or not the feature has been extracted (step S306). When the estimation unit 134 determines that the predetermined feature has not been extracted from the road surface region, the estimation unit 134 proceeds to the process of S302 and estimates that the traffic control point does not exist in front of the own vehicle M.

一方、推定部134は、路面領域から所定の特徴が抽出されたと判定した場合、路面領域において所定の特徴が抽出された画像領域が所定数以上存在するか否かを判定する(ステップS308)。推定部134は、所定の特徴が抽出された画像領域が所定数未満であり、路面領域が混雑状態でない場合、S302の処理に進み、自車両Mの前方に交通制御地点が存在しないと推定する。 On the other hand, when it is determined that the predetermined feature is extracted from the road surface region, the estimation unit 134 determines whether or not there are a predetermined number or more of the image regions from which the predetermined feature is extracted in the road surface region (step S308). When the number of image regions from which predetermined features are extracted is less than a predetermined number and the road surface region is not in a congested state, the estimation unit 134 proceeds to the process of S302 and estimates that there is no traffic control point in front of the own vehicle M. ..

一方、推定部134は、所定の特徴が抽出された画像領域が所定数以上であり、路面領域が混雑状態である場合、自車両Mの前方に交通制御地点が存在していると推定する(ステップS310)。 On the other hand, the estimation unit 134 estimates that a traffic control point exists in front of the own vehicle M when the number of image regions from which predetermined features are extracted is a predetermined number or more and the road surface region is in a congested state (). Step S310).

次に、自動運転制御装置100は、自車両Mの前方に交通制御地点が存在していると判定した場合、交通制御地点に自車両Mが相対的に近づくことに備えるための所定の処理を開始する(ステップS312)。これによって本フローチャートの処理が終了する。 Next, when the automatic driving control device 100 determines that the traffic control point exists in front of the own vehicle M, the automatic driving control device 100 performs a predetermined process for preparing for the own vehicle M to relatively approach the traffic control point. Start (step S312). This ends the processing of this flowchart.

このような処理によって、上空領域に信号機などの三次元の構造物が存在するのか否かを評価することができると共に、路面領域に道路標示などの二次元の物体が存在するのか否かを評価することができる。 By such processing, it is possible to evaluate whether or not a three-dimensional structure such as a traffic light exists in the sky area, and also evaluate whether or not a two-dimensional object such as a road marking exists in the road surface area. can do.

なお、上述した図16に示すフローチャートにおいて、S300およびS304の処理と、S306およびS308の処理とは、処理の順番が反対であってもよい。 In the flowchart shown in FIG. 16 described above, the processing order of S300 and S304 and the processing of S306 and S308 may be opposite to each other.

また、上述した図16に示すフローチャートにおいて、上空領域と路面領域との双方で所定の特徴が抽出された画像領域が所定数以上存在する場合に、自車両Mの前方に交通制御地点が存在していると推定し、いずれの領域からも所定の特徴が抽出されていない場合や、所定の特徴が抽出されたものの、所定の特徴が抽出された画像領域が混雑していると見做せる程度の数(所定数)には至っていない場合に自車両Mの前方に交通制御地点が存在していないと推定するものとして説明したがこれに限られない。 Further, in the flowchart shown in FIG. 16 described above, when there are a predetermined number or more of image regions from which predetermined features are extracted in both the sky region and the road surface region, a traffic control point exists in front of the own vehicle M. If the predetermined feature is not extracted from any of the regions, or if the predetermined feature is extracted but the image region from which the predetermined feature is extracted is considered to be congested. The explanation is made assuming that the traffic control point does not exist in front of the own vehicle M when the number (predetermined number) has not been reached, but the present invention is not limited to this.

例えば、推定部134は、上空領域と路面領域との双方においてどの程度所定の特徴が抽出されたのかをスコアとして導出し、そのスコアの単純平均や加重平均を基に、自車両Mの前方に交通制御地点が存在していることを推定する。例えば、推定部134は、上空領域のうち、所定の特徴が抽出された画像領域の数をスコアAとし、路面領域のうち、所定の特徴が抽出された画像領域の数をスコアBとして導出する。そして、推定部134は、{(1−α)A+αB}/2といった平均を求め(αは任意の定数)、この平均値を推定の確信度とする。これによって、推定部134は、例えば、上空領域および路面領域の双方で、所定の特徴が抽出された画像領域が所定数以上である場合、最も高い確信度で、自車両Mの前方に交通制御地点が存在していると推定し、いずれか一方のみの領域で、所定の特徴が抽出された画像領域が所定数以上である場合、上空領域および路面領域の双方で所定の特徴が抽出された画像領域が所定数以上である場合に比して、より低い確信度で自車両Mの前方に交通制御地点が存在していると推定する。 For example, the estimation unit 134 derives as a score how much a predetermined feature is extracted in both the sky region and the road surface region, and based on the simple average or the weighted average of the score, is in front of the own vehicle M. Estimate that a traffic control point exists. For example, the estimation unit 134 derives the number of image regions from which a predetermined feature is extracted from the sky region as a score A, and the number of image regions from which a predetermined feature is extracted from the road surface region as a score B. .. Then, the estimation unit 134 obtains an average such as {(1-α) A + αB} / 2 (α is an arbitrary constant), and uses this average value as the certainty of estimation. As a result, the estimation unit 134 controls traffic in front of the own vehicle M with the highest certainty when, for example, in both the sky region and the road surface region, the number of image regions from which predetermined features are extracted is a predetermined number or more. When it is estimated that a point exists and the number of image regions from which predetermined features are extracted is equal to or greater than the predetermined number in only one of the regions, the predetermined features are extracted in both the sky region and the road surface region. It is presumed that the traffic control point exists in front of the own vehicle M with a lower certainty than the case where the image area is equal to or larger than a predetermined number.

例えば、所定の処理が自車両Mを減速させることである場合、行動計画生成部140は、推定部134によって交通制御地点が存在していると推定されたときの確信度が大きいほど、自車両Mをより減速させる目標軌道を生成してよい。 For example, when the predetermined process is to decelerate the own vehicle M, the action plan generation unit 140 increases the certainty when the traffic control point is estimated by the estimation unit 134, the greater the certainty of the own vehicle. A target trajectory that slows down M may be generated.

また、例えば、所定の処理が二次元あるいは三次元の物体を認識することである場合、認識部130は、パターンマッチングなどの画像処理によって物体を認識する処理を繰り返す周期を短くしてよい。 Further, for example, when the predetermined process is to recognize a two-dimensional or three-dimensional object, the recognition unit 130 may shorten the cycle of repeating the process of recognizing the object by image processing such as pattern matching.

また、上述した図16に示すフローチャートは、上述した第1実施形態と同様に、認識部130によって所定の道路標示が認識された場合に開始されてもよい。この場合、推定部134は、所定の道路標示が認識された状態で、上空領域および路面領域の一方または双方で、所定の特徴が抽出された画像領域が所定数以上となった場合、所定の道路標示が認識されていない状態で、上空領域および路面領域の一方または双方で、所定の特徴が抽出された画像領域が所定数以上となった場合に比して、より高い確信度で自車両Mの前方に交通制御地点が存在していると推定してよい。 Further, the flowchart shown in FIG. 16 described above may be started when a predetermined road marking is recognized by the recognition unit 130, as in the first embodiment described above. In this case, the estimation unit 134 determines when the number of image areas from which the predetermined features are extracted exceeds a predetermined number in one or both of the sky area and the road surface area while the predetermined road marking is recognized. In the state where the road markings are not recognized, the own vehicle has a higher degree of certainty than the case where the number of image areas from which predetermined features are extracted exceeds a predetermined number in one or both of the sky area and the road surface area. It may be estimated that there is a traffic control point in front of M.

以上説明した第2実施形態によれば、カメラ10の画像領域において、水平線よりも上側の上空領域と、水平線よりも下側の路面領域との其々の空間周波数に基づいて、総合的に自車両Mの前方に交通制御地点が存在しているか否かを推定するため、より精度良く走行環境を認識することができる。 According to the second embodiment described above, in the image region of the camera 10, the self is comprehensively based on the spatial frequencies of the sky region above the horizon and the road surface region below the horizon. Since it is estimated whether or not a traffic control point exists in front of the vehicle M, the traveling environment can be recognized more accurately.

<第3実施形態>
以下、第3実施形態について説明する。上述した第1および第2実施形態では、一例として、高周波数領域において、パワースペクトル値またはスペクトル強度が、ある閾値以上の空間周波数を所定の特徴として抽出した。これに対して、第3実施形態では、カメラ10の画像から所定のテクスチャを所定の特徴として抽出する点で、上述した第1および第2実施形態と異なる。所定のテクスチャとは、例えば、信号機や、車両感知器、交通情報案内板、道路標識、ガードレール、街路灯、カーブミラーなどを撮像したときに画像から得られるテクスチャである。以下、第1および第2実施形態との相違点を中心に説明し、第1および第2実施形態と共通する機能等についての説明は省略する。
<Third Embodiment>
Hereinafter, the third embodiment will be described. In the first and second embodiments described above, as an example, a spatial frequency having a power spectrum value or a spectral intensity equal to or higher than a certain threshold value is extracted as a predetermined feature in a high frequency region. On the other hand, the third embodiment is different from the first and second embodiments described above in that a predetermined texture is extracted from the image of the camera 10 as a predetermined feature. The predetermined texture is, for example, a texture obtained from an image when a traffic light, a vehicle detector, a traffic information information board, a road sign, a guardrail, a street light, a curved mirror, or the like is imaged. Hereinafter, the differences from the first and second embodiments will be mainly described, and the description of the functions and the like common to the first and second embodiments will be omitted.

図17から図19は、テクスチャとパワースペクトル画像との対比の一例を示す図である。各図の(a)は、ある検索窓によって切り出された画像領域を表し、(b)は、検索窓によって切り出された画像領域を二次元フーリエ変換によってスペクトルに変換したパワースペクトル画像を表している。図17や図18に例示するように、ある方向に関して強く画素値が変化する場合、そのパワースペクトルは、画素値が変化している方向の周波数領域で強くなり、線状の分布が表れやすい。一方で、図19に例示するように、いずれの方向に関しても画素値がある程度変化する場合、そのパワースペクトルは、水平方向および垂直方向の双方の周波数領域において強くなる。上述したように、信号機などの構造物は、ポールや電線などある方向性をもった物体であることから、検索窓によって切り出された画像領域のパワースペクトル画像が、図17や図18に例示するようなパワースペクトル画像である場合、その検索窓によって切り出された画像領域には、方向性をもった物体が含まれていると判断することができる。 17 to 19 are diagrams showing an example of comparison between the texture and the power spectrum image. (A) of each figure represents an image area cut out by a certain search window, and (b) shows a power spectrum image obtained by converting an image area cut out by a search window into a spectrum by a two-dimensional Fourier transform. .. As illustrated in FIGS. 17 and 18, when the pixel value changes strongly in a certain direction, the power spectrum becomes strong in the frequency domain in the direction in which the pixel value changes, and a linear distribution tends to appear. On the other hand, as illustrated in FIG. 19, when the pixel value changes to some extent in any direction, the power spectrum becomes strong in both the horizontal and vertical frequency regions. As described above, since a structure such as a traffic light is an object having a certain directionality such as a pole or an electric wire, a power spectrum image of an image region cut out by a search window is illustrated in FIGS. 17 and 18. In the case of such a power spectrum image, it can be determined that the image area cut out by the search window includes a directional object.

従って、推定部134は、垂直方向の空間周波数の高周波領域と、水平方向の空間周波数の高周波領域との一方または双方において、パワースペクトル値がスペクトル閾値STH以上であることを許容する閾値を設定し、この設定した閾値以下の周波数領域でパワースペクトル値がスペクトル閾値STH以上である場合に、そのパワースペクトル画像の元となった画像領域が所定のテクスチャであると判定する。 Therefore, the estimation unit 134 sets a threshold that allows the power spectrum value to be equal to or higher than the spectral threshold STH in one or both of the high frequency region of the vertical spatial frequency and the high frequency region of the horizontal spatial frequency. Then, when the power spectrum value is equal to or higher than the spectrum threshold STH in the frequency region below the set threshold, it is determined that the image region that is the source of the power spectrum image is a predetermined texture.

図20および図21は、パワースペクトル値がスペクトル閾値STH以上であることを許容する閾値の設定方法を説明するための図である。例えば、推定部134は、図20に示すように、垂直方向の周波数領域において、高周波領域ほど水平方向の周波数領域へのスペクトルの分布の拡がりを許容するように、領域RPSについてはスペクトル閾値STHを設定し、領域RPSを除く他の領域についてはスペクトル閾値STHよりも大きい閾値(例えば無限大として見做せる程度の大きさの閾値)を設定する。また、推定部134は、図21に示すように、水平方向の周波数領域において、高周波領域ほど垂直方向の周波数領域へのスペクトルの分布の拡がりを許容するように、領域RPSについてはスペクトル閾値STHを設定し、領域RPSを除く他の領域についてはスペクトル閾値STHよりも大きい閾値を設定する。これによって、図17や図18に例示するようなパワースペクトル画像については、パワースペクトル値がスペクトル閾値STH以上となり、検出窓によって切り出された画像領域が所定のテクスチャであると判定される。推定部134は、カメラ10の画像に所定のテクスチャが存在する場合、自車両Mの前方に交通制御地点が存在していると推定する。 20 and 21 are diagrams for explaining a method of setting a threshold value that allows the power spectrum value to be equal to or higher than the spectrum threshold value STH. For example, as shown in FIG. 20, the estimation unit 134 allows the spectrum distribution to spread in the horizontal frequency domain as the frequency domain increases in the vertical frequency domain, so that the spectrum threshold value S is set for the region RPS. set the TH, the other region excluding the region R PS sets the spectral threshold S TH greater threshold than (e.g. the order of magnitude of the threshold causing regarded as infinite). Further, as shown in FIG. 21, the estimation unit 134 allows the spectrum distribution to spread to the vertical frequency region as the frequency region increases in the horizontal frequency region, so that the spectrum threshold value S is set for the region RPS. set TH, sets a greater threshold than the spectral threshold S TH for other regions except for the region R PS. As a result, for the power spectrum image as illustrated in FIGS. 17 and 18, the power spectrum value becomes equal to or higher than the spectrum threshold value STH, and it is determined that the image region cut out by the detection window is a predetermined texture. When the image of the camera 10 has a predetermined texture, the estimation unit 134 estimates that the traffic control point exists in front of the own vehicle M.

以上説明した第3実施形態によれば、カメラ10の画像を二次元フーリエ変換して得られたパワースペクトル画像を基に交通制御地点が存在することを推定するため、第1または第2実施形態と同様に、より早いタイミングで走行環境を認識することができる。 According to the third embodiment described above, in order to estimate the existence of a traffic control point based on the power spectrum image obtained by two-dimensional Fourier transforming the image of the camera 10, the first or second embodiment Similarly, the driving environment can be recognized at an earlier timing.

[ハードウェア構成]
上述した実施形態の自動運転制御装置100は、例えば、図22に示すようなハードウェアの構成により実現される。図22は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。
[Hardware configuration]
The automatic operation control device 100 of the above-described embodiment is realized by, for example, a hardware configuration as shown in FIG. FIG. 22 is a diagram showing an example of the hardware configuration of the automatic operation control device 100 of the embodiment.

実施形態の自動運転制御装置100は、通信コントローラ100−1、CPU100−2、RAM(Random Access Memory)100−3、ROM(Read Only Memory)100−4、フラッシュメモリやHDD(Hard Disc Drive)等の二次記憶装置100−5、およびドライブ装置100−6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置100−6には、光ディスク等の可搬型記憶媒体が装着される。二次記憶装置100−5に格納されたプログラム100−5aがDMAコントローラ(不図示)等によってRAM100−3に展開され、CPU100−2によって実行されることで、第1制御部120および第2制御部160が実現される。また、CPU100−2が参照するプログラムは、ドライブ装置100−6に装着された可搬型記憶媒体に格納されていてもよいし、ネットワークNWを介して他の装置からダウンロードされてもよい。 The automatic operation control device 100 of the embodiment includes a communication controller 100-1, a CPU 100-2, a RAM (Random Access Memory) 100-3, a ROM (Read Only Memory) 100-4, a flash memory, an HDD (Hard Disc Drive), or the like. The secondary storage device 100-5 and the drive device 100-6 are connected to each other by an internal bus or a dedicated communication line. A portable storage medium such as an optical disk is mounted on the drive device 100-6. The program 100-5a stored in the secondary storage device 100-5 is expanded into the RAM 100-3 by a DMA controller (not shown) or the like, and executed by the CPU 100-2 to control the first control unit 120 and the second control unit 120. Part 160 is realized. Further, the program referred to by the CPU 100-2 may be stored in the portable storage medium mounted on the drive device 100-6, or may be downloaded from another device via the network NW.

上記実施形態は、以下のように表現することができる。
車両の周辺を撮像するカメラと、
情報を記憶するストレージと、
前記ストレージに格納されたプログラムを実行するプロセッサと、を備え、
前記プロセッサは、前記プログラムを実行することにより、
前記カメラにより撮像された画像の領域のうち、所定高度以上の空間に対応した上空領域が混雑状態であるか否かを判定し、前記上空領域が混雑状態であると判定した場合、前記車両の前方に交通制御地点が存在することを推定するように構成された、
車両制御装置。
The above embodiment can be expressed as follows.
A camera that captures the surroundings of the vehicle and
Storage to store information and
A processor that executes a program stored in the storage is provided.
The processor executes the program.
Of the areas of the image captured by the camera, it is determined whether or not the sky area corresponding to the space above a predetermined altitude is in a congested state, and when it is determined that the sky area is in a congested state, the vehicle It was configured to presume that there was a traffic control point ahead,
Vehicle control device.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1…車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、60…MPU、80…運転操作子、100…自動運転制御装置、120…第1制御部、130…認識部、132…特徴抽出部、134…推定部、140…行動計画生成部、160…第2制御部、162…取得部、164…速度制御部、166…操舵制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、M…自車両、m…他車両 1 ... Vehicle system, 10 ... Camera, 12 ... Radar device, 14 ... Finder, 16 ... Object recognition device, 20 ... Communication device, 30 ... HMI, 40 ... Vehicle sensor, 50 ... Navigation device, 60 ... MPU, 80 ... Driving Operator, 100 ... automatic operation control device, 120 ... first control unit, 130 ... recognition unit, 132 ... feature extraction unit, 134 ... estimation unit, 140 ... action plan generation unit, 160 ... second control unit, 162 ... acquisition 164 ... Speed control unit, 166 ... Steering control unit, 200 ... Travel driving force output device, 210 ... Brake device, 220 ... Steering device, M ... Own vehicle, m ... Other vehicle

Claims (11)

車両の周辺を撮像する撮像部と、
前記撮像部により撮像された画像の領域のうち、所定高度以上の空間に対応した上空領域が混雑状態であるか否かを判定し、前記上空領域が混雑状態であると判定した場合、前記車両の前方に、車両又は歩行者の交通が制御される交通制御地点が存在することを推定する推定部と、を備え、
前記交通制御地点には、交差点、合流地点、分岐地点、又は踏切が含まれる、
両制御装置。
An imaging unit that captures the surroundings of the vehicle and
When it is determined whether or not the sky region corresponding to the space above a predetermined altitude is in a congested state among the regions of the image captured by the imaging unit, and when it is determined that the sky region is in a congested state, the vehicle In front of, an estimation unit that estimates that there is a traffic control point where the traffic of vehicles or pedestrians is controlled is provided.
The traffic control points include intersections, confluences, branch points, or railroad crossings.
Car both control device.
前記推定部は、前記上空領域が混雑状態であると判定した場合、混雑状態である前記上空領域の位置に対応した道路上の位置に、前記交通制御地点が存在することを推定する、 請求項1に記載の車両制御装置。 When the estimation unit determines that the sky area is in a congested state, the estimation unit estimates that the traffic control point exists at a position on the road corresponding to the position of the sky area in the congested state. The vehicle control device according to 1. 前記推定部は、二次元フーリエ変換によって前記上空領域の画素値の変化から求めた空間周波数に基づいて、前記上空領域が混雑状態であるか否かを判定する、
請求項1または2に記載の車両制御装置。
The estimation unit determines whether or not the sky region is in a congested state based on the spatial frequency obtained from the change in the pixel value of the sky region by the two-dimensional Fourier transform.
The vehicle control device according to claim 1 or 2.
前記推定部は、前記空間周波数のうち所定周波数以上の成分の強度が閾値以上である場合に、前記上空領域が混雑状態であると判定する、
請求項3に記載の車両制御装置。
The estimation unit determines that the sky region is in a congested state when the intensity of a component of the spatial frequency equal to or higher than a predetermined frequency is equal to or higher than a threshold value.
The vehicle control device according to claim 3.
前記推定部は、更に、
前記撮像部により撮像された画像の領域のうち、道路の空間に対応した路面領域が混雑状態であるか否かを判定し、
前記上空領域が混雑状態であり、且つ前記路面領域が混雑状態であると判定した場合、前記上空領域および前記路面領域の一方または双方が混雑状態でないと判定した場合に比して、より高い確信度で前記交通制御地点が存在することを推定する、
請求項1から4のうちいずれか1項に記載の車両制御装置。
The estimation unit further
Of the areas of the image captured by the imaging unit, it is determined whether or not the road surface area corresponding to the road space is in a congested state.
When it is determined that the sky area is in a congested state and the road surface area is in a congested state, the certainty is higher than when it is determined that one or both of the sky area and the road surface area is not in a congested state. Estimate the existence of the traffic control point,
The vehicle control device according to any one of claims 1 to 4.
前記車両が存在する道路から前記交通制御地点の存在を示す道路標示を認識する認識部を更に備え、
前記推定部は、前記上空領域が混雑状態であると判定した場合に、前記認識部により前記道路標示が認識された場合、前記認識部により前記道路標示が認識されない場合に比して、より高い確信度で前記交通制御地点が存在することを推定する、
請求項1から5のうちいずれか1項に記載の車両制御装置。
Further provided with a recognition unit that recognizes a road marking indicating the existence of the traffic control point from the road on which the vehicle is located.
The estimation unit is higher when the recognition unit recognizes the road marking when it is determined that the sky area is in a congested state, as compared with the case where the recognition unit does not recognize the road marking. Estimate the existence of the traffic control point with certainty,
The vehicle control device according to any one of claims 1 to 5.
前記車両が存在する道路から前記交通制御地点の存在を示す道路標示を認識する認識部を更に備え、
前記推定部は、前記認識部により前記道路標示が認識された場合、前記上空領域が混雑状態であるか否かの判定処理を開始する、
請求項1から6のうちいずれか1項に記載の車両制御装置。
Further provided with a recognition unit that recognizes a road marking indicating the existence of the traffic control point from the road on which the vehicle is located.
When the road marking is recognized by the recognition unit, the estimation unit starts a process of determining whether or not the sky area is in a congested state.
The vehicle control device according to any one of claims 1 to 6.
前記交通制御地点の存在を示す構造物を認識する認識部を更に備え、
前記認識部は、前記推定部により前記交通制御地点が存在することが推定された場合、前記構造物の認識処理を開始する、
請求項1から5のうちいずれか1項に記載の車両制御装置。
A recognition unit that recognizes a structure indicating the existence of the traffic control point is further provided.
When it is estimated by the estimation unit that the traffic control point exists, the recognition unit starts the recognition process of the structure.
The vehicle control device according to any one of claims 1 to 5.
前記車両の少なくとも加減速を制御する運転制御部を更に備え、
前記運転制御部は、前記推定部により前記交通制御地点が存在することが推定された場合、前記車両を減速させる、
請求項1から8のうちいずれか1項に記載の車両制御装置。
A driving control unit that controls at least acceleration / deceleration of the vehicle is further provided.
The driving control unit decelerates the vehicle when the estimation unit estimates that the traffic control point exists.
The vehicle control device according to any one of claims 1 to 8.
撮像部が、車両の周辺を撮像し、
推定部が、前記撮像部により撮像された画像の領域のうち、所定高度以上の空間に対応した上空領域が混雑状態であるか否かを判定し、前記上空領域が混雑状態であると判定した場合、前記車両の前方に、車両又は歩行者の交通が制御される交通制御地点が存在することを推定し、
前記交通制御地点には、交差点、合流地点、分岐地点、又は踏切が含まれる、
車両制御方法。
The image pickup unit captures the surroundings of the vehicle and
The estimation unit determines whether or not the sky region corresponding to the space above a predetermined altitude is in a congested state among the regions of the image captured by the imaging unit, and determines that the sky region is in a congested state. In this case, it is estimated that there is a traffic control point in front of the vehicle in which the traffic of the vehicle or pedestrian is controlled.
The traffic control points include intersections, confluences, branch points, or railroad crossings.
Vehicle control method.
車両の周辺を撮像する撮像部を備える車両に搭載されるコンピュータに、
前記撮像部により撮像された画像の領域のうち、所定高度以上の空間に対応した上空領域が混雑状態であるか否かを判定させ、
前記上空領域が混雑状態であると判定させた場合、前記車両の前方に、車両又は歩行者の交通が制御される交通制御地点が存在することを推定させ、
前記交通制御地点には、交差点、合流地点、分岐地点、又は踏切が含まれる、
プログラム。
A computer mounted on a vehicle equipped with an imaging unit that captures the surroundings of the vehicle
Of the areas of the image captured by the imaging unit, it is determined whether or not the sky area corresponding to the space above the predetermined altitude is in a congested state.
When it is determined that the sky area is in a congested state, it is estimated that there is a traffic control point in front of the vehicle in which the traffic of the vehicle or pedestrian is controlled .
The traffic control points include intersections, confluences, branch points, or railroad crossings.
program.
JP2017222427A 2017-11-20 2017-11-20 Vehicle control devices, vehicle control methods, and programs Active JP6839642B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017222427A JP6839642B2 (en) 2017-11-20 2017-11-20 Vehicle control devices, vehicle control methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017222427A JP6839642B2 (en) 2017-11-20 2017-11-20 Vehicle control devices, vehicle control methods, and programs

Publications (2)

Publication Number Publication Date
JP2019095875A JP2019095875A (en) 2019-06-20
JP6839642B2 true JP6839642B2 (en) 2021-03-10

Family

ID=66971615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017222427A Active JP6839642B2 (en) 2017-11-20 2017-11-20 Vehicle control devices, vehicle control methods, and programs

Country Status (1)

Country Link
JP (1) JP6839642B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10926777B2 (en) * 2018-10-18 2021-02-23 Toyota Research Institute, Inc. Vehicles and methods of controlling a vehicle to accommodate vehicle cut-in
JP7151654B2 (en) 2019-07-26 2022-10-12 トヨタ自動車株式会社 Search device, learning device, search system, search program, and learning program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09243389A (en) * 1996-03-08 1997-09-19 Alpine Electron Inc On-vehicle navigation system
JP4569837B2 (en) * 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 Feature information collecting apparatus and feature information collecting method
JP2016162212A (en) * 2015-03-02 2016-09-05 パイオニア株式会社 Imaging device, control method, program, and storage medium

Also Published As

Publication number Publication date
JP2019095875A (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP7048398B2 (en) Vehicle control devices, vehicle control methods, and programs
US11157751B2 (en) Traffic guide object recognition device, traffic guide object recognition method, and storage medium
JP7071173B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6782370B2 (en) Vehicle control device, vehicle control method, and program
US20190146519A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6627127B2 (en) Vehicle control device, vehicle control method, and program
JP6974484B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6859239B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6676025B2 (en) Vehicle control device, vehicle control method, and program
JP7085371B2 (en) Vehicle control devices, vehicle control methods, and programs
CN110001641B (en) Vehicle control device, vehicle control method, and storage medium
JP6827026B2 (en) Vehicle control devices, vehicle control methods, and programs
CN110949376B (en) Vehicle control device, vehicle control method, and storage medium
JP2019067295A (en) Vehicle control device, vehicle control method, and program
CN111231961A (en) Vehicle control device, vehicle control method, and storage medium
JP6965152B2 (en) Vehicle control devices, vehicle control methods, and programs
JP7080091B2 (en) Vehicle control devices, vehicle control methods, and programs
US11738753B2 (en) Vehicle control device, vehicle control method, and storage medium
JP6994982B2 (en) Vehicle control systems, vehicle control methods, and programs
JP6839642B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2021064056A (en) Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program
JP6648384B2 (en) Vehicle control device, vehicle control method, and program
JP2021009624A (en) Vehicle control system, vehicle control method, and program
JP6858110B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6583697B2 (en) Perimeter monitoring device, control device, perimeter monitoring method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210215

R150 Certificate of patent or registration of utility model

Ref document number: 6839642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150