JP7196781B2 - Information processing device and driving support system - Google Patents

Information processing device and driving support system Download PDF

Info

Publication number
JP7196781B2
JP7196781B2 JP2019111471A JP2019111471A JP7196781B2 JP 7196781 B2 JP7196781 B2 JP 7196781B2 JP 2019111471 A JP2019111471 A JP 2019111471A JP 2019111471 A JP2019111471 A JP 2019111471A JP 7196781 B2 JP7196781 B2 JP 7196781B2
Authority
JP
Japan
Prior art keywords
vehicle
information processing
processing device
determination unit
tunnel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019111471A
Other languages
Japanese (ja)
Other versions
JP2020204842A (en
Inventor
健一 田中
翔 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019111471A priority Critical patent/JP7196781B2/en
Publication of JP2020204842A publication Critical patent/JP2020204842A/en
Application granted granted Critical
Publication of JP7196781B2 publication Critical patent/JP7196781B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、車両周辺の物体を認識する技術に関する。 The present disclosure relates to technology for recognizing objects around a vehicle.

従来、車両に搭載されたカメラの撮影画像に基づいて周囲の環境等を検出する技術が知られている。例えば、下記特許文献1には、撮影画像に基づいてトンネルの出入り口があることを検出する技術が提案されている。 2. Description of the Related Art Conventionally, there has been known a technique for detecting the surrounding environment and the like based on an image captured by a camera mounted on a vehicle. For example, Patent Literature 1 below proposes a technique for detecting the presence of an entrance/exit of a tunnel based on a photographed image.

特開2009-255722号公報JP 2009-255722 A

車両に搭載されたカメラの撮影画像に基づいて車両周辺の物体を検出し、運転支援を行う技術も提案されている。しかしながら、発明者の詳細な検討の結果、トンネル出入り口のような明るさが急変する場面では、撮影画像に物体が良好に示されず、運転支援の継続が困難になってしまうという課題が見出された。 A technique for detecting objects around the vehicle based on images captured by a camera mounted on the vehicle and assisting driving has also been proposed. However, as a result of a detailed study by the inventor, it was found that in a scene where the brightness changes suddenly, such as at the entrance of a tunnel, the object is not shown well in the captured image, making it difficult to continue driving support. rice field.

本開示の1つの局面は、運転支援の継続時間を延ばすことができる技術を提供する。 One aspect of the present disclosure provides a technology capable of extending the duration of driving assistance.

本開示の一態様は、撮影装置(11)及び運転支援装置(12)を備える車両にて用いられる情報処理装置(13)である。情報処理装置は、第1判定部(33)と、第2判定部(34)と、推定部(35)と、出力部(36)と、を備える。第1判定部は、車両の前方にトンネルの出入り口が存在することを判定するように構成される。第2判定部は、車両の前方を走行する先行車がトンネルの出入り口を通過することを判定するように構成される。推定部は、撮影装置を用いて取得される画像であって車両の周辺を示す周辺画像(55B,56B,57B)に基づいて、先行車について推定される挙動を示す情報である推定情報を取得するように構成される。出力部は、少なくとも下記の(i),(ii)の要件を含む出力条件を満たしたときに、推定部により取得された推定情報を運転支援装置に出力するように構成される。(i)第1判定部により車両の前方に出入り口が存在すると判定される。(ii)第2判定部により先行車が出入り口を通過すると判定される。 One aspect of the present disclosure is an information processing device (13) used in a vehicle including an imaging device (11) and a driving support device (12). The information processing device includes a first determination section (33), a second determination section (34), an estimation section (35), and an output section (36). The first determination unit is configured to determine that a tunnel entrance exists in front of the vehicle. The second determination unit is configured to determine that a preceding vehicle traveling in front of the vehicle passes through the entrance/exit of the tunnel. The estimating unit acquires estimation information, which is information indicating the estimated behavior of the preceding vehicle, based on peripheral images (55B, 56B, 57B) that are images acquired using an imaging device and that indicate the periphery of the vehicle. configured to The output unit is configured to output the estimation information acquired by the estimation unit to the driving support device when output conditions including at least the following requirements (i) and (ii) are satisfied. (i) The first determination unit determines that there is an entrance/exit in front of the vehicle. (ii) The second determination unit determines that the preceding vehicle passes through the entrance.

このような構成であれば、車両の前方にトンネル出入り口が存在し、かつ、先行車がトンネル出入り口を通過すると判定されたとき、つまり先行車の追跡が困難となりやすい場面で推定情報を出力することができるため、運転支援の継続時間を延ばすことができる。 With such a configuration, it is possible to output estimated information when it is determined that a tunnel entrance exists in front of the vehicle and the preceding vehicle passes through the tunnel entrance, that is, in a situation where tracking of the preceding vehicle is likely to be difficult. Therefore, the duration of driving support can be extended.

本開示の別の態様は、車両(3)に搭載して用いられる運転支援システム(1)であって、撮影装置(11)と、運転支援装置(12)と、上述した情報処理装置(13)と、を備える。このような構成によれば、上述した本開示の別の態様の情報処理装置を備えることによる運転支援の継続時間を延ばすという効果を実現させることができる。 Another aspect of the present disclosure is a driving assistance system (1) mounted on a vehicle (3) and used, comprising a photographing device (11), a driving assistance device (12), and the information processing device (13) described above. ) and According to such a configuration, it is possible to realize the effect of extending the duration of driving assistance by providing the information processing device of another aspect of the present disclosure described above.

運転支援システムの構成を示すブロック図である。1 is a block diagram showing the configuration of a driving assistance system; FIG. 実施形態の情報処理装置の機能ブロック図である。1 is a functional block diagram of an information processing device according to an embodiment; FIG. 図3Aが、先行車がトンネルに進入する前の画像を示す図であり、図3Bが、先行車がトンネルに進入した後の画像を示す図である。FIG. 3A is a diagram showing an image before the preceding vehicle enters the tunnel, and FIG. 3B is a diagram showing an image after the preceding vehicle enters the tunnel. 図4Aが、先行車がトンネルを脱出する前の画像を示す図であり、図4Bが、先行車がトンネルを脱出した後の画像を示す図である。FIG. 4A is a diagram showing an image before the preceding vehicle exits the tunnel, and FIG. 4B is a diagram showing an image after the preceding vehicle has exited the tunnel. 情報出力処理のフローチャートである。It is a flow chart of information output processing. 環境トンネル判定処理のフローチャートである。8 is a flowchart of environmental tunnel determination processing; 判定エリアの設定方法を説明する図である。It is a figure explaining the setting method of a determination area. 物体トンネル判定処理のフローチャートである。4 is a flowchart of object tunnel determination processing; 図9Aはトンネル進入直前の先行車を示す画像であり、図9Bは図9Aと同じ視点の視差画像である。FIG. 9A is an image showing a preceding vehicle immediately before entering a tunnel, and FIG. 9B is a parallax image from the same viewpoint as in FIG. 9A. 図10Aはトンネル進入中の先行車を示す画像であり、図10Bは図10Aと同じ視点の視差画像である。FIG. 10A is an image showing a preceding vehicle entering a tunnel, and FIG. 10B is a parallax image from the same viewpoint as in FIG. 10A. 図11Aはトンネル進入後の先行車を示す画像であり、図11Bは図11Aと同じ視点の視差画像である。FIG. 11A is an image showing the preceding vehicle after entering the tunnel, and FIG. 11B is a parallax image from the same viewpoint as in FIG. 11A. 平均輝度の変化率の変化と視差点数割合の変化率の変化との例を示すグラフである。7 is a graph showing an example of changes in the rate of change in average luminance and changes in the rate of change in the number of parallax points; 外挿処理のタイミングの例を説明する図である。It is a figure explaining the example of the timing of an extrapolation process. 外挿処理のタイミングの例を説明する図である。It is a figure explaining the example of the timing of an extrapolation process. 物体矩形枠の設定範囲を説明する図である。It is a figure explaining the setting range of an object rectangular frame. 変形例の情報処理装置の機能ブロック図である。It is a functional block diagram of an information processing device of a modification.

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.実施形態]
[1-1.構成]
図1に示される運転支援システム1は、車両3に搭載して用いられるシステムであって、ステレオカメラ11と、運転支援装置12と、情報処理装置13と、を備える。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. embodiment]
[1-1. composition]
A driving assistance system 1 shown in FIG. 1 is a system mounted on a vehicle 3 and used, and includes a stereo camera 11 , a driving assistance device 12 , and an information processing device 13 .

ステレオカメラ11は、右カメラ11a及び左カメラ11bを備える。右カメラ11a及び左カメラ11bは、互いに同期が取られたCCDセンサやCMOSセンサ等のイメージセンサを備える。右カメラ11a及び左カメラ11bは、例えば、車両3のフロントガラスの内側において、車幅方向に所定の間隔をあけて、路面から同じ高さに取り付けられている。右カメラ11a及び左カメラ11bは、所定の周期(例えば、0.1秒間隔)で車両3の周辺を繰り返し撮影する。ステレオカメラ11が撮影装置に相当する。 The stereo camera 11 includes a right camera 11a and a left camera 11b. The right camera 11a and the left camera 11b are equipped with image sensors such as CCD sensors and CMOS sensors that are synchronized with each other. The right camera 11a and the left camera 11b are mounted, for example, inside the windshield of the vehicle 3 at the same height from the road surface with a predetermined gap in the vehicle width direction. The right camera 11a and the left camera 11b repeatedly photograph the surroundings of the vehicle 3 at predetermined intervals (for example, 0.1 second intervals). The stereo camera 11 corresponds to a photographing device.

運転支援装置12は、図示しないCPU、ROM、RAM及びI/O等を備えたマイクロコンピュータを備えた装置である。運転支援装置12は、先行車との車間距離を維持するように加減速を行う、いわゆるアダプティブ・クルーズ・コントロール(以下、ACC)の制御が可能に構成されている。運転支援装置12は、情報処理装置13により出力される物体情報及び推定情報を用いてACCを実行する。 The driving support device 12 is a device provided with a microcomputer including a CPU, ROM, RAM and I/O (not shown). The driving support device 12 is configured to perform so-called adaptive cruise control (hereinafter, ACC) that accelerates and decelerates so as to maintain a distance to the preceding vehicle. The driving assistance device 12 performs ACC using the object information and estimation information output by the information processing device 13 .

情報処理装置13は、CPU21と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ22)と、を有するマイクロコンピュータを備える。情報処理装置13の各機能は、CPU21がメモリ22に格納されたプログラムを実行することにより実現される。 The information processing device 13 includes a microcomputer having a CPU 21 and a semiconductor memory such as RAM or ROM (hereinafter referred to as memory 22). Each function of the information processing device 13 is realized by executing a program stored in the memory 22 by the CPU 21 .

情報処理装置13は、図2に示されるように、視差検出部31と、第1判定部33と、第2判定部34と、推定部35と、出力部36と、を備える。また情報処理装置13は、物体認識・追跡部32を備えてもよい。 The information processing device 13 includes a parallax detection unit 31, a first determination unit 33, a second determination unit 34, an estimation unit 35, and an output unit 36, as shown in FIG. The information processing device 13 may also include an object recognition/tracking unit 32 .

視差検出部31は、ステレオカメラ11を用いて取得された視差画像における車両3の前方を走行する先行車を示す特徴点である視差点を検出する。視差画像には、画像上のエッジ部分を中心に多数の視差点が含まれる。視差点は公知の手法により取得できる。本実施形態では、視差検出部31は、右カメラ11a及び左カメラ11bにより撮影がなされた都度、取得された左右の画像のアナログデータを、画素ごとに、所定の輝度階調のデジタルデータに変換する。そして、視差検出部31は、左右のデジタル画像のステレオマッチングを行って視差を算出し、視差画像を生成する。視差画像が、周辺画像に相当する。また、視差検出部31が、検出部に相当する。 The parallax detection unit 31 detects a parallax point, which is a characteristic point indicating a preceding vehicle running in front of the vehicle 3 in the parallax image acquired using the stereo camera 11 . A parallax image includes a large number of parallax points centering on an edge portion on the image. A parallax point can be obtained by a known technique. In the present embodiment, the parallax detection unit 31 converts the analog data of the left and right images acquired each time the right camera 11a and the left camera 11b take pictures into digital data with a predetermined luminance gradation for each pixel. do. Then, the parallax detection unit 31 performs stereo matching of the left and right digital images to calculate parallax and generate a parallax image. A parallax image corresponds to a peripheral image. Also, the parallax detection unit 31 corresponds to the detection unit.

物体認識・追跡部32は、視差画像から、物体を検出すると共に、異なるタイミングで取得された視差画像における同一の物体の追跡を行い、物体の移動速度及び車両3からの距離を算出し、さらに、物体の種別を判定する。物体認識・追跡部32は公知の方法を用いてこれらの処理を実行する。 The object recognition/tracking unit 32 detects an object from the parallax images, tracks the same object in the parallax images acquired at different timings, calculates the moving speed of the object and the distance from the vehicle 3, and further , to determine the type of the object. The object recognition/tracking unit 32 performs these processes using known methods.

第1判定部33は、車両3の前方にトンネルの出入り口が存在することを判定する。ここでいう出入り口とは、車両3がトンネルに進入する際の入り口と、トンネルから離脱する際の出口と、の両方を含む。 The first determination unit 33 determines that a tunnel entrance exists in front of the vehicle 3 . The term "entrance" as used herein includes both an entrance when the vehicle 3 enters the tunnel and an exit when the vehicle 3 leaves the tunnel.

この第1判定部33は、後述する中央エリア61が、中央エリア61の周囲に位置する後述する路面エリア62及び周縁部エリア63と比較して明るい場合又は暗い場合に、車両3の前方にトンネルの出入り口が存在すると判定する。中央エリア61は、車両3の前方を撮影した画像における消失点を含む領域である。中央エリア61が第1範囲に相当し、路面エリア62及び周縁部エリア63が第2範囲に相当する。撮影された画像における各領域の明るさは、例えば輝度に基づいて判断することができるが、これに限らず、画像における明るい被写体を撮影した領域と暗い被写体を撮影した領域とを分類しうる様々なパラメータを利用することができる。 The first determination unit 33 determines whether the central area 61, which will be described later, is brighter or darker than the road surface area 62 and the peripheral area 63, which are located around the central area 61, and the tunnel is located in front of the vehicle 3. is determined to exist. A central area 61 is an area including a vanishing point in an image of the front of the vehicle 3 . The central area 61 corresponds to the first range, and the road surface area 62 and the peripheral edge area 63 correspond to the second range. The brightness of each area in the captured image can be determined, for example, based on luminance, but is not limited to this. parameters can be used.

第2判定部34は、車両3の前方を走行する先行車がトンネルの出入り口を通過することを判定する。第2判定部34は、視差画像における先行車が存在する所定領域の輝度の変化率が所定の閾値よりも大きく、かつ、所定領域における視差点数の変化率が所定の閾値よりも大きいときに、先行車がトンネル出入り口を通過すると判定する。 The second determination unit 34 determines that a preceding vehicle traveling in front of the vehicle 3 passes through the entrance/exit of the tunnel. When the rate of change in brightness of a predetermined region in the parallax image where the preceding vehicle exists is greater than a predetermined threshold and the rate of change in the number of parallax points in the predetermined region is greater than a predetermined threshold, the second determination unit 34 It is determined that the preceding vehicle passes through the tunnel entrance.

推定部35は、先行車の挙動を示す情報である、物体情報及び推定情報を取得する。これらの情報は、視差画像に含まれる物体の位置又は移動に関する情報を含む。以下の説明で、物体とは、視差画像に基づいて検出される物体を指す。 The estimation unit 35 acquires object information and estimation information, which are information indicating the behavior of the preceding vehicle. These information include information about the position or movement of objects included in the parallax images. In the following description, an object refers to an object detected based on parallax images.

物体情報には、物体距離、縦方向相対速度、物体横位置、横方向相対速度、物体横幅、物体種別などが含まれる。物体距離とは、車両3から検出された物体までの距離である。縦方向相対速度とは、車両3の進行方向に関する車両3を基準とした物体の相対速度である。相対速度は過去の複数の視差画像に係る特徴点を用いることで算出できる。物体横位置は、車両3を基準とした、車両3の進行方向と直交する方向の物体の位置である。横方向相対速度とは、車両3の進行方向と直交する方向に関する車両3を基準とした物体の相対速度である。物体横幅は上述した直交する方向に関する物体の長さである。物体種別は、物体の大きさ、移動速度、形状などから推定される物体の種別である。なお本実施形態では、物体が先行車である場合に、物体情報や推定情報を演算により取得する。なお、物体情報の上記の内容はあくまでも例示であって、上記の内容に限定されるものではない。例えば運転支援に用いることができる様々な情報を物体情報として用いることができる。 The object information includes object distance, longitudinal relative velocity, object lateral position, lateral relative velocity, object lateral width, object type, and the like. The object distance is the distance from the vehicle 3 to the detected object. The longitudinal relative velocity is the relative velocity of an object with respect to the vehicle 3 in the traveling direction of the vehicle 3 . The relative velocity can be calculated by using feature points related to a plurality of past parallax images. The object lateral position is the position of the object in the direction perpendicular to the traveling direction of the vehicle 3 with respect to the vehicle 3 . The lateral relative velocity is the relative velocity of an object with respect to the vehicle 3 in a direction perpendicular to the traveling direction of the vehicle 3 . The object width is the length of the object in the orthogonal directions mentioned above. The object type is the type of object estimated from the size, moving speed, shape, and the like of the object. Note that in this embodiment, when the object is the preceding vehicle, the object information and the estimated information are acquired by computation. Note that the above content of the object information is merely an example, and is not limited to the above content. For example, various information that can be used for driving assistance can be used as object information.

また推定部35は、物体情報を、視差検出部31により検出された視差点に基づいて取得する。推定部35は、物体の位置を、画像上の視差点の位置と該視差点が示す距離とにより特定する。また推定部35は、物体の速度を、現在及び過去の視差画像に含まれる先行車に係る視差点を利用して求める。物体情報は、最新の視差画像に含まれる先行車に係る視差点を用いて求められる、現時点での先行車の挙動を示す情報である。 The estimation unit 35 also acquires object information based on the parallax points detected by the parallax detection unit 31 . The estimation unit 35 identifies the position of the object based on the position of the parallax point on the image and the distance indicated by the parallax point. The estimation unit 35 also obtains the velocity of the object using the parallax points of the preceding vehicle included in the current and past parallax images. The object information is information indicating the current behavior of the preceding vehicle, which is obtained using parallax points related to the preceding vehicle included in the latest parallax image.

推定情報は、物体情報と同一種類の内容、つまり、物体距離、縦方向相対速度、物体横位置、横方向相対速度、物体横幅、物体種別などを含む。一方で、推定情報は物体情報とは異なり、先行車について推定される挙動を示す情報である。言い換えると、ある視差画像が取得されたタイミング(以下、基準タイミングと記載する)よりも後のタイミングにおける先行車の位置や速度について、予測される挙動を示す情報である。推定情報の各内容は次のように求められる。物体距離は、基準タイミングにおける物体の速度と等速運動を行ったものと仮定して、車両3の移動を考慮して計算される。縦方向相対速度,物体横位置,物体横幅,物体種別は、基準タイミングにおける値や内容がそのまま用いられる。横方向相対速度は、「0」と設定される。つまり横方向の相対的な移動は生じていないものと推定される。上述した推定情報の各内容の算出・設定方法はあくまで一例であり、上述した内容に限定されるものではない。例えば、横方向相対速度は基準タイミングにおける値であってもよい。 The estimated information includes the same types of content as the object information, that is, object distance, vertical relative velocity, horizontal position of object, relative horizontal velocity, horizontal width of object, type of object, and the like. On the other hand, unlike the object information, the estimation information is information indicating the behavior estimated for the preceding vehicle. In other words, it is information that indicates the predicted behavior of the position and speed of the preceding vehicle at the timing after the timing at which a certain parallax image is acquired (hereinafter referred to as the reference timing). Each content of estimated information is obtained as follows. The object distance is calculated in consideration of the movement of the vehicle 3, assuming that the object has a constant velocity at the reference timing. As for the vertical relative velocity, the horizontal position of the object, the horizontal width of the object, and the type of the object, the values and contents at the reference timing are used as they are. The lateral relative velocity is set to "0". In other words, it is presumed that relative movement in the lateral direction has not occurred. The method of calculating and setting each content of the estimated information described above is merely an example, and is not limited to the content described above. For example, the lateral relative velocity may be a value at the reference timing.

出力部36は、推定部35により取得された推定情報又は物体情報を運転支援装置12に出力する。推定情報の出力を、外挿処理とも記載する。推定情報は、所定の出力条件を満たしたときに出力される。出力条件とは、(i)第1判定部33により車両3の前方にトンネルの出入り口が存在すると判定されたこと、及び、(ii)第2判定部34により先行車が出入り口を通過すると判定されたこと、を要件として含む。 The output unit 36 outputs the estimation information or the object information acquired by the estimation unit 35 to the driving assistance device 12 . The output of estimated information is also described as extrapolation processing. The estimated information is output when a predetermined output condition is satisfied. The output conditions are (i) that the first determination unit 33 determines that there is a tunnel entrance in front of the vehicle 3, and (ii) that the second determination unit 34 determines that the preceding vehicle will pass through the entrance. as a requirement.

本願の技術思想を、車両3の前方が撮影された画像の例を示す図3A-図4Bを用いて説明する。図3Aに示される画像51のように、トンネルによって暗くなる領域の直前を走行する先行車101は画像51に明確に示される。しかしながら先行車101がトンネル入り口から内部に進入すると、図3Bに示されるように、先行車101は暗くなる。カメラのダイナミックレンジがトンネル外部の明るさを基準に設定されていると、トンネル内部の暗い部分は認識されにくくなり、先行車101を認識できなくなる。その結果、物体情報を取得できず、例えばACC制御を継続できないなどの影響が生じる。そこで、先行車101がトンネルに進入したときには、一定期間、先行車101が存在すると仮定して運転支援装置12に推定情報を出力する。なお、トンネル出口においても同様であり、図4Aに示されるように、先行車101がトンネル内に位置していれば画像53に明確に示されるが、図4Bに示されるように、先行車101がトンネル外に出ると画像から消失してしまう。この場合も同様に、先行車101が存在すると仮定して運転支援装置12に推定情報を出力する。 The technical idea of the present application will be described with reference to FIGS. 3A to 4B showing examples of images of the front of the vehicle 3. FIG. As in the image 51 shown in FIG. 3A, the preceding vehicle 101 driving just before the area darkened by the tunnel is clearly shown in the image 51 . However, when the preceding vehicle 101 enters from the tunnel entrance, the preceding vehicle 101 becomes dark as shown in FIG. 3B. If the dynamic range of the camera is set based on the brightness of the outside of the tunnel, it becomes difficult to recognize the dark part inside the tunnel, and the preceding vehicle 101 cannot be recognized. As a result, object information cannot be acquired, and effects such as continuation of ACC control, for example, occur. Therefore, when the preceding vehicle 101 enters the tunnel, it is assumed that the preceding vehicle 101 exists for a certain period of time, and the estimation information is output to the driving support device 12 . It should be noted that the same is true at the exit of the tunnel, and as shown in FIG. disappears from the image when it exits the tunnel. In this case as well, the estimation information is output to the driving assistance device 12 on the assumption that the preceding vehicle 101 exists.

[1-2.処理]
次に、情報処理装置13が実行する情報出力処理について、図5のフローチャートを用いて説明する。本処理は、周期的に、例えば右カメラ11a及び左カメラ11bにより画像が取得される毎に実行される。
[1-2. process]
Next, information output processing executed by the information processing device 13 will be described using the flowchart of FIG. This process is performed periodically, for example, each time an image is acquired by the right camera 11a and the left camera 11b.

まず、S1では、情報処理装置13の第1判定部33は、環境トンネル判定処理をする。ここでは、ステレオカメラ11により撮影された車両前方の画像に基づいて、車両3の前方にトンネルの出入り口が存在するか否かを判定する。なおトンネル判定処理の対象となる画像は、視差画像であってもよいし、例えば右カメラ11a又は左カメラ11bのいずれかにより撮影された視差画像ではない画像であってもよい。以下の説明では、視差画像でも、同じ範囲を撮影する他の画像でも良い場合は、単に撮影画像と記載する。環境トンネル判定処理の詳細は後述する。 First, in S1, the first determination unit 33 of the information processing device 13 performs environment tunnel determination processing. Here, it is determined whether or not there is a tunnel entrance in front of the vehicle 3 based on an image of the front of the vehicle captured by the stereo camera 11 . The image to be subjected to the tunnel determination process may be a parallax image, or may be an image that is not a parallax image captured by either the right camera 11a or the left camera 11b, for example. In the following description, if a parallax image or another image that captures the same range is acceptable, it will simply be referred to as a captured image. Details of the environment tunnel determination process will be described later.

S2では、情報処理装置13は、S1において車両3の前方にトンネルの出入り口が存在すると判定さているか否かを判定する。情報処理装置13は、S1においてトンネル出入り口が存在すると判定さている場合には、S3へ移行する。一方、情報処理装置13は、S1においてトンネル出入り口が存在すると判定されていない場合には、図5の情報出力処理を終了する。 In S<b>2 , the information processing device 13 determines whether or not it is determined in S<b>1 that there is a tunnel entrance in front of the vehicle 3 . When the information processing device 13 determines in S1 that there is a tunnel entrance/exit, the information processing device 13 proceeds to S3. On the other hand, the information processing device 13 terminates the information output process of FIG. 5 when it is not determined in S1 that there is a tunnel entrance/exit.

S3では、情報処理装置13の第2判定部34は、物体トンネル判定処理をする。ここでは、取得した視差画像に基づいて、車両の前方に検出された物体(即ち先行車)が、トンネル入口に位置する「トンネル入口物体」又はトンネル出口に位置する「トンネル出口物体」のいずれであるか、又はそのどちらでもないかを判定する。物体トンネル判定処理の詳細は後述する。 In S3, the second determination unit 34 of the information processing device 13 performs an object tunnel determination process. Here, based on the acquired parallax images, the object detected in front of the vehicle (that is, the preceding vehicle) is either a "tunnel entrance object" located at the tunnel entrance or a "tunnel exit object" located at the tunnel exit. or neither. Details of the object tunnel determination process will be described later.

S4では、情報処理装置13は、S3でトンネル入口物体であると判定した場合には、S5へ移行し、物体トンネル状態を「入口」と設定した後、S7に移行する。一方、情報処理装置13は、S3でトンネル出口物体であると判定した場合には、S6へ移行し、物体トンネル状態を「出口」と設定した後、S7に移行する。また、情報処理装置13は、S4でトンネル入口物体及びトンネル出口物体のいずれでもないと判定した場合は、物体トンネル状態の設定をクリアした後に、図5の情報出力処理を終了する。 In S4, when the information processing device 13 determines in S3 that the object is a tunnel entrance object, the information processing device 13 proceeds to S5, sets the object tunnel state to "entrance", and then proceeds to S7. On the other hand, when the information processing device 13 determines in S3 that the object is the tunnel exit object, the information processing device 13 proceeds to S6, sets the object tunnel state to "Exit", and then proceeds to S7. When the information processing device 13 determines in S4 that the object is neither a tunnel entrance object nor a tunnel exit object, the information output processing of FIG. 5 is terminated after clearing the setting of the object tunnel state.

S7で、情報処理装置13は、推定情報の外挿処理を行う。その後、図5の情報出力処理を終了する。なお、外挿処理については後述する。
次に、図5の情報出力処理のS1で実行される環境トンネル判定処理について、図6のフローチャートを用いて説明する。
In S7, the information processing device 13 performs extrapolation processing of the estimated information. After that, the information output processing of FIG. 5 is ended. Note that extrapolation processing will be described later.
Next, the environment tunnel determination process executed in S1 of the information output process of FIG. 5 will be described using the flowchart of FIG.

まず、S21では、第1判定部33は、実施条件判定を行い、所定の実施条件を満たしているか否かを判定する。ここでいう実施条件とは、具体的には、車両3が50km/h以上で走行していること、雨天でないこと、夜間でないこと、及び、走行中の道路が直進道路であること、である。これらの要件を全て満たしたときに、実施条件を満たしたと判定される。実施条件の要件は上述した内容に限定されない。例えば、上記以外の他の要件を含んでもよい。また、上記要件を全て含む必要はなく、一部の要件のみが含まれていてもよい。 First, in S21, the first determination unit 33 performs execution condition determination, and determines whether or not a predetermined implementation condition is satisfied. Specifically, the implementation conditions here are that the vehicle 3 is traveling at 50 km/h or more, that it is not raining, that it is not nighttime, and that the road on which it is traveling is a straight road. . When all of these requirements are met, it is determined that the implementation conditions have been met. The requirements of the implementation conditions are not limited to the contents described above. For example, other requirements than those mentioned above may be included. Moreover, it is not necessary to include all of the above requirements, and only a part of the requirements may be included.

第1判定部33は、S21で実施条件を満たしていないと判定した場合には、S30に移行する。一方、第1判定部33は、S21で実施条件を満たしていると判定した場合には、S22へ移行する。 When the first determination unit 33 determines in S21 that the execution condition is not satisfied, the process proceeds to S30. On the other hand, when the first determination unit 33 determines in S21 that the execution condition is satisfied, the process proceeds to S22.

S22では、第1判定部33は、判定エリアを設定する。ここでは、図7に示されるように、撮影された画像51の中から、中央エリア61、路面エリア62、及び周縁部エリア63を設定する。中央エリア61は、消失点を含む領域であり、例えば、画像51における中央の位置を中央エリア61と設定することができる。路面エリア62は中央エリア61の下方を対象とする領域である。周縁部エリア63は中央エリア61の周囲を対象とする領域であり、画像51の外縁近傍に位置する外側の破線63aと、中央エリア61の外側に位置する内側の破線63bと、の間の領域である。 In S22, the first determination unit 33 sets a determination area. Here, as shown in FIG. 7, a central area 61, a road surface area 62, and a peripheral edge area 63 are set from the photographed image 51. FIG. The central area 61 is a region including a vanishing point, and for example, the central position in the image 51 can be set as the central area 61 . The road surface area 62 is an area below the central area 61 . The peripheral edge area 63 is a target area around the central area 61, and is an area between an outer dashed line 63a positioned near the outer edge of the image 51 and an inner dashed line 63b positioned outside the central area 61. is.

S23では、第1判定部33は、中央エリア61の特徴を抽出する。ここでは、中央エリア61と、路面エリア62と、の輝度差を数値化する。例えば、両エリアの輝度値の平均値の差を、輝度差として求めてもよい。 In S<b>23 , the first determination unit 33 extracts features of the central area 61 . Here, the luminance difference between the central area 61 and the road surface area 62 is digitized. For example, the difference between the average luminance values of both areas may be obtained as the luminance difference.

S24では、第1判定部33は、周縁部エリア63の特徴を抽出する。ここでは、中央エリア61と、周縁部エリア63と、の輝度差を数値化する。例えば、両エリアの輝度値の平均値の差を、輝度差として求めてもよい。 In S<b>24 , the first determination unit 33 extracts features of the peripheral edge area 63 . Here, the luminance difference between the central area 61 and the peripheral edge area 63 is quantified. For example, the difference between the average luminance values of both areas may be obtained as the luminance difference.

S25では、第1判定部33は、瞬時環境判定を行い、トンネルであるか否かを判定する。ここでは、S23にて求めた輝度差と、S24にて求めた輝度差と、に基づいてトンネルであるか否かを判定する。例えば、第1判定部33は、それぞれの輝度差が所定の閾値以上に大きい場合に、トンネル出入り口と判定してもよい。さらに、中央エリア61の輝度値が他の輝度値よりも大きい場合にはトンネル出口と判定し、小さい場合にはトンネル入口と判定してもよい。このS25にて得られる判定結果は、以下では、瞬時環境と記載する。瞬時環境は、本処理の対象となる1つの画像を対象として、トンネルを含むか否かを判定した結果である。 In S25, the first determination unit 33 performs instantaneous environment determination to determine whether or not there is a tunnel. Here, it is determined whether or not there is a tunnel based on the luminance difference obtained in S23 and the luminance difference obtained in S24. For example, the first determination unit 33 may determine the entrance/exit of a tunnel when the difference in luminance is greater than or equal to a predetermined threshold value. Furthermore, when the brightness value of the central area 61 is larger than other brightness values, it may be determined as a tunnel exit, and when smaller, it may be determined as a tunnel entrance. The determination result obtained in S25 is hereinafter referred to as an instantaneous environment. The instantaneous environment is the result of determining whether or not a tunnel is included in one image to be processed.

第1判定部33は、S25にてトンネルでないと判定した場合には、S29に移行する。一方、第1判定部33は、S25にて、トンネル出入り口であると判定した場合には、S26へ移行し、瞬時環境継続数を更新する。メモリ22には、瞬時環境がトンネル出入り口であると連続して判定された回数が記憶されており、ここでは、その回数に1を加算する。 When the first determination unit 33 determines that it is not a tunnel in S25, the process proceeds to S29. On the other hand, when the first determination unit 33 determines in S25 that it is a tunnel entrance, it proceeds to S26 and updates the instantaneous environment continuation number. The memory 22 stores the number of consecutive determinations that the instantaneous environment is the entrance/exit of a tunnel. Here, 1 is added to the number of times.

S27では、第1判定部33は、瞬時環境継続数が所定の閾値以上であるか否かを判定する。閾値は、例えば5回としてもよい。第1判定部33は、瞬時環境継続数が所定の閾値以上であれば、S28に移行する。一方、第1判定部33は、瞬時環境継続数が所定の閾値未満であると判定した場合には、S29に移行する。 In S27, the first determination unit 33 determines whether or not the number of instantaneous environmental continuations is greater than or equal to a predetermined threshold. The threshold may be, for example, 5 times. The first determination unit 33 proceeds to S28 if the instantaneous environment continuation number is equal to or greater than the predetermined threshold. On the other hand, when the first determination unit 33 determines that the instantaneous environment continuation number is less than the predetermined threshold value, the process proceeds to S29.

S28では、第1判定部33は、この環境トンネル判定処理によって出力される環境情報(以下、出力環境)として「トンネル入口」又は「トンネル出口」を出力する。その後、図6の環境トンネル判定処理を終了する。 In S28, the first determination unit 33 outputs "tunnel entrance" or "tunnel exit" as environment information (hereinafter, output environment) output by this environmental tunnel determination process. After that, the environmental tunnel determination process of FIG. 6 is terminated.

S29では、第1判定部33は、出力環境保留期間内であるか否かを判定する。出力環境保留期間とは、瞬時環境がトンネル出入り口と判定されなくなった後に、S28にて出力環境を出力する状態を一定時間確保するために設けられた期間である。出力環境保留期間は、最後にS28にてトンネル出入り口である旨の環境情報を出力したときからカウントが開始される。第1判定部33は、S29で出力環境保留期間内であると判定した場合には、S28に移行する。一方、第1判定部33は、S29で出力環境保留期間内でないと判定した場合には、S30へ移行し、出力環境として、トンネル出入り口以外を意味する「その他」を出力した後、図6の環境トンネル判定処理を終了する。 In S29, the first determination unit 33 determines whether or not it is within the output environment holding period. The output environment holding period is a period provided to ensure a state of outputting the output environment in S28 for a certain period of time after the momentary environment is no longer determined to be the tunnel entrance/exit. The output environment holding period starts counting from the time when the environment information indicating that it is the entrance/exit of the tunnel is finally output in S28. When the first determination unit 33 determines in S29 that it is within the output environment holding period, the process proceeds to S28. On the other hand, if the first determination unit 33 determines in S29 that it is not within the output environment holding period, it proceeds to S30, and after outputting "Others" meaning other than the tunnel entrance as the output environment, the output environment shown in FIG. Terminate the environmental tunnel determination process.

次に、図5の情報出力処理のS3で実行される物体トンネル判定処理について、図8のフローチャートを用いて説明する。本処理の概要は、以下の(ア),(イ)の2つの特徴が得られた物体を、トンネルを進入する物体又は脱出する物体と判定することにある。 Next, the object tunnel determination process executed in S3 of the information output process of FIG. 5 will be described using the flowchart of FIG. The outline of this process is to determine an object for which the following two characteristics (a) and (b) are obtained as an object entering or exiting a tunnel.

(ア)画像から検出される物体がトンネル進入・脱出時にトンネル内外の激しい明暗差により黒潰れ又は白飛びし、それにより輝度が大きく変化すること
(イ)黒潰れ又は白飛びにより画像上に物体のエッジが得られなくなり、その結果、視差点数割合が大きく減少すること
なおエッジとは、水平方向又は垂直方向に関して隣接した画素の輝度が急変している部分である。
(a) When an object detected from an image enters or exits a tunnel, blacks are crushed or highlights are blown out due to the large difference in brightness between inside and outside of the tunnel, resulting in a large change in brightness. As a result, the ratio of the number of parallax points is greatly reduced. An edge is a portion where the brightness of adjacent pixels in the horizontal direction or the vertical direction changes abruptly.

まずS41では、第2判定部34は、ロスト判定を行う。ここでは、物体認識・追跡部32により視差画像に基づく物体の追跡が継続されている場合は、ロストしていないと判定し、追跡ができなくなった場合には、ロストしていると判定する。 First, in S41, the second determination unit 34 performs lost determination. Here, if the object recognition/tracking unit 32 continues tracking the object based on the parallax image, it is determined that the object is not lost, and if tracking is no longer possible, it is determined that the object is lost.

第2判定部34は、S41にてロストしていないと判定した場合には、S42へ移行する。一方、第2判定部34は、S41にてロストしていると判定した場合には、S50へ移行する。 When the second determination unit 34 determines that the game is not lost in S41, the process proceeds to S42. On the other hand, when the second determination unit 34 determines that the game is lost in S41, the process proceeds to S50.

S42では、第2判定部34は、実施条件を満たしているか否かを判定する。ここでいう実施条件とは、例えば、検出される物体が車両3と同じ車線にあること、一定期間以上同一の物体を継続して追跡していること、物体が車両であること、物体の移動速度が45km/h以上であること、を要件として含む。実施条件の要件は上述した内容に限定されない。例えば、上記以外の他の要件を含んでもよい。また、上記要件を全て含む必要はなく、一部の要件のみが含まれていてもよい。 In S42, the second determination unit 34 determines whether or not the execution condition is satisfied. The implementation conditions here are, for example, that the object to be detected is in the same lane as the vehicle 3, that the same object is continuously tracked for a certain period of time, that the object is a vehicle, that the object is moving The requirement includes a speed of 45 km/h or higher. The requirements of the implementation conditions are not limited to the contents described above. For example, other requirements than those mentioned above may be included. Moreover, it is not necessary to include all of the above requirements, and only a part of the requirements may be included.

第2判定部34は、S42で実施条件を満たしていないと判定した場合には、S50へ移行する。一方、第2判定部34はS42で実施条件を満たしていると判定した場合には、S43へ移行する。 When the second determination unit 34 determines in S42 that the execution condition is not satisfied, the process proceeds to S50. On the other hand, when the second determination unit 34 determines in S42 that the execution condition is satisfied, the process proceeds to S43.

S43では、第2判定部34は、平均輝度・視差点数割合を算出する。図9Aはトンネル進入直前の先行車101を示す画像55Aであり、図9Bは図9Aに視差点81を重畳した視差画像55Bである。ここでいうトンネル進入とは、より厳密には、トンネルにより日光が遮られる空間への進入を意味する。視差点の距離情報は例えば色彩により示すことが可能であるが、図の理解を容易にするため、距離情報の表示については割愛する。また図10Aはトンネル進入中の先行車101を示す画像56Aであり、図10Bは図10Aに視差点81を重畳した視差画像56Bである。また図11Aはトンネル進入後の先行車101を示す画像57Aであり、図11Bは図11Aに視差点81を重畳した視差画像57Bである。 In S43, the second determination unit 34 calculates the average luminance/parallax point number ratio. 9A is an image 55A showing the preceding vehicle 101 immediately before entering a tunnel, and FIG. 9B is a parallax image 55B obtained by superimposing parallax points 81 on FIG. 9A. The term "entering a tunnel" as used herein more strictly means entering a space where sunlight is blocked by a tunnel. The distance information of the parallax points can be indicated by colors, for example, but the display of the distance information is omitted for easy understanding of the drawing. 10A is an image 56A showing the preceding vehicle 101 entering a tunnel, and FIG. 10B is a parallax image 56B obtained by superimposing a parallax point 81 on FIG. 10A. 11A is an image 57A showing the preceding vehicle 101 after entering the tunnel, and FIG. 11B is a parallax image 57B obtained by superimposing the parallax points 81 on FIG. 11A.

S43では、第2判定部34は、物体を示す物体矩形枠71の平均輝度と視差点数割合を求める。物体矩形枠71は、画像における先行車101が存在する所定領域を特定する枠である。物体矩形枠71は、物体認識・追跡部32が設定してもよい。平均輝度とは、物体矩形枠71に含まれる各画素の輝度の平均値である。視差点数割合とは、視差点の数を物体矩形枠71の面積で割った値である。 In S43, the second determination unit 34 obtains the average luminance and parallax point number ratio of the object rectangular frame 71 representing the object. The object rectangular frame 71 is a frame that identifies a predetermined area in the image where the preceding vehicle 101 exists. The object rectangular frame 71 may be set by the object recognition/tracking unit 32 . The average brightness is the average brightness of each pixel included in the object rectangular frame 71 . The parallax point number ratio is a value obtained by dividing the number of parallax points by the area of the object rectangular frame 71 .

S44では、第2判定部34は、S43にて取得した平均輝度・視差点数割合情報をメモリ22に格納する。これらの情報は、S41にてロストしていると判定されたとき、又はS42で条件を満たしていないと判定されたときに、消去されてもよい。 In S<b>44 , the second determination unit 34 stores the average luminance/number of parallax point ratio information acquired in S<b>43 in the memory 22 . These pieces of information may be erased when it is determined in S41 that they are lost, or when it is determined in S42 that the conditions are not met.

S45では、第2判定部34は、平均輝度・視差点数割合情報の情報蓄積数を判定し、6であるか否かを判定する。この判断基準となる値は6に限定されず、他の数であってもよい。 In S<b>45 , the second determination unit 34 determines the number of stored information of the average luminance/number of parallax points ratio information, and determines whether or not the number is six. The value used as this criterion is not limited to 6, and may be another number.

第2判定部34は、S45で情報蓄積数が6未満であると判定した場合には、S50へ移行する。一方、第2判定部34は、S45で情報蓄積数が6であると判定した場合には、S46へ移行する。 When the second determination unit 34 determines that the number of stored information is less than 6 in S45, the process proceeds to S50. On the other hand, when the second determination unit 34 determines that the number of stored information is 6 in S45, the process proceeds to S46.

S46では、第2判定部34は、物体平均輝度の変化率を算出する。図9Aに示されるように、トンネル進入直前では先行車101は明るく表示されているが、図10Aでは明るい範囲が減少し、図11Aでは、ほぼ存在しない。物体矩形枠71内の平均輝度は、トンネル進入により急減する。そのため、図12に示されるように、平均輝度の変化率は先行車のトンネル進入に伴い低下する。また、トンネル脱出時は逆の変化が生じる。よって、平均輝度の変化率は先行車のトンネル進入の判定材料となる。変化率の求め方は特に限定されないが、例えば、蓄積された6つの平均輝度情報のうち、取得時刻が古い3つの平均輝度のさらに平均値を基準として、取得時間が新しい3つの平均輝度のさらに平均値について変化率を求めてもよい。 In S46, the second determination unit 34 calculates the change rate of the object average brightness. As shown in FIG. 9A, the preceding vehicle 101 is brightly displayed just before entering the tunnel, but the bright range is reduced in FIG. 10A and is almost non-existent in FIG. 11A. The average brightness within the object rectangular frame 71 sharply decreases upon entering the tunnel. Therefore, as shown in FIG. 12, the rate of change in average brightness decreases as the preceding vehicle enters the tunnel. On the other hand, a reverse change occurs when escaping from a tunnel. Therefore, the rate of change of the average luminance serves as a criterion for determining whether the preceding vehicle is entering a tunnel. The method of obtaining the rate of change is not particularly limited. A rate of change may be determined for the average value.

S47では、第2判定部34は、物体視差点数割合の変化率を算出する。図9Bに示されるように、トンネル進入直前では先行車101のエッジは明確であるが、図10Bではエッジが明確である範囲が減少し、図11Bでは、明確な範囲は非常に小さくなる。物体を示す物体矩形枠71の視差点数は、トンネル進入により急減する。そのため、図12に示されるように、視差点数割合変化率は先行車のトンネル進入に伴い低下する。また、トンネル脱出時は逆の変化が生じる。よって、視差点数割合の変化率は先行車のトンネル進入の判定材料となる。変化率の求め方は特に限定されないが、例えば、蓄積された6つの視差点数割合情報のうち、取得時刻が古い3つの視差点数割合のさらに平均値を基準とし、取得時間が新しい3つの視差点数割合のさらに平均値の変化率を求めてもよい。 In S47, the second determination unit 34 calculates the change rate of the object parallax point number ratio. As shown in FIG. 9B, the edge of the preceding vehicle 101 is clear just before entering the tunnel, but the range of the clear edge decreases in FIG. 10B, and the clear range becomes very small in FIG. 11B. The number of parallax points of the object rectangular frame 71 representing the object decreases sharply when entering the tunnel. Therefore, as shown in FIG. 12, the parallax point number ratio change rate decreases as the preceding vehicle enters the tunnel. On the other hand, a reverse change occurs when escaping from a tunnel. Therefore, the rate of change in the number of parallax points serves as a criterion for determining whether the preceding vehicle is entering a tunnel. The method of obtaining the rate of change is not particularly limited, but for example, of the accumulated six parallax point number ratio information, the average value of the three parallax point number ratios with the oldest acquisition time is used as a reference, and the three parallax point numbers with the latest acquisition time are used as a reference. Further, the rate of change of the average value of the ratios may be obtained.

S48では、第2判定部34は、瞬時トンネル状態を判定する。ここでは、S47及び48にて取得した変化率が、いずれも所定の閾値を超える場合に、「トンネル進入」又は「トンネル脱出」と判定する。 In S48, the second determination unit 34 determines an instantaneous tunnel state. Here, if the rate of change obtained in S47 and S48 both exceeds a predetermined threshold value, it is determined as "tunnel entry" or "tunnel exit".

S49では、第2判定部34は、瞬時トンネル状態継続数を更新する。メモリ22には瞬時トンネル状態の結果が「トンネル進入」又は「トンネル脱出」と連続して判定された回数が記憶されており、ここでは、その回数に1を加算する。 In S49, the second determination unit 34 updates the instantaneous tunnel state continuation number. The memory 22 stores the number of times the result of the momentary tunnel state is continuously determined as "entering the tunnel" or "exiting the tunnel". Here, 1 is added to the number of times.

S50では、第2判定部34は、トンネル状態を出力する。ここでは、S49にて所定回数(例えば2回)以上継続している場合には、「トンネル入口物体」又は「トンネル出口物体」と出力する。それ以外の場合には、「その他」と出力する。その後、図8の物体トンネル判定処理を終了する。 In S50, the second determination unit 34 outputs the tunnel state. Here, if it continues for a predetermined number of times (for example, two times) or more in S49, "tunnel entrance object" or "tunnel exit object" is output. Otherwise, output "other". After that, the object tunnel determination process of FIG. 8 is terminated.

[1-3.外挿処理]
図5のS7で実行される外挿処理について説明する。外挿処理とは、推定情報を運転支援装置12に出力する処理である。出力部36は、外挿処理を行っていないときには、物体情報を運転支援装置12に出力する。外挿処理は、物体情報が運転支援装置12に出力されていないときに実行されてもよい。外挿処理を実行する期間は、以下のように設定することができる。
[1-3. Extrapolation]
The extrapolation process executed in S7 of FIG. 5 will be described. Extrapolation processing is processing for outputting estimated information to the driving support device 12 . The output unit 36 outputs the object information to the driving support device 12 when the extrapolation process is not performed. The extrapolation process may be performed when object information is not output to the driving assistance device 12 . The period for executing the extrapolation process can be set as follows.

外挿処理の開始は、物体トンネル状態が「トンネル出口」又は「トンネル入口」と判定されている間に、物体認識・追跡部32による物体の追跡が正常にできなくなったタイミングとしてもよい。 The extrapolation process may be started at the timing when the object recognition/tracking unit 32 cannot normally track the object while the object tunnel state is determined to be “tunnel exit” or “tunnel entrance”.

物体の認識が正常にできなくなったタイミングは、物体認識・追跡部32が瞬間的に(つまり、1つの視差画像において)物体の追跡ができなくなったタイミングとしてもよい。また、物体の追跡の不成立が一定期間(例えば3フレーム)継続した場合にACCなどの運転支援処理を停止する構成において、上記一定期間の経過後のタイミングとしてもよい。つまり、図13に示されるように、最初の物体認識状態「ロスト」は一定期間経過する前に認識が復活したため外挿処理が行われないが、2度目の「ロスト」は一定期間経過したため、その時点から外挿処理が行われる。 The timing at which the object cannot be recognized normally may be the timing at which the object recognition/tracking unit 32 cannot track the object momentarily (that is, in one parallax image). Further, in a configuration in which driving support processing such as ACC is stopped when object tracking failure continues for a certain period of time (for example, three frames), the timing may be set after the above-described certain period of time has elapsed. In other words, as shown in FIG. 13, the first object recognition state "lost" is not extrapolated because the recognition is restored before the lapse of a certain period of time. Extrapolation is performed from that point.

外挿処理の開始は、上記タイミングに限定されず、トンネルへの物体の進入又は脱出に関する様々なタイミングで開始するように設定できる。
外挿処理の終了は、所定の停止時間の経過後に終了してもよい。停止時間とは、推定情報の運転支援装置12への出力を開始したタイミングにおける先行車101の位置に車両3が到達するまでの時間である到達時間に基づき設定される時間である。図14に示されるように、到達時間は、車両3から先行車101までの距離と、車両3の走行速度とから求めることができる。停止時間は、上記の到達時間と同一でもよいし、到達時間より長く、又は短く設定されてもよい。停止時間と到達時間とが同一である場合とは、外挿処理の開始のタイミングにおける先行車101の位置に車両3が到達したときに外挿処理が終了するとも言い換えることができる。また図14に示されるように、ACCによる追従距離を行う場合は、ACCによる車間時間の経過を到達時間として用いてもよい。また、停止時間を設定する場合に、上述した図13に示すように「ロスト」後に一定期間経過してから外挿処理を開始する制御を行う場合は、上記一定期間(つまり、2度目の「ロスト」の期間)を含めて停止時間を定めてもよい。なお、外挿処理の終了は、これら以外のタイミングであってもよい。
The start of extrapolation processing is not limited to the timing described above, and can be set to start at various timings related to the entry or exit of an object into or out of a tunnel.
The extrapolation process may end after a predetermined stop time has elapsed. The stop time is the time set based on the arrival time, which is the time until the vehicle 3 reaches the position of the preceding vehicle 101 at the timing when the output of the estimated information to the driving support device 12 is started. As shown in FIG. 14, the arrival time can be obtained from the distance from the vehicle 3 to the preceding vehicle 101 and the running speed of the vehicle 3 . The stop time may be the same as the above arrival time, or may be set longer or shorter than the arrival time. When the stop time and the arrival time are the same, it can be said that the extrapolation process ends when the vehicle 3 reaches the position of the preceding vehicle 101 at the start timing of the extrapolation process. Further, as shown in FIG. 14, when the following distance is determined by ACC, the passage of time between vehicles by ACC may be used as the arrival time. Also, when setting the stop time, as shown in FIG. The stop time may be determined including the period of "lost". Note that the extrapolation process may end at a timing other than these.

[1-4.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1a)情報処理装置13は、車両3の前方にトンネル出入り口が存在し、かつ、先行車がトンネル出入り口を通過すると判定されたとき、つまり物体認識・追跡部32による先行車の追跡が困難となりやすい場面で推定情報を出力する。そのため、運転支援の継続時間を延ばすことができる。
[1-4. effect]
According to the embodiment detailed above, the following effects are obtained.
(1a) When the information processing device 13 determines that a tunnel entrance exists in front of the vehicle 3 and the preceding vehicle passes through the tunnel entrance, that is, the object recognition/tracking unit 32 becomes difficult to track the preceding vehicle. Output estimated information in situations where it is easy to Therefore, the duration of driving support can be extended.

(1b)情報処理装置13は、車両3の前方にトンネル出入り口が存在するか否かを、車両3の前方を示す画像の明るさに基づいて判定する。よって、トンネル出入り口を高精度に判定することができる。 (1b) The information processing device 13 determines whether or not there is a tunnel entrance in front of the vehicle 3 based on the brightness of the image showing the front of the vehicle 3 . Therefore, the tunnel entrance/exit can be determined with high accuracy.

(1c)情報処理装置13は、画像における先行車を示す領域の輝度の変化率と、視差画像における視差点の変化率と、の両方により、先行車がトンネルに進入したこと又は脱出したことを検出する。そのため、先行車のトンネル進入及び脱出を高精度に判定することができる。 (1c) The information processing device 13 determines that the preceding vehicle has entered or exited the tunnel based on both the luminance change rate of the area indicating the preceding vehicle in the image and the parallax point change rate in the parallax image. To detect. Therefore, it is possible to determine with high accuracy whether the preceding vehicle is entering or exiting a tunnel.

(1d)情報処理装置13は、推定情報の運転支援装置12への出力を、該出力を開始したタイミングにおける先行車の位置に車両3が到達する時間に基づき設定される停止時間の経過後に終了する。そのため、車両3がトンネルに進入するまで、又はトンネルから脱出するまでの期間は推定情報の出力を維持でき、物体認識・追跡部32により先行車の認識が復帰するまでACC等の運転支援を継続させやすくなる。 (1d) The information processing device 13 ends the output of the estimated information to the driving support device 12 after the stop time set based on the time required for the vehicle 3 to reach the position of the preceding vehicle at the timing when the output is started. do. Therefore, until the vehicle 3 enters the tunnel or exits the tunnel, the output of the estimated information can be maintained, and driving support such as ACC continues until the object recognition/tracking unit 32 recovers recognition of the preceding vehicle. make it easier to

(1e)情報処理装置13は、推定情報の運転支援装置12への出力を、物体認識・追跡部32による先行車101の追跡が正常にできなかった場合に実行する。よって、先行車101の追跡が正常に行われている期間中は、推定値ではない物体情報に基づいた、高精度な運転支援を行うことができる。 (1e) The information processing device 13 outputs the estimated information to the driving support device 12 when the preceding vehicle 101 cannot be tracked normally by the object recognition/tracking unit 32 . Therefore, while the preceding vehicle 101 is being tracked normally, highly accurate driving assistance can be provided based on the object information rather than the estimated value.

(1f)情報処理装置13によれば、ステレオカメラ11により取得される視差画像に含まれる視差点を用いることで、高精度な物体認識が可能となる。
[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(1f) According to the information processing device 13, by using the parallax points included in the parallax images acquired by the stereo camera 11, highly accurate object recognition is possible.
[2. Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and various modifications can be made.

(2a)上記実施形態では、周辺画像に含まれる特徴点として視差点を例示したが、これに限定されるものではない。例えば、撮影画像からエッジ点を検出してエッジ点を用いる場合には、特徴点としてエッジ点を用いてもよい。エッジ点など視差点以外を特徴点として用いる場合、ステレオカメラ以外のカメラを用いてもよい。なおエッジ点とは、水平方向又は垂直方向に関して隣接した画素の輝度が急変している部分である。 (2a) In the above embodiment, the parallax point was exemplified as the feature point included in the peripheral image, but the present invention is not limited to this. For example, when detecting edge points from a captured image and using the edge points, the edge points may be used as feature points. If points other than parallax points such as edge points are used as feature points, a camera other than a stereo camera may be used. Note that an edge point is a portion where the brightness of pixels adjacent in the horizontal direction or the vertical direction changes abruptly.

(2b)上記実施形態では、運転支援装置12が実行する運転支援の内容はACCである構成を例示した。しかしながら、運転支援装置12が実行する運転支援はACC以外の運転支援であってもよい。例えば、運転支援装置12は、車線逸脱防止機能や自動運転機能を実行するように構成されていてもよい。 (2b) In the above embodiment, the content of the driving assistance executed by the driving assistance device 12 is ACC. However, the driving assistance executed by the driving assistance device 12 may be driving assistance other than ACC. For example, the driving assistance device 12 may be configured to perform a lane departure prevention function or an automatic driving function.

(2c)上記実施形態では、第1判定部33が、撮影画像の中央エリア61、路面エリア62、周縁部エリア63の明るさに基づいてトンネルを検出する構成を例示したが、これに限定されるものではない。例えば、画像処理によりトンネル形状を認識することでトンネルを検出してもよいし、トンネルの位置情報を含む地図と車両3の現在位置との対比からトンネルを検出してもよい。 (2c) In the above embodiment, the configuration in which the first determination unit 33 detects a tunnel based on the brightness of the central area 61, the road surface area 62, and the peripheral edge area 63 of the photographed image was exemplified, but the present invention is not limited to this. not something. For example, a tunnel may be detected by recognizing the shape of the tunnel through image processing, or may be detected by comparing the current position of the vehicle 3 with a map including position information of the tunnel.

(2d)上記実施形態では、第2判定部34が、画像における先行車の輝度と視差点数の変化率に基づいて、先行車のトンネル進入を判定する構成を例示したが、これに限定されるものではない。例えば、輝度と視差点数のいずれか一方又は両方は、変化率ではなく、平均輝度や視差点数の値が所定の閾値を超えるか否かにより、要件を満たしたか否かを判定してもよい。また、輝度と視差点数のいずれか一方のみを用いたり、他のパラメータをさらに考慮してトンネル進入を判定したりしてもよい。 (2d) In the above embodiment, the configuration in which the second determination unit 34 determines whether or not the preceding vehicle enters the tunnel based on the luminance of the preceding vehicle and the rate of change in the number of parallax points in the image was exemplified, but the configuration is limited to this. not a thing For example, for either or both of the luminance and the number of parallax points, it may be determined whether or not the requirements are satisfied based on whether or not the average luminance or the number of parallax points exceeds a predetermined threshold, instead of the rate of change. Alternatively, either one of the luminance and the number of parallax points may be used, or another parameter may be further considered to determine tunnel entry.

(2e)物体矩形枠71、即ち所定領域は、図15の画像58に示されるように、車両3が走行中の車線91と、該車線に隣接する車線92と、の位置する範囲に存在する先行車101a、101bを対象として設定されてもよい。また、画像58に複数の物体矩形枠71a,71bが存在する場合には、該複数の物体矩形枠ごとに、第2判定部34による判定と、推定部35による推定情報の取得と、出力部36による出力と、が実行されるように構成されていてもよい。 (2e) The object rectangular frame 71, i.e., the predetermined area, exists within the lane 91 on which the vehicle 3 is traveling and the lane 92 adjacent thereto, as shown in the image 58 of FIG. It may be set for the preceding vehicles 101a and 101b. Further, when a plurality of object rectangular frames 71a and 71b exist in the image 58, for each of the plurality of object rectangular frames, the determination by the second determination unit 34, the estimation information acquisition by the estimation unit 35, and the output unit 36 may be configured to be performed.

(2f)上記実施形態では、外挿処理の出力条件として、(i)第1判定部33により車両3の前方にトンネルの出入り口が存在すると判定されたこと、及び、(ii)第2判定部34により先行車が出入り口を通過すると判定されたこと、を要件として含む構成を例示した。しかしながら、出力条件は上記の内容に限定されない。例えば、図16に示される情報処理装置13Aのように、車両3が直線状の道路を走行中である直線走行状態か否かを判定するように構成された道路判定部41を備え、道路判定部41により直線走行状態と判定されたことを出力条件の要件の1つとしてもよい。道路判定部41による判定は、撮影装置の撮影画像に基づいて実行してもよいし、直線状の道路か否かを示す情報を含む地図情報と車両3の現在位置との対比から判定してもよい。 (2f) In the above embodiment, the output conditions for the extrapolation process are (i) that the first determination unit 33 determines that the entrance/exit of the tunnel exists in front of the vehicle 3, and (ii) the second determination unit. 34 has exemplified the configuration including as a requirement that the preceding vehicle is determined to pass through the entrance/exit. However, the output conditions are not limited to the above contents. For example, like the information processing device 13A shown in FIG. One of the requirements of the output condition may be that the unit 41 determines that the vehicle is in a straight running state. The determination by the road determination unit 41 may be performed based on the image captured by the imaging device, or may be performed by comparing the current position of the vehicle 3 with map information including information indicating whether the road is a straight road. good too.

さらに、図16に示される情報処理装置13Aのように、夜間であるか否かを判定する夜間判定部42を備え、出力部36は、夜間判定部42により夜間と判定されているときは、推定情報の出力を行わないように構成されていてもよい。このような構成であれば、トンネルの検出精度が低下する恐れのある場合において、誤判定の危険を低減することができる。 Further, as in the information processing apparatus 13A shown in FIG. 16, a nighttime determination unit 42 is provided for determining whether or not it is nighttime. It may be configured not to output estimated information. With such a configuration, it is possible to reduce the risk of erroneous determination when there is a risk that the accuracy of tunnel detection will be degraded.

(2g)本開示に記載の情報処理装置13,13A及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の情報処理装置及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の情報処理装置及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。情報処理装置に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 (2g) Information processors 13, 13A and techniques described in this disclosure are provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. may be implemented by a dedicated computer designed for Alternatively, the information processing apparatus and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the information processing apparatus and method thereof described in the present disclosure are a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. may be implemented by one or more dedicated computers configured by Computer programs may also be stored as computer-executable instructions on a computer-readable non-transitional tangible storage medium. The method of realizing the functions of each part included in the information processing apparatus does not necessarily include software, and all the functions may be realized using one or more pieces of hardware.

(2h)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 (2h) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. . Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Moreover, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.

(2i)上述した情報処理装置13の他、当該情報処理装置13を構成要素とするシステム、当該情報処理装置13としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、雨滴判定方法など、種々の形態で本開示を実現することもできる。 (2i) In addition to the information processing device 13 described above, a system having the information processing device 13 as a component, a program for causing a computer to function as the information processing device 13, and a non-transitional device such as a semiconductor memory storing this program The present disclosure can also be implemented in various forms such as a physical recording medium and a raindrop determination method.

1…運転支援システム、3…車両、11…ステレオカメラ、12…運転支援装置、13,13A…情報処理装置、33…第1判定部、34…第2判定部、35…推定部、36…出力部、55B,56B,57B…視差画像 REFERENCE SIGNS LIST 1 driving support system 3 vehicle 11 stereo camera 12 driving support device 13, 13A information processing device 33 first determination unit 34 second determination unit 35 estimation unit 36 Output unit 55B, 56B, 57B... parallax image

Claims (9)

撮影装置(11)及び運転支援装置(12)を備える車両(3)にて用いられる情報処理装置(13,13A)であって、
前記車両の前方にトンネルの出入り口が存在することを判定するように構成された第1判定部(33)と、
前記車両の前方を走行する先行車が前記出入り口を通過することを判定するように構成された第2判定部(34)と、
前記撮影装置を用いて取得される画像であって前記車両の周辺を示す周辺画像(55B,56B,57B)に基づいて、前記先行車について推定される挙動を示す情報である推定情報を取得するように構成された推定部(35)と、
少なくとも下記(i)、(ii)の要件を含む出力条件を満たしたときに、前記推定部により取得された前記推定情報を前記運転支援装置に出力するように構成された出力部(36)と、
(i)前記第1判定部により前記車両の前方に前記出入り口が存在すると判定されたこと
(ii)前記第2判定部により前記先行車が前記出入り口を通過すると判定されたこと
前記周辺画像における前記先行車を示す特徴点を検出するように構成された検出部(31)と、
を備え、
前記第2判定部は、前記周辺画像における前記先行車が存在する所定領域の輝度の変化率が所定の閾値よりも大きく、かつ、前記所定領域における特徴点数の変化率が所定の閾値よりも大きいときに、前記先行車が前記出入り口を通過すると判定するように構成されている、情報処理装置。
An information processing device (13, 13A) used in a vehicle (3) including an imaging device (11) and a driving support device (12),
a first determination unit (33) configured to determine that a tunnel entrance exists in front of the vehicle;
a second determination unit (34) configured to determine that a preceding vehicle traveling in front of the vehicle passes through the entrance;
Estimated information, which is information indicating the estimated behavior of the preceding vehicle, is acquired based on peripheral images (55B, 56B, 57B) that are images acquired using the photographing device and that indicate the periphery of the vehicle. an estimator (35) configured to:
an output unit (36) configured to output the estimated information acquired by the estimation unit to the driving support device when output conditions including at least the following requirements (i) and (ii) are satisfied ; ,
(i) the first determination unit determines that the doorway exists in front of the vehicle; (ii) the second determination unit determines that the preceding vehicle passes through the doorway;
a detection unit (31) configured to detect a feature point indicating the preceding vehicle in the peripheral image;
with
The second determination unit determines that a rate of change in brightness of a predetermined area in the surrounding image where the preceding vehicle exists is greater than a predetermined threshold, and a rate of change in the number of feature points in the predetermined area is greater than a predetermined threshold. The information processing device configured to determine that the preceding vehicle passes through the doorway when the vehicle ahead passes through the doorway .
請求項1に記載の情報処理装置であって、
前記所定領域は、前記車両が走行中の車線(91)と、該車線に隣接する車線(92)と、の位置する範囲に存在する物体を対象として設定される、情報処理装置。
The information processing device according to claim 1 ,
The information processing device, wherein the predetermined area is set for an object existing in a range of a lane (91) on which the vehicle is traveling and a lane (92) adjacent to the lane.
請求項1又は請求項2に記載の情報処理装置であって、
前記第1判定部は、前記車両の前方を撮影した画像における消失点を含む第1範囲が、該第1範囲の周囲の第2範囲と比較して明るい場合又は暗い場合に、前記車両の前方に前記出入り口が存在すると判定するように構成されている、情報処理装置。
The information processing device according to claim 1 or claim 2 ,
If a first range including a vanishing point in an image taken in front of the vehicle is brighter or darker than a second range surrounding the first range, the first determination unit an information processing device configured to determine that the doorway exists in the .
請求項1から請求項3までのいずれか1項に記載の情報処理装置であって、
前記出力部は、前記推定情報の前記運転支援装置への出力を、該出力を開始したタイミングにおける前記先行車の位置に前記車両が到達するまでの時間に基づき設定される停止時間の経過後に終了するように構成されている、情報処理装置。
The information processing device according to any one of claims 1 to 3 ,
The output unit terminates the output of the estimated information to the driving support device after a stop time set based on the time required for the vehicle to reach the position of the preceding vehicle at the timing when the output is started. An information processing device configured to:
請求項1から請求項3までのいずれか1項に記載の情報処理装置であって、
さらに、前記周辺画像に基づいて、前記先行車の追跡を行う追跡部(32)を備え、
前記出力部は、前記推定情報の前記運転支援装置への出力を、前記追跡部による前記先行車の追跡が正常にできなかった場合に実行するように構成されている、情報処理装置。
The information processing device according to any one of claims 1 to 3 ,
Further comprising a tracking unit (32) for tracking the preceding vehicle based on the peripheral image,
The information processing device, wherein the output unit is configured to output the estimated information to the driving support device when the tracking unit cannot normally track the preceding vehicle.
請求項1から請求項5までのいずれか1項に記載の情報処理装置であって、
前記撮影装置はステレオカメラであり、
前記周辺画像は、前記ステレオカメラを用いて取得された視差画像であり、
前記特徴点は、前記視差画像に示される視差点(81)である、情報処理装置。
The information processing device according to any one of claims 1 to 5 ,
The imaging device is a stereo camera,
The peripheral image is a parallax image acquired using the stereo camera,
The information processing apparatus, wherein the feature point is a parallax point (81) shown in the parallax image.
請求項1から請求項6までのいずれか1項に記載の情報処理装置であって、
さらに、前記車両が直線状の道路を走行中である直線走行状態か否かを判定するように構成された道路判定部(41)を備え、
前記出力条件は、前記道路判定部により直線走行状態であると判定されたことを要件の1つとして含む、情報処理装置。
The information processing device according to any one of claims 1 to 6 ,
Furthermore, a road determination unit (41) configured to determine whether or not the vehicle is in a straight running state in which the vehicle is running on a straight road,
The information processing device, wherein the output condition includes, as one of requirements, that the road determination unit determines that the vehicle is in a straight running state.
請求項1から請求項7までのいずれか1項に記載の情報処理装置であって、
さらに、夜間であるか否かを判定する夜間判定部(42)を備え、
前記出力部は、前記夜間判定部により夜間と判定されているときは、前記推定情報の出力を行わないように構成されている、情報処理装置。
The information processing device according to any one of claims 1 to 7 ,
Furthermore, a night determination unit (42) that determines whether it is night or not,
The information processing apparatus, wherein the output unit is configured not to output the estimated information when the nighttime determination unit determines that it is night time.
車両(3)に搭載して用いられる運転支援システム(1)であって、
撮影装置(11)と、
運転支援装置(12)と、
請求項1から請求項8のいずれか1項に記載の情報処理装置(13)と、を備える運転支援システム。
A driving support system (1) mounted on a vehicle (3) and used,
an imaging device (11);
a driving support device (12);
A driving support system comprising the information processing device (13) according to any one of claims 1 to 8 .
JP2019111471A 2019-06-14 2019-06-14 Information processing device and driving support system Active JP7196781B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019111471A JP7196781B2 (en) 2019-06-14 2019-06-14 Information processing device and driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019111471A JP7196781B2 (en) 2019-06-14 2019-06-14 Information processing device and driving support system

Publications (2)

Publication Number Publication Date
JP2020204842A JP2020204842A (en) 2020-12-24
JP7196781B2 true JP7196781B2 (en) 2022-12-27

Family

ID=73838396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019111471A Active JP7196781B2 (en) 2019-06-14 2019-06-14 Information processing device and driving support system

Country Status (1)

Country Link
JP (1) JP7196781B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001088574A (en) 1999-09-22 2001-04-03 Fuji Heavy Ind Ltd Travel control device for vehicle
JP2003030628A (en) 2001-07-18 2003-01-31 Fujitsu Ltd Relative position measuring instrument
JP2004230963A (en) 2003-01-29 2004-08-19 Calsonic Kansei Corp Tunnel detecting method for vehicle, tunnel detecting device for vehicle, and vehicle controller using tunnel detecting device
JP2008151659A (en) 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
JP2008301342A (en) 2007-06-01 2008-12-11 Fuji Heavy Ind Ltd Vehicle exterior monitoring apparatus
JP2009126192A (en) 2007-11-19 2009-06-11 Honda Motor Co Ltd Travel assist device
JP2009177309A (en) 2008-01-22 2009-08-06 Fuji Heavy Ind Ltd Adjusting device of imaging means and vehicle surroundings monitoring apparatus
JP2009280047A (en) 2008-05-21 2009-12-03 Denso Corp Light control device for vehicle, and light control program for vehicle
JP2011009863A (en) 2009-06-23 2011-01-13 Acutelogic Corp Exposure controller and exposure control method of imaging device for vehicle
JP2012176648A (en) 2011-02-25 2012-09-13 Panasonic Corp Notifying apparatus
US20130321630A1 (en) 2012-06-05 2013-12-05 Hyundai Mobis Co., Ltd. System and method for lane departure warning

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001088574A (en) 1999-09-22 2001-04-03 Fuji Heavy Ind Ltd Travel control device for vehicle
JP2003030628A (en) 2001-07-18 2003-01-31 Fujitsu Ltd Relative position measuring instrument
JP2004230963A (en) 2003-01-29 2004-08-19 Calsonic Kansei Corp Tunnel detecting method for vehicle, tunnel detecting device for vehicle, and vehicle controller using tunnel detecting device
JP2008151659A (en) 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd Object detector
JP2008301342A (en) 2007-06-01 2008-12-11 Fuji Heavy Ind Ltd Vehicle exterior monitoring apparatus
JP2009126192A (en) 2007-11-19 2009-06-11 Honda Motor Co Ltd Travel assist device
JP2009177309A (en) 2008-01-22 2009-08-06 Fuji Heavy Ind Ltd Adjusting device of imaging means and vehicle surroundings monitoring apparatus
JP2009280047A (en) 2008-05-21 2009-12-03 Denso Corp Light control device for vehicle, and light control program for vehicle
JP2011009863A (en) 2009-06-23 2011-01-13 Acutelogic Corp Exposure controller and exposure control method of imaging device for vehicle
JP2012176648A (en) 2011-02-25 2012-09-13 Panasonic Corp Notifying apparatus
US20130321630A1 (en) 2012-06-05 2013-12-05 Hyundai Mobis Co., Ltd. System and method for lane departure warning

Also Published As

Publication number Publication date
JP2020204842A (en) 2020-12-24

Similar Documents

Publication Publication Date Title
JP4248558B2 (en) Road marking line detection device
US10970568B2 (en) Vehicular vision system with object detection
JP5421072B2 (en) Approaching object detection system
US7262710B2 (en) Collision time estimation apparatus for vehicles, collision time estimation method for vehicles, collision alarm apparatus for vehicles, and collision alarm method for vehicles
JP4882571B2 (en) Vehicle monitoring device
JP6453490B2 (en) Method and apparatus for recognizing and evaluating road surface reflections
JP6045889B2 (en) In-vehicle control device
US10635911B2 (en) Apparatus and method for recognizing travel lane
JP2007164636A (en) Lane line detection device
JP2011180982A (en) Lane marker detecting apparatus
JP2009277021A (en) Approaching object detection apparatus and approaching object detection method
JP2020060899A (en) Calibration device for on-vehicle camera
JP7247772B2 (en) Information processing device and driving support system
JP5004923B2 (en) Vehicle driving support device
JP7196781B2 (en) Information processing device and driving support system
JP2017102634A (en) Image processing apparatus and image processing system
JP2008042759A (en) Image processing apparatus
US10417505B2 (en) Vehicle detection warning device and vehicle detection warning method
JP4075879B2 (en) Vehicle collision warning device and vehicle collision warning method
WO2019013253A1 (en) Detection device
JP7180521B2 (en) Target detection device, target detection method, and driving support system
US11308709B2 (en) Deposit detection device and deposit detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221128

R151 Written notification of patent or utility model registration

Ref document number: 7196781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151