JP7195200B2 - In-vehicle device, in-vehicle system, and surrounding monitoring method - Google Patents

In-vehicle device, in-vehicle system, and surrounding monitoring method Download PDF

Info

Publication number
JP7195200B2
JP7195200B2 JP2019064655A JP2019064655A JP7195200B2 JP 7195200 B2 JP7195200 B2 JP 7195200B2 JP 2019064655 A JP2019064655 A JP 2019064655A JP 2019064655 A JP2019064655 A JP 2019064655A JP 7195200 B2 JP7195200 B2 JP 7195200B2
Authority
JP
Japan
Prior art keywords
detection
vehicle
camera
angle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019064655A
Other languages
Japanese (ja)
Other versions
JP2020166409A (en
Inventor
周樹 村角
武生 松本
博丈 須佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019064655A priority Critical patent/JP7195200B2/en
Publication of JP2020166409A publication Critical patent/JP2020166409A/en
Application granted granted Critical
Publication of JP7195200B2 publication Critical patent/JP7195200B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Description

開示の実施形態は、車載装置、車載システムおよび周辺監視方法に関する。 The disclosed embodiments relate to an in-vehicle device, an in-vehicle system, and a surroundings monitoring method.

従来、交差点等において車両の移動方向に対し存在する物体をカメラ等の周辺監視センサによって検知する技術が知られている(たとえば、特許文献1参照)。 2. Description of the Related Art Conventionally, there has been known a technique of detecting an object existing in the moving direction of a vehicle at an intersection or the like with a peripheral monitoring sensor such as a camera (see, for example, Patent Document 1).

特開2015-230567号公報JP 2015-230567 A

しかしながら、上述した従来技術には、物体の検知精度を向上させるうえで更なる改善の余地がある。 However, the conventional technology described above has room for further improvement in terms of improving the object detection accuracy.

たとえば、交差点を右左折等で曲がる場合、車両が曲がる先を横切る横断歩道は、車両が曲がり始める前と、曲がっている途中と、曲がり終えた後では、車両の移動方向に対して位置や向きが異なる。 For example, when making a right or left turn at an intersection, the crosswalk that crosses where the vehicle is turning is different from the direction of movement of the vehicle before the vehicle begins to turn, during the turn, and after the vehicle finishes turning. is different.

このため、たとえばフロントカメラの映像に基づいて物体を検知しようとする場合、その映像上において、上述のように見え方の異なる横断歩道を常に含むような固定領域を検知対象領域にしてしまうと、検知する必要のない物体を検知してしまう誤検知や、物体を見落してしまう未検知の発生頻度が高まるおそれがある。 For this reason, for example, when trying to detect an object based on an image from the front camera, if a fixed area on the image that always includes a pedestrian crossing that looks different as described above is set as a detection target area, There is a risk of increased frequency of erroneous detection, in which objects that do not need to be detected, and undetected objects, in which objects are overlooked.

実施形態の一態様は、上記に鑑みてなされたものであって、物体の検知精度を向上させることができる車載装置、車載システムおよび周辺監視方法を提供することを目的とする。 One aspect of the embodiments has been made in view of the above, and an object thereof is to provide an in-vehicle device, an in-vehicle system, and a surroundings monitoring method capable of improving object detection accuracy.

実施形態の一態様に係る車載装置は、車両に搭載された複数のカメラの撮像映像に基づいて前記車両の周辺の物体を検知する車載装置であって、取得部と、決定部と、角度算出部と、検知制御部と、検知部とを備える。前記取得部は、前記車両の走行状況を取得する。前記決定部は、前記取得部によって取得された前記走行状況に応じて物体の検知対象領域を決定する。前記角度算出部は、前記決定部によって決定された前記検知対象領域および前記走行状況に応じて、前記検知対象領域に対する前記車両の進入角度を算出する。前記検知制御部は、前記角度算出部によって算出された前記進入角度に応じて、物体の検知に関する検知条件を変更する。前記検知部は、前記検知制御部によって変更された前記検知条件および前記カメラの撮像映像に基づいて物体を検知する。 An in-vehicle device according to an aspect of an embodiment is an in-vehicle device that detects objects around a vehicle based on images captured by a plurality of cameras mounted on the vehicle, and includes an acquisition unit, a determination unit, and an angle calculator. a detection control unit; and a detection unit. The acquisition unit acquires a running condition of the vehicle. The determination unit determines an object detection target area according to the traveling situation acquired by the acquisition unit. The angle calculation unit calculates an entry angle of the vehicle with respect to the detection target area according to the detection target area and the running condition determined by the determination unit. The detection control unit changes a detection condition regarding object detection according to the approach angle calculated by the angle calculation unit. The detection unit detects an object based on the detection condition changed by the detection control unit and the image captured by the camera.

実施形態の一態様によれば、物体の検知精度を向上させることができる。 According to one aspect of the embodiment, it is possible to improve the object detection accuracy.

図1Aは、実施形態に係る周辺監視方法の概要説明図(その1)である。FIG. 1A is a schematic explanatory diagram (part 1) of a surroundings monitoring method according to an embodiment; 図1Bは、実施形態に係る周辺監視方法の概要説明図(その2)である。FIG. 1B is a schematic explanatory diagram (part 2) of the surroundings monitoring method according to the embodiment; 図1Cは、実施形態に係る周辺監視方法の概要説明図(その3)である。FIG. 1C is a schematic explanatory diagram (part 3) of the surroundings monitoring method according to the embodiment; 図1Dは、実施形態に係る周辺監視方法の概要説明図(その4)である。FIG. 1D is a schematic explanatory diagram (part 4) of the surroundings monitoring method according to the embodiment; 図2は、実施形態に係る車載システムのブロック図である。FIG. 2 is a block diagram of an in-vehicle system according to the embodiment. 図3Aは、実施形態に係る検知条件の変更の具体例を示す図(その1)である。FIG. 3A is a diagram (part 1) illustrating a specific example of changing a detection condition according to the embodiment; 図3Bは、実施形態に係る検知条件の変更の具体例を示す図(その2)である。FIG. 3B is a diagram (part 2) illustrating a specific example of changing the detection condition according to the embodiment; 図3Cは、実施形態に係る検知条件の変更の具体例を示す図(その3)である。FIG. 3C is a diagram (part 3) illustrating a specific example of changing the detection condition according to the embodiment; 図3Dは、実施形態に係る検知条件の変更の具体例を示す図(その4)である。FIG. 3D is a diagram (part 4) illustrating a specific example of changing the detection condition according to the embodiment; 図4Aは、変形例に係る検知条件の変更の具体例を示す図(その1)である。FIG. 4A is a diagram (part 1) showing a specific example of changing the detection condition according to the modification; 図4Bは、変形例に係る検知条件の変更の具体例を示す図(その2)である。FIG. 4B is a diagram (part 2) illustrating a specific example of changing the detection condition according to the modification; 図4Cは、変形例に係る検知条件の変更の具体例を示す図(その3)である。FIG. 4C is a diagram (part 3) showing a specific example of changing the detection condition according to the modification; 図5は、実施形態に係る車載装置が実行する処理手順を示すフローチャートである。FIG. 5 is a flowchart illustrating a processing procedure executed by the in-vehicle device according to the embodiment;

以下、添付図面を参照して、本願の開示する車載装置、車載システムおよび周辺監視方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of an in-vehicle device, an in-vehicle system, and a surroundings monitoring method disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

また、以下では、実施形態に係る周辺監視方法の概要について図1A~図1Dを用いて説明した後に、実施形態に係る周辺監視方法を適用した車載システム1について、図2~図5を用いて説明することとする。 1A to 1D, and then the in-vehicle system 1 to which the surroundings monitoring method according to the embodiment is applied will be described with reference to FIGS. 2 to 5. I will explain.

まず、実施形態に係る周辺監視方法の概要について図1A~図1Dを用いて説明する。図1A~図1Dは、実施形態に係る周辺監視方法の概要説明図(その1)~(その4)である。 First, an overview of the surroundings monitoring method according to the embodiment will be described with reference to FIGS. 1A to 1D. 1A to 1D are schematic explanatory diagrams (part 1) to (part 4) of the surroundings monitoring method according to the embodiment.

なお、以下では、図1Aに示すように、交差点において車両Vが右折する場合を想定して説明を行う。図1Aに示すように、車両Vが右折するシーンでは、たとえば車両Vが曲がる先の横断歩道に自転車Bが進入してくることがある。実施形態に係る周辺監視方法は、このようなケースのたとえば横断歩道を、重点的に物体を検知したい検知対象領域DRとして、かかる検知対象領域DRにおける検知精度を高めようとするものである。 In addition, below, as shown to FIG. 1A, it demonstrates assuming the case where the vehicle V turns right in an intersection. As shown in FIG. 1A, in a scene in which vehicle V turns right, for example, bicycle B may approach a pedestrian crossing ahead of vehicle V turning. The surroundings monitoring method according to the embodiment is intended to improve detection accuracy in such a case, for example, a pedestrian crossing, as a detection target region DR in which an object is to be mainly detected.

ただし、図1Bに示すように、車両Vが右折する各シーンにおいて、時々刻々と変化する検知対象領域DRをすべて含むように、たとえば映像の全体や固定領域FRを物体の検知範囲としてしまうと、誤検知や未検知の発生機会を増やしてしまうおそれがある。 However, as shown in FIG. 1B, in each scene in which the vehicle V turns right, if the object detection range is set to include, for example, the entire image or the fixed region FR so as to include all the detection target regions DR that change from moment to moment, There is a risk of increasing the chances of false detections and non-detections.

たとえば、図1Bの上段のシーンでは、図中にM1部として示すように、車両Vが曲がる方向とは逆の歩道が固定領域FRに含まれると、かかる歩道を歩行中の歩行者等を検知してしまうおそれがある。 For example, in the upper scene of FIG. 1B, if a sidewalk opposite to the direction in which the vehicle V turns is included in the fixed area FR as indicated by M1 in the figure, a pedestrian or the like walking on the sidewalk is detected. There is a risk of doing so.

また、たとえば、図1Bの中段のシーンでは、図中にM2部として示すように、検知対象領域DRには含まれない横断歩道が固定領域FRに含まれると、かかる横断歩道を歩行中の歩行者等を検知してしまうおそれがある。 Further, for example, in the scene in the middle of FIG. 1B, if a pedestrian crossing that is not included in the detection target region DR is included in the fixed region FR as indicated by M2 in the drawing, There is a risk of detecting a person, etc.

また、たとえば、図1Cの下段のシーンでは、図中にM3部として示すように、車両Vが曲がった先の、検知対象領域DRには含まれない歩道が固定領域FRに含まれると、かかる歩道を歩行中の歩行者等を検知してしまうおそれがある。 Further, for example, in the scene in the lower part of FIG. 1C, if the fixed region FR includes a footpath that is not included in the detection target region DR beyond which the vehicle V turns, as indicated by M3 in the drawing, such There is a risk of detecting a pedestrian or the like walking on the sidewalk.

そこで、実施形態に係る周辺監視方法では、車両Vの走行状況に応じて検知対象領域DRを決定し、かかる検知対象領域DRに対する車両Vの進入角度を算出して、算出した進入角度に応じ、物体の検知条件を変更することとした。 Therefore, in the surroundings monitoring method according to the embodiment, the detection target area DR is determined according to the running condition of the vehicle V, the approach angle of the vehicle V to the detection target area DR is calculated, and according to the calculated approach angle, We decided to change the object detection conditions.

なお、ここに言う検知条件は、たとえば車両Vに搭載された複数の周辺監視カメラそれぞれの重み付けや、検知強度(「信頼度」と言い換えても可)等である。 Note that the detection conditions referred to here are, for example, the weighting of each of the plurality of peripheral monitoring cameras mounted on the vehicle V, the detection strength (can also be referred to as "reliability"), and the like.

具体的には、図1Cに示すように、実施形態に係る周辺監視方法では、車両Vに搭載された複数のカメラ4を用いる。カメラ4は、たとえば車両Vの前方を撮像範囲とするフロントカメラ4-Fと、車両Vの右側方を撮像範囲とするライトサイドカメラ4-Rと、車両Vの左側方を撮像範囲とするレフトサイドカメラ4-Lと、車両Vの後方を撮像範囲とするバックカメラ4-Bである。なお、図1Cは、カメラ4それぞれの搭載箇所や撮像範囲を限定するものではない。 Specifically, as shown in FIG. 1C, in the surroundings monitoring method according to the embodiment, a plurality of cameras 4 mounted on a vehicle V are used. The cameras 4 include, for example, a front camera 4-F whose imaging range is the front of the vehicle V, a right side camera 4-R whose imaging range is the right side of the vehicle V, and a left camera 4-R whose imaging range is the left side of the vehicle V. A side camera 4-L and a back camera 4-B whose imaging range is the rear of the vehicle V. FIG. It should be noted that FIG. 1C does not limit the mounting location or imaging range of each camera 4 .

そして、実施形態に係る周辺監視方法では、まず車両Vの走行状況を随時取得する。かかる走行状況は、たとえばナビ情報に基づく予測経路や現在位置、車速、ウィンカー操作の態様、舵角等である。そして、実施形態に係る周辺監視方法では、取得した走行状況に基づき、検知対象領域DRを決定する。 Then, in the surroundings monitoring method according to the embodiment, first, the running condition of the vehicle V is acquired as needed. Such driving conditions include, for example, a predicted route based on navigation information, current position, vehicle speed, manner of blinker operation, steering angle, and the like. Then, in the surroundings monitoring method according to the embodiment, the detection target area DR is determined based on the acquired driving conditions.

そのうえで、実施形態に係る周辺監視方法では、決定した検知対象領域DRに対する車両Vの進入角度を算出する。ここで、「進入角度」は、図1Dに示すように、決定した「検知対象領域DRの延在方向」と、「車両Vの進行方向」とがなす角度θである。したがって、かかる進入角度θは、車両Vが曲がり終えるまでに鋭角から徐々に大きくなることになる。そして、実施形態に係る周辺監視方法では、かかる進入角度θの変化に応じて、物体の検知条件を動的に変更する。 Then, in the surroundings monitoring method according to the embodiment, the approach angle of the vehicle V to the determined detection target area DR is calculated. Here, as shown in FIG. 1D, the "approach angle" is an angle θ formed between the determined "extending direction of the detection target region DR" and the "advancing direction of the vehicle V". Therefore, the approach angle θ gradually increases from an acute angle until the vehicle V finishes turning. Then, in the surroundings monitoring method according to the embodiment, the object detection conditions are dynamically changed according to the change in the approach angle θ.

ここで、検知対象領域DRの延在方向とは、物理形状的には検知対象領域DRの形状に沿った方向と考えることができる。たとえば検知対象領域DRが横断歩道であれば、入口の歩道と出口の歩道を結ぶ直線を延在方向とすることができる。また検知対象領域DRが道路であれば、道路に沿う方向を延在方向とすることができる。 Here, the extending direction of the detection target region DR can be considered as a direction along the shape of the detection target region DR in terms of physical shape. For example, if the detection target area DR is a pedestrian crossing, a straight line connecting the sidewalk at the entrance and the sidewalk at the exit can be set as the extending direction. Further, if the detection target region DR is a road, the direction along the road can be set as the extending direction.

また、検知対象領域DRの延在方向とは、機能意味的には検知対象領域DRにおいて検知対象物が主に動くと想定する方向と考えることもできる。たとえば検知対象領域DRが横断歩道であれば、検知対象物である歩行者や自転車が主に動く方向を延在方向とすることができる。また検知対象領域DRが道路であれば、検知対象物である自動車が主に動く方向を延在方向とすることができる。 Further, the extending direction of the detection target region DR can also be considered to be the direction in which the detection target mainly moves in the detection target region DR from a functional semantic point of view. For example, if the detection target area DR is a pedestrian crossing, the extension direction can be the direction in which the pedestrian or bicycle, which is the detection target, mainly moves. Further, if the detection target area DR is a road, the direction in which the vehicle, which is the detection target, mainly moves can be set as the extending direction.

つまり、進入角度とは、想定する検知対象物の移動方向に対して自車の進行方向とが交差するときの角度と考えることができる。 In other words, the approach angle can be considered to be the angle at which the travel direction of the own vehicle intersects with the movement direction of the assumed object to be detected.

たとえば、実施形態に係る周辺監視方法では、かかる検知条件の変更の一例として、図1Dに示すように、検知対象領域DRにおける物体の検知に関し、ライトサイドカメラ4-Rを主たる「メイン」のカメラと重み付けし、フロントカメラ4-Fを従たる「サブ」のカメラと重み付けする。言い換えれば、ライトサイドカメラ4-Rをメインカメラとして選定し、フロントカメラ4-Fをサブカメラとして選定し、その他のカメラ4については選定しない。 For example, in the surroundings monitoring method according to the embodiment, as an example of changing such detection conditions, as shown in FIG. , and the front camera 4-F is weighted as a secondary “sub” camera. In other words, the right side camera 4-R is selected as the main camera, the front camera 4-F is selected as the sub camera, and the other cameras 4 are not selected.

そのうえで、実施形態に係る周辺監視方法では、ライトサイドカメラ4-R,フロントカメラ4-Fそれぞれの撮像範囲によってカバーされた各領域の撮像映像を、前述の重み付けに応じて用いつつ物体を検知する。 In addition, in the surroundings monitoring method according to the embodiment, an object is detected while using the imaged images of each area covered by the imaging range of each of the right side camera 4-R and the front camera 4-F in accordance with the weighting described above. .

これにより、進入角度θの変化に応じた検知対象領域DRに対する最適なカメラ4の撮像映像による検知が可能となり、車両Vのドライバーの死角をフォローしつつ、精度のよい物体の検知が可能となる。なお、検知条件の変更のより具体的な例については、図3A~図4Cを用いた説明で後述する。 As a result, it is possible to detect the detection target area DR according to the change in the approach angle θ using the optimum image captured by the camera 4, and it is possible to detect the object with high accuracy while following the blind spot of the driver of the vehicle V. . A more specific example of changing the detection conditions will be described later with reference to FIGS. 3A to 4C.

このように、実施形態に係る周辺監視方法では、車両Vの走行状況に応じて検知対象領域DRを決定し、かかる検知対象領域DRに対する車両Vの進入角度θを算出して、かかる進入角度θの変化に応じ、カメラ4それぞれの重み付けを含む物体の検知条件を動的に変更することとした。 As described above, in the surroundings monitoring method according to the embodiment, the detection target region DR is determined according to the running condition of the vehicle V, the approach angle θ of the vehicle V with respect to the detection target region DR is calculated, and the approach angle θ is calculated. The object detection conditions, including the weighting of each camera 4, are dynamically changed in accordance with changes in .

したがって、実施形態に係る周辺監視方法によれば、車両Vの移動方向に対し存在する物体の検知精度を向上させることができる。以下、実施形態に係る周辺監視方法を適用した車載装置10を含む、車載システム1の構成例について、図2以降を用いてより具体的に説明する。 Therefore, according to the surroundings monitoring method according to the embodiment, it is possible to improve the detection accuracy of an object existing in the direction in which the vehicle V is moving. Hereinafter, a configuration example of the vehicle-mounted system 1 including the vehicle-mounted device 10 to which the surroundings monitoring method according to the embodiment is applied will be described more specifically with reference to FIG. 2 and subsequent figures.

図2は、実施形態に係る車載システム1のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。 FIG. 2 is a block diagram of the in-vehicle system 1 according to the embodiment. In addition, in FIG. 2, only the components necessary for explaining the features of the present embodiment are represented by functional blocks, and the description of general components is omitted.

換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component illustrated in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific forms of distribution and integration of each functional block are not limited to those shown in the figure, and all or part of them can be functionally or physically distributed in arbitrary units according to various loads and usage conditions.・It is possible to integrate and configure.

図2に示すように、車載システム1は、GPS(Global Positioning System)センサ2、舵角センサ3を含む各種センサと、カメラ4、たとえばフロントカメラ4-F,ライトサイドカメラ4-R,レフトサイドカメラ4-L,バックカメラ4-Bと、車載装置10と、車両制御装置20とを含む。 As shown in FIG. 2, an in-vehicle system 1 includes various sensors including a GPS (Global Positioning System) sensor 2 and a steering angle sensor 3, cameras 4 such as a front camera 4-F, a right side camera 4-R, a left side A camera 4-L, a back camera 4-B, an in-vehicle device 10, and a vehicle control device 20 are included.

車載装置10は、記憶部11と、制御部12とを備える。また、車載装置10は、車両Vの各種の挙動を制御する車両制御装置20、および、GPSセンサ2、舵角センサ3、カメラ4等とは、CAN(Controller Area Network)等の通信ネットワークを介して通信可能に接続される。 The in-vehicle device 10 includes a storage section 11 and a control section 12 . The in-vehicle device 10 communicates with a vehicle control device 20 that controls various behaviors of the vehicle V, the GPS sensor 2, the steering angle sensor 3, the camera 4, and the like via a communication network such as a CAN (Controller Area Network). communicatively connected.

車両制御装置20は、車載装置10による物体の検知結果に基づいて、たとえばPCS(Pre-crash Safety System)やAEB(Advanced Emergency Braking System)等の車両制御を行う。また、車両制御装置20は、車載装置10による物体の検知結果に基づいて、自動運転制御を行う自動運転制御装置であってもよい。 The vehicle control device 20 performs vehicle control such as PCS (Pre-crash Safety System) and AEB (Advanced Emergency Braking System) based on the object detection result by the in-vehicle device 10 . Further, the vehicle control device 20 may be an automatic driving control device that performs automatic driving control based on the detection result of the object by the in-vehicle device 10 .

記憶部11は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、ナビ情報11aを記憶する。ナビ情報11aは、車両Vのカーナビゲーションシステムに関する情報であり、地図情報や、走行予定ルート等を含む。 The storage unit 11 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disc, and stores navigation information 11a in the example of FIG. do. The navigation information 11a is information relating to the car navigation system of the vehicle V, and includes map information, a planned travel route, and the like.

制御部12は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、車載装置10内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部12は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。 The control unit 12 is a controller, and various programs stored in a storage device inside the in-vehicle device 10 are executed by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like, using the RAM as a work area. It is realized by being executed. Also, the control unit 12 can be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部12は、取得部12aと、決定部12bと、角度算出部12cと、検知制御部12dと、検知部12eとを有し、以下に説明する情報処理の機能や作用を実現または実行する。 The control unit 12 includes an acquisition unit 12a, a determination unit 12b, an angle calculation unit 12c, a detection control unit 12d, and a detection unit 12e, and implements or executes information processing functions and actions described below. .

取得部12aは、GPSセンサ2や舵角センサ3といった各種センサのセンサ値、および、ナビ情報11aに基づいて、車両Vの走行状況を取得する。車両Vの走行状況とは、たとえば車両Vの位置、進行方向、右左折などの進路設定状況などを含む。また、取得部12aは、取得した走行状況を決定部12bへ通知する。 The acquisition unit 12a acquires the traveling condition of the vehicle V based on the sensor values of various sensors such as the GPS sensor 2 and the steering angle sensor 3, and the navigation information 11a. The traveling condition of the vehicle V includes, for example, the position of the vehicle V, the direction of travel, and the route setting conditions such as right and left turns. In addition, the acquisition unit 12a notifies the determination unit 12b of the acquired driving conditions.

決定部12bは、取得部12aによって取得された車両Vの走行状況に基づいて、上述した検知対象領域DRを決定する。たとえば図1Aに示すように、車両Vの位置が交差点進入位置であり、進路設定状況が右折の場合は、車両Vから見て交差点右側の横断歩道を検知対象領域DRとして決定する。なお、一度検知対象領域DRが決定されたら、所定の条件を満たすまで変更されないことが好ましい。所定の条件とは、たとえば決定してから所定の時間が経過する、決定してから所定の距離を走行する、検知対象領域DRを交差して通過した、などである。また、決定部12bは、検知した検知対象領域DRを角度算出部12cへ通知する。 The determination unit 12b determines the above-described detection target region DR based on the running condition of the vehicle V acquired by the acquisition unit 12a. For example, as shown in FIG. 1A, when the vehicle V is entering the intersection and the route is set to turn right, the pedestrian crossing on the right side of the intersection as viewed from the vehicle V is determined as the detection target area DR. Note that once the detection target region DR is determined, it is preferable not to change it until a predetermined condition is satisfied. The predetermined condition is, for example, that a predetermined time has passed since the determination, that the vehicle travels a predetermined distance after the determination, that the vehicle crosses the detection target region DR, or the like. Further, the determination unit 12b notifies the detected detection target region DR to the angle calculation unit 12c.

角度算出部12cは、取得部12aによって取得された走行状況、および、決定部12bによって決定された検知対象領域DRに基づいて、上述した進入角度θを算出する。また、角度算出部12cは、取得部12aによって随時取得される走行状況の変化に基づいて都度、進入角度θを更新する。また、角度算出部12cは、算出した進入角度θを検知制御部12dへ通知する。 The angle calculator 12c calculates the above-described approach angle θ based on the driving situation acquired by the acquirer 12a and the detection target region DR determined by the determiner 12b. Further, the angle calculator 12c updates the approach angle θ each time based on changes in the traveling conditions acquired by the acquirer 12a. Further, the angle calculation unit 12c notifies the detection control unit 12d of the calculated approach angle θ.

検知制御部12dは、角度算出部12cによって算出される進入角度θに応じて検知条件を動的に変更する。 The detection control unit 12d dynamically changes the detection conditions according to the approach angle θ calculated by the angle calculation unit 12c.

検知部12eは、検知制御部12dによって変更される検知条件に応じつつ、カメラ4からの撮像映像に基づいて物体を検知する。また、検知部12eは、検知結果をたとえば車両制御装置20へ通知する。 The detection unit 12e detects an object based on the captured image from the camera 4 while complying with the detection conditions changed by the detection control unit 12d. Further, the detection unit 12e notifies the vehicle control device 20 of the detection result, for example.

なお、検知部12eは、図示略の車載装置10の出力部へ検知結果を出力するようにしてもよい。出力部は、たとえば車室内に設けられたディスプレイやスピーカである。 Note that the detection unit 12e may output the detection result to an output unit of the in-vehicle device 10 (not shown). The output unit is, for example, a display or a speaker provided inside the vehicle.

ここで、実施形態に係る検知条件の変更の具体例について、図3A~図3Dを用いて説明する。図3A~図3Dは、実施形態に係る検知条件の変更の具体例を示す図(その1)~(その4)である。 A specific example of changing the detection condition according to the embodiment will now be described with reference to FIGS. 3A to 3D. 3A to 3D are diagrams (part 1) to (part 4) showing specific examples of changing detection conditions according to the embodiment.

図3Aに示すように、角度算出部12cによって算出された進入角度θが所定の角度より小さい場合を考える。たとえば所定の角度を50°とし、進入角度θが「0°≦θ<20°」であった場合、検知制御部12dは、ライトサイドカメラ4-Rを「メイン」と重み付けし、フロントカメラ4-Fを「サブ」と重み付けする。 Consider a case where the approach angle θ calculated by the angle calculator 12c is smaller than a predetermined angle, as shown in FIG. 3A. For example, if the predetermined angle is 50° and the approach angle θ is “0°≦θ<20°”, the detection control unit 12d weights the right side camera 4-R as “main” and the front camera 4 - Weight F as "sub".

つまり、進入角度θが小さく、検知対象領域DRが車両Vの内輪側側方にある場合、主な撮像範囲が車両Vの内輪側の側方となるライトサイドカメラ4-Rを「メイン」と重み付けする。これにより「メイン」と重み付けしたカメラ4の主な撮像範囲内に検知対象領域DRを収めることができる。一方で、検知対象領域DRは写るかもしれないが、主な撮像範囲内には収められない可能性が高いフロントカメラ4-Fを「サブ」と重み付けする。なお、主な撮像範囲とは、カメラ4の撮像映像において検知処理を精度よく行うことができる範囲を指す。これは、たとえば画像の中央付近などである。 That is, when the approach angle θ is small and the detection target area DR is on the side of the inner wheel of the vehicle V, the right side camera 4-R whose main imaging range is on the side of the inner wheel of the vehicle V is defined as the "main" camera. weight. As a result, the detection target region DR can be contained within the main imaging range of the camera 4 weighted as "main". On the other hand, the front camera 4-F, which may capture the detection target area DR but is highly likely not to be within the main imaging range, is weighted as "sub". Note that the main imaging range refers to a range in which detection processing can be accurately performed in the image captured by the camera 4 . This is, for example, near the center of the image.

そして、検知制御部12dは、ライトサイドカメラ4-R,フロントカメラ4-Fそれぞれの撮像範囲によってカバーされた各領域の撮像映像をかかる重み付けに応じて用いさせ、検知部12eに物体を検知させる。 Then, the detection control unit 12d causes the detection unit 12e to use the captured image of each area covered by the imaging range of each of the right side camera 4-R and the front camera 4-F in accordance with the weighting, and causes the detection unit 12e to detect the object. .

重み付けに応じて用いさせる、とは具体的には、検知部12eが物体を検知する際、複数のカメラ4の撮像映像それぞれの検出結果を統合するときの信頼度を変えるとよい。たとえば「メイン」と重み付けされたカメラ4の撮像映像に基づく検出結果の信頼度を、「サブ」と重み付けされたカメラ4の撮像映像に基づく検出結果よりも高く設定するなどである。 Specifically, when the detection unit 12e detects an object, it is preferable to change the reliability when integrating the detection results of the images captured by the plurality of cameras 4. FIG. For example, the reliability of the detection result based on the image captured by the camera 4 weighted as "main" is set higher than the reliability of the detection result based on the image captured by the camera 4 weighted as "sub".

また、複数のカメラ4の撮像映像それぞれの検出処理を行う際の順序を変えるとよい。たとえば、「メイン」と重み付けされたカメラ4の撮像映像は、「サブ」と重み付けされたカメラ4の撮像映像より先に検出処理を行うなどである。 In addition, it is preferable to change the order in which detection processing is performed for each of the images captured by the plurality of cameras 4 . For example, an image captured by the camera 4 weighted as "main" is subjected to detection processing before an image captured by the camera 4 weighted as "sub".

また、複数のカメラ4の撮像映像それぞれの検出処理を行う際の頻度を変えるとよい。たとえば、「メイン」と重み付けされたカメラ4の撮像映像は、「サブ」と重み付けされたカメラ4の撮像映像より高い頻度に検出処理を行うなどである。具体的には、「メイン」の重み付けの場合は毎フレーム検出を行い、「サブ」の重み付けの時は数フレームおきの検出にするなどである。 In addition, it is preferable to change the frequency of detection processing for each of the images captured by the plurality of cameras 4 . For example, an image captured by the camera 4 weighted as "main" is subjected to detection processing more frequently than an image captured by the camera 4 weighted as "sub". Specifically, in the case of "main" weighting, detection is performed every frame, and in the case of "sub" weighting, detection is performed every several frames.

また、設定する重みとして例えばゼロなどを設定することもできる。ゼロと設定されたカメラ4の撮像映像は、検知部12eにおいて物体の検出に用いない処理としてもよい。この場合は、換言すると、検知部12eにおいて物体の検出に用いるカメラ4と用いないカメラ4とを設定する、と言うこともできる。たとえば図3Aの場合、レフトサイドカメラ4-Lやバックカメラ4-Bには検知対象領域DRが写らない可能性が高い。そのため、検知部12eでは検出に用いない、としても支障がない。またフロントカメラ4-Fのように「サブ」と設定したカメラ4も、検知対象領域DRを主な撮像範囲に収められない可能性が高いため、検出に用いない、としてもよい。 Also, for example, zero can be set as the weight to be set. The image captured by the camera 4 set to zero may be processed so as not to be used for object detection in the detection unit 12e. In this case, in other words, it can be said that the camera 4 to be used for object detection and the camera 4 not to be used are set in the detection unit 12e. For example, in the case of FIG. 3A, there is a high possibility that the detection target area DR will not be captured by the left side camera 4-L or the rear camera 4-B. Therefore, there is no problem even if the detector 12e does not use it for detection. Also, the camera 4 set as "sub" like the front camera 4-F may not be used for detection because there is a high possibility that the detection target area DR cannot be included in the main imaging range.

また、図3Bに示すように、角度算出部12cによって算出された進入角度θが大きくなったが、未だ所定の角度より小さいたとえば「20°≦θ<50°」である場合を考える。この場合も、検知制御部12dは、ライトサイドカメラ4-Rを「メイン」と重み付けし、フロントカメラ4-Fを「サブ」と重み付けする。 Also, as shown in FIG. 3B, consider a case where the approach angle θ calculated by the angle calculator 12c has increased but is still smaller than a predetermined angle, for example, "20°≦θ<50°". Also in this case, the detection control unit 12d weights the right side camera 4-R as "main" and weights the front camera 4-F as "sub".

なお、図3Bの場合は、図3Aの場合に比べて、ライトサイドカメラ4-R,フロントカメラ4-Fそれぞれの撮像範囲によってカバーされる各領域は、時計回りに回転することとなる。そして、検知制御部12dは、図3Aの場合と同様に、かかる各領域の撮像映像を前述の重み付けに応じて用いさせ、検知部12eに物体を検知させる。 In the case of FIG. 3B, each area covered by the imaging range of each of the right side camera 4-R and the front camera 4-F rotates clockwise as compared to the case of FIG. 3A. Then, similarly to the case of FIG. 3A, the detection control unit 12d causes the detection unit 12e to detect the object by using the captured image of each region according to the above-described weighting.

また、図3Cに示すように、角度算出部12cによって算出された進入角度θが所定の角度を超えて直角に近くなる場合を考える。たとえば進入角度θが「50°≦θ<80°」であった場合、検知制御部12dは、今度はフロントカメラ4-Fを「メイン」と重み付けし、ライトサイドカメラ4-Rを「サブ」と重み付けする。つまり、進入角度θが直角に近づいて検知対象領域DRが車両Vの前方に来た場合、主な撮像範囲が車両V正面となるフロントカメラ4-Fを「メイン」と重み付けする。これにより、「メイン」と重み付けしたカメラ4の主な撮像範囲内に検知対象領域DRを収めることができる。一方で、検知対象領域DRは写るかもしれないが、主な撮像範囲内には収められない可能性が高いライトサイドカメラ4-Rを「サブ」と重み付けする。 Also, as shown in FIG. 3C, consider a case where the approach angle θ calculated by the angle calculator 12c exceeds a predetermined angle and becomes close to a right angle. For example, when the approach angle θ is “50°≦θ<80°”, the detection control unit 12d weights the front camera 4-F as “main” and the right side camera 4-R as “sub”. and weighted. That is, when the approach angle θ approaches a right angle and the detection target area DR comes in front of the vehicle V, the front camera 4-F whose main imaging range is in front of the vehicle V is weighted as "main". As a result, the detection target region DR can be contained within the main imaging range of the camera 4 weighted as "main". On the other hand, the right side camera 4-R, which may capture the detection target area DR but is highly likely not to be within the main imaging range, is weighted as "sub".

無論、図3Cの場合は、図3Bの場合に比べて、ライトサイドカメラ4-R,フロントカメラ4-Fそれぞれの撮像範囲によってカバーされる各領域は、さらに時計回りに回転することとなる。そして、検知制御部12dは、図3Aおよび図3Bの場合と同様に、かかる各領域の撮像映像を前述の重み付けに応じて用いさせ、検知部12eに物体を検知させる。 Of course, in the case of FIG. 3C, each region covered by the imaging range of each of the right side camera 4-R and the front camera 4-F rotates further clockwise than in the case of FIG. 3B. 3A and 3B, the detection control unit 12d causes the detection unit 12e to detect the object by using the captured image of each area according to the above-described weighting.

また、図3Dに示すように、角度算出部12cによって算出された進入角度θが直角に近いたとえば「80°≦θ<120°」であった場合、検知制御部12dは、フロントカメラ4-Fを「メイン」と重み付けし、ライトサイドカメラ4-Rおよびレフトサイドカメラ4-Lを「サブ」と重み付けする。 Further, as shown in FIG. 3D, when the approach angle θ calculated by the angle calculation unit 12c is close to a right angle, for example, “80°≦θ<120°”, the detection control unit 12d detects the front camera 4-F. is weighted as "main", and the right side camera 4-R and left side camera 4-L are weighted as "sub".

言うまでもなく、図3Dの場合は、図3Cの場合に比べて、ライトサイドカメラ4-R,フロントカメラ4-Fそれぞれの撮像範囲によってカバーされる各領域は、さらに時計回り回転することとなる。また、レフトサイドカメラ4-Lの撮像範囲によってカバーされる領域が加わることとなる。そして、検知制御部12dは、図3A~図3Cの場合と同様に、かかる各領域の撮像映像を前述の重み付けに応じて用いさせ、検知部12eに物体を検知させる。 Needless to say, in the case of FIG. 3D, each area covered by the imaging range of the right side camera 4-R and the front camera 4-F rotates further clockwise than in the case of FIG. 3C. Also, an area covered by the imaging range of the left side camera 4-L is added. 3A to 3C, the detection control unit 12d causes the detection unit 12e to detect the object by using the captured image of each area according to the above-described weighting.

ここで、所定の角度は、どちらのカメラ4の主な撮像範囲に検知対象領域DRが主として写るかに基づいて決定するとよい。たとえば、上記の説明では一例として所定の角度を50°とした。これは50°を境にライトサイドカメラ4-Rの主な撮像範囲よりもフロントカメラ4-Fの主な撮像範囲に検知対象領域DRが主に写るようになる、と考えてもよい。所定の角度は、カメラ4の光学系などに基づき事前に設定しておくとよい。また検知対象領域DRと車両Vとの距離によって変化するようにしてもよい。 Here, the predetermined angle may be determined based on which camera 4 has a main imaging range in which the detection target region DR is mainly captured. For example, in the above description, the predetermined angle is 50° as an example. It may be considered that the detection target region DR is mainly captured in the main imaging range of the front camera 4-F rather than the main imaging range of the right side camera 4-R at the boundary of 50°. The predetermined angle should be set in advance based on the optical system of the camera 4 or the like. Alternatively, it may be changed depending on the distance between the detection target area DR and the vehicle V. FIG.

なお、実施形態に係る検知条件の変更の具体例は、図3A~図3Dに示したものに限られない。次に、変形例に係る検知条件の変更の具体例について、図4A~図4Cを用いて説明する。図4A~図4Cは、変形例に係る検知条件の変更の具体例を示す図(その1)~(その3)である。 It should be noted that specific examples of changing detection conditions according to the embodiment are not limited to those shown in FIGS. 3A to 3D. Next, a specific example of changing the detection condition according to the modified example will be described with reference to FIGS. 4A to 4C. 4A to 4C are diagrams (Part 1) to (Part 3) showing specific examples of changes in detection conditions according to the modification.

ところで、検知部12eは、物体を検知するに際し、決定部12bによって決定された検知対象領域DRがカメラ4の撮像映像において該当する領域(以下、「該当領域AR」と言う)を抽出し、かかる該当領域ARにおいて物体の位置や速度ベクトルといった物体の特徴点を抽出することとなる。しかし、かかる特徴点の抽出において、該当領域AR全体に一律の定数を用いることは処理効率を低下させる一因となりうる。 By the way, when detecting an object, the detection unit 12e extracts an area (hereinafter referred to as "applicable area AR") corresponding to the detection target area DR determined by the determination unit 12b in the image captured by the camera 4, and extracts such area. Feature points of the object such as the position and velocity vector of the object are extracted in the relevant area AR. However, in extracting such feature points, using a uniform constant for the entire relevant area AR can be a factor in lowering the processing efficiency.

そこで、図4Aに示すように、たとえば該当領域ARのうち、領域端、すなわち物体がカメラ4の撮像範囲に新たに写り込んでくる領域に相当するエリアAR-1に対し、重点的に特徴点を抽出するようにすれば、処理効率を向上させることができる。具体的には、図4Aに示すように、検知制御部12dは、自転車B等の物体が進入してくるエリアAR-1の重み付けを大きくし、かかるエリアAR-1に対し、検知部12eに重点的に特徴点を抽出させることができる。 Therefore, as shown in FIG. 4A, for example, in the relevant area AR, for example, an area AR-1 corresponding to the edge of the area, that is, the area in which the object is newly captured in the imaging range of the camera 4, is focused on the feature points. can be extracted, the processing efficiency can be improved. Specifically, as shown in FIG. 4A, the detection control unit 12d increases the weighting of the area AR-1 into which the object such as the bicycle B enters, and the detection unit 12e for the area AR-1. Feature points can be extracted with priority.

また、移動する物体は、たとえば横ベクトルの動きが多ければ検知しやすい。そこで、図4Bに示すように、検知制御部12dが、横ベクトルの動きが多い映像を撮像したカメラ4を、進入角度θに応じた「メイン」として選定するようにしてもよい。これにより、移動物を検知しやすくすることが可能となる。 Also, a moving object is easy to detect if, for example, there is a lot of horizontal vector movement. Therefore, as shown in FIG. 4B, the detection control unit 12d may select the camera 4 that captures an image with many horizontal vector movements as the "main" according to the approach angle θ. This makes it easier to detect moving objects.

また、図4Cに示すように、検知制御部12dは、たとえば右折時において進入角度θが0°から120°へと変化するのに応じ、各カメラ4の検知強度を変化させるようにしてもよい。前述の説明では、2つのカメラ4に対して検知強度として「メイン」と「サブ」の2段階の重み付けを設定する処理を行った。これに対して、たとえば図4Cに示すように、検知制御部12dは、右折時において進入角度θが0°から120°へと変化するのに応じ、フロントカメラ4-Fの検知強度を「弱」→「中」→「強」と変化させてもよい。 Further, as shown in FIG. 4C, the detection control unit 12d may change the detection intensity of each camera 4 in accordance with the change in the approach angle θ from 0° to 120° when turning right, for example. . In the above description, the two cameras 4 are weighted in two stages of "main" and "sub" as the detection strength. On the other hand, for example, as shown in FIG. 4C, the detection control unit 12d sets the detection strength of the front camera 4-F to "weak" in response to the change in the approach angle θ from 0° to 120° when turning right. ” → “Medium” → “Strong”.

また、検知制御部12dは、ライトサイドカメラ4-Rについては、その検知強度を「中」→「強」→「強」と変化させてもよい。また、検知制御部12dは、レフトサイドカメラ4-Lについては、その検知強度を「弱」→「中」→「強」と変化させてもよい。 Further, the detection control unit 12d may change the detection strength of the right side camera 4-R from "medium"→"strong"→"strong". Further, the detection control unit 12d may change the detection strength of the left side camera 4-L from "weak"→"medium"→"strong".

なお、先の例とは異なり、進入角度θが直角に近い状態でも、側方カメラであるライトサイドカメラ4-R、および、レフトサイドカメラ4-Lの検知強度を高く設定しておいてもよい。たとえば検知対象領域DRが横断歩道の場合、横断歩道の入口および出口など、フロントカメラ4-Fでは撮像範囲の端に来るような前側方の物体検知を行うためである。 Note that unlike the previous example, even when the approach angle θ is close to a right angle, even if the detection strength of the right side camera 4-R and the left side camera 4-L, which are side cameras, is set high, good. This is because, for example, when the detection target area DR is a pedestrian crossing, the front camera 4-F detects front and side objects such as entrances and exits of the pedestrian crossing, which are at the ends of the imaging range.

なお、検知強度は、上述したが「信頼度」と言い換えてもよい。また、「優先度」といってもよい。かかる検知強度は、たとえばカメラ4それぞれの撮像映像に基づく検知結果を総合判定する際の係数として用いることができ、これにより、進入角度θに応じて精度よく物体を検知するのに資することができる。 It should be noted that the detection strength may be rephrased as "reliability" as described above. It can also be called "priority". Such detection strength can be used, for example, as a coefficient when comprehensively judging the detection results based on the images captured by the respective cameras 4, thereby contributing to accurate object detection according to the approach angle θ. .

次に、実施形態に係る車載装置10が実行する処理手順について、図5を用いて説明する。図5は、実施形態に係る車載装置10が実行する処理手順を示すフローチャートである。 Next, a processing procedure executed by the in-vehicle device 10 according to the embodiment will be described with reference to FIG. 5 . FIG. 5 is a flow chart showing a processing procedure executed by the in-vehicle device 10 according to the embodiment.

図5に示すように、まず取得部12aが走行状況を取得する(ステップS101)。そして、決定部12bが、取得された走行状況に応じて検知対象領域DRを決定する(ステップS102)。 As shown in FIG. 5, first, the acquisition unit 12a acquires the driving situation (step S101). Then, the determination unit 12b determines the detection target region DR according to the acquired driving conditions (step S102).

そして、角度算出部12cが、決定された検知対象領域DRおよび走行状況に基づいて、検知対象領域DRに対する進入角度θを算出する(ステップS103)。そして、検知制御部12dが、算出された進入角度θに応じて検知条件を変更する(ステップS104)。 Then, the angle calculation unit 12c calculates an approach angle θ with respect to the detection target area DR based on the determined detection target area DR and the traveling situation (step S103). Then, the detection control unit 12d changes the detection conditions according to the calculated approach angle θ (step S104).

そして、検知部12eが、検知制御部12dの変更した検知条件に応じて物体を検知すし(ステップS105)、ステップS101からの処理を繰り返す。 Then, the detection unit 12e detects an object according to the detection condition changed by the detection control unit 12d (step S105), and repeats the processing from step S101.

上述してきたように、実施形態に係る車載装置10は、車両Vに搭載された複数のカメラ4の撮像映像に基づいて車両Vの周辺の物体を検知する車載装置10であって、取得部12aと、決定部12bと、角度算出部12cと、検知制御部12dと、検知部12eとを備える。取得部12aは、車両Vの走行状況を取得する。決定部12bは、取得部12aによって取得された走行状況に応じて物体の検知対象領域DRを決定する。角度算出部12cは、決定部12bによって決定された検知対象領域DRおよび走行状況に応じて、検知対象領域DRに対する車両Vの進入角度θを算出する。検知制御部12dは、角度算出部12cによって算出された進入角度θに応じて、物体の検知に関する検知条件を変更する。検知部12eは、検知制御部12dによって変更された検知条件およびカメラ4の撮像映像に基づいて物体を検知する。 As described above, the in-vehicle device 10 according to the embodiment is the in-vehicle device 10 that detects objects around the vehicle V based on images captured by the plurality of cameras 4 mounted on the vehicle V, and the acquisition unit 12a , a determination unit 12b, an angle calculation unit 12c, a detection control unit 12d, and a detection unit 12e. Acquisition unit 12a acquires the running condition of vehicle V. FIG. The determination unit 12b determines the object detection target region DR according to the traveling situation acquired by the acquisition unit 12a. The angle calculation unit 12c calculates an entry angle θ of the vehicle V with respect to the detection target area DR according to the detection target area DR and the running condition determined by the determination unit 12b. The detection control unit 12d changes the detection conditions for object detection according to the approach angle θ calculated by the angle calculation unit 12c. The detection unit 12 e detects an object based on the detection conditions changed by the detection control unit 12 d and the image captured by the camera 4 .

したがって、実施形態に係る車載装置10によれば、物体の検知精度を向上させることができる。 Therefore, according to the in-vehicle device 10 according to the embodiment, it is possible to improve the object detection accuracy.

また、角度算出部12cは、検知対象領域DRの延在方向と、車両Vの進行方向とがなす角度を進入角度θとして算出する。 Further, the angle calculator 12c calculates an angle formed between the extending direction of the detection target region DR and the traveling direction of the vehicle V as an approach angle θ.

したがって、実施形態に係る車載装置10によれば、車両Vの右左折時において車両Vの移動方向に存在する物体を精度よく検知することが可能となる。 Therefore, according to the in-vehicle device 10 according to the embodiment, it is possible to accurately detect an object existing in the moving direction of the vehicle V when the vehicle V turns right or left.

また、検知制御部12dは、カメラ4それぞれの撮像範囲および進入角度θに基づいて、カメラ4の撮像映像それぞれに対して、検知部12eが物体を検知するときの重み付けをする。 Further, the detection control unit 12d weights each image captured by the camera 4 based on the imaging range and the approach angle θ of each camera 4 when the detection unit 12e detects an object.

したがって、実施形態に係る車載装置10によれば、主な撮像範囲内に検知対象領域DRを収めることができるカメラ4を「メイン」と重み付けしたり、検知対象領域DRは写るかもしれないが、主な撮像範囲内には検知対象領域DRを収められない可能性が高いカメラ4を「サブ」と重み付けしたりするなど、検知対象領域DRの撮像に適した検知条件設定を行うことができる。 Therefore, according to the in-vehicle device 10 according to the embodiment, the camera 4 that can capture the detection target region DR within the main imaging range may be weighted as "main", or the detection target region DR may be captured. It is possible to set detection conditions suitable for imaging the detection target area DR, such as weighting the cameras 4 that are highly likely not to contain the detection target area DR within the main imaging range as "sub".

また、検知制御部12dは、カメラ4それぞれの撮像映像を比較して、相対的に横ベクトルの動きが多い撮像映像を撮像したカメラ4を選定する。 The detection control unit 12d also compares the images captured by the cameras 4, and selects the camera 4 that captured images with relatively large horizontal vector movements.

したがって、実施形態に係る車載装置10によれば、移動する物体の検知精度を向上させることが可能となる。 Therefore, according to the in-vehicle device 10 according to the embodiment, it is possible to improve the detection accuracy of a moving object.

また、検知制御部12dは、カメラ4の撮像映像において検知対象領域DRに該当する領域のうちの領域端に相当するエリアAR-1について、検知部12eに重点的に物体の特徴点を抽出させる。 Further, the detection control unit 12d causes the detection unit 12e to selectively extract the feature points of the object with respect to the area AR-1 corresponding to the edge of the area corresponding to the detection target area DR in the image captured by the camera 4. .

したがって、実施形態に係る車載装置10によれば、処理効率よく移動する物体を検知させることが可能となる。 Therefore, according to the in-vehicle device 10 according to the embodiment, it is possible to detect a moving object with high processing efficiency.

また、検知制御部12dは、進入角度θが直角に近づくに連れて車両Vの前方を主な撮像範囲とするカメラ4の検知強度を上げる。 Further, the detection control unit 12d increases the detection intensity of the camera 4 whose main imaging range is the front of the vehicle V as the approach angle θ approaches a right angle.

したがって、実施形態に係る車載装置10によれば、検知対象領域DRに対する車両Vの移動方向が直角となるに連れて検知対象領域DRの撮像に最適となるフロントカメラ4-Fの検知強度を上げることにより、物体の検知精度を向上させることができる。 Therefore, according to the in-vehicle device 10 according to the embodiment, as the movement direction of the vehicle V becomes perpendicular to the detection target area DR, the detection strength of the front camera 4-F, which is optimal for imaging the detection target area DR, is increased. Thereby, the object detection accuracy can be improved.

また、検知制御部12dは、進入角度θが所定の角度より小さい場合は、車両Vの前方を主な撮像範囲とするカメラ4の検知強度よりも、内輪側となる車両Vの側方を撮像範囲とするカメラ4の検知強度を上げる。 Further, when the approach angle θ is smaller than a predetermined angle, the detection control unit 12d captures the side of the vehicle V, which is closer to the inner wheels than the detection intensity of the camera 4 whose main imaging range is the front of the vehicle V. The detection strength of the camera 4 to be covered is increased.

したがって、実施形態に係る車載装置10によれば、検知対象領域DRが車両Vの側方に位置する場合は、かかる場合の検知対象領域DRの撮像に最適となるライトサイドカメラ4-Rまたはレフトサイドカメラ4-Lの検知強度を上げることにより、物体の検知精度を向上させることができる。 Therefore, according to the in-vehicle device 10 according to the embodiment, when the detection target region DR is located on the side of the vehicle V, the right side camera 4-R or the left side camera 4-R is optimal for imaging the detection target region DR. Object detection accuracy can be improved by increasing the detection strength of the side camera 4-L.

なお、上述した実施形態では、右折時を例に挙げたが、左折時についても右折時とは左右対称となるだけで、他は同様に上述した実施形態を適用することができる。 In the above-described embodiment, right-turning is taken as an example, but left-turning is only bilaterally symmetrical with right-turning, and the above-described embodiment can be similarly applied to left-turning.

また、上述した実施形態では、交差点を例に挙げたが、無論、公道からのコンビニエンスストア等への進入時や、駐車場内での移動時等、様々なシーンで上述した実施形態を適用することができる。 In addition, in the above-described embodiment, an intersection was taken as an example, but of course, the above-described embodiment can be applied in various scenes such as when entering a convenience store from a public road, when moving in a parking lot, and the like. can be done.

また、上述した実施形態では、カメラ4が4個設けられることとしたが、複数であればよく、2個または3個であってもよいし5個以上であってもよい。 In addition, in the above-described embodiment, four cameras 4 are provided, but the number may be two or three, or may be five or more.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 車載システム
4 カメラ
4-B バックカメラ
4-F フロントカメラ
4-L レフトサイドカメラ
4-R ライトサイドカメラ
10 車載装置
11a ナビ情報
12a 取得部
12b 決定部
12c 角度算出部
12d 検知制御部
12e 検知部
20 車両制御装置
DR 検知対象領域
V 車両
θ 進入角度
1 in-vehicle system 4 camera 4-B back camera 4-F front camera 4-L left side camera 4-R right side camera 10 in-vehicle device 11a navigation information 12a acquisition unit 12b determination unit 12c angle calculation unit 12d detection control unit 12e detection unit 20 Vehicle control device DR Detection target area V Vehicle θ Approach angle

Claims (9)

車両に搭載された複数のカメラの撮像映像に基づいて前記車両の周辺の物体を検知する車載装置であって、
前記車両の走行状況を取得する取得部と、
前記取得部によって取得された前記走行状況に応じて物体の検知対象領域を決定する決定部と、
前記決定部によって決定された前記検知対象領域および前記走行状況に応じて、前記検知対象領域に対する前記車両の進入角度を算出する角度算出部と、
前記角度算出部によって算出された前記進入角度に応じて、物体の検知に関する検知条件を変更する検知制御部と、
前記検知制御部によって変更された前記検知条件および前記カメラの撮像映像に基づいて物体を検知する検知部と
を備えることを特徴とする車載装置。
An in-vehicle device that detects objects around the vehicle based on images captured by a plurality of cameras mounted on the vehicle,
an acquisition unit that acquires the running status of the vehicle;
a determination unit that determines an object detection target area according to the traveling situation acquired by the acquisition unit;
an angle calculation unit that calculates an entry angle of the vehicle with respect to the detection target area according to the detection target area and the running situation determined by the determination unit;
a detection control unit that changes detection conditions related to object detection according to the approach angle calculated by the angle calculation unit;
and a detection unit that detects an object based on the detection condition changed by the detection control unit and an image captured by the camera.
前記角度算出部は、
前記検知対象領域の延在方向と、前記車両の進行方向とがなす角度を前記進入角度として算出する
ことを特徴とする請求項1に記載の車載装置。
The angle calculator,
The in-vehicle device according to claim 1, wherein an angle formed by an extending direction of the detection target area and a traveling direction of the vehicle is calculated as the approach angle.
前記検知制御部は、
前記カメラそれぞれの撮像範囲および前記進入角度に基づいて、前記カメラの撮像映像それぞれに対して、前記検知部が物体を検知するときの重み付けをする
ことを特徴とする請求項1または2に記載の車載装置。
The detection control unit is
3. The detecting unit according to claim 1 or 2, wherein weighting is applied to each of the images captured by the cameras based on the imaging range and the approach angle of each of the cameras when the detection unit detects an object. In-vehicle device.
前記検知制御部は、
前記カメラそれぞれの撮像映像を比較して、相対的に横ベクトルの動きが多い撮像映像を撮像した前記カメラを選定する
ことを特徴とする請求項1、2または3に記載の車載装置。
The detection control unit is
4. The in-vehicle device according to claim 1, wherein the images captured by the respective cameras are compared, and the camera that captures images with relatively large lateral vector movements is selected.
前記検知制御部は、
前記カメラの撮像映像において前記検知対象領域に該当する領域のうちの領域端に相当するエリアについて、前記検知部に重点的に物体の特徴点を抽出させる
ことを特徴とする請求項1~4のいずれか一つに記載の車載装置。
The detection control unit is
5. The method according to any one of claims 1 to 4, wherein the detection unit is caused to extract feature points of an object intensively with respect to an area corresponding to an end of the area corresponding to the detection target area in the image captured by the camera. The in-vehicle device according to any one of the above.
前記検知制御部は、
前記進入角度が直角に近づくに連れて前記車両の前方を主な撮像範囲とする前記カメラの検知強度を上げる
ことを特徴とする請求項1~5のいずれか一つに記載の車載装置。
The detection control unit is
The in-vehicle device according to any one of claims 1 to 5, wherein as the approach angle approaches a right angle, the detection strength of the camera whose main imaging range is the front of the vehicle is increased.
前記検知制御部は、
前記進入角度が所定の角度より小さい場合は、前記車両の前方を主な撮像範囲とする前記カメラの検知強度よりも、内輪側となる前記車両の側方を撮像範囲とする前記カメラの検知強度を上げる
ことを特徴とする請求項1~6のいずれか一つに記載の車載装置。
The detection control unit is
When the approach angle is smaller than a predetermined angle, the detection strength of the camera whose imaging range is the side of the vehicle, which is the inner wheel side, is higher than the detection strength of the camera whose main imaging range is the front of the vehicle. The in-vehicle device according to any one of claims 1 to 6, characterized in that:
請求項1~7のいずれか一つに記載の車載装置と、
複数の前記カメラを含む、前記走行状況を示すセンサ情報を出力可能な車載センサと
を備えることを特徴とする車載システム。
an in-vehicle device according to any one of claims 1 to 7;
An in-vehicle system comprising: an in-vehicle sensor capable of outputting sensor information indicating the driving situation, the in-vehicle system including a plurality of the cameras.
車両に搭載された複数のカメラの撮像映像に基づいて前記車両の周辺の物体を検知する車載装置を用いた周辺監視方法であって、
前記車両の走行状況を取得する取得工程と、
前記取得工程によって取得された前記走行状況に応じて物体の検知対象領域を決定する決定工程と、
前記決定工程によって決定された前記検知対象領域および前記走行状況に応じて、前記検知対象領域に対する前記車両の進入角度を算出する角度算出工程と、
前記角度算出工程によって算出された前記進入角度に応じて、物体の検知に関する検知条件を変更する検知制御工程と、
前記検知制御工程によって変更された前記検知条件および前記カメラの撮像映像に基づいて物体を検知する検知工程と
を含むことを特徴とする周辺監視方法。
A surroundings monitoring method using an in-vehicle device for detecting objects around the vehicle based on images captured by a plurality of cameras mounted on the vehicle,
an acquisition step of acquiring the running status of the vehicle;
a determination step of determining an object detection target area according to the traveling situation acquired by the acquisition step;
an angle calculation step of calculating an entry angle of the vehicle with respect to the detection target region according to the detection target region and the running situation determined by the determination step;
a detection control step of changing a detection condition related to object detection according to the approach angle calculated by the angle calculation step;
and a detection step of detecting an object based on the detection condition changed by the detection control step and an image captured by the camera.
JP2019064655A 2019-03-28 2019-03-28 In-vehicle device, in-vehicle system, and surrounding monitoring method Active JP7195200B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019064655A JP7195200B2 (en) 2019-03-28 2019-03-28 In-vehicle device, in-vehicle system, and surrounding monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019064655A JP7195200B2 (en) 2019-03-28 2019-03-28 In-vehicle device, in-vehicle system, and surrounding monitoring method

Publications (2)

Publication Number Publication Date
JP2020166409A JP2020166409A (en) 2020-10-08
JP7195200B2 true JP7195200B2 (en) 2022-12-23

Family

ID=72716192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019064655A Active JP7195200B2 (en) 2019-03-28 2019-03-28 In-vehicle device, in-vehicle system, and surrounding monitoring method

Country Status (1)

Country Link
JP (1) JP7195200B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022070524A1 (en) 2020-09-30 2022-04-07 富士フイルム株式会社 Piezoelectric laminate and piezoelectric element
WO2024069689A1 (en) * 2022-09-26 2024-04-04 日産自動車株式会社 Driving assistance method and driving assistance device
JP2024065139A (en) 2022-10-31 2024-05-15 三菱電機株式会社 Object detection device, object detection method, and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146217A (en) 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device
JP2010086406A (en) 2008-10-01 2010-04-15 Fujitsu Ten Ltd Image recognition device and image recognition method
JP2012014527A (en) 2010-07-01 2012-01-19 Toyota Motor Corp Pedestrian detection device
JP2012123470A (en) 2010-12-06 2012-06-28 Fujitsu Ten Ltd Object detection device and object detection method
JP2014222421A (en) 2013-05-14 2014-11-27 株式会社デンソー Driving assisting device
JP2015170233A (en) 2014-03-10 2015-09-28 日立オートモティブシステムズ株式会社 System for avoiding collision/crash with multiple mobile bodies
JP2017097522A (en) 2015-11-20 2017-06-01 株式会社東芝 Information transmission device, information transmission method and program
US20180162387A1 (en) 2016-12-08 2018-06-14 Hyundai Motor Company Vehicle and method for controlling thereof for collision avoidance
JP2018165098A (en) 2017-03-28 2018-10-25 マクセル株式会社 Head-up display device
CN109070799A (en) 2016-04-14 2018-12-21 日产自动车株式会社 Display methods and moving body display apparatus for displaying image of surroundings around moving body

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146217A (en) 2007-12-14 2009-07-02 Hitachi Ltd Stereo camera device
JP2010086406A (en) 2008-10-01 2010-04-15 Fujitsu Ten Ltd Image recognition device and image recognition method
JP2012014527A (en) 2010-07-01 2012-01-19 Toyota Motor Corp Pedestrian detection device
JP2012123470A (en) 2010-12-06 2012-06-28 Fujitsu Ten Ltd Object detection device and object detection method
JP2014222421A (en) 2013-05-14 2014-11-27 株式会社デンソー Driving assisting device
JP2015170233A (en) 2014-03-10 2015-09-28 日立オートモティブシステムズ株式会社 System for avoiding collision/crash with multiple mobile bodies
JP2017097522A (en) 2015-11-20 2017-06-01 株式会社東芝 Information transmission device, information transmission method and program
CN109070799A (en) 2016-04-14 2018-12-21 日产自动车株式会社 Display methods and moving body display apparatus for displaying image of surroundings around moving body
US20180162387A1 (en) 2016-12-08 2018-06-14 Hyundai Motor Company Vehicle and method for controlling thereof for collision avoidance
JP2018165098A (en) 2017-03-28 2018-10-25 マクセル株式会社 Head-up display device

Also Published As

Publication number Publication date
JP2020166409A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
CN108496178B (en) System and method for estimating future path
JP7188844B2 (en) Automatic Anticipation and Altruistic Response to Vehicle Lane Interruption
US9637118B2 (en) Processing apparatus, processing system, and processing method
US10402664B2 (en) Processing apparatus, processing system, processing program, and processing method
US10239539B2 (en) Vehicle travel control method and vehicle travel control device
JP6416293B2 (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
JP2022171774A (en) Detection of inclination of two wheeler
JP3846494B2 (en) Moving obstacle detection device
US10864906B2 (en) Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object
JP6626410B2 (en) Vehicle position specifying device and vehicle position specifying method
KR20200127219A (en) Navigating a vehicle based on a detected barrier
WO2013011952A1 (en) Traffic lane recognition apparatus
JP7195200B2 (en) In-vehicle device, in-vehicle system, and surrounding monitoring method
JP4869745B2 (en) Depression angle calculation device, depression angle calculation method, depression angle calculation program, and image processing apparatus
WO2020194017A1 (en) Behavior prediction method and behavior prediction device for mobile unit, and vehicle
US10705530B2 (en) Vehicle travel control method and vehicle travel control device
JP7276282B2 (en) OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION
JP4937844B2 (en) Pedestrian detection device
KR20200045696A (en) Method and apparatus of determining driving information
JP6828655B2 (en) Own vehicle position estimation device
JP7454685B2 (en) Detection of debris in vehicle travel paths
WO2021094802A1 (en) Method for controlling vehicle and device for controlling vehicle
JP6718025B2 (en) Device and method for identifying a small object area around a vehicle
JPWO2018025632A1 (en) Imaging device
JP2020129331A (en) Reverse run determination system, reverse run determination method, and reverse run determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221213

R150 Certificate of patent or registration of utility model

Ref document number: 7195200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150