JP7195200B2 - In-vehicle device, in-vehicle system, and surrounding monitoring method - Google Patents
In-vehicle device, in-vehicle system, and surrounding monitoring method Download PDFInfo
- Publication number
- JP7195200B2 JP7195200B2 JP2019064655A JP2019064655A JP7195200B2 JP 7195200 B2 JP7195200 B2 JP 7195200B2 JP 2019064655 A JP2019064655 A JP 2019064655A JP 2019064655 A JP2019064655 A JP 2019064655A JP 7195200 B2 JP7195200 B2 JP 7195200B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- vehicle
- camera
- angle
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Description
開示の実施形態は、車載装置、車載システムおよび周辺監視方法に関する。 The disclosed embodiments relate to an in-vehicle device, an in-vehicle system, and a surroundings monitoring method.
従来、交差点等において車両の移動方向に対し存在する物体をカメラ等の周辺監視センサによって検知する技術が知られている(たとえば、特許文献1参照)。 2. Description of the Related Art Conventionally, there has been known a technique of detecting an object existing in the moving direction of a vehicle at an intersection or the like with a peripheral monitoring sensor such as a camera (see, for example, Patent Document 1).
しかしながら、上述した従来技術には、物体の検知精度を向上させるうえで更なる改善の余地がある。 However, the conventional technology described above has room for further improvement in terms of improving the object detection accuracy.
たとえば、交差点を右左折等で曲がる場合、車両が曲がる先を横切る横断歩道は、車両が曲がり始める前と、曲がっている途中と、曲がり終えた後では、車両の移動方向に対して位置や向きが異なる。 For example, when making a right or left turn at an intersection, the crosswalk that crosses where the vehicle is turning is different from the direction of movement of the vehicle before the vehicle begins to turn, during the turn, and after the vehicle finishes turning. is different.
このため、たとえばフロントカメラの映像に基づいて物体を検知しようとする場合、その映像上において、上述のように見え方の異なる横断歩道を常に含むような固定領域を検知対象領域にしてしまうと、検知する必要のない物体を検知してしまう誤検知や、物体を見落してしまう未検知の発生頻度が高まるおそれがある。 For this reason, for example, when trying to detect an object based on an image from the front camera, if a fixed area on the image that always includes a pedestrian crossing that looks different as described above is set as a detection target area, There is a risk of increased frequency of erroneous detection, in which objects that do not need to be detected, and undetected objects, in which objects are overlooked.
実施形態の一態様は、上記に鑑みてなされたものであって、物体の検知精度を向上させることができる車載装置、車載システムおよび周辺監視方法を提供することを目的とする。 One aspect of the embodiments has been made in view of the above, and an object thereof is to provide an in-vehicle device, an in-vehicle system, and a surroundings monitoring method capable of improving object detection accuracy.
実施形態の一態様に係る車載装置は、車両に搭載された複数のカメラの撮像映像に基づいて前記車両の周辺の物体を検知する車載装置であって、取得部と、決定部と、角度算出部と、検知制御部と、検知部とを備える。前記取得部は、前記車両の走行状況を取得する。前記決定部は、前記取得部によって取得された前記走行状況に応じて物体の検知対象領域を決定する。前記角度算出部は、前記決定部によって決定された前記検知対象領域および前記走行状況に応じて、前記検知対象領域に対する前記車両の進入角度を算出する。前記検知制御部は、前記角度算出部によって算出された前記進入角度に応じて、物体の検知に関する検知条件を変更する。前記検知部は、前記検知制御部によって変更された前記検知条件および前記カメラの撮像映像に基づいて物体を検知する。 An in-vehicle device according to an aspect of an embodiment is an in-vehicle device that detects objects around a vehicle based on images captured by a plurality of cameras mounted on the vehicle, and includes an acquisition unit, a determination unit, and an angle calculator. a detection control unit; and a detection unit. The acquisition unit acquires a running condition of the vehicle. The determination unit determines an object detection target area according to the traveling situation acquired by the acquisition unit. The angle calculation unit calculates an entry angle of the vehicle with respect to the detection target area according to the detection target area and the running condition determined by the determination unit. The detection control unit changes a detection condition regarding object detection according to the approach angle calculated by the angle calculation unit. The detection unit detects an object based on the detection condition changed by the detection control unit and the image captured by the camera.
実施形態の一態様によれば、物体の検知精度を向上させることができる。 According to one aspect of the embodiment, it is possible to improve the object detection accuracy.
以下、添付図面を参照して、本願の開示する車載装置、車載システムおよび周辺監視方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, embodiments of an in-vehicle device, an in-vehicle system, and a surroundings monitoring method disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.
また、以下では、実施形態に係る周辺監視方法の概要について図1A~図1Dを用いて説明した後に、実施形態に係る周辺監視方法を適用した車載システム1について、図2~図5を用いて説明することとする。
1A to 1D, and then the in-
まず、実施形態に係る周辺監視方法の概要について図1A~図1Dを用いて説明する。図1A~図1Dは、実施形態に係る周辺監視方法の概要説明図(その1)~(その4)である。 First, an overview of the surroundings monitoring method according to the embodiment will be described with reference to FIGS. 1A to 1D. 1A to 1D are schematic explanatory diagrams (part 1) to (part 4) of the surroundings monitoring method according to the embodiment.
なお、以下では、図1Aに示すように、交差点において車両Vが右折する場合を想定して説明を行う。図1Aに示すように、車両Vが右折するシーンでは、たとえば車両Vが曲がる先の横断歩道に自転車Bが進入してくることがある。実施形態に係る周辺監視方法は、このようなケースのたとえば横断歩道を、重点的に物体を検知したい検知対象領域DRとして、かかる検知対象領域DRにおける検知精度を高めようとするものである。 In addition, below, as shown to FIG. 1A, it demonstrates assuming the case where the vehicle V turns right in an intersection. As shown in FIG. 1A, in a scene in which vehicle V turns right, for example, bicycle B may approach a pedestrian crossing ahead of vehicle V turning. The surroundings monitoring method according to the embodiment is intended to improve detection accuracy in such a case, for example, a pedestrian crossing, as a detection target region DR in which an object is to be mainly detected.
ただし、図1Bに示すように、車両Vが右折する各シーンにおいて、時々刻々と変化する検知対象領域DRをすべて含むように、たとえば映像の全体や固定領域FRを物体の検知範囲としてしまうと、誤検知や未検知の発生機会を増やしてしまうおそれがある。 However, as shown in FIG. 1B, in each scene in which the vehicle V turns right, if the object detection range is set to include, for example, the entire image or the fixed region FR so as to include all the detection target regions DR that change from moment to moment, There is a risk of increasing the chances of false detections and non-detections.
たとえば、図1Bの上段のシーンでは、図中にM1部として示すように、車両Vが曲がる方向とは逆の歩道が固定領域FRに含まれると、かかる歩道を歩行中の歩行者等を検知してしまうおそれがある。 For example, in the upper scene of FIG. 1B, if a sidewalk opposite to the direction in which the vehicle V turns is included in the fixed area FR as indicated by M1 in the figure, a pedestrian or the like walking on the sidewalk is detected. There is a risk of doing so.
また、たとえば、図1Bの中段のシーンでは、図中にM2部として示すように、検知対象領域DRには含まれない横断歩道が固定領域FRに含まれると、かかる横断歩道を歩行中の歩行者等を検知してしまうおそれがある。 Further, for example, in the scene in the middle of FIG. 1B, if a pedestrian crossing that is not included in the detection target region DR is included in the fixed region FR as indicated by M2 in the drawing, There is a risk of detecting a person, etc.
また、たとえば、図1Cの下段のシーンでは、図中にM3部として示すように、車両Vが曲がった先の、検知対象領域DRには含まれない歩道が固定領域FRに含まれると、かかる歩道を歩行中の歩行者等を検知してしまうおそれがある。 Further, for example, in the scene in the lower part of FIG. 1C, if the fixed region FR includes a footpath that is not included in the detection target region DR beyond which the vehicle V turns, as indicated by M3 in the drawing, such There is a risk of detecting a pedestrian or the like walking on the sidewalk.
そこで、実施形態に係る周辺監視方法では、車両Vの走行状況に応じて検知対象領域DRを決定し、かかる検知対象領域DRに対する車両Vの進入角度を算出して、算出した進入角度に応じ、物体の検知条件を変更することとした。 Therefore, in the surroundings monitoring method according to the embodiment, the detection target area DR is determined according to the running condition of the vehicle V, the approach angle of the vehicle V to the detection target area DR is calculated, and according to the calculated approach angle, We decided to change the object detection conditions.
なお、ここに言う検知条件は、たとえば車両Vに搭載された複数の周辺監視カメラそれぞれの重み付けや、検知強度(「信頼度」と言い換えても可)等である。 Note that the detection conditions referred to here are, for example, the weighting of each of the plurality of peripheral monitoring cameras mounted on the vehicle V, the detection strength (can also be referred to as "reliability"), and the like.
具体的には、図1Cに示すように、実施形態に係る周辺監視方法では、車両Vに搭載された複数のカメラ4を用いる。カメラ4は、たとえば車両Vの前方を撮像範囲とするフロントカメラ4-Fと、車両Vの右側方を撮像範囲とするライトサイドカメラ4-Rと、車両Vの左側方を撮像範囲とするレフトサイドカメラ4-Lと、車両Vの後方を撮像範囲とするバックカメラ4-Bである。なお、図1Cは、カメラ4それぞれの搭載箇所や撮像範囲を限定するものではない。
Specifically, as shown in FIG. 1C, in the surroundings monitoring method according to the embodiment, a plurality of
そして、実施形態に係る周辺監視方法では、まず車両Vの走行状況を随時取得する。かかる走行状況は、たとえばナビ情報に基づく予測経路や現在位置、車速、ウィンカー操作の態様、舵角等である。そして、実施形態に係る周辺監視方法では、取得した走行状況に基づき、検知対象領域DRを決定する。 Then, in the surroundings monitoring method according to the embodiment, first, the running condition of the vehicle V is acquired as needed. Such driving conditions include, for example, a predicted route based on navigation information, current position, vehicle speed, manner of blinker operation, steering angle, and the like. Then, in the surroundings monitoring method according to the embodiment, the detection target area DR is determined based on the acquired driving conditions.
そのうえで、実施形態に係る周辺監視方法では、決定した検知対象領域DRに対する車両Vの進入角度を算出する。ここで、「進入角度」は、図1Dに示すように、決定した「検知対象領域DRの延在方向」と、「車両Vの進行方向」とがなす角度θである。したがって、かかる進入角度θは、車両Vが曲がり終えるまでに鋭角から徐々に大きくなることになる。そして、実施形態に係る周辺監視方法では、かかる進入角度θの変化に応じて、物体の検知条件を動的に変更する。 Then, in the surroundings monitoring method according to the embodiment, the approach angle of the vehicle V to the determined detection target area DR is calculated. Here, as shown in FIG. 1D, the "approach angle" is an angle θ formed between the determined "extending direction of the detection target region DR" and the "advancing direction of the vehicle V". Therefore, the approach angle θ gradually increases from an acute angle until the vehicle V finishes turning. Then, in the surroundings monitoring method according to the embodiment, the object detection conditions are dynamically changed according to the change in the approach angle θ.
ここで、検知対象領域DRの延在方向とは、物理形状的には検知対象領域DRの形状に沿った方向と考えることができる。たとえば検知対象領域DRが横断歩道であれば、入口の歩道と出口の歩道を結ぶ直線を延在方向とすることができる。また検知対象領域DRが道路であれば、道路に沿う方向を延在方向とすることができる。 Here, the extending direction of the detection target region DR can be considered as a direction along the shape of the detection target region DR in terms of physical shape. For example, if the detection target area DR is a pedestrian crossing, a straight line connecting the sidewalk at the entrance and the sidewalk at the exit can be set as the extending direction. Further, if the detection target region DR is a road, the direction along the road can be set as the extending direction.
また、検知対象領域DRの延在方向とは、機能意味的には検知対象領域DRにおいて検知対象物が主に動くと想定する方向と考えることもできる。たとえば検知対象領域DRが横断歩道であれば、検知対象物である歩行者や自転車が主に動く方向を延在方向とすることができる。また検知対象領域DRが道路であれば、検知対象物である自動車が主に動く方向を延在方向とすることができる。 Further, the extending direction of the detection target region DR can also be considered to be the direction in which the detection target mainly moves in the detection target region DR from a functional semantic point of view. For example, if the detection target area DR is a pedestrian crossing, the extension direction can be the direction in which the pedestrian or bicycle, which is the detection target, mainly moves. Further, if the detection target area DR is a road, the direction in which the vehicle, which is the detection target, mainly moves can be set as the extending direction.
つまり、進入角度とは、想定する検知対象物の移動方向に対して自車の進行方向とが交差するときの角度と考えることができる。 In other words, the approach angle can be considered to be the angle at which the travel direction of the own vehicle intersects with the movement direction of the assumed object to be detected.
たとえば、実施形態に係る周辺監視方法では、かかる検知条件の変更の一例として、図1Dに示すように、検知対象領域DRにおける物体の検知に関し、ライトサイドカメラ4-Rを主たる「メイン」のカメラと重み付けし、フロントカメラ4-Fを従たる「サブ」のカメラと重み付けする。言い換えれば、ライトサイドカメラ4-Rをメインカメラとして選定し、フロントカメラ4-Fをサブカメラとして選定し、その他のカメラ4については選定しない。
For example, in the surroundings monitoring method according to the embodiment, as an example of changing such detection conditions, as shown in FIG. , and the front camera 4-F is weighted as a secondary “sub” camera. In other words, the right side camera 4-R is selected as the main camera, the front camera 4-F is selected as the sub camera, and the
そのうえで、実施形態に係る周辺監視方法では、ライトサイドカメラ4-R,フロントカメラ4-Fそれぞれの撮像範囲によってカバーされた各領域の撮像映像を、前述の重み付けに応じて用いつつ物体を検知する。 In addition, in the surroundings monitoring method according to the embodiment, an object is detected while using the imaged images of each area covered by the imaging range of each of the right side camera 4-R and the front camera 4-F in accordance with the weighting described above. .
これにより、進入角度θの変化に応じた検知対象領域DRに対する最適なカメラ4の撮像映像による検知が可能となり、車両Vのドライバーの死角をフォローしつつ、精度のよい物体の検知が可能となる。なお、検知条件の変更のより具体的な例については、図3A~図4Cを用いた説明で後述する。
As a result, it is possible to detect the detection target area DR according to the change in the approach angle θ using the optimum image captured by the
このように、実施形態に係る周辺監視方法では、車両Vの走行状況に応じて検知対象領域DRを決定し、かかる検知対象領域DRに対する車両Vの進入角度θを算出して、かかる進入角度θの変化に応じ、カメラ4それぞれの重み付けを含む物体の検知条件を動的に変更することとした。
As described above, in the surroundings monitoring method according to the embodiment, the detection target region DR is determined according to the running condition of the vehicle V, the approach angle θ of the vehicle V with respect to the detection target region DR is calculated, and the approach angle θ is calculated. The object detection conditions, including the weighting of each
したがって、実施形態に係る周辺監視方法によれば、車両Vの移動方向に対し存在する物体の検知精度を向上させることができる。以下、実施形態に係る周辺監視方法を適用した車載装置10を含む、車載システム1の構成例について、図2以降を用いてより具体的に説明する。
Therefore, according to the surroundings monitoring method according to the embodiment, it is possible to improve the detection accuracy of an object existing in the direction in which the vehicle V is moving. Hereinafter, a configuration example of the vehicle-mounted
図2は、実施形態に係る車載システム1のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
FIG. 2 is a block diagram of the in-
換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。 In other words, each component illustrated in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific forms of distribution and integration of each functional block are not limited to those shown in the figure, and all or part of them can be functionally or physically distributed in arbitrary units according to various loads and usage conditions.・It is possible to integrate and configure.
図2に示すように、車載システム1は、GPS(Global Positioning System)センサ2、舵角センサ3を含む各種センサと、カメラ4、たとえばフロントカメラ4-F,ライトサイドカメラ4-R,レフトサイドカメラ4-L,バックカメラ4-Bと、車載装置10と、車両制御装置20とを含む。
As shown in FIG. 2, an in-
車載装置10は、記憶部11と、制御部12とを備える。また、車載装置10は、車両Vの各種の挙動を制御する車両制御装置20、および、GPSセンサ2、舵角センサ3、カメラ4等とは、CAN(Controller Area Network)等の通信ネットワークを介して通信可能に接続される。
The in-
車両制御装置20は、車載装置10による物体の検知結果に基づいて、たとえばPCS(Pre-crash Safety System)やAEB(Advanced Emergency Braking System)等の車両制御を行う。また、車両制御装置20は、車載装置10による物体の検知結果に基づいて、自動運転制御を行う自動運転制御装置であってもよい。
The
記憶部11は、たとえば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、ナビ情報11aを記憶する。ナビ情報11aは、車両Vのカーナビゲーションシステムに関する情報であり、地図情報や、走行予定ルート等を含む。
The
制御部12は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、車載装置10内部の記憶デバイスに記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部12は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
The
制御部12は、取得部12aと、決定部12bと、角度算出部12cと、検知制御部12dと、検知部12eとを有し、以下に説明する情報処理の機能や作用を実現または実行する。
The
取得部12aは、GPSセンサ2や舵角センサ3といった各種センサのセンサ値、および、ナビ情報11aに基づいて、車両Vの走行状況を取得する。車両Vの走行状況とは、たとえば車両Vの位置、進行方向、右左折などの進路設定状況などを含む。また、取得部12aは、取得した走行状況を決定部12bへ通知する。
The
決定部12bは、取得部12aによって取得された車両Vの走行状況に基づいて、上述した検知対象領域DRを決定する。たとえば図1Aに示すように、車両Vの位置が交差点進入位置であり、進路設定状況が右折の場合は、車両Vから見て交差点右側の横断歩道を検知対象領域DRとして決定する。なお、一度検知対象領域DRが決定されたら、所定の条件を満たすまで変更されないことが好ましい。所定の条件とは、たとえば決定してから所定の時間が経過する、決定してから所定の距離を走行する、検知対象領域DRを交差して通過した、などである。また、決定部12bは、検知した検知対象領域DRを角度算出部12cへ通知する。
The
角度算出部12cは、取得部12aによって取得された走行状況、および、決定部12bによって決定された検知対象領域DRに基づいて、上述した進入角度θを算出する。また、角度算出部12cは、取得部12aによって随時取得される走行状況の変化に基づいて都度、進入角度θを更新する。また、角度算出部12cは、算出した進入角度θを検知制御部12dへ通知する。
The
検知制御部12dは、角度算出部12cによって算出される進入角度θに応じて検知条件を動的に変更する。
The
検知部12eは、検知制御部12dによって変更される検知条件に応じつつ、カメラ4からの撮像映像に基づいて物体を検知する。また、検知部12eは、検知結果をたとえば車両制御装置20へ通知する。
The
なお、検知部12eは、図示略の車載装置10の出力部へ検知結果を出力するようにしてもよい。出力部は、たとえば車室内に設けられたディスプレイやスピーカである。
Note that the
ここで、実施形態に係る検知条件の変更の具体例について、図3A~図3Dを用いて説明する。図3A~図3Dは、実施形態に係る検知条件の変更の具体例を示す図(その1)~(その4)である。 A specific example of changing the detection condition according to the embodiment will now be described with reference to FIGS. 3A to 3D. 3A to 3D are diagrams (part 1) to (part 4) showing specific examples of changing detection conditions according to the embodiment.
図3Aに示すように、角度算出部12cによって算出された進入角度θが所定の角度より小さい場合を考える。たとえば所定の角度を50°とし、進入角度θが「0°≦θ<20°」であった場合、検知制御部12dは、ライトサイドカメラ4-Rを「メイン」と重み付けし、フロントカメラ4-Fを「サブ」と重み付けする。
Consider a case where the approach angle θ calculated by the
つまり、進入角度θが小さく、検知対象領域DRが車両Vの内輪側側方にある場合、主な撮像範囲が車両Vの内輪側の側方となるライトサイドカメラ4-Rを「メイン」と重み付けする。これにより「メイン」と重み付けしたカメラ4の主な撮像範囲内に検知対象領域DRを収めることができる。一方で、検知対象領域DRは写るかもしれないが、主な撮像範囲内には収められない可能性が高いフロントカメラ4-Fを「サブ」と重み付けする。なお、主な撮像範囲とは、カメラ4の撮像映像において検知処理を精度よく行うことができる範囲を指す。これは、たとえば画像の中央付近などである。
That is, when the approach angle θ is small and the detection target area DR is on the side of the inner wheel of the vehicle V, the right side camera 4-R whose main imaging range is on the side of the inner wheel of the vehicle V is defined as the "main" camera. weight. As a result, the detection target region DR can be contained within the main imaging range of the
そして、検知制御部12dは、ライトサイドカメラ4-R,フロントカメラ4-Fそれぞれの撮像範囲によってカバーされた各領域の撮像映像をかかる重み付けに応じて用いさせ、検知部12eに物体を検知させる。
Then, the
重み付けに応じて用いさせる、とは具体的には、検知部12eが物体を検知する際、複数のカメラ4の撮像映像それぞれの検出結果を統合するときの信頼度を変えるとよい。たとえば「メイン」と重み付けされたカメラ4の撮像映像に基づく検出結果の信頼度を、「サブ」と重み付けされたカメラ4の撮像映像に基づく検出結果よりも高く設定するなどである。
Specifically, when the
また、複数のカメラ4の撮像映像それぞれの検出処理を行う際の順序を変えるとよい。たとえば、「メイン」と重み付けされたカメラ4の撮像映像は、「サブ」と重み付けされたカメラ4の撮像映像より先に検出処理を行うなどである。
In addition, it is preferable to change the order in which detection processing is performed for each of the images captured by the plurality of
また、複数のカメラ4の撮像映像それぞれの検出処理を行う際の頻度を変えるとよい。たとえば、「メイン」と重み付けされたカメラ4の撮像映像は、「サブ」と重み付けされたカメラ4の撮像映像より高い頻度に検出処理を行うなどである。具体的には、「メイン」の重み付けの場合は毎フレーム検出を行い、「サブ」の重み付けの時は数フレームおきの検出にするなどである。
In addition, it is preferable to change the frequency of detection processing for each of the images captured by the plurality of
また、設定する重みとして例えばゼロなどを設定することもできる。ゼロと設定されたカメラ4の撮像映像は、検知部12eにおいて物体の検出に用いない処理としてもよい。この場合は、換言すると、検知部12eにおいて物体の検出に用いるカメラ4と用いないカメラ4とを設定する、と言うこともできる。たとえば図3Aの場合、レフトサイドカメラ4-Lやバックカメラ4-Bには検知対象領域DRが写らない可能性が高い。そのため、検知部12eでは検出に用いない、としても支障がない。またフロントカメラ4-Fのように「サブ」と設定したカメラ4も、検知対象領域DRを主な撮像範囲に収められない可能性が高いため、検出に用いない、としてもよい。
Also, for example, zero can be set as the weight to be set. The image captured by the
また、図3Bに示すように、角度算出部12cによって算出された進入角度θが大きくなったが、未だ所定の角度より小さいたとえば「20°≦θ<50°」である場合を考える。この場合も、検知制御部12dは、ライトサイドカメラ4-Rを「メイン」と重み付けし、フロントカメラ4-Fを「サブ」と重み付けする。
Also, as shown in FIG. 3B, consider a case where the approach angle θ calculated by the
なお、図3Bの場合は、図3Aの場合に比べて、ライトサイドカメラ4-R,フロントカメラ4-Fそれぞれの撮像範囲によってカバーされる各領域は、時計回りに回転することとなる。そして、検知制御部12dは、図3Aの場合と同様に、かかる各領域の撮像映像を前述の重み付けに応じて用いさせ、検知部12eに物体を検知させる。
In the case of FIG. 3B, each area covered by the imaging range of each of the right side camera 4-R and the front camera 4-F rotates clockwise as compared to the case of FIG. 3A. Then, similarly to the case of FIG. 3A, the
また、図3Cに示すように、角度算出部12cによって算出された進入角度θが所定の角度を超えて直角に近くなる場合を考える。たとえば進入角度θが「50°≦θ<80°」であった場合、検知制御部12dは、今度はフロントカメラ4-Fを「メイン」と重み付けし、ライトサイドカメラ4-Rを「サブ」と重み付けする。つまり、進入角度θが直角に近づいて検知対象領域DRが車両Vの前方に来た場合、主な撮像範囲が車両V正面となるフロントカメラ4-Fを「メイン」と重み付けする。これにより、「メイン」と重み付けしたカメラ4の主な撮像範囲内に検知対象領域DRを収めることができる。一方で、検知対象領域DRは写るかもしれないが、主な撮像範囲内には収められない可能性が高いライトサイドカメラ4-Rを「サブ」と重み付けする。
Also, as shown in FIG. 3C, consider a case where the approach angle θ calculated by the
無論、図3Cの場合は、図3Bの場合に比べて、ライトサイドカメラ4-R,フロントカメラ4-Fそれぞれの撮像範囲によってカバーされる各領域は、さらに時計回りに回転することとなる。そして、検知制御部12dは、図3Aおよび図3Bの場合と同様に、かかる各領域の撮像映像を前述の重み付けに応じて用いさせ、検知部12eに物体を検知させる。
Of course, in the case of FIG. 3C, each region covered by the imaging range of each of the right side camera 4-R and the front camera 4-F rotates further clockwise than in the case of FIG. 3B. 3A and 3B, the
また、図3Dに示すように、角度算出部12cによって算出された進入角度θが直角に近いたとえば「80°≦θ<120°」であった場合、検知制御部12dは、フロントカメラ4-Fを「メイン」と重み付けし、ライトサイドカメラ4-Rおよびレフトサイドカメラ4-Lを「サブ」と重み付けする。
Further, as shown in FIG. 3D, when the approach angle θ calculated by the
言うまでもなく、図3Dの場合は、図3Cの場合に比べて、ライトサイドカメラ4-R,フロントカメラ4-Fそれぞれの撮像範囲によってカバーされる各領域は、さらに時計回り回転することとなる。また、レフトサイドカメラ4-Lの撮像範囲によってカバーされる領域が加わることとなる。そして、検知制御部12dは、図3A~図3Cの場合と同様に、かかる各領域の撮像映像を前述の重み付けに応じて用いさせ、検知部12eに物体を検知させる。
Needless to say, in the case of FIG. 3D, each area covered by the imaging range of the right side camera 4-R and the front camera 4-F rotates further clockwise than in the case of FIG. 3C. Also, an area covered by the imaging range of the left side camera 4-L is added. 3A to 3C, the
ここで、所定の角度は、どちらのカメラ4の主な撮像範囲に検知対象領域DRが主として写るかに基づいて決定するとよい。たとえば、上記の説明では一例として所定の角度を50°とした。これは50°を境にライトサイドカメラ4-Rの主な撮像範囲よりもフロントカメラ4-Fの主な撮像範囲に検知対象領域DRが主に写るようになる、と考えてもよい。所定の角度は、カメラ4の光学系などに基づき事前に設定しておくとよい。また検知対象領域DRと車両Vとの距離によって変化するようにしてもよい。
Here, the predetermined angle may be determined based on which
なお、実施形態に係る検知条件の変更の具体例は、図3A~図3Dに示したものに限られない。次に、変形例に係る検知条件の変更の具体例について、図4A~図4Cを用いて説明する。図4A~図4Cは、変形例に係る検知条件の変更の具体例を示す図(その1)~(その3)である。 It should be noted that specific examples of changing detection conditions according to the embodiment are not limited to those shown in FIGS. 3A to 3D. Next, a specific example of changing the detection condition according to the modified example will be described with reference to FIGS. 4A to 4C. 4A to 4C are diagrams (Part 1) to (Part 3) showing specific examples of changes in detection conditions according to the modification.
ところで、検知部12eは、物体を検知するに際し、決定部12bによって決定された検知対象領域DRがカメラ4の撮像映像において該当する領域(以下、「該当領域AR」と言う)を抽出し、かかる該当領域ARにおいて物体の位置や速度ベクトルといった物体の特徴点を抽出することとなる。しかし、かかる特徴点の抽出において、該当領域AR全体に一律の定数を用いることは処理効率を低下させる一因となりうる。
By the way, when detecting an object, the
そこで、図4Aに示すように、たとえば該当領域ARのうち、領域端、すなわち物体がカメラ4の撮像範囲に新たに写り込んでくる領域に相当するエリアAR-1に対し、重点的に特徴点を抽出するようにすれば、処理効率を向上させることができる。具体的には、図4Aに示すように、検知制御部12dは、自転車B等の物体が進入してくるエリアAR-1の重み付けを大きくし、かかるエリアAR-1に対し、検知部12eに重点的に特徴点を抽出させることができる。
Therefore, as shown in FIG. 4A, for example, in the relevant area AR, for example, an area AR-1 corresponding to the edge of the area, that is, the area in which the object is newly captured in the imaging range of the
また、移動する物体は、たとえば横ベクトルの動きが多ければ検知しやすい。そこで、図4Bに示すように、検知制御部12dが、横ベクトルの動きが多い映像を撮像したカメラ4を、進入角度θに応じた「メイン」として選定するようにしてもよい。これにより、移動物を検知しやすくすることが可能となる。
Also, a moving object is easy to detect if, for example, there is a lot of horizontal vector movement. Therefore, as shown in FIG. 4B, the
また、図4Cに示すように、検知制御部12dは、たとえば右折時において進入角度θが0°から120°へと変化するのに応じ、各カメラ4の検知強度を変化させるようにしてもよい。前述の説明では、2つのカメラ4に対して検知強度として「メイン」と「サブ」の2段階の重み付けを設定する処理を行った。これに対して、たとえば図4Cに示すように、検知制御部12dは、右折時において進入角度θが0°から120°へと変化するのに応じ、フロントカメラ4-Fの検知強度を「弱」→「中」→「強」と変化させてもよい。
Further, as shown in FIG. 4C, the
また、検知制御部12dは、ライトサイドカメラ4-Rについては、その検知強度を「中」→「強」→「強」と変化させてもよい。また、検知制御部12dは、レフトサイドカメラ4-Lについては、その検知強度を「弱」→「中」→「強」と変化させてもよい。
Further, the
なお、先の例とは異なり、進入角度θが直角に近い状態でも、側方カメラであるライトサイドカメラ4-R、および、レフトサイドカメラ4-Lの検知強度を高く設定しておいてもよい。たとえば検知対象領域DRが横断歩道の場合、横断歩道の入口および出口など、フロントカメラ4-Fでは撮像範囲の端に来るような前側方の物体検知を行うためである。 Note that unlike the previous example, even when the approach angle θ is close to a right angle, even if the detection strength of the right side camera 4-R and the left side camera 4-L, which are side cameras, is set high, good. This is because, for example, when the detection target area DR is a pedestrian crossing, the front camera 4-F detects front and side objects such as entrances and exits of the pedestrian crossing, which are at the ends of the imaging range.
なお、検知強度は、上述したが「信頼度」と言い換えてもよい。また、「優先度」といってもよい。かかる検知強度は、たとえばカメラ4それぞれの撮像映像に基づく検知結果を総合判定する際の係数として用いることができ、これにより、進入角度θに応じて精度よく物体を検知するのに資することができる。
It should be noted that the detection strength may be rephrased as "reliability" as described above. It can also be called "priority". Such detection strength can be used, for example, as a coefficient when comprehensively judging the detection results based on the images captured by the
次に、実施形態に係る車載装置10が実行する処理手順について、図5を用いて説明する。図5は、実施形態に係る車載装置10が実行する処理手順を示すフローチャートである。
Next, a processing procedure executed by the in-
図5に示すように、まず取得部12aが走行状況を取得する(ステップS101)。そして、決定部12bが、取得された走行状況に応じて検知対象領域DRを決定する(ステップS102)。
As shown in FIG. 5, first, the
そして、角度算出部12cが、決定された検知対象領域DRおよび走行状況に基づいて、検知対象領域DRに対する進入角度θを算出する(ステップS103)。そして、検知制御部12dが、算出された進入角度θに応じて検知条件を変更する(ステップS104)。
Then, the
そして、検知部12eが、検知制御部12dの変更した検知条件に応じて物体を検知すし(ステップS105)、ステップS101からの処理を繰り返す。
Then, the
上述してきたように、実施形態に係る車載装置10は、車両Vに搭載された複数のカメラ4の撮像映像に基づいて車両Vの周辺の物体を検知する車載装置10であって、取得部12aと、決定部12bと、角度算出部12cと、検知制御部12dと、検知部12eとを備える。取得部12aは、車両Vの走行状況を取得する。決定部12bは、取得部12aによって取得された走行状況に応じて物体の検知対象領域DRを決定する。角度算出部12cは、決定部12bによって決定された検知対象領域DRおよび走行状況に応じて、検知対象領域DRに対する車両Vの進入角度θを算出する。検知制御部12dは、角度算出部12cによって算出された進入角度θに応じて、物体の検知に関する検知条件を変更する。検知部12eは、検知制御部12dによって変更された検知条件およびカメラ4の撮像映像に基づいて物体を検知する。
As described above, the in-
したがって、実施形態に係る車載装置10によれば、物体の検知精度を向上させることができる。
Therefore, according to the in-
また、角度算出部12cは、検知対象領域DRの延在方向と、車両Vの進行方向とがなす角度を進入角度θとして算出する。
Further, the
したがって、実施形態に係る車載装置10によれば、車両Vの右左折時において車両Vの移動方向に存在する物体を精度よく検知することが可能となる。
Therefore, according to the in-
また、検知制御部12dは、カメラ4それぞれの撮像範囲および進入角度θに基づいて、カメラ4の撮像映像それぞれに対して、検知部12eが物体を検知するときの重み付けをする。
Further, the
したがって、実施形態に係る車載装置10によれば、主な撮像範囲内に検知対象領域DRを収めることができるカメラ4を「メイン」と重み付けしたり、検知対象領域DRは写るかもしれないが、主な撮像範囲内には検知対象領域DRを収められない可能性が高いカメラ4を「サブ」と重み付けしたりするなど、検知対象領域DRの撮像に適した検知条件設定を行うことができる。
Therefore, according to the in-
また、検知制御部12dは、カメラ4それぞれの撮像映像を比較して、相対的に横ベクトルの動きが多い撮像映像を撮像したカメラ4を選定する。
The
したがって、実施形態に係る車載装置10によれば、移動する物体の検知精度を向上させることが可能となる。
Therefore, according to the in-
また、検知制御部12dは、カメラ4の撮像映像において検知対象領域DRに該当する領域のうちの領域端に相当するエリアAR-1について、検知部12eに重点的に物体の特徴点を抽出させる。
Further, the
したがって、実施形態に係る車載装置10によれば、処理効率よく移動する物体を検知させることが可能となる。
Therefore, according to the in-
また、検知制御部12dは、進入角度θが直角に近づくに連れて車両Vの前方を主な撮像範囲とするカメラ4の検知強度を上げる。
Further, the
したがって、実施形態に係る車載装置10によれば、検知対象領域DRに対する車両Vの移動方向が直角となるに連れて検知対象領域DRの撮像に最適となるフロントカメラ4-Fの検知強度を上げることにより、物体の検知精度を向上させることができる。
Therefore, according to the in-
また、検知制御部12dは、進入角度θが所定の角度より小さい場合は、車両Vの前方を主な撮像範囲とするカメラ4の検知強度よりも、内輪側となる車両Vの側方を撮像範囲とするカメラ4の検知強度を上げる。
Further, when the approach angle θ is smaller than a predetermined angle, the
したがって、実施形態に係る車載装置10によれば、検知対象領域DRが車両Vの側方に位置する場合は、かかる場合の検知対象領域DRの撮像に最適となるライトサイドカメラ4-Rまたはレフトサイドカメラ4-Lの検知強度を上げることにより、物体の検知精度を向上させることができる。
Therefore, according to the in-
なお、上述した実施形態では、右折時を例に挙げたが、左折時についても右折時とは左右対称となるだけで、他は同様に上述した実施形態を適用することができる。 In the above-described embodiment, right-turning is taken as an example, but left-turning is only bilaterally symmetrical with right-turning, and the above-described embodiment can be similarly applied to left-turning.
また、上述した実施形態では、交差点を例に挙げたが、無論、公道からのコンビニエンスストア等への進入時や、駐車場内での移動時等、様々なシーンで上述した実施形態を適用することができる。 In addition, in the above-described embodiment, an intersection was taken as an example, but of course, the above-described embodiment can be applied in various scenes such as when entering a convenience store from a public road, when moving in a parking lot, and the like. can be done.
また、上述した実施形態では、カメラ4が4個設けられることとしたが、複数であればよく、2個または3個であってもよいし5個以上であってもよい。
In addition, in the above-described embodiment, four
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.
1 車載システム
4 カメラ
4-B バックカメラ
4-F フロントカメラ
4-L レフトサイドカメラ
4-R ライトサイドカメラ
10 車載装置
11a ナビ情報
12a 取得部
12b 決定部
12c 角度算出部
12d 検知制御部
12e 検知部
20 車両制御装置
DR 検知対象領域
V 車両
θ 進入角度
1 in-
Claims (9)
前記車両の走行状況を取得する取得部と、
前記取得部によって取得された前記走行状況に応じて物体の検知対象領域を決定する決定部と、
前記決定部によって決定された前記検知対象領域および前記走行状況に応じて、前記検知対象領域に対する前記車両の進入角度を算出する角度算出部と、
前記角度算出部によって算出された前記進入角度に応じて、物体の検知に関する検知条件を変更する検知制御部と、
前記検知制御部によって変更された前記検知条件および前記カメラの撮像映像に基づいて物体を検知する検知部と
を備えることを特徴とする車載装置。 An in-vehicle device that detects objects around the vehicle based on images captured by a plurality of cameras mounted on the vehicle,
an acquisition unit that acquires the running status of the vehicle;
a determination unit that determines an object detection target area according to the traveling situation acquired by the acquisition unit;
an angle calculation unit that calculates an entry angle of the vehicle with respect to the detection target area according to the detection target area and the running situation determined by the determination unit;
a detection control unit that changes detection conditions related to object detection according to the approach angle calculated by the angle calculation unit;
and a detection unit that detects an object based on the detection condition changed by the detection control unit and an image captured by the camera.
前記検知対象領域の延在方向と、前記車両の進行方向とがなす角度を前記進入角度として算出する
ことを特徴とする請求項1に記載の車載装置。 The angle calculator,
The in-vehicle device according to claim 1, wherein an angle formed by an extending direction of the detection target area and a traveling direction of the vehicle is calculated as the approach angle.
前記カメラそれぞれの撮像範囲および前記進入角度に基づいて、前記カメラの撮像映像それぞれに対して、前記検知部が物体を検知するときの重み付けをする
ことを特徴とする請求項1または2に記載の車載装置。 The detection control unit is
3. The detecting unit according to claim 1 or 2, wherein weighting is applied to each of the images captured by the cameras based on the imaging range and the approach angle of each of the cameras when the detection unit detects an object. In-vehicle device.
前記カメラそれぞれの撮像映像を比較して、相対的に横ベクトルの動きが多い撮像映像を撮像した前記カメラを選定する
ことを特徴とする請求項1、2または3に記載の車載装置。 The detection control unit is
4. The in-vehicle device according to claim 1, wherein the images captured by the respective cameras are compared, and the camera that captures images with relatively large lateral vector movements is selected.
前記カメラの撮像映像において前記検知対象領域に該当する領域のうちの領域端に相当するエリアについて、前記検知部に重点的に物体の特徴点を抽出させる
ことを特徴とする請求項1~4のいずれか一つに記載の車載装置。 The detection control unit is
5. The method according to any one of claims 1 to 4, wherein the detection unit is caused to extract feature points of an object intensively with respect to an area corresponding to an end of the area corresponding to the detection target area in the image captured by the camera. The in-vehicle device according to any one of the above.
前記進入角度が直角に近づくに連れて前記車両の前方を主な撮像範囲とする前記カメラの検知強度を上げる
ことを特徴とする請求項1~5のいずれか一つに記載の車載装置。 The detection control unit is
The in-vehicle device according to any one of claims 1 to 5, wherein as the approach angle approaches a right angle, the detection strength of the camera whose main imaging range is the front of the vehicle is increased.
前記進入角度が所定の角度より小さい場合は、前記車両の前方を主な撮像範囲とする前記カメラの検知強度よりも、内輪側となる前記車両の側方を撮像範囲とする前記カメラの検知強度を上げる
ことを特徴とする請求項1~6のいずれか一つに記載の車載装置。 The detection control unit is
When the approach angle is smaller than a predetermined angle, the detection strength of the camera whose imaging range is the side of the vehicle, which is the inner wheel side, is higher than the detection strength of the camera whose main imaging range is the front of the vehicle. The in-vehicle device according to any one of claims 1 to 6, characterized in that:
複数の前記カメラを含む、前記走行状況を示すセンサ情報を出力可能な車載センサと
を備えることを特徴とする車載システム。 an in-vehicle device according to any one of claims 1 to 7;
An in-vehicle system comprising: an in-vehicle sensor capable of outputting sensor information indicating the driving situation, the in-vehicle system including a plurality of the cameras.
前記車両の走行状況を取得する取得工程と、
前記取得工程によって取得された前記走行状況に応じて物体の検知対象領域を決定する決定工程と、
前記決定工程によって決定された前記検知対象領域および前記走行状況に応じて、前記検知対象領域に対する前記車両の進入角度を算出する角度算出工程と、
前記角度算出工程によって算出された前記進入角度に応じて、物体の検知に関する検知条件を変更する検知制御工程と、
前記検知制御工程によって変更された前記検知条件および前記カメラの撮像映像に基づいて物体を検知する検知工程と
を含むことを特徴とする周辺監視方法。 A surroundings monitoring method using an in-vehicle device for detecting objects around the vehicle based on images captured by a plurality of cameras mounted on the vehicle,
an acquisition step of acquiring the running status of the vehicle;
a determination step of determining an object detection target area according to the traveling situation acquired by the acquisition step;
an angle calculation step of calculating an entry angle of the vehicle with respect to the detection target region according to the detection target region and the running situation determined by the determination step;
a detection control step of changing a detection condition related to object detection according to the approach angle calculated by the angle calculation step;
and a detection step of detecting an object based on the detection condition changed by the detection control step and an image captured by the camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019064655A JP7195200B2 (en) | 2019-03-28 | 2019-03-28 | In-vehicle device, in-vehicle system, and surrounding monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019064655A JP7195200B2 (en) | 2019-03-28 | 2019-03-28 | In-vehicle device, in-vehicle system, and surrounding monitoring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020166409A JP2020166409A (en) | 2020-10-08 |
JP7195200B2 true JP7195200B2 (en) | 2022-12-23 |
Family
ID=72716192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019064655A Active JP7195200B2 (en) | 2019-03-28 | 2019-03-28 | In-vehicle device, in-vehicle system, and surrounding monitoring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7195200B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022070524A1 (en) | 2020-09-30 | 2022-04-07 | 富士フイルム株式会社 | Piezoelectric laminate and piezoelectric element |
WO2024069689A1 (en) * | 2022-09-26 | 2024-04-04 | 日産自動車株式会社 | Driving assistance method and driving assistance device |
JP2024065139A (en) | 2022-10-31 | 2024-05-15 | 三菱電機株式会社 | Object detection device, object detection method, and program |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009146217A (en) | 2007-12-14 | 2009-07-02 | Hitachi Ltd | Stereo camera device |
JP2010086406A (en) | 2008-10-01 | 2010-04-15 | Fujitsu Ten Ltd | Image recognition device and image recognition method |
JP2012014527A (en) | 2010-07-01 | 2012-01-19 | Toyota Motor Corp | Pedestrian detection device |
JP2012123470A (en) | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | Object detection device and object detection method |
JP2014222421A (en) | 2013-05-14 | 2014-11-27 | 株式会社デンソー | Driving assisting device |
JP2015170233A (en) | 2014-03-10 | 2015-09-28 | 日立オートモティブシステムズ株式会社 | System for avoiding collision/crash with multiple mobile bodies |
JP2017097522A (en) | 2015-11-20 | 2017-06-01 | 株式会社東芝 | Information transmission device, information transmission method and program |
US20180162387A1 (en) | 2016-12-08 | 2018-06-14 | Hyundai Motor Company | Vehicle and method for controlling thereof for collision avoidance |
JP2018165098A (en) | 2017-03-28 | 2018-10-25 | マクセル株式会社 | Head-up display device |
CN109070799A (en) | 2016-04-14 | 2018-12-21 | 日产自动车株式会社 | Display methods and moving body display apparatus for displaying image of surroundings around moving body |
-
2019
- 2019-03-28 JP JP2019064655A patent/JP7195200B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009146217A (en) | 2007-12-14 | 2009-07-02 | Hitachi Ltd | Stereo camera device |
JP2010086406A (en) | 2008-10-01 | 2010-04-15 | Fujitsu Ten Ltd | Image recognition device and image recognition method |
JP2012014527A (en) | 2010-07-01 | 2012-01-19 | Toyota Motor Corp | Pedestrian detection device |
JP2012123470A (en) | 2010-12-06 | 2012-06-28 | Fujitsu Ten Ltd | Object detection device and object detection method |
JP2014222421A (en) | 2013-05-14 | 2014-11-27 | 株式会社デンソー | Driving assisting device |
JP2015170233A (en) | 2014-03-10 | 2015-09-28 | 日立オートモティブシステムズ株式会社 | System for avoiding collision/crash with multiple mobile bodies |
JP2017097522A (en) | 2015-11-20 | 2017-06-01 | 株式会社東芝 | Information transmission device, information transmission method and program |
CN109070799A (en) | 2016-04-14 | 2018-12-21 | 日产自动车株式会社 | Display methods and moving body display apparatus for displaying image of surroundings around moving body |
US20180162387A1 (en) | 2016-12-08 | 2018-06-14 | Hyundai Motor Company | Vehicle and method for controlling thereof for collision avoidance |
JP2018165098A (en) | 2017-03-28 | 2018-10-25 | マクセル株式会社 | Head-up display device |
Also Published As
Publication number | Publication date |
---|---|
JP2020166409A (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108496178B (en) | System and method for estimating future path | |
JP7188844B2 (en) | Automatic Anticipation and Altruistic Response to Vehicle Lane Interruption | |
US9637118B2 (en) | Processing apparatus, processing system, and processing method | |
US10402664B2 (en) | Processing apparatus, processing system, processing program, and processing method | |
US10239539B2 (en) | Vehicle travel control method and vehicle travel control device | |
JP6416293B2 (en) | Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car | |
JP2022171774A (en) | Detection of inclination of two wheeler | |
JP3846494B2 (en) | Moving obstacle detection device | |
US10864906B2 (en) | Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object | |
JP6626410B2 (en) | Vehicle position specifying device and vehicle position specifying method | |
KR20200127219A (en) | Navigating a vehicle based on a detected barrier | |
WO2013011952A1 (en) | Traffic lane recognition apparatus | |
JP7195200B2 (en) | In-vehicle device, in-vehicle system, and surrounding monitoring method | |
JP4869745B2 (en) | Depression angle calculation device, depression angle calculation method, depression angle calculation program, and image processing apparatus | |
WO2020194017A1 (en) | Behavior prediction method and behavior prediction device for mobile unit, and vehicle | |
US10705530B2 (en) | Vehicle travel control method and vehicle travel control device | |
JP7276282B2 (en) | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION | |
JP4937844B2 (en) | Pedestrian detection device | |
KR20200045696A (en) | Method and apparatus of determining driving information | |
JP6828655B2 (en) | Own vehicle position estimation device | |
JP7454685B2 (en) | Detection of debris in vehicle travel paths | |
WO2021094802A1 (en) | Method for controlling vehicle and device for controlling vehicle | |
JP6718025B2 (en) | Device and method for identifying a small object area around a vehicle | |
JPWO2018025632A1 (en) | Imaging device | |
JP2020129331A (en) | Reverse run determination system, reverse run determination method, and reverse run determination program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7195200 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |