JP2017138660A - Object detection method, object detection device and program - Google Patents

Object detection method, object detection device and program Download PDF

Info

Publication number
JP2017138660A
JP2017138660A JP2016017197A JP2016017197A JP2017138660A JP 2017138660 A JP2017138660 A JP 2017138660A JP 2016017197 A JP2016017197 A JP 2016017197A JP 2016017197 A JP2016017197 A JP 2016017197A JP 2017138660 A JP2017138660 A JP 2017138660A
Authority
JP
Japan
Prior art keywords
vehicle
image
object detection
movement locus
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016017197A
Other languages
Japanese (ja)
Other versions
JP6520740B2 (en
JP2017138660A5 (en
Inventor
亮 根山
Akira Neyama
亮 根山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016017197A priority Critical patent/JP6520740B2/en
Publication of JP2017138660A publication Critical patent/JP2017138660A/en
Publication of JP2017138660A5 publication Critical patent/JP2017138660A5/ja
Application granted granted Critical
Publication of JP6520740B2 publication Critical patent/JP6520740B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect object on a travelling route of a vehicle with high accuracy.SOLUTION: An object detection method detecting objects located on a travelling route of a vehicle having an on-vehicle camera mounted from an image shot by the vehicle includes: an on-vehicle image acquisition step of acquiring an on-vehicle image shot by the on-vehicle camera of the vehicle; a behavior information acquisition step of acquiring behavior information on the vehicle subsequent to imaging of the on-vehicle image; a trajectory calculation step of obtaining a movement trajectory of the vehicle on the basis of the behavior information; an area calculation step of obtaining an area corresponding to the movement trajectory in the on-vehicle image on the basis of the movement trajectory; an object detection step of detecting an object targeted for detection from the on-vehicle image; and a calculation step of, as to the detected object, calculating an amount of overlapping between the detected object and the area corresponding to the movement trajectory in the on-vehicle image. It is preferable to further include a judgement step of judging that the object with the amount of overlapping equal to or more than a prescribed ratio is the object located on the travelling route of the vehicle.SELECTED DRAWING: Figure 2

Description

本発明は、画像から物体を検出する技術に関し、特に、車両が撮影した画像から当該車両の走行経路上の物体を検出する技術に関する。   The present invention relates to a technique for detecting an object from an image, and more particularly to a technique for detecting an object on a travel route of the vehicle from an image taken by the vehicle.

車載カメラで撮影した画像から物体、特に障害物を検出する技術が提案されている。特許文献1は、カメラやレーダーによって車両の進行方向上の物体を検知する技術を開示す
る。特許文献1は、特に、走行予定経路や運転者の視線から車線変更の有無を推定し、車
線変更が行われると予測した場合には、カメラの撮影方向やレーダーの検知方向を変更する。
A technique for detecting an object, particularly an obstacle, from an image taken by an in-vehicle camera has been proposed. Patent Document 1 discloses a technique for detecting an object in the traveling direction of a vehicle using a camera or a radar. Patent Document 1 particularly estimates the presence / absence of a lane change from the planned travel route and the driver's line of sight, and changes the shooting direction of the camera and the detection direction of the radar when it is predicted that the lane change will be performed.

特許文献2は、カメラとレーダーの両方を用いて物体を検出する際に、車両の進行経路
範囲内についてはカメラとレーダーの両方を用いて検出を行い、進行経路範囲外についてはレーダーのみを用いて検出を行うことを開示する。
In Patent Document 2, when detecting an object using both a camera and a radar, the detection is performed using both the camera and the radar within the travel path range of the vehicle, and only the radar is used outside the travel path range. And performing detection.

特許文献3は、白線検出を行って道路形状および道路上での自車両の位置を検出し、こ
れと撮影画像とを用いて、走行軌跡に沿った危険度を算出することを開示する。
Patent Document 3 discloses that white line detection is performed to detect the road shape and the position of the host vehicle on the road, and using this and the captured image, the degree of risk along the travel locus is calculated.

特開2005-231450号公報JP 2005-231450 JP 特開2012-089114号公報JP 2012-089114 A 特開2006-154967号公報Japanese Unexamined Patent Publication No. 2006-154967

車速や操舵量は運転者の運転操作によって時々刻々と変化し、車両の移動軌跡を予測することは一般に困難である。したがって、予測される移動軌跡を用いる特許文献1,2の手法は、走行経路上の物体を検出する精度が低い。   The vehicle speed and the steering amount change from moment to moment depending on the driving operation of the driver, and it is generally difficult to predict the movement locus of the vehicle. Therefore, the methods of Patent Documents 1 and 2 using the predicted movement trajectory have low accuracy for detecting an object on the travel route.

また、白線検出を利用しても必ずしも精度は向上しない。まず、白線検出自体の精度がそれほど高くない。例えば、白線が消えかかっている場所では精度のよい検出が行えず、また、白線以外にも白線と同様のパターンを有する物体が存在するため誤検出が発生する。さらに、国によっては、従来の白線を削って白線を引き直すことが行われるため、これも誤検出の原因となる。さらに国によっては、車線が白線ではなくドットで表現されていることもあり、これも検出精度低下の原因となる。また、仮に白線が正しく検出できたとしても、車両が車線に沿って走行するとは限らないので、車両の移動軌跡を精度良く予測できるわけではない。   Even if white line detection is used, the accuracy is not necessarily improved. First, the accuracy of white line detection itself is not so high. For example, accurate detection cannot be performed at a place where the white line is about to disappear, and an erroneous detection occurs because an object having the same pattern as the white line exists in addition to the white line. Furthermore, in some countries, the conventional white line is cut and the white line is drawn again, which also causes false detection. Furthermore, in some countries, the lane is expressed by dots instead of white lines, which also causes a decrease in detection accuracy. Further, even if the white line can be detected correctly, the vehicle does not always travel along the lane, so that the movement trajectory of the vehicle cannot be accurately predicted.

このように、従来技術では車両の走行経路上の物体を精度良く検出することが困難である。そこで、本発明は、車両の走行経路上の物体を精度良く検出することを目的とする。   As described above, it is difficult for the conventional technology to accurately detect an object on the travel route of the vehicle. Accordingly, an object of the present invention is to accurately detect an object on a travel route of a vehicle.

上記の目的を達成するために、本発明の第一の態様では、車載画像を撮影した後の車両の挙動情報を用いて車両の移動軌跡(走行経路)を求め、車載画像において検出された物体が当該移動軌跡上に位置するか否かを判定することで、車両の移動軌跡上に位置する物体を検出する。なお、本明細書において、車両の移動軌跡上に位置する物体を検出すると
いうのは、物体が車両の移動軌跡上に位置するかしないかを求めること以外に、物体が車両の移動軌跡上に位置する確からしさ(確率)を求めることも含む。
In order to achieve the above object, in the first aspect of the present invention, an object detected in a vehicle-mounted image is obtained by obtaining a vehicle movement trajectory (traveling route) using vehicle behavior information after the vehicle-mounted image is captured. Is detected on the movement locus, thereby detecting an object located on the movement locus of the vehicle. In this specification, the detection of an object located on the movement locus of the vehicle means that the object is placed on the movement locus of the vehicle in addition to determining whether or not the object is located on the movement locus of the vehicle. It also includes determining the probability (probability) of being located.

より具体的には、本発明の第一の態様は、
車載カメラを搭載した車両が撮影する画像から前記車両の走行経路上に位置する物体を検出する物体検出方法であって、
前記車両の車載カメラが撮影した車載画像を取得する車載画像取得ステップと、
前記車載画像の撮影以降の前記車両の挙動情報を取得する挙動情報取得ステップと、
前記挙動情報に基づいて、前記車両の移動軌跡を求める軌跡算出ステップと、
前記移動軌跡に基づいて、前記車載画像において前記移動軌跡に対応する領域を求める領域算出ステップと、
前記車載画像から検出対象の物体を検出する物体検出ステップと、
前記物体検出ステップにおいて検出された物体について、前記車載画像における前記移動軌跡に対応する領域との重複量を算出する算出ステップと、
を含むことを特徴とする。
More specifically, the first aspect of the present invention includes:
An object detection method for detecting an object located on a travel route of a vehicle from an image taken by a vehicle equipped with an in-vehicle camera,
An in-vehicle image acquisition step of acquiring an in-vehicle image captured by the in-vehicle camera of the vehicle;
Behavior information acquisition step for acquiring behavior information of the vehicle after taking the in-vehicle image;
A trajectory calculating step for obtaining a movement trajectory of the vehicle based on the behavior information;
An area calculation step for obtaining an area corresponding to the movement locus in the in-vehicle image based on the movement locus;
An object detection step of detecting an object to be detected from the in-vehicle image;
A calculation step of calculating an overlap amount of the object detected in the object detection step with an area corresponding to the movement locus in the vehicle-mounted image;
It is characterized by including.

このようにすれば、実際の車両の挙動情報に基づいて車両の移動軌跡を求めているので、移動軌跡を正しく求めることができる。したがって、車両の移動軌跡上の物体を精度良く検出することができる。   In this way, since the movement locus of the vehicle is obtained based on the actual behavior information of the vehicle, the movement locus can be obtained correctly. Therefore, an object on the moving locus of the vehicle can be detected with high accuracy.

車載画像は静止画像であっても動画像であってもよい。車両の挙動情報は、車載画像の撮影後から取得を開始してもよいし、撮影前から継続して取得されていてもよい。典型的には、車両が走行中に、車載画像(動画)の撮影と挙動情報の取得を同期して行い、同期された車載画像と挙動情報を情報処理装置が取得して上記の処理を行うとよい。   The in-vehicle image may be a still image or a moving image. The vehicle behavior information may be acquired after the in-vehicle image is captured, or may be continuously acquired before the capturing. Typically, while the vehicle is traveling, the in-vehicle image (moving image) is captured and behavior information is acquired in synchronization, and the information processing apparatus acquires the synchronized in-vehicle image and behavior information and performs the above processing. Good.

挙動情報は、車両の移動軌跡を求めることができる1つまたは複数の情報を含む。挙動
情報の例は、例えば、車両の位置、速度、加速度、ヨーレート、勾配、方位が含まれる。軌跡算出ステップでは、挙動情報に基づいて、ワールド座標系(例えば緯度・経度・高度により表される地理座標系)内または車両座標系(車両を基準とした座標系)内での車両の移動軌跡を求めるとよい。なお、移動軌跡は、挙動情報以外の情報、例えば、地図情報などを用いて求めることも好ましい。また、移動軌跡は、3次元空間内での軌跡であるこ
とが好ましいが、2次元平面内での軌跡として求めてもよい。
The behavior information includes one or a plurality of pieces of information that can determine the movement trajectory of the vehicle. Examples of behavior information include, for example, vehicle position, speed, acceleration, yaw rate, gradient, and direction. In the trajectory calculation step, the movement trajectory of the vehicle in the world coordinate system (for example, a geographic coordinate system represented by latitude, longitude, and altitude) or in the vehicle coordinate system (coordinate system based on the vehicle) based on the behavior information. It is good to ask for. In addition, it is also preferable to obtain | require a movement locus | trajectory using information other than behavior information, for example, map information etc. Further, the movement trajectory is preferably a trajectory in a three-dimensional space, but may be obtained as a trajectory in a two-dimensional plane.

本態様において、移動軌跡は、車両の位置に対応する点を含み車両の幅に対応する長さの線分の、車両の移動に伴う軌跡として定義できる。「車両の位置に対応する点」は、車両の幅方向中心であり、かつ地表面位置の点とすることが好ましい。あるいは、車両の位置を面または立体で表し、当該面または立体の軌跡として、車両の移動軌跡を定義してもよい。   In this aspect, the movement trajectory can be defined as a trajectory accompanying the movement of the vehicle, including a line corresponding to the vehicle width, including a point corresponding to the position of the vehicle. The “point corresponding to the position of the vehicle” is preferably the center of the vehicle in the width direction and the point of the ground surface position. Alternatively, the position of the vehicle may be represented by a plane or a solid, and the movement trajectory of the vehicle may be defined as the trajectory of the plane or the solid.

領域算出ステップにおける、車載画像において移動軌跡に対応する領域は、移動軌跡が実在すると仮定したときに、車載画像内で当該移動軌跡が存在する(撮影される)領域である。当該領域の算出は、車載カメラの設置位置および撮影方向を用いて、車両の移動軌跡を車載カメラの撮影面に投影(座標変換)することにより得られる。   In the region calculation step, the region corresponding to the movement locus in the vehicle-mounted image is a region where the movement locus exists (captured) in the vehicle-mounted image when it is assumed that the movement locus actually exists. The calculation of the area is obtained by projecting (coordinate transforming) the movement locus of the vehicle onto the imaging surface of the in-vehicle camera using the installation position and the imaging direction of the in-vehicle camera.

物体検出ステップにおける物体の検出方法は、既存の任意の手法が採用可能である。例えば、機械学習処理により予め学習された識別器を用いて検出対象の物体を検出することができる。なお、車載画像が動画像である場合は、1枚の画像だけでなくその前後を含む
複数の画像を用いて物体を検出してもよい。また、車載画像以外に距離画像も用いて物体を検出してもよい。
Any existing method can be used as the object detection method in the object detection step. For example, an object to be detected can be detected using a discriminator previously learned by machine learning processing. When the in-vehicle image is a moving image, the object may be detected using not only one image but also a plurality of images including the front and back of the image. Moreover, you may detect an object using a distance image other than a vehicle-mounted image.

算出ステップでは、車載画像中での検出物体と移動軌跡の重複量が算出される。この重複量が多い物体ほど、車両の移動軌跡上に位置する物体である確率が高い。したがって、この重複量は、検出物体が車両の移動軌跡上に位置する確からしさを表すスコア(確信度)といえる。   In the calculation step, the overlapping amount of the detected object and the movement locus in the in-vehicle image is calculated. An object having a larger amount of overlap has a higher probability of being an object located on the movement locus of the vehicle. Therefore, this overlap amount can be said to be a score (certainty factor) representing the probability that the detected object is located on the movement locus of the vehicle.

本発明は、物体検出ステップにおいて検出された物体ごとの上記の重複量(または重複量から求められるスコア)を出力結果とすることができる。   According to the present invention, the overlap amount (or score obtained from the overlap amount) for each object detected in the object detection step can be used as an output result.

また、本発明において、上記の重複量に基づいて、検出された物体が車両の走行経路上に位置するか否かを判定する判定ステップを含むことも好ましい。判定ステップでは、車載画像において、検出された物体が移動軌跡の対応領域とどの程度重複するかに応じて、検出された物体が車両の走行経路上に位置する物体であるか否かが判定される。具体的には、例えば、物体検出ステップにおいて、車載画像内で物体が存在する領域を求め、判定ステップにおいて、物体が存在する領域のうち移動軌跡に対応する領域の割合(面積割合)が所定割合以上であれば、検出物体が車両の走行経路上の物体であると判断することができる。あるいは、物体検出ステップにおいて、車載画像内で物体が存在する矩形領域を求め、判定ステップにおいて、当該矩形の下辺のうち移動軌跡に対応する領域内である部分の割合が所定割合以上であれば、検出物体が車両の走行経路上の物体であると判断することができる。   In the present invention, it is also preferable to include a determination step of determining whether or not the detected object is located on the travel route of the vehicle based on the overlap amount. In the determination step, it is determined whether or not the detected object is an object located on the travel route of the vehicle, depending on how much the detected object overlaps the corresponding region of the movement locus in the in-vehicle image. The Specifically, for example, in the object detection step, an area where the object is present in the in-vehicle image is obtained, and in the determination step, the ratio (area ratio) of the area corresponding to the movement locus in the area where the object exists is a predetermined ratio. If it is above, it can be judged that a detection object is an object on the running route of vehicles. Alternatively, in the object detection step, a rectangular region where the object is present in the vehicle-mounted image is obtained, and in the determination step, if the proportion of the portion in the region corresponding to the movement trajectory in the lower side of the rectangle is greater than or equal to a predetermined proportion It can be determined that the detected object is an object on the travel route of the vehicle.

本態様に係る物体検出方法は、前記車載画像に、前記領域算出ステップにおいて求められた前記移動軌跡に対応する領域と、前記物体検出ステップにおいて検出された物体を特定する表示と、を重畳した画像データを出力する画像生成ステップをさらに含む、ことも好ましい。この際、前記重複量に応じた態様で表示を生成することも好ましい。例えば、前記車両の走行経路上に位置する物体(重複量が所定量以上の物体)とそれ以外の物体とを識別可能に前記表示を生成することも好ましい。   In the object detection method according to this aspect, an image in which an area corresponding to the movement locus obtained in the area calculation step and a display for specifying the object detected in the object detection step are superimposed on the in-vehicle image. It is also preferable that the method further includes an image generation step of outputting data. At this time, it is also preferable to generate the display in a mode corresponding to the amount of overlap. For example, it is also preferable to generate the display so that an object (an object whose overlap amount is a predetermined amount or more) located on the travel route of the vehicle and other objects can be identified.

なお、本発明は、上記処理の少なくとも一部を実行する物体検出方法として捉えることもできる。本発明は、上記処理の少なくとも一部を実行する手段を備える物体検出装置として捉えることができる。また、本発明は、この方法をコンピュータに実行させるためのコンピュータプログラム、あるいはこのコンピュータプログラムを非一時的に記憶したコンピュータ可読記憶媒体として捉えることもできる。上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。   In addition, this invention can also be grasped | ascertained as an object detection method which performs at least one part of the said process. The present invention can be understood as an object detection device including means for executing at least a part of the above processing. The present invention can also be understood as a computer program for causing a computer to execute this method, or a computer-readable storage medium in which this computer program is stored non-temporarily. Each of the above means and processes can be combined with each other as much as possible to constitute the present invention.

本発明によれば、車両の走行経路上の物体を精度良く検出することができる。   According to the present invention, an object on a travel route of a vehicle can be detected with high accuracy.

図1は実施形態に物体検出装置および車両の機能ブロック図である。FIG. 1 is a functional block diagram of an object detection device and a vehicle according to an embodiment. 図2は実施形態にかかる物体検出処理の全体概要を示すフローチャートである。FIG. 2 is a flowchart showing an overall outline of the object detection process according to the embodiment. 図3(A)-3(C)は、車両の軌跡を算出する処理を説明する図である。3 (A) -3 (C) are diagrams illustrating a process for calculating the trajectory of the vehicle. 図4は車載画像および検出物体の例を示す図である。FIG. 4 is a diagram illustrating an example of an in-vehicle image and a detected object. 図5(A),5(B)は、車載カメラの設置情報を説明する図である。FIGS. 5 (A) and 5 (B) are diagrams for explaining installation information of the in-vehicle camera. 図6(A),6(B)は、車両の軌跡の車載画像への投影処理を説明する図である。6 (A) and 6 (B) are diagrams for explaining the projection processing of the vehicle trajectory onto the in-vehicle image. 図7(A),7(B)は、検出物体が車両の走行経路上に位置するか否かの判定方法を説明する図である。FIGS. 7 (A) and 7 (B) are diagrams illustrating a method for determining whether or not the detected object is located on the travel route of the vehicle. 図8は、物体検出処理の結果を説明する図である。FIG. 8 is a diagram for explaining the result of the object detection process.

本実施形態は、車両が取得した車載画像および挙動情報を物体検出装置に送信し、物体検出装置において処理を行って当該車両の走行経路上に位置する物体を検出する。   In the present embodiment, the vehicle-mounted image and behavior information acquired by the vehicle are transmitted to the object detection device, and the object detection device performs processing to detect an object located on the travel route of the vehicle.

<構成>
図1は、車載画像を撮影する車両200と、車載画像から車両200の走行経路上の物体を検
出する物体検出装置100の構成を示す図である。本実施形態における車両200は、ECU(Electronic Control Unit)(不図示)、車載カメラ202、各種センサ204、記憶装置206を含
む。ECUはマイクロプロセッサを含み、当該マイクロプロセッサがプログラムを実行する
ことにより、車両200における処理を制御する。車載カメラ202は、車両の外部、特に車両前方を撮影する撮像装置である。センサ204は、例えば、GPS装置などのGNSS(全地球衛星測位システム)装置、速度センサ、加速度センサ、地磁気(方位)センサ、操舵角センサ、アクセル開度センサなど車両の制御状態を取得するための各種のセンサが含まれる。
<Configuration>
FIG. 1 is a diagram illustrating a configuration of a vehicle 200 that captures an in-vehicle image and an object detection device 100 that detects an object on a travel route of the vehicle 200 from the in-vehicle image. The vehicle 200 in this embodiment includes an ECU (Electronic Control Unit) (not shown), an in-vehicle camera 202, various sensors 204, and a storage device 206. The ECU includes a microprocessor, and controls processing in the vehicle 200 when the microprocessor executes a program. The in-vehicle camera 202 is an imaging device that captures the outside of the vehicle, particularly the front of the vehicle. The sensor 204 is for acquiring a control state of a vehicle such as a GNSS (Global Satellite Positioning System) device such as a GPS device, a speed sensor, an acceleration sensor, a geomagnetic (orientation) sensor, a steering angle sensor, and an accelerator opening sensor. Various sensors are included.

車両200は、走行中に車載カメラ202による車載画像208の撮影と、センサ204による挙動情報(センサ情報)210の取得を行い、記憶装置206に蓄積する。この際、同一のクロックを用いて車載画像208および挙動情報210の取得時刻を関連付けて記憶するか、同一時刻に取得された車載画像208および挙動情報210を関連付けて記憶する。これにより、同一時刻に取得された車載画像208および挙動情報210を把握可能となる。   During traveling, the vehicle 200 captures an in-vehicle image 208 by the in-vehicle camera 202 and acquires behavior information (sensor information) 210 by the sensor 204 and accumulates it in the storage device 206. At this time, the acquisition time of the in-vehicle image 208 and the behavior information 210 is stored in association with each other using the same clock, or the in-vehicle image 208 and the behavior information 210 acquired at the same time are stored in association with each other. As a result, the in-vehicle image 208 and the behavior information 210 acquired at the same time can be grasped.

記憶装置206には、車両設定情報212も格納される。車両設定情報212は、例えば、車両
の大きさ(幅、長さ、高さ)や、車載カメラ202の設置位置および撮影方向が含まれる。
The storage device 206 also stores vehicle setting information 212. The vehicle setting information 212 includes, for example, the size (width, length, height) of the vehicle, the installation position of the in-vehicle camera 202, and the shooting direction.

車両200は、適宜のタイミングで、記憶装置206に蓄積された車載画像208および挙動情
報210を、車両設定情報212とともに物体検出装置100に送信する。
The vehicle 200 transmits the in-vehicle image 208 and the behavior information 210 stored in the storage device 206 to the object detection device 100 together with the vehicle setting information 212 at an appropriate timing.

本実施形態における物体検出装置100は、コンピュータ(情報処理装置)によって実現
される。物体検出装置100のハードウェア構成は、CPU(Central Processing Unit)など
の演算装置(マイクロプロセッサ)、RAM(Random Access Memory)などの主記憶装置お
よびHDD(Hard Disk Drive)やSSD(Solid State Drive)などの補助記憶装置を含む記憶装置102、キーボードやマウスやタッチパネルなどの入力装置、ディスプレイやスピーカ
ーなどの出力装置、および無線通信装置を備える。演算装置が、補助記憶装置に格納されているプログラムを主記憶装置にロードし実行することによって、物体検出装置100は図1に示す各機能を提供する。
The object detection apparatus 100 in the present embodiment is realized by a computer (information processing apparatus). The hardware configuration of the object detection device 100 includes a processing unit (microprocessor) such as a CPU (Central Processing Unit), a main storage device such as a RAM (Random Access Memory), an HDD (Hard Disk Drive), and an SSD (Solid State Drive). A storage device 102 including an auxiliary storage device such as an input device such as a keyboard, a mouse, and a touch panel, an output device such as a display and a speaker, and a wireless communication device. When the arithmetic device loads and executes the program stored in the auxiliary storage device to the main storage device, the object detection device 100 provides each function shown in FIG.

記憶装置102には、車両200から送信される、車載画像104、挙動情報106、および車両設定情報108が格納される。物体検出装置100は、CPUがプログラムを実行することによって
、軌跡算出部110、走行領域投影部112、物体検出部114、経路上物体判定部116、出力画像生成部118として機能する。これらの各機能部が行う処理は、以下でフローチャートとと
もに説明する。
The storage device 102 stores an in-vehicle image 104, behavior information 106, and vehicle setting information 108 transmitted from the vehicle 200. The object detection device 100 functions as a trajectory calculation unit 110, a travel region projection unit 112, an object detection unit 114, an on-route object determination unit 116, and an output image generation unit 118 by the CPU executing a program. The processing performed by each of these functional units will be described below with a flowchart.

<方法>
図2を参照して、本実施形態に係る物体検出装置100が実行する物体検出処理について説明する。図2は、物体検出方法の流れを示すフローチャートである。
<Method>
With reference to FIG. 2, an object detection process executed by the object detection apparatus 100 according to the present embodiment will be described. FIG. 2 is a flowchart showing the flow of the object detection method.

ステップS10において、物体検出装置100は、車両200から車載画像、挙動情報、および
車両設定情報を取得し、記憶装置102に格納する。本実施形態においては、車両200から無線通信によってこれらの情報を取得するが、有線通信や記憶媒体経由で取得してもよく、また、他の装置を経由して取得してもよい。
In step S10, the object detection device 100 acquires the in-vehicle image, the behavior information, and the vehicle setting information from the vehicle 200 and stores them in the storage device 102. In the present embodiment, these pieces of information are acquired from the vehicle 200 by wireless communication, but may be acquired via wired communication or a storage medium, or may be acquired via another device.

ステップS12において、図3(A)に示すように、軌跡算出部110が、挙動情報106に基づい
て3次元空間内での車両200の移動軌跡を算出する。本実施形態においては、軌跡算出部110は、挙動情報106に含まれる位置情報(緯度・経度・高度)、速度、ヨーレート、勾配情報を元に、軌跡推定アルゴリズムとしてカルマンフィルタを用いて、車両の移動軌跡を算出する。移動軌跡は、地理座標系(ワールド座標系)によって表すことができる。カルマンフィルタを用いることで、移動軌跡のスムージングが行える。なお、軌跡算出部110は
、移動軌跡の算出に地図情報も用いてマップマッチングを行うことも好ましい。本実施形態においては、移動軌跡は、挙動情報106の取得期間全体にわたって算出される。なお、
移動軌跡は、速度とヨーレートを単に積分することによって求めてもよいし、あるいは各時点の位置情報を単に連結することによって求めてもよい。
In step S12, as shown in FIG. 3A, the trajectory calculation unit 110 calculates the movement trajectory of the vehicle 200 in the three-dimensional space based on the behavior information 106. In the present embodiment, the trajectory calculation unit 110 uses the Kalman filter as a trajectory estimation algorithm based on position information (latitude / longitude / altitude), speed, yaw rate, and gradient information included in the behavior information 106, and moves the vehicle. Calculate the trajectory. The movement trajectory can be represented by a geographic coordinate system (world coordinate system). By using the Kalman filter, the movement trajectory can be smoothed. Note that the trajectory calculation unit 110 also preferably performs map matching using map information for calculating the movement trajectory. In the present embodiment, the movement trajectory is calculated over the entire acquisition period of the behavior information 106. In addition,
The movement trajectory may be obtained by simply integrating the velocity and the yaw rate, or may be obtained by simply connecting the position information at each time point.

移動軌跡は、より詳細には図3(B)、3(C)に示すような、車両200の現在位置に対応する
線分31の軌跡である面32として求めることができる。線分31は、車両200の幅と同じ長さ
を有し、道路表面上の高さとすることが好ましい。具体的には、軌跡推定アルゴリズムによって点の軌跡(線)が得られるので、この結果を基に当該点を中心とする車両200の幅
と同じ長さの線分の軌跡を求めればよい。なお、図3(B)では、線分31が車両200の最前方
に位置するように描いているが、これは一例であり必ずしも線分31が車両200の最前方に
対応するわけではない。また、線分31の位置は道路表面の高さとすることが好ましい。これは地図情報を用いたマップマッチングにより達成できる。また、線分31の幅は必ずしも車両200の幅と同一の値とする必要はなく、車両200の幅に所定値を足した値や所定係数を掛けた値としてもよい。
More specifically, the movement trajectory can be obtained as a plane 32 that is a trajectory of a line segment 31 corresponding to the current position of the vehicle 200 as shown in FIGS. 3 (B) and 3 (C). The line segment 31 preferably has the same length as the width of the vehicle 200 and has a height on the road surface. Specifically, since a locus (line) of a point is obtained by the locus estimation algorithm, a locus of a line segment having the same length as the width of the vehicle 200 around the point may be obtained based on this result. In FIG. 3B, the line segment 31 is drawn so as to be positioned in the forefront of the vehicle 200, but this is an example, and the line segment 31 does not necessarily correspond to the forefront of the vehicle 200. The position of the line segment 31 is preferably the height of the road surface. This can be achieved by map matching using map information. The width of the line segment 31 is not necessarily the same value as the width of the vehicle 200, and may be a value obtained by adding a predetermined value to the width of the vehicle 200 or a predetermined coefficient.

以降の処理は、動画像である車載画像を構成する処理対象フレームについて繰り返し実行される(ループL1)。処理対象フレームはどのように定められてもよく、例えば全フレームを処理対象としてもよいし、所定時間おきのフレームを処理対象としてもよい。   The subsequent processing is repeatedly executed for the processing target frame constituting the in-vehicle image that is a moving image (loop L1). The processing target frame may be determined in any way. For example, all the frames may be processed, or frames every predetermined time may be processed.

ステップS14では、物体検出部114が処理対象フレームから検出対象の物体を検出する。検出対象の物体は任意であってよく、例えば、車両、歩行者(人間)などの物体が含まれる。物体検出部114は、あらかじめ検出対象の画像を用いて学習された識別器を用いて物
体を検出することができる。学習アルゴリズムは任意であって構わないが、例えば、Deformable Part ModelやDeep Learningなどの手法を用いることができる。なお、物体の検出は、処理対象フレームの1枚の画像だけをもとに行う必要はなく、それ以前および以降の
フレームの画像を用いて物体を検出してもよい。例えば、いわゆる物体追跡手法を用いて現在のフレームにおける物体を検出してもよい。また、背景抽出技術により画像内の動くものを抽出してもよい。さらに、レーダーやLIDARから得られた距離画像を用いて物体検
出に利用してもよい。さらに、白線検出を行って高信頼度で白線を検出できた場合に白線情報を利用してもよい。
In step S14, the object detection unit 114 detects the detection target object from the processing target frame. The object to be detected may be arbitrary and includes, for example, an object such as a vehicle or a pedestrian (human). The object detection unit 114 can detect an object using a discriminator learned in advance using an image to be detected. The learning algorithm may be arbitrary, but for example, a method such as Deformable Part Model or Deep Learning can be used. It is not necessary to detect the object based on only one image of the processing target frame, and the object may be detected using images of frames before and after that. For example, an object in the current frame may be detected using a so-called object tracking method. Also, moving objects in the image may be extracted by a background extraction technique. Furthermore, the distance image obtained from radar or LIDAR may be used for object detection. Furthermore, white line information may be used when white lines are detected with high reliability.

図4は、処理対象フレームの車載画像40と、その中で検出された3つの物体(ここでは車両)41,42,43が示されている。物体検出部114は、検出された物体の車載画像内における
位置(領域)も特定する。本実施形態では、検出物体を含む矩形が、車載画像内における検出物体の位置として特定される。
FIG. 4 shows an in-vehicle image 40 of a processing target frame and three objects (vehicles here) 41, 42, 43 detected therein. The object detection unit 114 also identifies the position (region) of the detected object in the in-vehicle image. In the present embodiment, a rectangle including the detection object is specified as the position of the detection object in the in-vehicle image.

ステップS16において、走行経路投影部112は、挙動情報及び車両情報を用いて、ステップS12において算出された車両の移動軌跡を、車載画像に投影する。上述したように車両
の移動軌跡は、ワールド座標系において求められている。また、車両の挙動情報106には
車両の位置情報が含まれ、車両設定情報108には車載カメラ202の設置位置および撮影方向が含まれる。
In step S16, the travel route projection unit 112 projects the vehicle movement trajectory calculated in step S12 onto the in-vehicle image using the behavior information and the vehicle information. As described above, the movement trajectory of the vehicle is obtained in the world coordinate system. The vehicle behavior information 106 includes vehicle position information, and the vehicle setting information 108 includes the installation position and shooting direction of the in-vehicle camera 202.

ここで、図5(A),5(B)を参照して、車載カメラ202に関する車両設定情報108を説明する
。図5(A)は車両を上方から見た模式図、図5(B)は車両を側方から見た模式図である。車載
カメラ202の設置位置は、車両中心線51からのオフセット52および地上高53としてあらわ
される。設置位置に車両の前後方向が含まれてもよいが、含まれなくてもよい。また、車載カメラ202の撮影方向は、方位角54および俯角55によって表される。車両設定情報108には、車両200の幅56も含まれる。
Here, the vehicle setting information 108 related to the in-vehicle camera 202 will be described with reference to FIGS. 5 (A) and 5 (B). FIG. 5A is a schematic view of the vehicle as viewed from above, and FIG. 5B is a schematic view of the vehicle as viewed from the side. The installation position of the in-vehicle camera 202 is expressed as an offset 52 from the vehicle center line 51 and a ground height 53. The installation position may include the front-rear direction of the vehicle, but may not include it. The shooting direction of the in-vehicle camera 202 is represented by an azimuth angle 54 and a depression angle 55. The vehicle setting information 108 includes the width 56 of the vehicle 200.

図6(A)に示すように、走行経路投影部112は、車両200の位置と車載カメラ202の設置
位置および撮影方向を用いて車両の移動軌跡61を座標変換することにより、投影面62における移動軌跡の領域63を求めることができる。移動軌跡61が車載画像62に投影される領域63は、移動軌跡61が実空間に存在したと仮定した場合に移動軌跡61が撮影される領域といえる。
As shown in FIG. 6 (A), the travel route projection unit 112 performs coordinate transformation on the movement locus 61 of the vehicle using the position of the vehicle 200, the installation position of the in-vehicle camera 202, and the shooting direction, thereby The region 63 of the movement locus can be obtained. The region 63 where the movement locus 61 is projected onto the in-vehicle image 62 can be said to be a region where the movement locus 61 is imaged when it is assumed that the movement locus 61 exists in real space.

図6(B)は、車載画像64に投影された移動軌跡65を示す。ここでは車両200は2車線道路の右側車線を走行しており、車載画像64に投影される移動軌跡65はその旨を反映している。なお、車載画像64には、検出物体66,67も示されている。また、図6(B)に示す画像は説明
を目的とするものであり、この画像が表示されたり、この画像のデータが生成されたりする必要はない。
FIG. 6B shows a movement locus 65 projected on the in-vehicle image 64. Here, the vehicle 200 is traveling in the right lane of the two-lane road, and the movement locus 65 projected on the in-vehicle image 64 reflects that fact. The in-vehicle image 64 also shows detection objects 66 and 67. Further, the image shown in FIG. 6B is for the purpose of explanation, and it is not necessary to display this image or generate data of this image.

次のステップS17-S22の処理は、処理対象フレームの画像における検出物体ごとに実行
される(ループL2)。例えば、図6(B)に示す例では、車両66および車両67に対してそれぞれ処理が行われる。
The processing in the next steps S17 to S22 is executed for each detected object in the image of the processing target frame (loop L2). For example, in the example shown in FIG. 6 (B), processing is performed on the vehicle 66 and the vehicle 67, respectively.

ステップS17では、経路上物体判定部116が、検出物体と、車載画像に投影された移動軌跡の重複量を求める。この重複量が大きいほど、検出物体が車両の走行経路上に位置する可能性が高い。すなわち、この重複量は、検出物体が走行経路上に位置するか否かを判定するための指標として有用である。重複量の2つの算出方法について、図7(A),7(B)を参照して説明する。   In step S17, the on-route object determination unit 116 obtains the overlapping amount of the detected object and the movement locus projected on the in-vehicle image. The larger this overlap amount, the higher the possibility that the detected object is located on the travel route of the vehicle. That is, this overlap amount is useful as an index for determining whether or not the detected object is located on the travel route. Two methods for calculating the overlap amount will be described with reference to FIGS. 7 (A) and 7 (B).

図7(A)は重複量の第1の算出方法を説明する図である。図7(A)には車載画像における、
検出物体の矩形領域71および投影された移動軌跡72が示されている。ここで、検出物体と移動軌跡の重複量は、矩形領域71の下辺71a全体の長さ73に対する、下辺のうち移動軌跡72に重なる部分の長さ74の比(割合)として定義することができる。
FIG. 7A is a diagram for explaining a first method for calculating the overlap amount. Fig. 7 (A) shows the in-vehicle image.
A rectangular area 71 of the detection object and a projected movement locus 72 are shown. Here, the overlapping amount of the detected object and the movement locus can be defined as the ratio (ratio) of the length 74 of the portion of the lower side that overlaps the movement locus 72 to the length 73 of the entire lower side 71a of the rectangular area 71. .

図7(B)は重複量の第2の算出方法を説明する図である。検出物体と移動軌跡の重複量は
、矩形領域71の全体面積に対する、矩形領域71のうち移動軌跡72と重複する領域75(斜線部)の面積の比(割合)として定義することもできる。
FIG. 7B is a diagram for explaining a second method for calculating the overlap amount. The overlap amount of the detected object and the movement locus can be defined as the ratio (ratio) of the area of the area 75 (shaded portion) overlapping the movement locus 72 in the rectangular area 71 to the entire area of the rectangular area 71.

上記第1の手法と第2の手法はいずれも利用可能であるが、検出物体の領域を矩形領域として検出し、かつ、当該矩形領域の下辺が検出物体の道路表面に対応する位置とする場合は、第1の手法が好ましい。この場合、矩形領域の下辺が移動軌跡と重複することは、検
出物体が移動軌跡上に位置することを意味するためである。
Both the first method and the second method can be used, but the detected object area is detected as a rectangular area, and the lower side of the rectangular area is set to a position corresponding to the road surface of the detected object. The first method is preferable. In this case, the fact that the lower side of the rectangular area overlaps with the movement locus means that the detected object is located on the movement locus.

あるいは、上記第1および第2の手法による2つの重複量に基づいて求められる値を、判
定に用いる重複量としてもよい。例えば、2つの値の単純平均あるいは重みづけ平均、ま
たは最大値あるいは最小値を、判定に用いる重複量としてもよい。
Alternatively, a value obtained based on the two overlap amounts according to the first and second methods may be used as the overlap amount used for the determination. For example, a simple average or weighted average of two values, or a maximum value or minimum value may be used as the overlap amount used for the determination.

ステップS18では、経路上物体判定部116は、上記のようにして求めた重複割合が所定割合以上であるか否かを判定する。この判定における閾値(所定割合)は、用途に応じて適宜決定すればよい。なお、第1の手法を用いる場合と第2の手法を用いる場合で異なる閾値が用いられてもよい。   In step S18, the on-route object determination unit 116 determines whether or not the overlap ratio obtained as described above is equal to or greater than a predetermined ratio. The threshold value (predetermined ratio) in this determination may be appropriately determined according to the application. Note that different threshold values may be used when the first method is used and when the second method is used.

重複量が所定割合以上である場合(S18-YES)、経路上物体判定部116は、検出物体が車両200の走行経路上に位置すると判定する(S20)。一方、重複量が所定割合未満である場合(S18-NO)、経路上物体判定部116は、検出物体が車両200の走行経路上に位置しないと判定する(S22)。図6(B)の例では、車両66は車両200の走行経路上に位置すると判定されるのに対し、車両67は車両200の走行経路上に位置しないと判定される。   When the overlap amount is equal to or greater than the predetermined ratio (S18-YES), the on-route object determination unit 116 determines that the detected object is located on the travel route of the vehicle 200 (S20). On the other hand, when the overlap amount is less than the predetermined ratio (S18-NO), the on-route object determination unit 116 determines that the detected object is not located on the travel route of the vehicle 200 (S22). In the example of FIG. 6B, it is determined that the vehicle 66 is located on the travel route of the vehicle 200, whereas the vehicle 67 is determined not to be located on the travel route of the vehicle 200.

物体検出装置100は、車両200の位置、走行経路、検出物体に関する情報(例えば、物体の種類、物体の大きさ、車載画像内における位置、車両200との相対的な位置など)や検
出物体が車両200の走行経路上に位置するか否かの情報を、記憶装置に格納する。あるい
は、物体検出装置100はこれらの情報を外部の装置に出力してもよい。
The object detection device 100 includes information on the position of the vehicle 200, the travel route, information on the detected object (for example, the type of object, the size of the object, the position in the vehicle-mounted image, the position relative to the vehicle 200, etc.) Information on whether or not the vehicle 200 is located on the travel route is stored in the storage device. Alternatively, the object detection device 100 may output such information to an external device.

ステップS24において、出力画像生成部118は、処理対象の車載画像に対して、車両の移動軌跡と検出物体の表示を合成した画像データを生成して、表示部に表示したり、記憶装置に格納したりする。ここで、検出物体の表示は、その物体が車両の走行経路上に位置するか否かを判別可能なように、検出物体が走行経路上に位置するか否かに応じて表示態様を異ならせることが好ましい。図8は、出力画像生成部118が生成する出力画像の例を示す図である。車載画像80に対して、車両200の移動軌跡をあらわす表示81と、2つの検出物体をあらわす表示82,83が重畳されている。ここでは、車両200の走行経路上にある物体の表示82を実線とし、走行経路上にない物体の表示83を点線としている。もちろん、線の種類を変える以外にも、線の色を変えるなどのその他の方法によって区別可能としてもよい。また、ステップS17において求めた重複量の値を表示してもよい。あるいは、走行経路上
にない物体については、表示を省略してもかまわない。
In step S24, the output image generation unit 118 generates image data obtained by synthesizing the display of the moving locus of the vehicle and the detected object with respect to the in-vehicle image to be processed, and displays the data on the display unit or stores it in the storage device. To do. Here, the display of the detected object varies depending on whether or not the detected object is located on the travel route so that it can be determined whether or not the object is located on the travel route of the vehicle. It is preferable. FIG. 8 is a diagram illustrating an example of an output image generated by the output image generation unit 118. A display 81 representing the movement trajectory of the vehicle 200 and displays 82 and 83 representing two detection objects are superimposed on the in-vehicle image 80. Here, the display 82 of an object on the travel route of the vehicle 200 is a solid line, and the display 83 of an object not on the travel route is a dotted line. Of course, in addition to changing the type of line, it may be distinguishable by other methods such as changing the color of the line. Further, the value of the overlap amount obtained in step S17 may be displayed. Alternatively, the display of objects that are not on the travel route may be omitted.

<本実施形態の有利な効果>
本実施形態によれば、車両の実際の挙動情報、特に処理対象画像の撮影後の挙動情報に基づいて車両の移動軌跡を求めているため、精度よく車両の移動軌跡を求めることができる。したがって、車載画像の中から車両の走行経路上に位置する物体を精度良く検出することができる。
<Advantageous effects of this embodiment>
According to this embodiment, since the vehicle movement trajectory is obtained based on the actual behavior information of the vehicle, in particular, the behavior information after photographing the processing target image, the vehicle movement trajectory can be obtained with high accuracy. Therefore, an object located on the travel route of the vehicle can be accurately detected from the in-vehicle image.

また、本実施形態は位置情報(GNSS位置)の精度が悪い場合であっても、移動軌跡ひいては走行経路上の物体を精度の良く検出可能である。位置情報に誤差がある場合、移動軌跡の地理座標系における位置は誤差を有するが、移動軌跡を投影する際に用いる車両の位置情報も同様の誤差が含まれる。したがって、車両に対する相対的な移動軌跡は精度よく求められる。すなわち、車両に対する相対的な移動軌跡の位置は精度よく求めることができる。このように、位置情報の精度が悪い場合であっても最終的な検出精度は低下しない。   Further, in the present embodiment, even when the accuracy of the position information (GNSS position) is poor, it is possible to detect the movement locus and thus the object on the travel route with high accuracy. When there is an error in the position information, the position of the movement locus in the geographic coordinate system has an error, but the vehicle position information used when projecting the movement locus also includes the same error. Therefore, the relative movement trajectory with respect to the vehicle is obtained with high accuracy. That is, the position of the movement trajectory relative to the vehicle can be obtained with high accuracy. Thus, even if the accuracy of the position information is poor, the final detection accuracy does not decrease.

本実施形態の処理は、画像撮影直後には実行できないため、衝突予測のようなリアルタイムの処理が要求される場合には必ずしも最適ではない。しかしながら、実測データを用いて自動運転の制御を学習する際に、単に周囲の物体の種類や位置だけでなく、これらの物体が自車両の走行経路上に位置するか否かという情報が有用である。本実施形態によれば、実測データにおいて周囲の物体が自車両の走行経路上に位置するか否かを、自動的にかつ精度よく検出することができる。したがって、自動運転用の学習データの生成に特に有用であるといえる。   Since the processing of this embodiment cannot be performed immediately after image capturing, it is not necessarily optimal when real-time processing such as collision prediction is required. However, when learning control of automatic driving using actually measured data, not only the types and positions of surrounding objects but also information on whether these objects are located on the traveling route of the host vehicle is useful. is there. According to the present embodiment, it is possible to automatically and accurately detect whether or not a surrounding object is located on the travel route of the host vehicle in the measured data. Therefore, it can be said that it is particularly useful for generating learning data for automatic driving.

<変形例>
上記の説明は、本発明の一実施形態であり本発明をその内容に限定するものではない。本発明は、その技術的思想の範囲内で種々の変形が可能である。
<Modification>
The above description is one embodiment of the present invention, and the present invention is not limited to the content. The present invention can be variously modified within the scope of its technical idea.

本発明に係る物体検出装置は、マイクロプロセッサとプログラムによって実現する代わ
りに、FPGA(Field Programmable Gate Array)などのプログラム可能な集積回路や、ASIC(Application Specific Integrated Circuit)などの専用の集積回路によって実現されてもよい。また、これらの組み合わせにより実現されてもよい。また、物体検出装置は必ずしも1台のコンピュータによって実現される必要はなく、ネットワークを介して接続され
た複数のコンピュータによって実現されてもよい。また、物体検出装置は、処理対象の車載画像を撮影する車両に搭載されてもよい。
The object detection apparatus according to the present invention is realized by a programmable integrated circuit such as an FPGA (Field Programmable Gate Array) or a dedicated integrated circuit such as an ASIC (Application Specific Integrated Circuit) instead of being realized by a microprocessor and a program. May be. Moreover, you may implement | achieve by the combination of these. In addition, the object detection device is not necessarily realized by a single computer, and may be realized by a plurality of computers connected via a network. Further, the object detection device may be mounted on a vehicle that captures a vehicle-mounted image to be processed.

本発明に係る物体検出装置が検出対象とする物体は特に限定されないことは明らかであろう。上記の説明では、車両や歩行者を例にしているが、検出対象物体はこれらに限られず任意の物体であって構わない。   It will be apparent that the object to be detected by the object detection apparatus according to the present invention is not particularly limited. In the above description, a vehicle or a pedestrian is taken as an example, but the detection target object is not limited to these and may be an arbitrary object.

図2のフローチャートに示す処理は一例にすぎず、処理の順序や内容は適宜変更可能で
ある。例えば、物体検出(S14)と移動軌跡の投影(S16)の実行順序は逆にしてもよいし、並行して行ってもよい。
The processing shown in the flowchart of FIG. 2 is merely an example, and the order and contents of the processing can be changed as appropriate. For example, the execution order of the object detection (S14) and the movement trajectory projection (S16) may be reversed or may be performed in parallel.

また、ステップS12においてあらかじめ挙動情報から車両200の移動軌跡全体を求めているが、処理対象フレームの車載画像ごとに、当該画像の撮影時刻以降の所定期間の挙動データを用いて移動軌跡を求めてもよい。この場合は、車両の移動軌跡をワールド座標系(地理座標系)で求めずに、ローカル座標系(車両座標系)で求めてもよい。また、移動軌跡を求める期間(上記の所定期間)は適宜定めることができる。例えば、移動軌跡を求める期間は、予め定められた期間であってもよいし、移動軌跡が所定の距離(以上)となる期間であってもよい。また、当該期間は、走行中の道路形状に応じて決定してもよく、曲線道路では直線道路と比較してより短い期間の移動軌跡を求めるようにしてもよい。   In step S12, the entire movement trajectory of the vehicle 200 is obtained in advance from the behavior information. For each in-vehicle image of the processing target frame, the movement trajectory is obtained using behavior data for a predetermined period after the shooting time of the image. Also good. In this case, the movement trajectory of the vehicle may be obtained in the local coordinate system (vehicle coordinate system) without being obtained in the world coordinate system (geographic coordinate system). In addition, the period for obtaining the movement locus (the predetermined period described above) can be determined as appropriate. For example, the period for obtaining the movement locus may be a predetermined period, or may be a period in which the movement locus is a predetermined distance (or more). Moreover, the said period may be determined according to the shape of the road in driving | running | working, and you may make it obtain | require the movement locus | trajectory of a shorter period in a curve road compared with a straight road.

また、車両の移動軌跡を求める際に、各時点での車両に対応する線分の軌跡(面)を車両の移動軌跡として求めているが、各時点での車両に対応する点の軌跡(線)を先に求め、その後この軌跡を車両の幅に応じて拡張して同様の面状の軌跡を求めることもできる。   In addition, when obtaining the movement trajectory of the vehicle, the trajectory (plane) of the line segment corresponding to the vehicle at each time point is obtained as the movement trajectory of the vehicle. ) First, and then the trajectory can be expanded according to the width of the vehicle to obtain a similar planar trajectory.

また、ステップS24における表示用画像データの生成処理は省略してもかまわない。   In addition, the display image data generation process in step S24 may be omitted.

また、上記の実施形態では、車載画像における、検出物体と投影された移動軌跡の重複量に応じて、検出物体が車両200の走行経路上に位置するか否かを判定している。しかし
ながら、この判定を行わずに、上記の重複量または重複量に基づいて算出される値(スコア)を、検出物体が車両200の走行経路上に位置する確信度として出力してもよい。例え
ば、自動運転時に検出される前方車両が自車両の走行経路上に位置するか否かは確率的にしか判断できない。したがって、その確率(確信度)に応じて制御を異ならせるような学習を行うためには、確信度を出力する構成が好適といえる。
In the above embodiment, whether or not the detected object is located on the travel route of the vehicle 200 is determined according to the overlap amount of the detected object and the projected movement locus in the in-vehicle image. However, without making this determination, the overlap amount or a value (score) calculated based on the overlap amount may be output as a certainty factor that the detected object is located on the travel route of the vehicle 200. For example, it can only be determined probabilistically whether the preceding vehicle detected during automatic driving is located on the travel route of the host vehicle. Therefore, in order to perform learning that varies the control in accordance with the probability (confidence level), a configuration that outputs the certainty level is suitable.

100 物体検出装置
110 軌跡算出部 112 走行経路投影部 114 物体検出部
116 経路上物体判定部 118 出力画像生成部
200 車両
100 Object detection device
110 Trajectory calculation unit 112 Travel path projection unit 114 Object detection unit
116 On-path object determination unit 118 Output image generation unit
200 vehicles

Claims (10)

車載カメラを搭載した車両が撮影する画像から前記車両の走行経路上に位置する物体を検出する物体検出方法であって、
前記車両の車載カメラが撮影した車載画像を取得する車載画像取得ステップと、
前記車載画像の撮影以降の前記車両の挙動情報を取得する挙動情報取得ステップと、
前記挙動情報に基づいて、前記車両の移動軌跡を求める軌跡算出ステップと、
前記移動軌跡に基づいて、前記車載画像において前記移動軌跡に対応する領域を求める領域算出ステップと、
前記車載画像から検出対象の物体を検出する物体検出ステップと、
前記物体検出ステップにおいて検出された物体について、前記車載画像における前記移動軌跡に対応する領域との重複量を算出する算出ステップと、
を含む、物体検出方法。
An object detection method for detecting an object located on a travel route of a vehicle from an image taken by a vehicle equipped with an in-vehicle camera,
An in-vehicle image acquisition step of acquiring an in-vehicle image captured by the in-vehicle camera of the vehicle;
Behavior information acquisition step for acquiring behavior information of the vehicle after taking the in-vehicle image;
A trajectory calculating step for obtaining a movement trajectory of the vehicle based on the behavior information;
An area calculation step for obtaining an area corresponding to the movement locus in the in-vehicle image based on the movement locus;
An object detection step of detecting an object to be detected from the in-vehicle image;
A calculation step of calculating an overlap amount of the object detected in the object detection step with an area corresponding to the movement locus in the vehicle-mounted image;
An object detection method including:
前記物体検出ステップにおいて検出された物体のうち、前記重複量が所定割合以上である物体を、前記車両の走行経路上に位置する物体であると判定する判定ステップをさらに含む、
請求項1に記載の物体検出方法。
A determination step of determining, among the objects detected in the object detection step, an object having the overlapping amount equal to or greater than a predetermined ratio as an object located on a travel route of the vehicle;
The object detection method according to claim 1.
前記軌跡算出ステップでは、前記車両の幅に対応する線分の軌跡を前記車両の移動軌跡として求める、
請求項1または2に記載の物体検出方法。
In the locus calculation step, a locus of a line segment corresponding to the width of the vehicle is obtained as a movement locus of the vehicle.
The object detection method according to claim 1 or 2.
前記物体検出ステップでは、前記車載画像において物体が存在する領域を求め、
前記判定ステップでは、前記物体が存在する領域のうち、前記移動軌跡に対応する領域に含まれる部分の割合を、前記重複量として算出する、
請求項1から3のいずれか1項に記載の物体検出方法。
In the object detection step, a region where the object exists in the vehicle-mounted image is obtained,
In the determination step, a ratio of a portion included in an area corresponding to the movement locus in an area where the object exists is calculated as the overlap amount.
The object detection method of any one of Claim 1 to 3.
前記物体検出ステップでは、物体が存在する矩形領域を求め、
前記算出ステップでは、前記物体が存在する矩形領域の下辺のうち、前記移動軌跡に対応する領域に含まれる部分の割合を、前記重複量として算出する、
請求項1から3のいずれか1項に記載の物体検出方法。
In the object detection step, a rectangular area where the object exists is obtained,
In the calculation step, a ratio of a portion included in an area corresponding to the movement locus in a lower side of the rectangular area where the object exists is calculated as the overlap amount.
The object detection method of any one of Claim 1 to 3.
前記車載画像に、前記領域算出ステップにおいて求められた前記移動軌跡に対応する領域と、前記物体検出ステップにおいて検出された物体を特定する表示と、を重畳した画像データを出力する画像生成ステップをさらに含む、
請求項1から5のいずれか1項に記載の物体検出方法。
An image generation step of outputting image data in which the region corresponding to the movement locus obtained in the region calculation step and the display for specifying the object detected in the object detection step are superimposed on the in-vehicle image; Including,
The object detection method according to claim 1.
前記画像生成ステップでは、前記重複量に応じた態様で前記表示を生成する、
請求項6に記載の物体検出方法。
In the image generation step, the display is generated in a mode corresponding to the overlap amount.
The object detection method according to claim 6.
前記車両の車載カメラが撮影した車載画像を取得する車載画像取得手段と、
前記車載画像の撮影以降の前記車両の挙動情報を取得する挙動情報取得手段と、
前記挙動情報に基づいて、前記車両の移動軌跡を求める軌跡算出手段と、
前記移動軌跡に基づいて、前記車載画像において前記移動軌跡に対応する領域を求める領域算出手段と、
前記車載画像から検出対象の物体を検出する物体検出手段と、
検出された物体について、前記車載画像における前記移動軌跡に対応する領域との重複量を算出する判定手段と、
を含む、物体検出装置。
In-vehicle image acquisition means for acquiring an in-vehicle image captured by the in-vehicle camera of the vehicle;
Behavior information acquisition means for acquiring behavior information of the vehicle after photographing the vehicle-mounted image;
Based on the behavior information, a trajectory calculating means for obtaining a moving trajectory of the vehicle;
An area calculating means for obtaining an area corresponding to the movement locus in the in-vehicle image based on the movement locus;
Object detection means for detecting an object to be detected from the in-vehicle image;
A determination unit that calculates an overlap amount with a region corresponding to the movement locus in the in-vehicle image for the detected object;
An object detection device.
前記判定手段は、検出された物体のうち、前記重複量が所定割合以上である物体を、前記車両の走行経路上に位置する物体であると判定する、
請求項8に記載の物体検出装置。
The determination means determines that an object whose overlapping amount is a predetermined ratio or more among detected objects is an object located on a travel route of the vehicle.
The object detection apparatus according to claim 8.
請求項1から7のいずれか1項に記載の方法の各ステップをコンピュータに実行させるプログラム。   The program which makes a computer perform each step of the method of any one of Claim 1 to 7.
JP2016017197A 2016-02-01 2016-02-01 Object detection method, object detection device, and program Active JP6520740B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016017197A JP6520740B2 (en) 2016-02-01 2016-02-01 Object detection method, object detection device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016017197A JP6520740B2 (en) 2016-02-01 2016-02-01 Object detection method, object detection device, and program

Publications (3)

Publication Number Publication Date
JP2017138660A true JP2017138660A (en) 2017-08-10
JP2017138660A5 JP2017138660A5 (en) 2018-06-21
JP6520740B2 JP6520740B2 (en) 2019-05-29

Family

ID=59564990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016017197A Active JP6520740B2 (en) 2016-02-01 2016-02-01 Object detection method, object detection device, and program

Country Status (1)

Country Link
JP (1) JP6520740B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019116423A1 (en) * 2017-12-11 2019-06-20 本田技研工業株式会社 Teacher data collection device
JP2019124986A (en) * 2018-01-12 2019-07-25 株式会社日立国際電気 Failure detection system
CN110197097A (en) * 2018-02-24 2019-09-03 北京图森未来科技有限公司 A kind of port area monitoring method and system, central control system
WO2019194255A1 (en) * 2018-04-05 2019-10-10 株式会社小糸製作所 Arithmetic processing device, object identification system, object identification method, automobile, and vehicular lighting fixture
CN111243281A (en) * 2018-11-09 2020-06-05 杭州海康威视系统技术有限公司 Road multi-video joint detection system and detection method
US10698396B2 (en) 2017-11-17 2020-06-30 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and recording medium
CN112166434A (en) * 2018-05-25 2021-01-01 罗伯特·博世有限公司 Operation assistance method, control unit, operation assistance system, and work device
CN113178097A (en) * 2020-01-09 2021-07-27 大陆汽车有限责任公司 Method for establishing probability map of unoccupied space comprising static target and dynamic target
JP2023039286A (en) * 2021-09-08 2023-03-20 ソフトバンク株式会社 Determination apparatus, program, and determination method
CN110197097B (en) * 2018-02-24 2024-04-19 北京图森智途科技有限公司 Harbor district monitoring method and system and central control system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000177513A (en) * 1998-12-16 2000-06-27 Toyota Autom Loom Works Ltd Backing vehicle up assisting device and vehicle
JP2005202787A (en) * 2004-01-16 2005-07-28 Denso Corp Display device for vehicle
JP2005236540A (en) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd On-vehicle camera device
WO2011089812A1 (en) * 2010-01-19 2011-07-28 アイシン精機株式会社 Vehicle periphery monitoring device
JP2015209129A (en) * 2014-04-25 2015-11-24 富士重工業株式会社 Vehicular steering control apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000177513A (en) * 1998-12-16 2000-06-27 Toyota Autom Loom Works Ltd Backing vehicle up assisting device and vehicle
JP2005202787A (en) * 2004-01-16 2005-07-28 Denso Corp Display device for vehicle
JP2005236540A (en) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd On-vehicle camera device
WO2011089812A1 (en) * 2010-01-19 2011-07-28 アイシン精機株式会社 Vehicle periphery monitoring device
JP2015209129A (en) * 2014-04-25 2015-11-24 富士重工業株式会社 Vehicular steering control apparatus

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10698396B2 (en) 2017-11-17 2020-06-30 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and recording medium
JP6993428B2 (en) 2017-12-11 2022-01-13 本田技研工業株式会社 Teacher data generator
WO2019116423A1 (en) * 2017-12-11 2019-06-20 本田技研工業株式会社 Teacher data collection device
JPWO2019116423A1 (en) * 2017-12-11 2020-11-26 本田技研工業株式会社 Teacher data generator
US11308357B2 (en) 2017-12-11 2022-04-19 Honda Motor Co., Ltd. Training data generation apparatus
JP2019124986A (en) * 2018-01-12 2019-07-25 株式会社日立国際電気 Failure detection system
JP7125843B2 (en) 2018-01-12 2022-08-25 株式会社日立国際電気 Fault detection system
CN110197097A (en) * 2018-02-24 2019-09-03 北京图森未来科技有限公司 A kind of port area monitoring method and system, central control system
CN110197097B (en) * 2018-02-24 2024-04-19 北京图森智途科技有限公司 Harbor district monitoring method and system and central control system
CN111989709A (en) * 2018-04-05 2020-11-24 株式会社小糸制作所 Arithmetic processing device, object recognition system, object recognition method, automobile, and vehicle lamp
JPWO2019194255A1 (en) * 2018-04-05 2021-04-22 株式会社小糸製作所 Arithmetic processing unit, object identification system, object identification method, automobile, vehicle lighting equipment
US11341604B2 (en) 2018-04-05 2022-05-24 Koito Manufacturing Co., Ltd. Processing device for object identification
WO2019194255A1 (en) * 2018-04-05 2019-10-10 株式会社小糸製作所 Arithmetic processing device, object identification system, object identification method, automobile, and vehicular lighting fixture
JP7217741B2 (en) 2018-04-05 2023-02-03 株式会社小糸製作所 Arithmetic processor, object identification system, object identification method, automobile, vehicle lamp
JP7244546B2 (en) 2018-05-25 2023-03-22 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Driving support method, control unit, driving support system, and operating device
JP2021525423A (en) * 2018-05-25 2021-09-24 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Driving assistance methods, control units, driving assistance systems, and operating devices
CN112166434A (en) * 2018-05-25 2021-01-01 罗伯特·博世有限公司 Operation assistance method, control unit, operation assistance system, and work device
US11403854B2 (en) 2018-05-25 2022-08-02 Robert Bosch Gmbh Operating assistance method, control unit, operating assistance system and working device
CN111243281A (en) * 2018-11-09 2020-06-05 杭州海康威视系统技术有限公司 Road multi-video joint detection system and detection method
CN113178097B (en) * 2020-01-09 2023-03-14 大陆智行德国有限公司 Method for establishing probability map of unoccupied space comprising static target and dynamic target
US11820404B2 (en) 2020-01-09 2023-11-21 Continental Automotive Gmbh Method for creating a probabilistic free space map with static and dynamic objects
CN113178097A (en) * 2020-01-09 2021-07-27 大陆汽车有限责任公司 Method for establishing probability map of unoccupied space comprising static target and dynamic target
JP2023039286A (en) * 2021-09-08 2023-03-20 ソフトバンク株式会社 Determination apparatus, program, and determination method
JP7303852B2 (en) 2021-09-08 2023-07-05 ソフトバンク株式会社 Determination device, program, and determination method

Also Published As

Publication number Publication date
JP6520740B2 (en) 2019-05-29

Similar Documents

Publication Publication Date Title
JP6520740B2 (en) Object detection method, object detection device, and program
CN109215433B (en) Vision-based driving scenario generator for automated driving simulation
Kim et al. Sensor fusion algorithm design in detecting vehicles using laser scanner and stereo vision
JP7052786B2 (en) Display control device and display control program
JPWO2018221453A1 (en) Output device, control method, program, and storage medium
US20190347808A1 (en) Monocular Visual Odometry: Speed And Yaw Rate Of Vehicle From Rear-View Camera
KR102086270B1 (en) Control method and traveling control device of the traveling control device
JP2010072807A (en) Device for detecting and determining road boundary
JP2018092483A (en) Object recognition device
JP6806891B2 (en) Information processing equipment, control methods, programs and storage media
CN110470309A (en) This truck position apparatus for predicting
JP6936098B2 (en) Object estimation device
JP2007240422A (en) Depression angle calculator, depression angle calculation method, depression angle calculation program, and image processor
JP2018048949A (en) Object recognition device
JP6941178B2 (en) Automatic operation control device and method
JP6943127B2 (en) Position correction method, vehicle control method and position correction device
US20220205804A1 (en) Vehicle localisation
JP2018189463A (en) Vehicle position estimating device and program
JP2020118575A (en) Inter-vehicle distance measurement device, error model generation device, learning model generation device, and method and program thereof
JP2024020641A (en) location estimation system
CN113795726B (en) Self-position correction method and self-position correction device
JP2019148889A (en) Road boundary detection device
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
JP2023152109A (en) Feature detection device, feature detection method and computer program for detecting feature
JP2019196941A (en) Own vehicle position estimating device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R151 Written notification of patent or utility model registration

Ref document number: 6520740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151