JP2018073275A - Image recognition device - Google Patents

Image recognition device Download PDF

Info

Publication number
JP2018073275A
JP2018073275A JP2016215092A JP2016215092A JP2018073275A JP 2018073275 A JP2018073275 A JP 2018073275A JP 2016215092 A JP2016215092 A JP 2016215092A JP 2016215092 A JP2016215092 A JP 2016215092A JP 2018073275 A JP2018073275 A JP 2018073275A
Authority
JP
Japan
Prior art keywords
range
vehicle
image recognition
camera
stationary object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016215092A
Other languages
Japanese (ja)
Inventor
真吾 入方
Shingo Irikata
真吾 入方
宗義 難波
Muneyoshi Nanba
宗義 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP2016215092A priority Critical patent/JP2018073275A/en
Publication of JP2018073275A publication Critical patent/JP2018073275A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To appropriately recognize information required in driving assistance or automatic driving while reducing a calculation load.SOLUTION: An image recognition device 1 of a vehicle provided with a camera 9 for photographing a vehicle exterior includes: a three-dimensional map data 2 in which three-dimensional position information of a stationary object present in the vehicle exterior is set; a detection part 4 detecting the stationary object as an object subjected to image recognition processing based on relative positions of the vehicle and the stationary object and a distance between the vehicle and the stationary object; a setting part 5, from a photographing range photographed by the camera 9, narrowing down a range, in which the object is included, based on a current position of the vehicle and the three-dimensional map data 2 and then setting the aforementioned range as a recognition range; and a processing part 6 performing the image recognition processing only within the recognition range.SELECTED DRAWING: Figure 1

Description

本発明は、車両外部(以下「車外」という)を撮像するカメラが設けられた車両の画像認識装置に関する。   The present invention relates to an image recognition apparatus for a vehicle provided with a camera that images the outside of the vehicle (hereinafter referred to as “outside the vehicle”).

従来、ドライバの運転操作の負担を軽減するための運転支援システムを搭載した車両が実用化されている。また、近年では、ドライバによる手動運転に代わって車両を自動的に走行させる自動走行システムの開発が進められている。運転支援システムや自動走行システムを搭載した車両には、車外の情報を取得するためのカメラが搭載される。カメラで撮像された画像には解析処理(画像認識処理)が施され、これにより車外に存在する物体が検出される(例えば特許文献1,2参照)。このような車両では、ドライバに代わってリアルタイムで道路状況や障害物等を把握することが重要となるため、搭載されるカメラは幅広い範囲を撮像できるものであることが望ましい。   Conventionally, a vehicle equipped with a driving support system for reducing the burden of driving operation of a driver has been put into practical use. In recent years, development of an automatic traveling system for automatically traveling a vehicle instead of manual driving by a driver has been promoted. A vehicle equipped with a driving support system or an automatic driving system is equipped with a camera for acquiring information outside the vehicle. Analysis processing (image recognition processing) is performed on the image captured by the camera, thereby detecting an object existing outside the vehicle (see, for example, Patent Documents 1 and 2). In such a vehicle, it is important to grasp road conditions, obstacles, and the like in real time instead of the driver. Therefore, it is desirable that the mounted camera can capture a wide range.

特開2013−218571号公報JP 2013-218571 A 特開2012−210864号公報JP 2012-210864 A

しかしながら、従来の画像認識処理では、カメラで撮像される範囲全体に対して解析していることから、カメラの撮像範囲を拡大するとコンピュータの演算負荷が増大してしまう。一方で、撮像範囲が狭いと、運転支援や自動運転において必要とされる情報をコンピュータが認識できないおそれがある。   However, in the conventional image recognition processing, since the entire range captured by the camera is analyzed, if the imaging range of the camera is expanded, the computational load on the computer increases. On the other hand, if the imaging range is narrow, the computer may not be able to recognize information required for driving assistance or automatic driving.

本件は、このような課題に鑑み案出されたもので、演算負荷を低減しながら、運転支援や自動運転において必要とされる情報を適切に認識することができるようにした画像認識装置を提供することを提供することを目的の一つとする。なお、この目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的である。   The present case has been devised in view of such problems, and provides an image recognition apparatus that can appropriately recognize information required for driving assistance and automatic driving while reducing the calculation load. One of the purposes is to provide The present invention is not limited to this purpose, and is a function and effect derived from each configuration shown in the embodiment for carrying out the invention described later, and has another function and effect that cannot be obtained by conventional techniques. is there.

(1)ここで開示する画像認識装置は、車外を撮像するカメラが設けられた車両の画像認識装置であって、車外に存在する静止物体の三次元の位置情報が設定された三次元地図データと、前記車両と前記静止物体との相対位置および前記車両と前記静止物体との距離に基づいて、前記静止物体を画像認識処理の対象物として検出する検出部と、前記車両の現在位置および前記三次元地図データに基づいて、前記カメラで撮像される撮像範囲の中から前記対象物が含まれる範囲を絞って認識範囲として設定する設定部と、前記認識範囲内にのみ前記画像認識処理を施す処理部と、を備えたことを特徴としている。   (1) An image recognition apparatus disclosed herein is an image recognition apparatus for a vehicle provided with a camera that captures the outside of the vehicle, and three-dimensional map data in which three-dimensional position information of a stationary object existing outside the vehicle is set. A detection unit that detects the stationary object as an object of image recognition processing based on a relative position between the vehicle and the stationary object and a distance between the vehicle and the stationary object; a current position of the vehicle; and Based on three-dimensional map data, a setting unit that narrows down a range including the object from an imaging range captured by the camera and sets the recognition range, and performs the image recognition processing only within the recognition range And a processing unit.

(2)SLAM技術を用いて前記現在位置を推定する推定部を備え、前記検出部は、推定された前記現在位置と前記静止物体の前記位置情報とを用いて、前記相対位置および前記距離を算出することが好ましい。
(3)前記設定部は、推定された前記現在位置と前記対象物の前記位置情報と前記カメラの取り付け角度と前記カメラの画角とに基づいて、前記対象物が含まれる範囲を算出することが好ましい。
(4)前記設定部は、前記対象物が含まれる範囲の最小値を最小範囲として算出するとともに、前記最小範囲を所定割合だけ拡張した範囲を前記認識範囲として設定することが好ましい。
(2) An estimation unit that estimates the current position using a SLAM technique is provided, and the detection unit calculates the relative position and the distance using the estimated current position and the position information of the stationary object. It is preferable to calculate.
(3) The setting unit calculates a range including the object based on the estimated current position, the position information of the object, an attachment angle of the camera, and an angle of view of the camera. Is preferred.
(4) It is preferable that the setting unit calculates a minimum value of a range including the object as a minimum range, and sets a range obtained by extending the minimum range by a predetermined ratio as the recognition range.

対象物が含まれる範囲を絞って画像認識処理を施す範囲(認識範囲)を設定するため、演算負荷を低減しながら画像認識処理の対象物を適切に認識することができる。   Since the range (recognition range) for performing the image recognition processing is set by narrowing the range including the target object, it is possible to appropriately recognize the target object of the image recognition processing while reducing the calculation load.

実施形態に係る画像認識装置を例示するブロック図である。1 is a block diagram illustrating an image recognition device according to an embodiment. フロントカメラで撮像される撮像範囲に対象物が含まれる場合を例示した模式図である。It is the schematic diagram which illustrated the case where a target object is contained in the imaging range imaged with a front camera. 図1の画像認識装置により実施される制御内容を例示するフローチャートである。3 is a flowchart illustrating the contents of control performed by the image recognition apparatus in FIG. 1.

図面を参照して、実施形態としての画像認識装置について説明する。以下に示す実施形態はあくまでも例示に過ぎず、以下の実施形態で明示しない種々の変形や技術の適用を排除する意図はない。本実施形態の各構成は、それらの趣旨を逸脱しない範囲で種々変形して実施することができる。また、必要に応じて取捨選択することができ、あるいは適宜組み合わせることができる。   An image recognition apparatus as an embodiment will be described with reference to the drawings. The embodiment described below is merely an example, and there is no intention of excluding various modifications and technical applications that are not explicitly described in the following embodiment. Each configuration of the present embodiment can be implemented with various modifications without departing from the spirit thereof. Further, they can be selected as necessary, or can be appropriately combined.

[1.構成]
図1に示すように、画像認識装置1は、車両(「自車両」ともいう)に搭載された電子制御装置(コンピュータ)であり、車両に搭載されたカメラ9A〜9Dで撮像された車外の画像を認識するものである。本実施形態の車両には、車両前方,車両後方,車両左側方,車両右側方のそれぞれを撮像するフロントカメラ9A,リヤカメラ9B,左サイドカメラ9C,右サイドカメラ9Dが設けられる。以下、これらを総称してカメラ9と呼ぶ。
[1. Constitution]
As shown in FIG. 1, the image recognition device 1 is an electronic control device (computer) mounted on a vehicle (also referred to as “own vehicle”), and is taken outside the vehicle imaged by cameras 9A to 9D mounted on the vehicle. It recognizes images. The vehicle of the present embodiment is provided with a front camera 9A, a rear camera 9B, a left side camera 9C, and a right side camera 9D that capture images of the vehicle front, vehicle rear, vehicle left side, and vehicle right side, respectively. Hereinafter, these are collectively referred to as a camera 9.

カメラ9は、車外の画像(静止画や動画)を撮影する撮像装置であり、例えば撮像素子〔CCD(Charge-Coupled Device),CMOS(Complementary Metal-Oxide-Semiconductor)など〕を内蔵したビデオカメラである。車外に存在する様々な物体は、カメラ9で撮影された画像に解析処理(画像認識処理)を施すことによって検出される。各カメラ9A〜9Dで撮像される撮像範囲は、各カメラ9A〜9Dの配置,車体に対する取り付け角度(向き),各カメラ9A〜9Dの画角などによって決まる。   The camera 9 is an imaging device that captures images (still images and moving images) outside the vehicle. For example, the camera 9 is a video camera with a built-in imaging device (CCD (Charge-Coupled Device), CMOS (Complementary Metal-Oxide-Semiconductor), etc.). is there. Various objects existing outside the vehicle are detected by performing analysis processing (image recognition processing) on the image captured by the camera 9. The imaging range captured by each camera 9A to 9D is determined by the arrangement of each camera 9A to 9D, the mounting angle (orientation) with respect to the vehicle body, the angle of view of each camera 9A to 9D, and the like.

画像認識装置1には、プロセッサ(中央処理装置),メモリ(メインメモリ,主記憶装置),補助記憶装置,インタフェース装置,記録媒体ドライブなどが内蔵される。画像認識装置1の入力側にはカメラ9が接続される。また、画像認識装置1の出力側には、例えば車両を統合制御する電子制御装置(図示略)が接続される。画像認識装置1によって認識(検出)された結果はこの電子制御装置に伝達され、例えば操舵装置,制動装置,駆動装置,ディスプレイ,スピーカ,方向指示器など(いずれも図示略)の制御(運転支援制御や自動運転制御)において利用される。   The image recognition apparatus 1 includes a processor (central processing unit), a memory (main memory, main storage device), an auxiliary storage device, an interface device, a recording medium drive, and the like. A camera 9 is connected to the input side of the image recognition apparatus 1. Further, for example, an electronic control device (not shown) for integrally controlling the vehicle is connected to the output side of the image recognition device 1. The result recognized (detected) by the image recognition device 1 is transmitted to this electronic control device, and controls (driving support), for example, steering device, braking device, driving device, display, speaker, direction indicator, etc. (all not shown). Control and automatic operation control).

画像認識装置1には、3D地図データ2(三次元地図データ),推定部3,検出部4,設定部5,処理部6が設けられる。3D地図データ2を除いた要素3〜6は、画像認識装置1の機能を便宜的に分類して示したものであり、個々の要素を独立したプログラムとして記述してもよいし、これらの機能を兼ね備えた複合プログラムとして記述してもよい。これらのプログラムは、メモリや補助記憶装置に記憶され、プロセッサによって実行される。あるいは、これらのプログラムが光ディスクや半導体メモリなどの記録媒体(リムーバブルメディア)に記録され、記録媒体ドライブを介してメモリ上に読み込まれた上で実行される。   The image recognition apparatus 1 includes 3D map data 2 (three-dimensional map data), an estimation unit 3, a detection unit 4, a setting unit 5, and a processing unit 6. Elements 3 to 6 excluding the 3D map data 2 are classified functions of the image recognition device 1 for convenience, and each element may be described as an independent program. May be described as a composite program. These programs are stored in a memory or an auxiliary storage device and executed by a processor. Alternatively, these programs are recorded on a recording medium (removable medium) such as an optical disk or a semiconductor memory, and are read into the memory via a recording medium drive and executed.

3D地図データ2は、車外に存在する静止物体の三次元の位置情報(地理座標情報)が設定された詳細な地図データであり、メモリや補助記憶装置に記憶されている。静止物体としては、例えば道路標識,道路標示,信号機,電柱,電光掲示板,建物などが挙げられる。また、位置情報は、静止物体の位置を地理座標〔(経度,緯度,高さ)の組合せ〕で表現した情報であり、静止物体ごとに与えられる。例えば、一つの地理座標(X,Y,Z)が1[cm3]のピクセルを表現する場合には、一つの静止物体には複数組の地理座標が位置情報として与えられる。 The 3D map data 2 is detailed map data in which three-dimensional position information (geographic coordinate information) of a stationary object existing outside the vehicle is set, and is stored in a memory or an auxiliary storage device. Examples of stationary objects include road signs, road markings, traffic lights, utility poles, electric bulletin boards, and buildings. The position information is information representing the position of a stationary object in geographical coordinates [a combination of (longitude, latitude, height)] and is given for each stationary object. For example, when one geographic coordinate (X, Y, Z) represents a pixel of 1 [cm 3 ], a plurality of sets of geographic coordinates are given as position information to one stationary object.

推定部3は、SLAM(Simultaneous Localization and Mapping)技術を用いて車両の現在位置を推定するものである。SLAM技術とは、自己位置推定と環境地図作成とを同時に行う従来周知の技術である。推定部3は、例えば車両に設けられたレーザスキャナ等のセンサを用いて周囲をスキャンすることで地図を作成すると同時に、その地図上のどこに自車両が存在するのかを推定する。つまり推定部3は、車両が走行している走行レーンも推定(特定)する。   The estimation unit 3 estimates the current position of the vehicle using SLAM (Simultaneous Localization and Mapping) technology. The SLAM technique is a conventionally well-known technique that simultaneously performs self-position estimation and environmental map creation. The estimation unit 3 creates a map by scanning the surroundings using, for example, a sensor such as a laser scanner provided in the vehicle, and simultaneously estimates where the host vehicle exists on the map. That is, the estimation unit 3 also estimates (specifies) the traveling lane in which the vehicle is traveling.

本実施形態の推定部3は、推定した自車両の位置(自車両の重心位置や車両前端部中央の位置など)を地理座標で表す。また、SLAM技術を用いることで、GPSを用いる場合と比較して車両の現在位置が高精度に推定される。推定部3は、推定した車両の現在位置の情報(地理座標)を走行レーンの情報(以下「レーン情報」という)とともに検出部4および設定部5へ伝達する。   The estimation unit 3 of the present embodiment represents the estimated position of the own vehicle (such as the position of the center of gravity of the own vehicle or the position of the center of the front end of the vehicle) in geographical coordinates. In addition, by using the SLAM technology, the current position of the vehicle is estimated with higher accuracy than in the case of using GPS. The estimation unit 3 transmits information on the estimated current position of the vehicle (geographic coordinates) to the detection unit 4 and the setting unit 5 together with information on the traveling lane (hereinafter referred to as “lane information”).

検出部4は、車両と静止物体との相対位置および車両と静止物体との距離Eに基づいて、静止物体を画像認識処理の対象物として検出するものである。つまり、検出部4は、車外に存在するあらゆる静止物体の中から、画像認識処理を行う必要性の高い物体を「対象物」として検出する。なお、検出部4は、異なる複数の対象物を同時に検出してもよい。   The detection unit 4 detects a stationary object as an object for image recognition processing based on the relative position between the vehicle and the stationary object and the distance E between the vehicle and the stationary object. In other words, the detection unit 4 detects, as a “target object”, an object that is highly necessary to perform image recognition processing from among all stationary objects that exist outside the vehicle. Note that the detection unit 4 may simultaneously detect a plurality of different objects.

本実施形態の検出部4は、推定部3で推定された車両の現在位置の情報およびレーン情報と3D地図データ2に含まれる静止物体の位置情報とを用いて、車両に対する静止物体の位置(相対位置)および車両と静止物体との距離Eを算出する。そして、例えば自車両の走行レーン上に存在し、かつ、自車両との距離Eが第一所定値E1以上かつ第二所定値E2(但し、E1<E2)以下の静止物体(所定範囲内の静止物体)を対象物として検出する。なお、車両走行中は、車両と静止物体との距離Eが時々刻々と変化することから、検出部4は、同一の静止物体(例えば信号機)を対象物として何度も検出しうる。ただし、この静止物体との距離Eが第一所定値E1未満になった場合には、この静止物体を対象物から除外する。 The detection unit 4 of the present embodiment uses the current position information and lane information of the vehicle estimated by the estimation unit 3 and the position information of the stationary object included in the 3D map data 2 to determine the position of the stationary object ( Relative position) and the distance E between the vehicle and the stationary object. For example, a stationary object (existing on the traveling lane of the host vehicle) and having a distance E to the host vehicle not less than a first predetermined value E 1 and not more than a second predetermined value E 2 (where E 1 <E 2 ) ( A stationary object within a predetermined range) is detected as an object. While the vehicle travels, the distance E between the vehicle and the stationary object changes every moment, so that the detection unit 4 can detect the same stationary object (for example, a traffic light) as a target object many times. However, the distance E between the stationary object if it becomes a less than a predetermined value E 1 excludes the stationary object from the object.

本実施形態の検出部4は、静止物体の種類も考慮して対象物を検出する。画像認識装置1には上記の3D地図データ2が記憶されていることから、位置情報以外の情報を持つ静止物体のみを画像認識処理の対象物とすることで、演算負荷が低減される。位置情報以外の情報を持つ静止物体としては、例えば信号機や電光掲示板のように表示内容が変化する物体や、道路標示のように劣化している可能性のある物体(例えば消えかかった白線など)が挙げられる。なお、検出部4で検出する対象物の優先順位を予め設定しておいてもよい。検出部4は、検出した対象物を設定部5へ伝達する。   The detection unit 4 of the present embodiment detects an object in consideration of the type of stationary object. Since the 3D map data 2 is stored in the image recognition device 1, the calculation load is reduced by using only a stationary object having information other than position information as an object for image recognition processing. Examples of stationary objects that have information other than position information include objects whose display contents change, such as traffic lights and electronic bulletin boards, and objects that may be degraded such as road markings (for example, white lines that have disappeared) Is mentioned. Note that the priority order of the objects detected by the detection unit 4 may be set in advance. The detection unit 4 transmits the detected object to the setting unit 5.

設定部5は、推定部3で推定された車両の現在位置および3D地図データ2に基づいて、カメラ9で撮像される撮像範囲の中から、検出部4で検出された対象物が含まれる範囲を絞って認識範囲として設定するものである。ここで設定される認識範囲は、処理部6において画像認識処理が施される範囲である。つまり、本実施形態の画像認識装置1は、画像認識処理を、カメラ9で撮像される撮像範囲全体に対して施すのではなく、撮像範囲の一部(認識範囲)にのみ施す。これにより、演算負荷が大幅に低減される。なお、複数の対象物が同時に検出された場合には、カメラ9で撮像される撮像範囲の中に複数の認識範囲が設定される。   The setting unit 5 includes a range in which an object detected by the detection unit 4 is included in an imaging range captured by the camera 9 based on the current position of the vehicle estimated by the estimation unit 3 and the 3D map data 2. Is set as a recognition range. The recognition range set here is a range to which image recognition processing is performed in the processing unit 6. That is, the image recognition apparatus 1 according to the present embodiment performs image recognition processing only on a part of the imaging range (recognition range), not on the entire imaging range captured by the camera 9. As a result, the calculation load is greatly reduced. When a plurality of objects are detected at the same time, a plurality of recognition ranges are set in the imaging range captured by the camera 9.

本実施形態の設定部5は、推定部3で推定された車両の現在位置,対象物の位置情報,カメラ9の取り付け角度,カメラ9の画角に基づいて、撮像範囲の中から対象物が含まれる範囲を算出する。例えば、設定部5は、推定部3で推定された車両の現在位置と各カメラ9A〜9Dの取り付け角度および画角とを使ってカメラ9A〜9Dごとの撮像範囲を算出し、算出した撮像範囲のどの位置に対象物が現れるかを対象物の位置情報を使って算出する。なお、対象物の位置情報は3D地図データ2から取得され、各カメラ9A〜9Dの取り付け角度および画角は予め画像認識装置1に記憶されている。対象物が含まれる範囲は、例えば対象物全体を囲んだ矩形状として算出される。   The setting unit 5 of the present embodiment is configured so that the object is selected from the imaging range based on the current vehicle position estimated by the estimation unit 3, the position information of the object, the attachment angle of the camera 9, and the angle of view of the camera 9. Calculate the included range. For example, the setting unit 5 calculates the imaging range for each of the cameras 9A to 9D using the current position of the vehicle estimated by the estimation unit 3, the attachment angle and the angle of view of each camera 9A to 9D, and the calculated imaging range The position where the object appears is calculated using the position information of the object. Note that the position information of the object is acquired from the 3D map data 2, and the attachment angle and the angle of view of each camera 9 </ b> A to 9 </ b> D are stored in advance in the image recognition device 1. The range in which the object is included is calculated as, for example, a rectangular shape surrounding the entire object.

さらに本実施形態の設定部5は、対象物が含まれる範囲の最小値(対象物の外形線に相当する範囲)を最小範囲として算出するとともに、この最小範囲を所定割合だけ拡張した範囲を認識範囲として設定する。これにより、推定部3による推定誤差やカメラ9の取り付け角度の誤差(予め記憶された値からのずれ)などを加味した認識範囲が設定される。なお、所定割合は予め設定されていてもよいし、車両と対象物との距離に応じて変化する可変値であってもよい。例えば、所定割合を、車両と対象物との距離が遠いほど小さくし、車両と対象物との距離が近いほど大きくしてもよい。   Furthermore, the setting unit 5 of the present embodiment calculates the minimum value of the range including the target object (a range corresponding to the outline of the target object) as the minimum range, and recognizes a range obtained by extending the minimum range by a predetermined ratio. Set as a range. As a result, a recognition range is set in consideration of an estimation error by the estimation unit 3 and an error in the mounting angle of the camera 9 (deviation from a value stored in advance). The predetermined ratio may be set in advance, or may be a variable value that changes according to the distance between the vehicle and the object. For example, the predetermined ratio may be reduced as the distance between the vehicle and the object increases, and may be increased as the distance between the vehicle and the object decreases.

ここで、フロントカメラ9Aによって撮像される撮像範囲の一例を図2に示す。なお、図2に示す車両前方の風景はドライバから見える風景であり、フロントカメラ9Aで撮像された画像を画像認識装置1が認識した結果を示すものではない。撮像範囲内には、例えば、走行レーン10,対向レーン11,走行レーン側の信号機12,対向レーン側の信号機13,横断歩道14,街路樹15,建物16などの静止物体が含まれる。3D地図データ2には、これらの静止物体の位置情報が設定されている。なお、撮像範囲には歩行者や他車両なども含まれうるが、動く物体は3D地図データ2に位置情報が設定されていないため、本実施形態の画像認識装置1の対象物からは除外される。   Here, an example of the imaging range imaged by the front camera 9A is shown in FIG. Note that the scenery in front of the vehicle shown in FIG. 2 is a scenery seen from the driver, and does not indicate the result of the image recognition device 1 recognizing the image captured by the front camera 9A. The imaging range includes, for example, stationary objects such as the traveling lane 10, the facing lane 11, the traffic signal on the traveling lane side 12, the traffic signal 13 on the facing lane side, the pedestrian crossing 14, the roadside tree 15, and the building 16. In the 3D map data 2, position information of these stationary objects is set. Note that the imaging range may include pedestrians and other vehicles, but moving objects are excluded from the objects of the image recognition apparatus 1 according to the present embodiment because position information is not set in the 3D map data 2. The

推定部3により自車両の現在位置および走行レーン10が推定されると、検出部4によって、例えば、走行レーン10上に存在し、かつ、自車両との距離が所定範囲内である信号機12が対象物として検出される。この場合、設定部5によって、図中一点鎖線で示すように対象物(信号機12)が含まれる範囲の最小値が最小範囲Aとして算出される。さらに、最小範囲Aを所定割合だけ拡張した範囲(図中破線)が認識範囲Bとして設定される。   When the current position of the host vehicle and the travel lane 10 are estimated by the estimation unit 3, the traffic signal 12 that exists on the travel lane 10 and whose distance from the host vehicle is within a predetermined range is detected by the detection unit 4, for example. Detected as an object. In this case, the setting unit 5 calculates the minimum value of the range including the object (the traffic signal 12) as the minimum range A as indicated by the one-dot chain line in the figure. Furthermore, a range (broken line in the figure) obtained by extending the minimum range A by a predetermined ratio is set as the recognition range B.

処理部6は、設定部5で設定された認識範囲にのみ画像認識処理を施すものである。画像認識処理の具体的な手法は特に限定されず、一般的に知られている手法(例えば、認識範囲内の画像にフィルタ処理や二値化処理を施すとともに、エッジ検出処理,色彩解析処理,パターンマッチング処理などを施す手法)が採用される。なお、処理部6は、設定部5によって複数の認識範囲が同時に設定された場合(例えば車両前方および車両左側方)に、各認識範囲に対して同時に画像認識処理を施してもよいし、カメラ9A〜9Dのそれぞれに対応する処理部6A〜6Dを画像認識装置1に設けて、処理を分担してもよい。   The processing unit 6 performs image recognition processing only on the recognition range set by the setting unit 5. The specific method of the image recognition processing is not particularly limited, and a generally known method (for example, filtering processing and binarization processing on an image within the recognition range, edge detection processing, color analysis processing, A method of performing pattern matching processing) is employed. The processing unit 6 may perform image recognition processing on each recognition range simultaneously when a plurality of recognition ranges are set simultaneously by the setting unit 5 (for example, in front of the vehicle and on the left side of the vehicle). Processing units 6A to 6D corresponding to 9A to 9D may be provided in the image recognition apparatus 1 to share the processing.

[2.フローチャート]
図3は、上述した画像認識装置1によって実施される制御内容の一例を示すフローチャートである。このフローチャートは、例えば車両の電源がオンの場合に所定の演算周期で実施される。
図3に示すように、まず、推定部3によって車両の現在位置および走行レーンが推定される(ステップA1)。次いで、検出部4によって静止物体ごとに相対位置および距離が算出され(ステップA2)、静止物体の中から対象物が検出される(ステップA3)。
[2. flowchart]
FIG. 3 is a flowchart showing an example of the control content executed by the image recognition apparatus 1 described above. This flowchart is executed at a predetermined calculation cycle when the vehicle is powered on, for example.
As shown in FIG. 3, first, the current position of the vehicle and the travel lane are estimated by the estimation unit 3 (step A1). Next, the relative position and distance are calculated for each stationary object by the detection unit 4 (step A2), and the target is detected from the stationary object (step A3).

対象物が検出されたら、設定部5によって最小範囲が算出されるとともに(ステップA4)、この最小範囲を所定割合だけ拡張した認識範囲が設定される(ステップA5)。そして、処理部6によって認識範囲にのみ画像認識処理が施され(ステップA6)、その結果が出力されて(ステップA7)、このフローをリターンする。   When an object is detected, a minimum range is calculated by the setting unit 5 (step A4), and a recognition range obtained by extending the minimum range by a predetermined ratio is set (step A5). Then, the image recognition process is performed only on the recognition range by the processing unit 6 (step A6), the result is output (step A7), and this flow is returned.

[3.効果]
(1)上述した画像認識装置1では、カメラ9で撮像される撮像範囲全体に対して画像認識処理を施すのではなく、画像認識処理を施す範囲(認識範囲)を対象物が含まれる範囲に絞る。このため、撮像範囲全体に対して処理する場合と比較して、処理部6(画像認識装置1)の演算負荷を大幅に低減することができ、画像認識処理の対象物を適切に認識することができる。
[3. effect]
(1) In the image recognition apparatus 1 described above, the image recognition process is not performed on the entire imaging range captured by the camera 9, but the range where the image recognition process is performed (recognition range) is set to the range including the target object. squeeze. For this reason, compared with the case where it processes with respect to the whole imaging range, the calculation load of the process part 6 (image recognition apparatus 1) can be reduced significantly, and the target of an image recognition process can be recognized appropriately. Can do.

(2)また、SLAM技術を用いて車両の現在位置を推定し、この現在位置と静止物体の位置情報(地理座標)とから車両と静止物体との相対位置および距離を算出して対象物を検出するため、対象物を精度よく検出することができる。
(3)さらに、推定された車両の現在位置と、3D地図データ2に含まれる対象物の位置情報と、カメラ9の取り付け角度および画角とに基づいて、対象物が含まれる範囲が算出されるので、認識範囲を精度よく設定することができる。
(2) In addition, the current position of the vehicle is estimated using SLAM technology, and the relative position and distance between the vehicle and the stationary object are calculated from the current position and the position information (geographic coordinates) of the stationary object. Since it detects, a target object can be detected accurately.
(3) Further, a range including the object is calculated based on the estimated current position of the vehicle, the position information of the object included in the 3D map data 2, and the attachment angle and the angle of view of the camera 9. Therefore, the recognition range can be set with high accuracy.

(4)また、対象物が含まれる範囲の最小値を最小範囲として算出し、この最小範囲を所定割合だけ拡張した範囲を認識範囲として設定することで、推定誤差やカメラ9の取り付け誤差や車両の挙動によってカメラ9の向きに影響があったとしても、対象物を認識範囲内に含ませることができるため、対象物に対し画像認識処理を確実に行うことができる。   (4) Further, by calculating the minimum value of the range including the object as the minimum range and setting a range obtained by expanding the minimum range by a predetermined ratio as the recognition range, the estimation error, the camera 9 mounting error, the vehicle Even if the orientation of the camera 9 is affected by the behavior of the object, since the object can be included in the recognition range, the image recognition process can be reliably performed on the object.

[4.その他]
以上、本発明の実施形態および変形例を説明したが、本発明は上述した実施形態等に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々変形することが可能である。例えば、設定部5が、対象物が含まれる範囲を算出する際に所定マージンを持たせて算出し、その範囲を認識範囲として設定してもよい。つまり、最小範囲を算出して所定割合だけ拡張させるのではなく、予め対象物が含まれる範囲を大きめに算出する構成としてもよい。なお、推定精度を向上させて最小範囲を認識範囲に設定する構成としてもよい。また、推定部3がSLAM技術を用いる代わりに、GPSを用いて現在位置を推定してもよい。なお、カメラ9の個数や配置は特に限られない。
[4. Others]
Although the embodiment and modification examples of the present invention have been described above, the present invention is not limited to the above-described embodiment and the like, and various modifications can be made without departing from the spirit of the present invention. For example, the setting unit 5 may calculate the range including the object with a predetermined margin and set the range as the recognition range. In other words, instead of calculating the minimum range and expanding it by a predetermined ratio, it may be configured to calculate a larger range including the object in advance. In addition, it is good also as a structure which improves estimation precision and sets a minimum range to a recognition range. Further, instead of using the SLAM technology, the estimation unit 3 may estimate the current position using GPS. Note that the number and arrangement of the cameras 9 are not particularly limited.

1 画像認識装置
2 3D地図データ(三次元地図データ)
3 推定部
4 検出部
5 設定部
6 処理部
9 カメラ
1 Image recognition device 2 3D map data (3D map data)
DESCRIPTION OF SYMBOLS 3 Estimation part 4 Detection part 5 Setting part 6 Processing part 9 Camera

Claims (4)

車外を撮像するカメラが設けられた車両の画像認識装置であって、
車外に存在する静止物体の三次元の位置情報が設定された三次元地図データと、
前記車両と前記静止物体との相対位置および前記車両と前記静止物体との距離に基づいて、前記静止物体を画像認識処理の対象物として検出する検出部と、
前記車両の現在位置および前記三次元地図データに基づいて、前記カメラで撮像される撮像範囲の中から前記対象物が含まれる範囲を絞って認識範囲として設定する設定部と、
前記認識範囲内にのみ前記画像認識処理を施す処理部と、を備えた
ことを特徴とする、画像認識装置。
An image recognition apparatus for a vehicle provided with a camera for imaging outside the vehicle,
3D map data in which 3D position information of stationary objects existing outside the vehicle is set,
A detection unit for detecting the stationary object as an object of image recognition processing based on a relative position between the vehicle and the stationary object and a distance between the vehicle and the stationary object;
Based on the current position of the vehicle and the three-dimensional map data, a setting unit that narrows down a range including the target object from an imaging range captured by the camera, and sets it as a recognition range;
An image recognition apparatus comprising: a processing unit that performs the image recognition process only within the recognition range.
SLAM技術を用いて前記現在位置を推定する推定部を備え、
前記検出部は、推定された前記現在位置と前記静止物体の前記位置情報とを用いて、前記相対位置および前記距離を算出する
ことを特徴とする、請求項1記載の画像認識装置。
An estimation unit for estimating the current position using SLAM technology;
The image recognition apparatus according to claim 1, wherein the detection unit calculates the relative position and the distance using the estimated current position and the position information of the stationary object.
前記設定部は、推定された前記現在位置と前記対象物の前記位置情報と前記カメラの取り付け角度と前記カメラの画角とに基づいて、前記対象物が含まれる範囲を算出する
ことを特徴とする、請求項2記載の画像認識装置。
The setting unit calculates a range including the object based on the estimated current position, the position information of the object, an attachment angle of the camera, and an angle of view of the camera. The image recognition apparatus according to claim 2.
前記設定部は、前記対象物が含まれる範囲の最小値を最小範囲として算出するとともに、前記最小範囲を所定割合だけ拡張した範囲を前記認識範囲として設定する
ことを特徴とする、請求項1〜3のいずれか1項に記載の画像認識装置。
The setting unit calculates a minimum value of a range including the target object as a minimum range, and sets a range obtained by extending the minimum range by a predetermined ratio as the recognition range. 4. The image recognition device according to any one of items 3.
JP2016215092A 2016-11-02 2016-11-02 Image recognition device Pending JP2018073275A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016215092A JP2018073275A (en) 2016-11-02 2016-11-02 Image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016215092A JP2018073275A (en) 2016-11-02 2016-11-02 Image recognition device

Publications (1)

Publication Number Publication Date
JP2018073275A true JP2018073275A (en) 2018-05-10

Family

ID=62115620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016215092A Pending JP2018073275A (en) 2016-11-02 2016-11-02 Image recognition device

Country Status (1)

Country Link
JP (1) JP2018073275A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108693517A (en) * 2018-05-22 2018-10-23 森思泰克河北科技有限公司 Vehicle positioning method, device and radar
JPWO2021149261A1 (en) * 2020-01-24 2021-07-29
US11586856B2 (en) 2018-10-30 2023-02-21 Nec Corporation Object recognition device, object recognition method, and object recognition program
US11783602B2 (en) 2018-11-05 2023-10-10 Nec Corporation Object recognition system, recognition device, object recognition method, and object recognition program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108693517A (en) * 2018-05-22 2018-10-23 森思泰克河北科技有限公司 Vehicle positioning method, device and radar
CN108693517B (en) * 2018-05-22 2020-10-09 森思泰克河北科技有限公司 Vehicle positioning method and device and radar
US11586856B2 (en) 2018-10-30 2023-02-21 Nec Corporation Object recognition device, object recognition method, and object recognition program
US11783602B2 (en) 2018-11-05 2023-10-10 Nec Corporation Object recognition system, recognition device, object recognition method, and object recognition program
JPWO2021149261A1 (en) * 2020-01-24 2021-07-29
JP7310935B2 (en) 2020-01-24 2023-07-19 日本電信電話株式会社 Display system and display method

Similar Documents

Publication Publication Date Title
JP7052663B2 (en) Object detection device, object detection method and computer program for object detection
JP2020064046A (en) Vehicle position determining method and vehicle position determining device
JP6670071B2 (en) Vehicle image recognition system and corresponding method
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
CN107179767B (en) Driving control device, driving control method, and non-transitory recording medium
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP2019008460A (en) Object detection device and object detection method and program
US11157753B2 (en) Road line detection device and road line detection method
WO2020154990A1 (en) Target object motion state detection method and device, and storage medium
KR20210115026A (en) Vehicle intelligent driving control method and device, electronic device and storage medium
JP2018180772A (en) Object detection device
JP7135665B2 (en) VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM
EP3545464A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
US20190073542A1 (en) Vehicle lane detection system
US11468691B2 (en) Traveling lane recognition apparatus and traveling lane recognition method
JP2018073275A (en) Image recognition device
CN111967396A (en) Processing method, device and equipment for obstacle detection and storage medium
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP2017159884A (en) Drive control device, drive control method and drive control program
US20200193184A1 (en) Image processing device and image processing method
JP2006318062A (en) Image processor, image processing method and image processing program
JP2014106739A (en) In-vehicle image processing device
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
US11120292B2 (en) Distance estimation device, distance estimation method, and distance estimation computer program
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest