JP2018073275A - Image recognition device - Google Patents
Image recognition device Download PDFInfo
- Publication number
- JP2018073275A JP2018073275A JP2016215092A JP2016215092A JP2018073275A JP 2018073275 A JP2018073275 A JP 2018073275A JP 2016215092 A JP2016215092 A JP 2016215092A JP 2016215092 A JP2016215092 A JP 2016215092A JP 2018073275 A JP2018073275 A JP 2018073275A
- Authority
- JP
- Japan
- Prior art keywords
- range
- vehicle
- image recognition
- camera
- stationary object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、車両外部(以下「車外」という)を撮像するカメラが設けられた車両の画像認識装置に関する。 The present invention relates to an image recognition apparatus for a vehicle provided with a camera that images the outside of the vehicle (hereinafter referred to as “outside the vehicle”).
従来、ドライバの運転操作の負担を軽減するための運転支援システムを搭載した車両が実用化されている。また、近年では、ドライバによる手動運転に代わって車両を自動的に走行させる自動走行システムの開発が進められている。運転支援システムや自動走行システムを搭載した車両には、車外の情報を取得するためのカメラが搭載される。カメラで撮像された画像には解析処理(画像認識処理)が施され、これにより車外に存在する物体が検出される(例えば特許文献1,2参照)。このような車両では、ドライバに代わってリアルタイムで道路状況や障害物等を把握することが重要となるため、搭載されるカメラは幅広い範囲を撮像できるものであることが望ましい。 Conventionally, a vehicle equipped with a driving support system for reducing the burden of driving operation of a driver has been put into practical use. In recent years, development of an automatic traveling system for automatically traveling a vehicle instead of manual driving by a driver has been promoted. A vehicle equipped with a driving support system or an automatic driving system is equipped with a camera for acquiring information outside the vehicle. Analysis processing (image recognition processing) is performed on the image captured by the camera, thereby detecting an object existing outside the vehicle (see, for example, Patent Documents 1 and 2). In such a vehicle, it is important to grasp road conditions, obstacles, and the like in real time instead of the driver. Therefore, it is desirable that the mounted camera can capture a wide range.
しかしながら、従来の画像認識処理では、カメラで撮像される範囲全体に対して解析していることから、カメラの撮像範囲を拡大するとコンピュータの演算負荷が増大してしまう。一方で、撮像範囲が狭いと、運転支援や自動運転において必要とされる情報をコンピュータが認識できないおそれがある。 However, in the conventional image recognition processing, since the entire range captured by the camera is analyzed, if the imaging range of the camera is expanded, the computational load on the computer increases. On the other hand, if the imaging range is narrow, the computer may not be able to recognize information required for driving assistance or automatic driving.
本件は、このような課題に鑑み案出されたもので、演算負荷を低減しながら、運転支援や自動運転において必要とされる情報を適切に認識することができるようにした画像認識装置を提供することを提供することを目的の一つとする。なお、この目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的である。 The present case has been devised in view of such problems, and provides an image recognition apparatus that can appropriately recognize information required for driving assistance and automatic driving while reducing the calculation load. One of the purposes is to provide The present invention is not limited to this purpose, and is a function and effect derived from each configuration shown in the embodiment for carrying out the invention described later, and has another function and effect that cannot be obtained by conventional techniques. is there.
(1)ここで開示する画像認識装置は、車外を撮像するカメラが設けられた車両の画像認識装置であって、車外に存在する静止物体の三次元の位置情報が設定された三次元地図データと、前記車両と前記静止物体との相対位置および前記車両と前記静止物体との距離に基づいて、前記静止物体を画像認識処理の対象物として検出する検出部と、前記車両の現在位置および前記三次元地図データに基づいて、前記カメラで撮像される撮像範囲の中から前記対象物が含まれる範囲を絞って認識範囲として設定する設定部と、前記認識範囲内にのみ前記画像認識処理を施す処理部と、を備えたことを特徴としている。 (1) An image recognition apparatus disclosed herein is an image recognition apparatus for a vehicle provided with a camera that captures the outside of the vehicle, and three-dimensional map data in which three-dimensional position information of a stationary object existing outside the vehicle is set. A detection unit that detects the stationary object as an object of image recognition processing based on a relative position between the vehicle and the stationary object and a distance between the vehicle and the stationary object; a current position of the vehicle; and Based on three-dimensional map data, a setting unit that narrows down a range including the object from an imaging range captured by the camera and sets the recognition range, and performs the image recognition processing only within the recognition range And a processing unit.
(2)SLAM技術を用いて前記現在位置を推定する推定部を備え、前記検出部は、推定された前記現在位置と前記静止物体の前記位置情報とを用いて、前記相対位置および前記距離を算出することが好ましい。
(3)前記設定部は、推定された前記現在位置と前記対象物の前記位置情報と前記カメラの取り付け角度と前記カメラの画角とに基づいて、前記対象物が含まれる範囲を算出することが好ましい。
(4)前記設定部は、前記対象物が含まれる範囲の最小値を最小範囲として算出するとともに、前記最小範囲を所定割合だけ拡張した範囲を前記認識範囲として設定することが好ましい。
(2) An estimation unit that estimates the current position using a SLAM technique is provided, and the detection unit calculates the relative position and the distance using the estimated current position and the position information of the stationary object. It is preferable to calculate.
(3) The setting unit calculates a range including the object based on the estimated current position, the position information of the object, an attachment angle of the camera, and an angle of view of the camera. Is preferred.
(4) It is preferable that the setting unit calculates a minimum value of a range including the object as a minimum range, and sets a range obtained by extending the minimum range by a predetermined ratio as the recognition range.
対象物が含まれる範囲を絞って画像認識処理を施す範囲(認識範囲)を設定するため、演算負荷を低減しながら画像認識処理の対象物を適切に認識することができる。 Since the range (recognition range) for performing the image recognition processing is set by narrowing the range including the target object, it is possible to appropriately recognize the target object of the image recognition processing while reducing the calculation load.
図面を参照して、実施形態としての画像認識装置について説明する。以下に示す実施形態はあくまでも例示に過ぎず、以下の実施形態で明示しない種々の変形や技術の適用を排除する意図はない。本実施形態の各構成は、それらの趣旨を逸脱しない範囲で種々変形して実施することができる。また、必要に応じて取捨選択することができ、あるいは適宜組み合わせることができる。 An image recognition apparatus as an embodiment will be described with reference to the drawings. The embodiment described below is merely an example, and there is no intention of excluding various modifications and technical applications that are not explicitly described in the following embodiment. Each configuration of the present embodiment can be implemented with various modifications without departing from the spirit thereof. Further, they can be selected as necessary, or can be appropriately combined.
[1.構成]
図1に示すように、画像認識装置1は、車両(「自車両」ともいう)に搭載された電子制御装置(コンピュータ)であり、車両に搭載されたカメラ9A〜9Dで撮像された車外の画像を認識するものである。本実施形態の車両には、車両前方,車両後方,車両左側方,車両右側方のそれぞれを撮像するフロントカメラ9A,リヤカメラ9B,左サイドカメラ9C,右サイドカメラ9Dが設けられる。以下、これらを総称してカメラ9と呼ぶ。
[1. Constitution]
As shown in FIG. 1, the image recognition device 1 is an electronic control device (computer) mounted on a vehicle (also referred to as “own vehicle”), and is taken outside the vehicle imaged by
カメラ9は、車外の画像(静止画や動画)を撮影する撮像装置であり、例えば撮像素子〔CCD(Charge-Coupled Device),CMOS(Complementary Metal-Oxide-Semiconductor)など〕を内蔵したビデオカメラである。車外に存在する様々な物体は、カメラ9で撮影された画像に解析処理(画像認識処理)を施すことによって検出される。各カメラ9A〜9Dで撮像される撮像範囲は、各カメラ9A〜9Dの配置,車体に対する取り付け角度(向き),各カメラ9A〜9Dの画角などによって決まる。
The camera 9 is an imaging device that captures images (still images and moving images) outside the vehicle. For example, the camera 9 is a video camera with a built-in imaging device (CCD (Charge-Coupled Device), CMOS (Complementary Metal-Oxide-Semiconductor), etc.). is there. Various objects existing outside the vehicle are detected by performing analysis processing (image recognition processing) on the image captured by the camera 9. The imaging range captured by each
画像認識装置1には、プロセッサ(中央処理装置),メモリ(メインメモリ,主記憶装置),補助記憶装置,インタフェース装置,記録媒体ドライブなどが内蔵される。画像認識装置1の入力側にはカメラ9が接続される。また、画像認識装置1の出力側には、例えば車両を統合制御する電子制御装置(図示略)が接続される。画像認識装置1によって認識(検出)された結果はこの電子制御装置に伝達され、例えば操舵装置,制動装置,駆動装置,ディスプレイ,スピーカ,方向指示器など(いずれも図示略)の制御(運転支援制御や自動運転制御)において利用される。 The image recognition apparatus 1 includes a processor (central processing unit), a memory (main memory, main storage device), an auxiliary storage device, an interface device, a recording medium drive, and the like. A camera 9 is connected to the input side of the image recognition apparatus 1. Further, for example, an electronic control device (not shown) for integrally controlling the vehicle is connected to the output side of the image recognition device 1. The result recognized (detected) by the image recognition device 1 is transmitted to this electronic control device, and controls (driving support), for example, steering device, braking device, driving device, display, speaker, direction indicator, etc. (all not shown). Control and automatic operation control).
画像認識装置1には、3D地図データ2(三次元地図データ),推定部3,検出部4,設定部5,処理部6が設けられる。3D地図データ2を除いた要素3〜6は、画像認識装置1の機能を便宜的に分類して示したものであり、個々の要素を独立したプログラムとして記述してもよいし、これらの機能を兼ね備えた複合プログラムとして記述してもよい。これらのプログラムは、メモリや補助記憶装置に記憶され、プロセッサによって実行される。あるいは、これらのプログラムが光ディスクや半導体メモリなどの記録媒体(リムーバブルメディア)に記録され、記録媒体ドライブを介してメモリ上に読み込まれた上で実行される。
The image recognition apparatus 1 includes 3D map data 2 (three-dimensional map data), an estimation unit 3, a detection unit 4, a setting unit 5, and a
3D地図データ2は、車外に存在する静止物体の三次元の位置情報(地理座標情報)が設定された詳細な地図データであり、メモリや補助記憶装置に記憶されている。静止物体としては、例えば道路標識,道路標示,信号機,電柱,電光掲示板,建物などが挙げられる。また、位置情報は、静止物体の位置を地理座標〔(経度,緯度,高さ)の組合せ〕で表現した情報であり、静止物体ごとに与えられる。例えば、一つの地理座標(X,Y,Z)が1[cm3]のピクセルを表現する場合には、一つの静止物体には複数組の地理座標が位置情報として与えられる。
The
推定部3は、SLAM(Simultaneous Localization and Mapping)技術を用いて車両の現在位置を推定するものである。SLAM技術とは、自己位置推定と環境地図作成とを同時に行う従来周知の技術である。推定部3は、例えば車両に設けられたレーザスキャナ等のセンサを用いて周囲をスキャンすることで地図を作成すると同時に、その地図上のどこに自車両が存在するのかを推定する。つまり推定部3は、車両が走行している走行レーンも推定(特定)する。 The estimation unit 3 estimates the current position of the vehicle using SLAM (Simultaneous Localization and Mapping) technology. The SLAM technique is a conventionally well-known technique that simultaneously performs self-position estimation and environmental map creation. The estimation unit 3 creates a map by scanning the surroundings using, for example, a sensor such as a laser scanner provided in the vehicle, and simultaneously estimates where the host vehicle exists on the map. That is, the estimation unit 3 also estimates (specifies) the traveling lane in which the vehicle is traveling.
本実施形態の推定部3は、推定した自車両の位置(自車両の重心位置や車両前端部中央の位置など)を地理座標で表す。また、SLAM技術を用いることで、GPSを用いる場合と比較して車両の現在位置が高精度に推定される。推定部3は、推定した車両の現在位置の情報(地理座標)を走行レーンの情報(以下「レーン情報」という)とともに検出部4および設定部5へ伝達する。 The estimation unit 3 of the present embodiment represents the estimated position of the own vehicle (such as the position of the center of gravity of the own vehicle or the position of the center of the front end of the vehicle) in geographical coordinates. In addition, by using the SLAM technology, the current position of the vehicle is estimated with higher accuracy than in the case of using GPS. The estimation unit 3 transmits information on the estimated current position of the vehicle (geographic coordinates) to the detection unit 4 and the setting unit 5 together with information on the traveling lane (hereinafter referred to as “lane information”).
検出部4は、車両と静止物体との相対位置および車両と静止物体との距離Eに基づいて、静止物体を画像認識処理の対象物として検出するものである。つまり、検出部4は、車外に存在するあらゆる静止物体の中から、画像認識処理を行う必要性の高い物体を「対象物」として検出する。なお、検出部4は、異なる複数の対象物を同時に検出してもよい。 The detection unit 4 detects a stationary object as an object for image recognition processing based on the relative position between the vehicle and the stationary object and the distance E between the vehicle and the stationary object. In other words, the detection unit 4 detects, as a “target object”, an object that is highly necessary to perform image recognition processing from among all stationary objects that exist outside the vehicle. Note that the detection unit 4 may simultaneously detect a plurality of different objects.
本実施形態の検出部4は、推定部3で推定された車両の現在位置の情報およびレーン情報と3D地図データ2に含まれる静止物体の位置情報とを用いて、車両に対する静止物体の位置(相対位置)および車両と静止物体との距離Eを算出する。そして、例えば自車両の走行レーン上に存在し、かつ、自車両との距離Eが第一所定値E1以上かつ第二所定値E2(但し、E1<E2)以下の静止物体(所定範囲内の静止物体)を対象物として検出する。なお、車両走行中は、車両と静止物体との距離Eが時々刻々と変化することから、検出部4は、同一の静止物体(例えば信号機)を対象物として何度も検出しうる。ただし、この静止物体との距離Eが第一所定値E1未満になった場合には、この静止物体を対象物から除外する。
The detection unit 4 of the present embodiment uses the current position information and lane information of the vehicle estimated by the estimation unit 3 and the position information of the stationary object included in the
本実施形態の検出部4は、静止物体の種類も考慮して対象物を検出する。画像認識装置1には上記の3D地図データ2が記憶されていることから、位置情報以外の情報を持つ静止物体のみを画像認識処理の対象物とすることで、演算負荷が低減される。位置情報以外の情報を持つ静止物体としては、例えば信号機や電光掲示板のように表示内容が変化する物体や、道路標示のように劣化している可能性のある物体(例えば消えかかった白線など)が挙げられる。なお、検出部4で検出する対象物の優先順位を予め設定しておいてもよい。検出部4は、検出した対象物を設定部5へ伝達する。
The detection unit 4 of the present embodiment detects an object in consideration of the type of stationary object. Since the
設定部5は、推定部3で推定された車両の現在位置および3D地図データ2に基づいて、カメラ9で撮像される撮像範囲の中から、検出部4で検出された対象物が含まれる範囲を絞って認識範囲として設定するものである。ここで設定される認識範囲は、処理部6において画像認識処理が施される範囲である。つまり、本実施形態の画像認識装置1は、画像認識処理を、カメラ9で撮像される撮像範囲全体に対して施すのではなく、撮像範囲の一部(認識範囲)にのみ施す。これにより、演算負荷が大幅に低減される。なお、複数の対象物が同時に検出された場合には、カメラ9で撮像される撮像範囲の中に複数の認識範囲が設定される。
The setting unit 5 includes a range in which an object detected by the detection unit 4 is included in an imaging range captured by the camera 9 based on the current position of the vehicle estimated by the estimation unit 3 and the
本実施形態の設定部5は、推定部3で推定された車両の現在位置,対象物の位置情報,カメラ9の取り付け角度,カメラ9の画角に基づいて、撮像範囲の中から対象物が含まれる範囲を算出する。例えば、設定部5は、推定部3で推定された車両の現在位置と各カメラ9A〜9Dの取り付け角度および画角とを使ってカメラ9A〜9Dごとの撮像範囲を算出し、算出した撮像範囲のどの位置に対象物が現れるかを対象物の位置情報を使って算出する。なお、対象物の位置情報は3D地図データ2から取得され、各カメラ9A〜9Dの取り付け角度および画角は予め画像認識装置1に記憶されている。対象物が含まれる範囲は、例えば対象物全体を囲んだ矩形状として算出される。
The setting unit 5 of the present embodiment is configured so that the object is selected from the imaging range based on the current vehicle position estimated by the estimation unit 3, the position information of the object, the attachment angle of the camera 9, and the angle of view of the camera 9. Calculate the included range. For example, the setting unit 5 calculates the imaging range for each of the
さらに本実施形態の設定部5は、対象物が含まれる範囲の最小値(対象物の外形線に相当する範囲)を最小範囲として算出するとともに、この最小範囲を所定割合だけ拡張した範囲を認識範囲として設定する。これにより、推定部3による推定誤差やカメラ9の取り付け角度の誤差(予め記憶された値からのずれ)などを加味した認識範囲が設定される。なお、所定割合は予め設定されていてもよいし、車両と対象物との距離に応じて変化する可変値であってもよい。例えば、所定割合を、車両と対象物との距離が遠いほど小さくし、車両と対象物との距離が近いほど大きくしてもよい。 Furthermore, the setting unit 5 of the present embodiment calculates the minimum value of the range including the target object (a range corresponding to the outline of the target object) as the minimum range, and recognizes a range obtained by extending the minimum range by a predetermined ratio. Set as a range. As a result, a recognition range is set in consideration of an estimation error by the estimation unit 3 and an error in the mounting angle of the camera 9 (deviation from a value stored in advance). The predetermined ratio may be set in advance, or may be a variable value that changes according to the distance between the vehicle and the object. For example, the predetermined ratio may be reduced as the distance between the vehicle and the object increases, and may be increased as the distance between the vehicle and the object decreases.
ここで、フロントカメラ9Aによって撮像される撮像範囲の一例を図2に示す。なお、図2に示す車両前方の風景はドライバから見える風景であり、フロントカメラ9Aで撮像された画像を画像認識装置1が認識した結果を示すものではない。撮像範囲内には、例えば、走行レーン10,対向レーン11,走行レーン側の信号機12,対向レーン側の信号機13,横断歩道14,街路樹15,建物16などの静止物体が含まれる。3D地図データ2には、これらの静止物体の位置情報が設定されている。なお、撮像範囲には歩行者や他車両なども含まれうるが、動く物体は3D地図データ2に位置情報が設定されていないため、本実施形態の画像認識装置1の対象物からは除外される。
Here, an example of the imaging range imaged by the
推定部3により自車両の現在位置および走行レーン10が推定されると、検出部4によって、例えば、走行レーン10上に存在し、かつ、自車両との距離が所定範囲内である信号機12が対象物として検出される。この場合、設定部5によって、図中一点鎖線で示すように対象物(信号機12)が含まれる範囲の最小値が最小範囲Aとして算出される。さらに、最小範囲Aを所定割合だけ拡張した範囲(図中破線)が認識範囲Bとして設定される。
When the current position of the host vehicle and the
処理部6は、設定部5で設定された認識範囲にのみ画像認識処理を施すものである。画像認識処理の具体的な手法は特に限定されず、一般的に知られている手法(例えば、認識範囲内の画像にフィルタ処理や二値化処理を施すとともに、エッジ検出処理,色彩解析処理,パターンマッチング処理などを施す手法)が採用される。なお、処理部6は、設定部5によって複数の認識範囲が同時に設定された場合(例えば車両前方および車両左側方)に、各認識範囲に対して同時に画像認識処理を施してもよいし、カメラ9A〜9Dのそれぞれに対応する処理部6A〜6Dを画像認識装置1に設けて、処理を分担してもよい。
The
[2.フローチャート]
図3は、上述した画像認識装置1によって実施される制御内容の一例を示すフローチャートである。このフローチャートは、例えば車両の電源がオンの場合に所定の演算周期で実施される。
図3に示すように、まず、推定部3によって車両の現在位置および走行レーンが推定される(ステップA1)。次いで、検出部4によって静止物体ごとに相対位置および距離が算出され(ステップA2)、静止物体の中から対象物が検出される(ステップA3)。
[2. flowchart]
FIG. 3 is a flowchart showing an example of the control content executed by the image recognition apparatus 1 described above. This flowchart is executed at a predetermined calculation cycle when the vehicle is powered on, for example.
As shown in FIG. 3, first, the current position of the vehicle and the travel lane are estimated by the estimation unit 3 (step A1). Next, the relative position and distance are calculated for each stationary object by the detection unit 4 (step A2), and the target is detected from the stationary object (step A3).
対象物が検出されたら、設定部5によって最小範囲が算出されるとともに(ステップA4)、この最小範囲を所定割合だけ拡張した認識範囲が設定される(ステップA5)。そして、処理部6によって認識範囲にのみ画像認識処理が施され(ステップA6)、その結果が出力されて(ステップA7)、このフローをリターンする。 When an object is detected, a minimum range is calculated by the setting unit 5 (step A4), and a recognition range obtained by extending the minimum range by a predetermined ratio is set (step A5). Then, the image recognition process is performed only on the recognition range by the processing unit 6 (step A6), the result is output (step A7), and this flow is returned.
[3.効果]
(1)上述した画像認識装置1では、カメラ9で撮像される撮像範囲全体に対して画像認識処理を施すのではなく、画像認識処理を施す範囲(認識範囲)を対象物が含まれる範囲に絞る。このため、撮像範囲全体に対して処理する場合と比較して、処理部6(画像認識装置1)の演算負荷を大幅に低減することができ、画像認識処理の対象物を適切に認識することができる。
[3. effect]
(1) In the image recognition apparatus 1 described above, the image recognition process is not performed on the entire imaging range captured by the camera 9, but the range where the image recognition process is performed (recognition range) is set to the range including the target object. squeeze. For this reason, compared with the case where it processes with respect to the whole imaging range, the calculation load of the process part 6 (image recognition apparatus 1) can be reduced significantly, and the target of an image recognition process can be recognized appropriately. Can do.
(2)また、SLAM技術を用いて車両の現在位置を推定し、この現在位置と静止物体の位置情報(地理座標)とから車両と静止物体との相対位置および距離を算出して対象物を検出するため、対象物を精度よく検出することができる。
(3)さらに、推定された車両の現在位置と、3D地図データ2に含まれる対象物の位置情報と、カメラ9の取り付け角度および画角とに基づいて、対象物が含まれる範囲が算出されるので、認識範囲を精度よく設定することができる。
(2) In addition, the current position of the vehicle is estimated using SLAM technology, and the relative position and distance between the vehicle and the stationary object are calculated from the current position and the position information (geographic coordinates) of the stationary object. Since it detects, a target object can be detected accurately.
(3) Further, a range including the object is calculated based on the estimated current position of the vehicle, the position information of the object included in the
(4)また、対象物が含まれる範囲の最小値を最小範囲として算出し、この最小範囲を所定割合だけ拡張した範囲を認識範囲として設定することで、推定誤差やカメラ9の取り付け誤差や車両の挙動によってカメラ9の向きに影響があったとしても、対象物を認識範囲内に含ませることができるため、対象物に対し画像認識処理を確実に行うことができる。 (4) Further, by calculating the minimum value of the range including the object as the minimum range and setting a range obtained by expanding the minimum range by a predetermined ratio as the recognition range, the estimation error, the camera 9 mounting error, the vehicle Even if the orientation of the camera 9 is affected by the behavior of the object, since the object can be included in the recognition range, the image recognition process can be reliably performed on the object.
[4.その他]
以上、本発明の実施形態および変形例を説明したが、本発明は上述した実施形態等に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々変形することが可能である。例えば、設定部5が、対象物が含まれる範囲を算出する際に所定マージンを持たせて算出し、その範囲を認識範囲として設定してもよい。つまり、最小範囲を算出して所定割合だけ拡張させるのではなく、予め対象物が含まれる範囲を大きめに算出する構成としてもよい。なお、推定精度を向上させて最小範囲を認識範囲に設定する構成としてもよい。また、推定部3がSLAM技術を用いる代わりに、GPSを用いて現在位置を推定してもよい。なお、カメラ9の個数や配置は特に限られない。
[4. Others]
Although the embodiment and modification examples of the present invention have been described above, the present invention is not limited to the above-described embodiment and the like, and various modifications can be made without departing from the spirit of the present invention. For example, the setting unit 5 may calculate the range including the object with a predetermined margin and set the range as the recognition range. In other words, instead of calculating the minimum range and expanding it by a predetermined ratio, it may be configured to calculate a larger range including the object in advance. In addition, it is good also as a structure which improves estimation precision and sets a minimum range to a recognition range. Further, instead of using the SLAM technology, the estimation unit 3 may estimate the current position using GPS. Note that the number and arrangement of the cameras 9 are not particularly limited.
1 画像認識装置
2 3D地図データ(三次元地図データ)
3 推定部
4 検出部
5 設定部
6 処理部
9 カメラ
1
DESCRIPTION OF SYMBOLS 3 Estimation part 4 Detection part 5
Claims (4)
車外に存在する静止物体の三次元の位置情報が設定された三次元地図データと、
前記車両と前記静止物体との相対位置および前記車両と前記静止物体との距離に基づいて、前記静止物体を画像認識処理の対象物として検出する検出部と、
前記車両の現在位置および前記三次元地図データに基づいて、前記カメラで撮像される撮像範囲の中から前記対象物が含まれる範囲を絞って認識範囲として設定する設定部と、
前記認識範囲内にのみ前記画像認識処理を施す処理部と、を備えた
ことを特徴とする、画像認識装置。 An image recognition apparatus for a vehicle provided with a camera for imaging outside the vehicle,
3D map data in which 3D position information of stationary objects existing outside the vehicle is set,
A detection unit for detecting the stationary object as an object of image recognition processing based on a relative position between the vehicle and the stationary object and a distance between the vehicle and the stationary object;
Based on the current position of the vehicle and the three-dimensional map data, a setting unit that narrows down a range including the target object from an imaging range captured by the camera, and sets it as a recognition range;
An image recognition apparatus comprising: a processing unit that performs the image recognition process only within the recognition range.
前記検出部は、推定された前記現在位置と前記静止物体の前記位置情報とを用いて、前記相対位置および前記距離を算出する
ことを特徴とする、請求項1記載の画像認識装置。 An estimation unit for estimating the current position using SLAM technology;
The image recognition apparatus according to claim 1, wherein the detection unit calculates the relative position and the distance using the estimated current position and the position information of the stationary object.
ことを特徴とする、請求項2記載の画像認識装置。 The setting unit calculates a range including the object based on the estimated current position, the position information of the object, an attachment angle of the camera, and an angle of view of the camera. The image recognition apparatus according to claim 2.
ことを特徴とする、請求項1〜3のいずれか1項に記載の画像認識装置。 The setting unit calculates a minimum value of a range including the target object as a minimum range, and sets a range obtained by extending the minimum range by a predetermined ratio as the recognition range. 4. The image recognition device according to any one of items 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215092A JP2018073275A (en) | 2016-11-02 | 2016-11-02 | Image recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016215092A JP2018073275A (en) | 2016-11-02 | 2016-11-02 | Image recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018073275A true JP2018073275A (en) | 2018-05-10 |
Family
ID=62115620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016215092A Pending JP2018073275A (en) | 2016-11-02 | 2016-11-02 | Image recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018073275A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108693517A (en) * | 2018-05-22 | 2018-10-23 | 森思泰克河北科技有限公司 | Vehicle positioning method, device and radar |
JPWO2021149261A1 (en) * | 2020-01-24 | 2021-07-29 | ||
US11586856B2 (en) | 2018-10-30 | 2023-02-21 | Nec Corporation | Object recognition device, object recognition method, and object recognition program |
US11783602B2 (en) | 2018-11-05 | 2023-10-10 | Nec Corporation | Object recognition system, recognition device, object recognition method, and object recognition program |
-
2016
- 2016-11-02 JP JP2016215092A patent/JP2018073275A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108693517A (en) * | 2018-05-22 | 2018-10-23 | 森思泰克河北科技有限公司 | Vehicle positioning method, device and radar |
CN108693517B (en) * | 2018-05-22 | 2020-10-09 | 森思泰克河北科技有限公司 | Vehicle positioning method and device and radar |
US11586856B2 (en) | 2018-10-30 | 2023-02-21 | Nec Corporation | Object recognition device, object recognition method, and object recognition program |
US11783602B2 (en) | 2018-11-05 | 2023-10-10 | Nec Corporation | Object recognition system, recognition device, object recognition method, and object recognition program |
JPWO2021149261A1 (en) * | 2020-01-24 | 2021-07-29 | ||
JP7310935B2 (en) | 2020-01-24 | 2023-07-19 | 日本電信電話株式会社 | Display system and display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7052663B2 (en) | Object detection device, object detection method and computer program for object detection | |
JP2020064046A (en) | Vehicle position determining method and vehicle position determining device | |
JP6670071B2 (en) | Vehicle image recognition system and corresponding method | |
US9740942B2 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
CN107179767B (en) | Driving control device, driving control method, and non-transitory recording medium | |
US20130286205A1 (en) | Approaching object detection device and method for detecting approaching objects | |
JP2019008460A (en) | Object detection device and object detection method and program | |
US11157753B2 (en) | Road line detection device and road line detection method | |
WO2020154990A1 (en) | Target object motion state detection method and device, and storage medium | |
KR20210115026A (en) | Vehicle intelligent driving control method and device, electronic device and storage medium | |
JP2018180772A (en) | Object detection device | |
JP7135665B2 (en) | VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM | |
EP3545464A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
US20190073542A1 (en) | Vehicle lane detection system | |
US11468691B2 (en) | Traveling lane recognition apparatus and traveling lane recognition method | |
JP2018073275A (en) | Image recognition device | |
CN111967396A (en) | Processing method, device and equipment for obstacle detection and storage medium | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
JP2017159884A (en) | Drive control device, drive control method and drive control program | |
US20200193184A1 (en) | Image processing device and image processing method | |
JP2006318062A (en) | Image processor, image processing method and image processing program | |
JP2014106739A (en) | In-vehicle image processing device | |
US10789727B2 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
US11120292B2 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
KR20160125803A (en) | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest |