JP2019050622A - Image processing apparatus, image processing method, image processing program, and image processing system - Google Patents
Image processing apparatus, image processing method, image processing program, and image processing system Download PDFInfo
- Publication number
- JP2019050622A JP2019050622A JP2018222435A JP2018222435A JP2019050622A JP 2019050622 A JP2019050622 A JP 2019050622A JP 2018222435 A JP2018222435 A JP 2018222435A JP 2018222435 A JP2018222435 A JP 2018222435A JP 2019050622 A JP2019050622 A JP 2019050622A
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection
- unit
- captured
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理プログラムおよび画像処理システムに関する。 The present invention relates to an image processing apparatus, an image processing program, and an image processing system.
車両を運転中に、他の車両や建造物といった遠方の障害物の陰にいる歩行者や自転車などを分かり易く表示して安全運転を支援するために、自車両の周囲の俯瞰画像を作成して表示する技術が知られている。例えば、自車両に搭載された車載カメラと、他車両に搭載された車載カメラや路上の撮像装置とを用いて撮像された画像を用いて、自車両周辺の俯瞰画像を作成する。このようにすることで、遠方の障害物を高精度に表示することができる。 Create a bird's-eye view of the surroundings of your own vehicle in order to support safe driving by clearly displaying pedestrians and bicycles in the shadow of distant obstacles such as other vehicles and buildings while driving the vehicle. Techniques for displaying images are known. For example, a bird's-eye view image around the own vehicle is created using an image captured using an on-vehicle camera mounted on the own vehicle and an on-vehicle camera mounted on another vehicle or an imaging device on the road. By doing this, distant obstacles can be displayed with high accuracy.
従来の技術では、各画像を俯瞰画像の形状に合わせて変形させて俯瞰画像を生成していた。そのため、運転者が、従来の技術で作成された広域の俯瞰画像を見て、変形されて複雑な形状になった障害物(歩行者、自転車など)の存在や、その位置を、瞬時に認識することが困難であるという問題があった。 In the prior art, each image is deformed according to the shape of the bird's-eye view image to generate the bird's-eye view image. Therefore, the driver sees a wide-area bird's-eye view image created by the prior art, and instantly recognizes the presence of the deformed obstacle (in the form of a pedestrian, bicycle, etc.) and its position. There was a problem that it was difficult to do.
本発明が解決する課題は、複数カメラを用いてより容易に対象を認識可能とする画像処理装置、画像処理プログラムおよび画像処理システムを提供することにある。 The problem to be solved by the present invention is to provide an image processing apparatus, an image processing program, and an image processing system capable of more easily recognizing an object using a plurality of cameras.
第1の実施形態の画像処理装置は、自車両が走行中の道路を複数の異なる方向から撮像した第1の画像から検出対象を検出する。第1の画像のうち、検出対象が検出された第2の画像と、自車両に搭載された撮像装置のうち第2の画像と撮像範囲を共有する第3の画像とにおいて、第2の画像上で検出対象の周囲一定領域内に含まれる背景物体の画像と、第3の画像中の物体の画像とを対応付ける。対応付けを行った背景物体の画像を含む最小矩形の一定の割合の領域とを含む検出矩形と、検出対象の全体とを第2の画像から切り出す。切り出した検出矩形の画像と、第2の画像を撮像した位置を示す位置情報と、第1の画像のうち自車両周辺の画像とを配置した出力画像を生成する。 The image processing apparatus according to the first embodiment detects a detection target from a first image obtained by imaging a road on which the host vehicle is traveling from a plurality of different directions. Among the first images, the second image in which the detection target is detected, and the third image in the imaging device mounted on the host vehicle that shares the imaging range with the second image, the second image The image of the background object included in the certain area around the detection target is associated with the image of the object in the third image. From the second image, a detection rectangle including a certain proportion of an area of a minimum rectangle including the image of the correlated background object and the entire detection target are cut out. An output image is generated in which an image of the extracted detection rectangle, position information indicating a position at which the second image is captured, and an image around the vehicle among the first image are arranged.
以下、実施形態に係る画像処理装置、画像処理プログラムおよび画像処理システムについて説明する。 Hereinafter, an image processing apparatus, an image processing program, and an image processing system according to the embodiment will be described.
(各実施形態に共通の構成)
各実施形態に係る画像処理装置を含む運転支援装置は、例えば運転者が運転する車両(自車両とする)に設けられ、他車両の車載カメラや路上の撮像装置により撮像された画像を用いて、当該車両の周辺の様子を示す自車両周辺画像を作成する。
(Configuration common to each embodiment)
The driving assistance apparatus including the image processing apparatus according to each embodiment is provided, for example, in a vehicle (referred to as the own vehicle) driven by the driver, using an image captured by an on-vehicle camera of another vehicle or an imaging device on the road. , Create an image of the surroundings of the vehicle showing the situation around the vehicle.
また、運転支援装置において、画像処理装置は、他車両や路上の撮像装置で撮像された画像に対して、歩行者といった検出対象の検出処理を行う。画像処理装置は、撮像画像から検出対象が検出された場合には、検出対象付近に存在する、検出対象以外の物体である背景物体と、自車両の車載カメラにより撮像された画像に含まれる背景物体とを対応付け、検出された検出対象の全体と、対応付けられた背景物体の一定領域以上とを含む矩形を検出対象が検出された撮像画像から切り出して、検出矩形画像を得る。そして、画像処理装置は、切り出した検出矩形画像と、自車両周辺画像とを配置した表示画像を生成する。 Further, in the driving support device, the image processing device performs detection processing of a detection target such as a pedestrian on an image captured by another vehicle or an imaging device on the road. In the image processing apparatus, when the detection target is detected from the captured image, the background object, which is an object other than the detection target, present in the vicinity of the detection target, and the background included in the image captured by the on-vehicle camera of the own vehicle An object is associated, a rectangle including the entire detected object to be detected and a predetermined area or more of the associated background object is cut out from the captured image in which the object to be detected is detected to obtain a detected rectangular image. Then, the image processing device generates a display image in which the cut out detection rectangular image and the own vehicle peripheral image are arranged.
検出対象と運転者が目視で確認可能な背景物体とを含んで切り出した画像を、自車両周辺画像と共に表示して運転者に提示することで、運転者は、表示された画像が運転者とは異なる視線方向のカメラが撮像した画像であっても、検出対象や周辺の物体との位置関係を容易に認識可能となる。 The driver is able to display the displayed image with the driver by displaying the detection target and an image cut out including the background object which can be visually confirmed by the driver together with the own vehicle peripheral image. Even in the case of an image captured by a camera with a different line of sight direction, it is possible to easily recognize the positional relationship with the detection target and surrounding objects.
図1を用いて、各実施形態に係る画像処理装置を含む画像処理システムについて概略的に説明する。図1において、中央部分には、道路10を上方から俯瞰した例が示されている。図1の例では、道路10(左側通行であるものとする)上に、センターライン14の左側の車線に車両20が存在し、センターライン14の右側の車線に、車両21および22と、歩行者23とが存在している様子が示されている。車両20は、センターライン14の左側の車線を走行し、車両21は、センターライン14の右側の車線を走行している。車両22は、右側の車線の右端に駐車しているものとする。また、歩行者23は、道路10を右車線側から左車線側に向けて横断しようとしているものとする。また、図1上で道路10の左端側に信号機11が設置されている。
An image processing system including an image processing apparatus according to each embodiment will be schematically described with reference to FIG. In FIG. 1, an example in which the
また、車両20は、各実施形態に係る画像処理装置を含む運転支援装置30が搭載され、車両21は、撮像機能、通信機能および位置情報取得機能を備える撮像装置31が搭載されている。また、信号機11に対して、撮像機能、通信機能および位置情報取得機能を備える撮像装置32が固定的に設置されている。以下では、運転支援装置30が搭載される車両20を自車両(自車両20と記述)とし、それ以外の車両21および22を他車両(それぞれ他車両21および22と記述)とする。
The
自車両20において、運転支援装置30は、撮像機能を備え、図1において、運転支援装置30が備える撮像機能による撮像範囲を撮像範囲40として示している。また、図1において、車両21に搭載される撮像装置31と、信号機11に設置される撮像装置32による撮像範囲を、それぞれ撮像範囲41および42として示している。
In the
図1の左下に、自車両20に搭載される運転支援装置30の撮像機能を用いて撮像した撮像画像40’の例を示す。同様に、図1の右上に、他車両21に搭載される撮像装置31により撮像した撮像画像41’の例を、図1の左上に、信号機11に設置された撮像装置32により撮像した撮像画像42’の例をそれぞれ示す。
At the lower left of FIG. 1, an example of a captured
撮像画像40’は、撮像範囲40に対応して、道路10および信号機11の画像がそれぞれ含まれると共に、他車両21および22の画像が含まれる。撮像画像40’は、自車両20から進行方向側に見える光景に対応している。同様に、撮像画像41’は、撮像範囲41に対応して、道路10の画像が含まれると共に、自車両20および他車両22の画像が含まれ、さらに、歩行者23の画像が含まれる。また、撮像画像42’は、撮像範囲42に対応して、道路10の画像が含まれると共に、自車両20と他車両21および22の画像が含まれ、さらに、歩行者23の画像が含まれる。
The captured
ここで、撮像画像41’および42’には歩行者23の画像が含まれるが、歩行者23は自車両20から見て他車両22の陰になっているので、撮像画像40’には歩行者23の画像が含まれない。そのため、自車両20の運転者は、自車両20に搭載される運転支援装置30の撮像機能により撮像された撮像画像40’を見ても、歩行者23の存在を認識できない。したがって、自車両20の運転者は、歩行者23が駐車中の他車両22の陰から不意に飛び出してきても対応できないおそれがある。
Here, although the images of the
そこで、各実施形態では、撮像装置31および32が、自車両20による撮像範囲40とは異なる方向の撮像範囲41および42により撮像した撮像画像41’および42’を、無線通信51および52により送信する。自車両20に搭載される運転支援装置30は、これら無線通信51および52により送信された撮像画像41’および42’を受信する(無線通信51’および52’)。
Therefore, in each embodiment, the
運転支援装置30は、自身が持つ撮像機能により撮像した撮像画像40’と、無線通信51’および52’により受信した撮像画像41’および42’とに基づき、歩行者23の画像と自車両20からも見える他車両22の画像とを含む検出矩形画像と、自車両20と歩行者23との位置関係が分かるような自車両周辺画像とを生成し、生成した各画像を1画面中に同時に表示させて自車両20の運転者に提示する。これにより、自車両20の運転者は、他車両22の陰に歩行者23が存在することを容易に知ることができ、例えば歩行者23が他車両22の陰から不意に飛び出した場合であっても対応可能となる。
The driving
(第1の実施形態)
次に、第1の実施形態に係る画像処理装置について説明する。図2は、第1の実施形態に係る画像処理装置を用いた画像処理システムの一例の構成を概略的に示す。図2において、運転支援装置30は、図1で説明したように、自車両20に搭載されるもので、第1の実施形態に係る画像処理装置としての画像処理部300と、撮像部301と、通信部302と、位置情報取得部303とを含む。
First Embodiment
Next, an image processing apparatus according to the first embodiment will be described. FIG. 2 schematically shows an example of the configuration of an image processing system using the image processing apparatus according to the first embodiment. In FIG. 2, as described in FIG. 1, the driving
撮像部301は、自車両20の例えば進行方向側を撮像範囲40として撮像し、撮像画像40’を出力する。通信部302は、アンテナ304を介して無線通信による送受信を行う。位置情報取得部303は、現在の位置を示す位置情報を取得する。
The imaging unit 301 captures, for example, the traveling direction side of the
画像処理部300は、撮像部301から出力された撮像画像と、通信部302により受信された撮像画像と、位置情報取得部303で取得された位置情報とが入力される。画像処理部300は、入力された各撮像画像に基づき、自車両20の周辺の画像である自車両周辺画像と、検出対象(例えば人物)と背景物体とを検出して検出矩形画像とを生成し、生成した画像を位置情報と共に表示部305に表示させて運転者に提示する。
The
撮像装置31は、例えば他車両21といった移動体に搭載され、例えば他車両21の進行方向側を撮像して撮像画像を出力する撮像部と、現在位置を取得する位置情報取得部と、撮像画像および位置情報を無線通信51により送信する通信部とを含む。撮像装置32は、例えば信号機11といった固定物に設置され、それぞれ撮像装置31に含まれる各部と同様の、撮像部、位置情報取得部および通信部を含み、撮像部から出力された撮像画像と、位置情報取得部で取得された位置情報とを、通信部により無線通信52により送信する。なお、撮像装置32において、撮像部の撮像方向は、予め設定される。
The
第1の実施形態では、運転支援装置30が備える通信部302は、撮像装置31および32が含む通信部と、無線通信51および52により直接的に通信を行う。例えば、通信部302は、撮像装置31および32が含む通信部の探索を行い、各通信部が発見されると、各通信部との間で通信を確立する。このとき、通信部302は、発見された全ての通信部との間で通信を行うようにしてもよいし、各通信部に対して位置情報を要求し、この要求に応じて各通信部から送信された位置情報に基づき、通信を行う通信部をフィルタリングしてもよい。
In the first embodiment, the
第1の実施形態に適用できる通信方式としては、P2P(Peer to Peer)が可能であれば、特に限定しないが、無線LAN(Local Area Network)の一つであるWi−Fi(登録商標)や、Bluetooth(登録商標)を用いることができる。なお、自車両20と他車両21との間の通信のように、移動体間での通信を移動体間通信と呼び、信号機11と自車両20との間の通信のように、移動体と道路10に近接して設けられた固定物との間の通信を、対固定物通信と呼ぶ。
The communication method applicable to the first embodiment is not particularly limited as long as P2P (Peer to Peer) is possible, but Wi-Fi (registered trademark) which is one of wireless LAN (Local Area Network) and , Bluetooth (registered trademark) can be used. Communication between mobile units is called communication between mobile units as communication between the
なお、図2の例では、画像処理システムが各1台の撮像装置31および撮像装置32を含むように示されているが、これは説明のための例に過ぎず、この例に限定されない。すなわち、画像処理システムは、それぞれ2台以上の撮像装置31および32を含むことができる。また、図2の例では、自車両20のみが運転支援装置30を搭載するように示されているが、これはこの例に限定されず、複数の車両が運転支援装置30を搭載していてもよい。この場合、各運転支援装置30は、撮像装置31および32と同様に、撮像部301から出力された撮像画像と、位置情報取得部303で取得された位置情報とを通信部302から送信するようにできる。
Although the image processing system is shown to include one
図3は、第1の実施形態に適用可能な運転支援装置30の一例の構成を示す。図3において、運転支援装置30は、CPU(Central Processing Unit)3000と、ROM(Read Only Memory)3001と、RAM(Random Access Memory)3002と、カメラI/F3003と、位置情報取得部3004と、ストレージ3005と、操作部3006と、表示制御部3007と、通信部3008とを含み、これら各部がバス3010により互いに通信可能に接続されている。
FIG. 3 shows an exemplary configuration of the driving
ストレージ3005は、不揮発にデータを記憶する記憶媒体であって、フラッシュメモリやハードディスクドライブを用いることができる。CPU3000は、ストレージ3005やROM3001に予め記憶されるプログラムに従い、RAM3002をワークメモリとして用いて、この運転支援装置30の動作を制御する。
The
カメラI/F3003は、カメラ3030を運転支援装置30に接続するためのインタフェースであって、複数のカメラ3030、3030、…を接続することができる。図2の撮像部301は、例えば各カメラ3030、3030、…と、カメラI/F3003とを含んだ構成に対応する。CPU3000は、カメラI/F3003を介して各カメラ3030、3030、…の撮像動作を制御することができる。
The camera I /
位置情報取得部3004は、図2の位置情報取得部303に対応し、例えばGNSS(全地球測位システム)を用いて現在位置を示す情報を取得する。これに限らず、位置情報取得部3004は、IMU(慣性計測装置)を用いて現在位置を取得してもよいし、GNSSとIMUとを組み合わせて現在位置を取得してもよい。また、位置情報取得部3004は、自車両20の速度とステアリングの角度とに基づき現在位置を計算してもよい。
The position
操作部3006は、操作子やタッチパネルにより、ユーザ操作を受け付ける。表示制御部3007は、CPU3000がプログラムに従い生成した表示データを、表示装置3020を駆動可能な表示制御信号に変換して出力する。表示装置3020は、例えばLCD(Liquid Crystal Display)を表示として用い、表示制御部3007から供給される表示制御信号に応じた画面を表示する。
The
通信部3008は、CPU3000の制御に従い、アンテナ3009を介して無線通信を行う。通信部3008に適用可能な通信方式としては、Wi−Fi(登録商標)やBluetooth(登録商標)などがある。
The communication unit 3008 performs wireless communication via the
図4は、第1の実施形態に係る画像処理部の機能を説明するための機能ブロック図である。図4において、画像処理部300aは、図2で説明した画像処理部300に対応するもので、取得部310と、周辺画像生成部311と、検出部320と、対応付け部321と、切り出し部323と、検出情報生成部324と、表示情報生成部325とを含む。また、対応付け部321は、分割部322を含む。
FIG. 4 is a functional block diagram for explaining the function of the image processing unit according to the first embodiment. In FIG. 4, an image processing unit 300 a corresponds to the
これら取得部310、周辺画像生成部311、検出部320、対応付け部321、分割部322、切り出し部323、検出情報生成部324および表示情報生成部325は、CPU3000上でプログラムが動作することで実現される。これに限らず、取得部310、周辺画像生成部311、検出部320、対応付け部321、分割部322、切り出し部323、検出情報生成部324および表示情報生成部325の一部または全部を、互いに協働して動作する個別のIC(Integrated Circuit)などのハードウェアにより構成してもよい。
The
取得部310は、自車両20が走行中の道路10を複数の異なる方向から撮像した撮像画像と、撮像された位置を示す位置情報とを取得する。より具体的には、取得部310は、撮像装置31および32から送信された各撮像画像と各位置情報とを、通信部302を介して取得する。また、取得部310は、運転支援装置30に接続される各カメラ3030、3030、…で撮像された撮像画像と、位置情報取得部303から位置情報とをさらに取得してもよい。
The
周辺画像生成部311は、取得部310が取得した各撮像画像(第1の画像)および各位置情報に基づき、自車両20の周辺の画像を、自車両20に対する自車両周辺画像として生成する。周辺画像生成部311は、生成した自車両周辺画像を、表示情報生成部325に渡す。
The surrounding
検出部320は、取得部310が取得した、走行中の道路を複数の異なる方向から撮像した撮像画像から、歩行者などの検出対象の画像を検出する。
The
対応付け部321は、取得部310が取得した各撮像画像のうち検出部320によって検出対象が検出された画像である対象検出撮像画像(第2の画像)と、自車両20に搭載された各カメラ3030、3030、…のうち当該対象検出撮像画像と撮像範囲を共有するカメラ3030が撮像した撮像画像である範囲共有撮像画像(第3の画像)との間で、対応付けを行う。具体的には、対応付け部321は、対象検出撮像画像上で検出対象の周囲一定領域内にある、検出対象とは異なる物体である背景物体と、範囲共有撮像画像中の物体とを対応付ける。
The association unit 321 is an object detection pickup image (second image) which is an image of which the detection target is detected by the
対応付け部321は、分割部322を含み、分割322は、対象検出撮像画像および範囲共有撮像画像それぞれにおいて、色情報やエッジ情報に基づきこれら対象検出撮像画像および範囲共有撮像画像を領域に分割する。対応付け部321は、分割部322により分割されて生成された各領域を対象検出撮像画像および範囲共有撮像画像間で比較して、対応付けを行う。
The associating unit 321 includes a
切り出し部323は、検出部320で検出された検出対象の全体と、対応付け部321が対応付けた背景物体とを含む最小矩形の一定の割合の領域を含む矩形の画像である検出矩形画像を、対象検出撮像画像から切り出す。
The
検出情報生成部324は、切り出し部323において検出対象を含む検出矩形画像が切り出された場合に、対象検出撮像画像が撮像された位置を示す位置情報と、切り出された検出矩形画像とを含む検出情報を生成する。検出情報生成部324は、位置情報を取得部310から取得することができる。検出情報生成部324は、生成した検出情報を、表示情報生成部325に渡す。
The detection information generation unit 324 detects when the detection rectangular image including the detection target is cut out by the
表示情報生成部325は、例えば、周辺画像生成部311から渡された自車両周辺画像と、検出情報生成部324から渡された検出情報に含まれる検出矩形画像および位置情報とを提示するための表示情報を生成する。具体的には、表示情報生成部325は、自車両周辺画像と、検出矩形画像と、位置情報とを1つの画面上に配置した表示情報を生成する。
The display
図5は、第1の実施形態に係る画像処理部300aの処理を示す一例のフローチャートである。ステップS10で、画像処理部300aは、取得部310により、自車両20が走行中の道路10を複数の異なる方向から撮像した撮像画像と、撮像された位置を示す位置情報とを取得する。
FIG. 5 is a flowchart of an example showing processing of the image processing unit 300a according to the first embodiment. In step S10, the image processing unit 300a causes the
次のステップS11の処理と、ステップS12〜ステップS15の処理とは、並列的に実行することができる。これに限らず、ステップS11の処理を、ステップS12〜ステップS15処理中の任意の位置で実行してもよい。ステップS11で、画像処理部300aは、周辺画像生成部311により、ステップS10で取得部310が取得した各撮像画像および位置情報に基づき、自車両20の周辺の画像を、自車両20に対する自車両周辺画像として生成する。
The processing of the next step S11 and the processing of steps S12 to S15 can be executed in parallel. Not only this but the process of step S11 may be performed in the arbitrary positions in process of step S12-step S15. In step S11, the image processing unit 300a causes the surrounding
一方、ステップS12で、画像処理部300aは、検出部320により、ステップS10で取得部310が取得した各撮像画像から、歩行者などの検出対象の画像を検出する。次のステップS13で、画像処理部300aは、ステップS12の検出結果に基づき、各撮像画像に検出対象の画像が存在するか否かを判定する。
On the other hand, in step S12, the image processing unit 300a causes the
若し、ステップS13で存在しないと判定された場合、処理がステップS17に移行される。 If it is determined in step S13 that the information does not exist, the process proceeds to step S17.
一方、ステップS13で、画像処理部300aは、検出対象が存在する、すなわち、ステップS10で取得された各撮像画像に、検出対象の画像が含まれる対象検出撮像画像があると判定した場合、処理をステップS14に移行する。 On the other hand, in step S13, if the image processing unit 300a determines that the detection target is present, that is, each captured image acquired in step S10 includes the target detection captured image including the detection target image, the process is performed. In step S14.
ステップS14で、画像処理部300aは、対応付け部321により、ステップS12で、対象検出撮像画像と、ステップS10で取得した、自車両20に搭載された各カメラ3030、3030、…のうち当該対象検出撮像画像と撮像範囲を共有するカメラ3030が撮像した撮像画像である範囲共有撮像画像との間で、背景物体の対応付けを行う。
In step S14, the image processing unit 300a selects the target detection pickup image in step S12 by the association unit 321 and the
次のステップS15で、画像処理部300aは、切り出し部323により、ステップS12で検出された検出対象の全体と、ステップS14で対応付けられた背景物体とを含む最小矩形の一定の割合の領域を含む検出矩形画像を、対象検出撮像画像から切り出す。そして、次のステップS16で、画像処理部300aは、検出情報生成部324により、ステップS15で検出矩形画像が切り出された場合に、検出対象が検出された対象検出撮像画像が撮像された位置を示す位置情報と、切り出された検出矩形画像とを含む検出情報を生成する。
In the next step S15, the image processing unit 300a causes the
次のステップS17で、画像処理部300aは、表示情報生成部325により、ステップS11で周辺画像生成部311により生成された自車両周辺画像と、ステップS16で生成された検出情報とをユーザに提示するための表示情報を生成する。生成された表示情報は、表示制御部3007の制御に従い、表示装置3020により表示される。なお、上述のステップS13で各撮像画像に検出対象の画像が存在しないと判定されて処理がこのステップS17に移行した場合は、ステップS11で生成された自車両周辺画像のみを含む表示情報を生成することが考えられる。
In the next step S17, the image processing unit 300a causes the display
次に、上述の図5のフローチャートにおける各処理を、より詳細に説明する。以下では、検出対象を人物であるものとして説明する。なお、検出対象は、人物に限られない。例えば、自動車、自転車、自動二輪車などを検出対象としてもよいし、犬、猫といった動物を検出対象としてもよい。 Next, each process in the flowchart of FIG. 5 described above will be described in more detail. In the following, it is assumed that the detection target is a person. Note that the detection target is not limited to a person. For example, a car, a bicycle, a motorcycle, or the like may be detected, or an animal such as a dog or a cat may be detected.
図5のステップS10の、撮像画像および位置情報の取得処理について説明する。ステップS10で、取得部310は、他車両21に搭載された撮像装置31や、道路10の近傍に設置された撮像装置32などにより、自車両20が走行中の道路10を複数の異なる方向から撮像した撮像画像と、撮像した位置を示す位置情報とを取得する。また、取得部310は、自車両20に搭載された各カメラ3030、3030、…により撮像された各撮像画像と、位置情報取得部303により取得された位置情報とをさらに取得する。
An acquisition process of a captured image and position information in step S10 of FIG. 5 will be described. In step S10, the
取得部310が取得する撮像画像は、一般的には、可視光を撮像するカメラを用いて撮像された撮像画像を想定している。取得部310は、これに限らず、暗所を撮像可能な赤外線カメラを用いて撮像された撮像画像を取得してもよい。また、各撮像装置31および32の撮像方向は、特に限定されず、各撮像装置31および32が互いに異なる方向を撮像してもよい。一方、各撮像装置31および32は、自車両20に搭載されるカメラ3030、3030、…のうち1つ以上のカメラ3030と、撮像範囲を共有している必要がある。例えば、図6(a)〜図6(c)に例示されるように、同一の検出対象Aに対し、カメラ3030が正面から、撮像装置31が側面から、撮像装置32が背後から撮像してもよい。
Generally, the captured image acquired by the
図5のステップS11の、自車両周辺画像の生成処理について説明する。周辺画像生成部311は、ステップS10により取得部310が取得した各撮像画像を用いて自車両周辺画像を生成する。自車両周辺画像は、例えば、自車両20の周辺を俯瞰した俯瞰画像を用いることができる。少なくとも一部の撮像範囲を共有する、互いに異なる方向から撮像した複数の撮像画像を用いた俯瞰画像の生成は、各撮像画像をホモグラフィ変換した後に合成することで行える。
The process of generating the own vehicle peripheral image in step S11 of FIG. 5 will be described. The surrounding
各カメラ(カメラ3030、3030、…、撮像装置31および32)の位置情報は、ステップS10で取得部310により取得され、既知である。道路10の路面を平面と仮定すると,道路平面に対する各カメラの相対的な位置t(並進ベクトル)と姿勢R(回転行列)とが計算できる。道路平面上の点をM、対応する画像上の点をm、カメラの内部パラメータ行列をA、ホモグラフィ行列をHとすると,下記の式(1)が成り立つ。なお、式(1)において、H=A[r1 r2 t]である。
sm=HM …(1)
Position information of each camera (
sm = HM (1)
ここで、sは、スケール定数であり、r1およびr2は、それぞれ回転行列Rの第1列ベクトルと第2列ベクトルとを意味する。並進ベクトルtおよび回転行列Rは計算可能であり、カメラ内部パラメータ行列Aは、事前にカメラをキャリブレーションすることで既知となる。そのため、ホモグラフィ行列Hは、容易に計算できる。したがって、道路平面の法線方向を視線方向とする変換は、下記の式(2)により計算でき、これにより、各カメラによる撮像画像に基づく各俯瞰画像を作成できる。ここで、m’は変換後の画像上の点である。
m’=H−1m …(2)
Here, s is a scale constant, and r 1 and r 2 mean a first column vector and a second column vector of the rotation matrix R, respectively. The translation vector t and the rotation matrix R can be calculated, and the camera internal parameter matrix A becomes known by calibrating the camera in advance. Therefore, the homography matrix H can be easily calculated. Therefore, a conversion in which the normal direction of the road plane is the line of sight direction can be calculated by the following equation (2), and thereby, it is possible to create each overhead image based on the image captured by each camera. Here, m 'is a point on the image after conversion.
m ′ = H −1 m (2)
こうして作成された各カメラの各俯瞰画像を合成し、1枚の俯瞰画像を作成する。例えば、位置情報に基づき複数の俯瞰画像を重ね合わせることで合成してもよいし、各俯瞰画像中の色やテクスチャ、エッジなどの情報を用いて位置合わせを行い合成してもよい。 Each bird's-eye view image of each camera produced in this way is synthesize | combined, and one bird's-eye view image is produced. For example, combining may be performed by superimposing a plurality of overhead images based on position information, or alignment may be performed using information such as colors, textures, and edges in each overhead image and may be combined.
図5のステップS12の、検出対象の検出処理について説明する。検出部320は、ステップS10で取得部310が取得した、他車両21に搭載された撮像装置31や、道路10の近傍に設置された撮像装置32により撮像された各撮像画像から、検出対象である人物らしさを計測し、計測結果に対して閾値判定を行って、計測結果が人物および非人物の何れであるかを判定する。
The detection process of the detection target in step S12 of FIG. 5 will be described. The
より具体的には、検出部320は、図7に例示されるように、対象とする撮像画像である対象画像70に対して所定の大きさの検出窓領域71を設定する。そして、検出部320は、この検出窓領域71を対象画像70内で例えば水平方向に所定単位毎に移動させ、さらに、垂直方向に所定単位毎に移動させながら、検出窓領域71内の画像に対して特徴量を算出し、算出した特徴量に基づき、対象画像70に検出対象に対応する画像72が含まれているか否かを判定する。
More specifically, as illustrated in FIG. 7, the
図8は、第1の実施形態に適用可能な、検出部320による検出対象の検出処理の例を示すフローチャートである。図8において、検出部320は、ステップS20で、検出窓領域71内の画像から特徴量を算出する。例えば、検出部320は、特徴量として、検出窓領域71内の輝度の勾配と強度とをヒストグラム化したHOG(Histgrams of Oriented Gradients)特徴量を算出することが考えられる。
FIG. 8 is a flowchart illustrating an example of detection processing of a detection target by the
次のステップS21で、検出部320は、ステップS20で算出された特徴量に基づき、識別器を用いて人物らしさを示す評価値を算出する。識別器としては、例えば対象画像についてHOG特徴量により適切に学習されたSVM(Support Vector Machine)を適用することができる。評価値としては、例えば、ステップS20で算出された特徴量の、マージン最大化超平面に対する距離を用いることができる。
In the next step S21, the
また、非特許文献1に記載されるように、ステップS20で算出する特徴量を、HOG特徴量を識別性能の面で改良したCoHOG(Co-occurrence HOG)特徴量としてもよい。すなわち、ステップS20において、検出窓領域71内の画像から輝度の勾配の方向を計算し、算出された勾配の方向からCoHOG特徴量を算出する。そして、対象画像についてCoHOG特徴量により適切に学習されたSVMを用いて、算出されたCoHOG特徴量のマージン最大化超平面に対する距離を計算し、評価値とする。
In addition, as described in
次のステップS22で、検出部320は、ステップS21で算出された評価値を、閾値と比較する。次のステップS23で、検出部320は、ステップS22の比較結果に基づき、検出窓領域71内の画像が検出対象を含むか否か、すなわち、検出窓領域71内の画像が人物か、人物ではないか(非人物)を判定する。例えば、検出部320は、評価値が閾値を超える値である場合に、検出窓領域71内の画像が人物であると判定するものとする。検出部320は、判定の結果、検出窓領域71内の画像が非人物であると判定した場合、処理をステップS25に移行させる。
In the next step S22, the
検出部320は、ステップS23の判定の結果、検出窓領域71内の画像が検出対象すなわち人物であると判定した場合、処理をステップS24に移行させ、当該検出対象の対象画像70での位置をRAM3002などに記憶する。これに限らず、検出部320は、人物の画像を含むと判定された検出窓領域71の実現する対象画像70内での位置を記憶しておくようにしてもよい。検出部320は、検出対象の位置を記憶すると、処理をステップS25に移行させる。
If the
検出部320は、ステップS25で、対象とする撮像画像70内の全領域について処理が終了したか否かを判定する。処理が終了したと判定した場合、当該撮像画像70に対する図8のフローチャートによる一連の処理が終了される。一方、検出部320は、ステップS25で、処理が終了していないと判定した場合、処理をステップS26に移行させ、検出窓領域71を対象画像70上で移動させる。そして、処理をステップS20に戻し、次の撮像画像に対する処理を開始する。
In step S25, the
図5のステップS14の、背景物体の探索処理について説明する。対応付け部321は、検出部320によって検出対象が検出された撮像画像である対象検出撮像画像と、自車両20に搭載されたカメラ3030、3030、…のうち対象検出撮像画像と撮像範囲の少なくとも一部を共有するカメラ3030が撮像した範囲共有撮像画像において、対象検出撮像画像上で検出対象の周囲一定領域内にある、検出対象とは異なる物体である背景物体の画像と、範囲共有撮像画像中の物体の画像との対応付けを行う。
The background object search process in step S14 of FIG. 5 will be described. The association unit 321 is a target detection pickup image which is a pickup image of which a detection target is detected by the
図9を用いて、より具体的な例を挙げて説明する。なお、図9において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。一例として、図9(a)に示されるように、対向車である他車両21と自車両20との間に、他車両22が駐車しており、自車両20から見て、駐車中の他車両22の後ろに歩行者23が存在する状況を考える。さらに、図9(a)の例では、自車両20と同車線を走行する他車両24が存在し、道路10の自車両20から見て左側の近傍に、標識12が設置されている。
A more specific example is given and demonstrated using FIG. In FIG. 9, the same parts as those in FIG. 1 described above are denoted by the same reference numerals, and the detailed description will be omitted. As an example, as shown in FIG. 9A, the
この状況において、図9(b)に示されるように、他車両21に搭載された撮像装置31が撮像した撮像画像41’に、歩行者23の画像が含まれ、さらに、歩行者23の背後に、駐車中の他車両22の画像が含まれるものとする。また、図9(c)に示されるように、自車両20に搭載された各カメラ3030、3030、…のうち、撮像装置31と撮像範囲を共有するカメラ3030により撮像した撮像画像40’には、駐車中の他車両22の画像が含まれるが、自車両20から見て他車両22の背後に存在する歩行者23の画像は含まれない。
In this situation, as shown in FIG. 9B, the captured
この場合において、第1の実施形態に係る対応付け部321は、撮像画像41’に含まれる、検出部320が撮像画像41’から検出した検出対象(歩行者23の画像)の周辺に写る駐車中の他車両22の画像と、自車両20に搭載される、対向車である他車両21に搭載される撮像装置31と撮像範囲を共有するカメラ3030により撮像した撮像画像40’に含まれる、他車両22の画像とを対応付ける。
In this case, the associating unit 321 according to the first embodiment is a parking included in the captured
図10は、第1の実施形態に係る、対応付け部321による撮像画像間での画像の対応付けの処理を示す一例のフローチャートである。ステップS30で、対応付け部321は、検出対象の画像が含まれる撮像画像41’(対象検出撮像画像41’と呼ぶ)の、検出対象の周囲の一定領域の画像と、自車両20に搭載された、当該撮像画像41’と撮像範囲を共有するカメラ3030で撮像された撮像画像40’(範囲共有撮像画像40’とする)の全体とを取得する。
FIG. 10 is a flowchart of an example showing processing of image association between captured images by the associating unit 321 according to the first embodiment. In step S30, the associating unit 321 is mounted on an image of a predetermined area around the detection target of the captured
図11を用いて、第1の実施形態に係る、検出対象の周囲の一定領域の設定方法について、概略的に説明する。なお、図11において、上述した図9と共通する部分には同一の符号を付して、詳細な説明を省略する。対象検出撮像画像41’において、検出対象である歩行者23の画像を含む最小の矩形画像である検出対象矩形画像101を設定する。この検出対象矩形画像101の周囲の一定の大きさの領域100を、対象検出撮像画像41’における背景物体の探索範囲として取得する。なお、図11の例では、領域100は、下端側の一部が対象検出撮像画像41’の下端からはみ出ている。
A method of setting a predetermined area around a detection target according to the first embodiment will be schematically described with reference to FIG. In FIG. 11, the same reference numerals are given to the parts common to those in FIG. 9 described above, and the detailed description will be omitted. In the target
例えば、検出対象矩形画像101の大きさを幅w0、高さh0とし、領域100の大きさを幅wd=p×w0、高さhd=q×h0とする。なお、値pおよびqは、それぞれ1より大きな値である。図11の例では、値p≒5、値q≒3としている。一例として、値pおよびqを、それぞれ2乃至10程度の範囲の値とし、幅wdおよび高さhdのうち一方を基準として、領域100の形状が正方形、または、幅および高さが所定の比率の矩形となるように設定することが考えられる。
For example, the size of the detection target
ステップS31で、対応付け部321は、ステップS30で取得した範囲共有撮像画像40’と領域100とを、それぞれ所定に分割する。より詳細には、対応付け部321は、分割部322を含み、分割部322は、範囲共有撮像画像40’および領域100を、色情報やエッジ情報に基づき分割する。図12を用いて、第1の実施形態に係る分割部322による分割処理について説明する。なお、図12において、上述した図9および図11と共通する部分には同一の符号を付して、詳細な説明を省略する。
In step S <b> 31, the associating unit 321 divides the range sharing captured
図12(a)は、範囲共有撮像画像40’に対する分割処理の例を示す。分割部322は、範囲共有撮像画像40’における各画素の色情報を取得すると共に、範囲共有撮像画像40’に対してエッジ検出を行いエッジ情報を取得する。エッジ検出は、既存のエッジ検出の手法を適用することができる。図12(a)の例では、分割部322は、範囲共有撮像画像40’に対して、色情報およびエッジ情報に基づき、道路10の路面に対応する領域50aと、他車両21、22および24にそれぞれ対応する領域50b、50cおよび50dとを検出している。分割部322は、検出した各領域50a〜50dを、範囲共有撮像画像40’からの分割領域として取得する。
FIG. 12A shows an example of division processing for the range sharing captured
図12(b)は、対象検出撮像画像41’における背景の探索範囲である領域100に対する分割処理の例を示す。分割部322は、上述と同様にして、領域100に対して各画素の色情報を取得すると共に、エッジ検出を行いエッジ情報を取得する。分割部322は、取得した領域100における色情報およびエッジ情報に基づき、道路10の路面に対応する領域51aと、他車両22に対応する領域51bと検出し、検出したこれら領域51aおよび51bを、背景探索範囲の領域100からの分割領域として取得する。
FIG. 12B shows an example of division processing for the
なお、道路10の路面に対応する領域50aおよび51aの検出は、他の背景物体の検出とは異なる方法を用いることができる。例えば、分割部322は、色(テクスチャ)情報に基づき路面を検出することができる。また、分割部322は、カメラの設置角度などが既知であれば、対象検出撮像画像41’内での位置、すなわち、対象検出撮像画像41’の下側の所定範囲を路面であるとして検出できる。対応付け部321は、道路10の路面であるとして検出された領域50aおよび51aに対して、道路であることを示す属性情報を付加する。
In addition, the detection of area |
また、例えば図12(a)における領域50cのように、対応する物体の前後関係によっては、本来の物体の形状とは大きく異る形状で分割領域が取得されてしまう可能性がある。例えば、分割部322は、エッジ情報に基づき元の形状を推測し、推測された形状を分割領域として取得することが考えられる。
Further, for example, as in a
次のステップS32で、対応付け部321は、範囲共有撮像画像40’と、対象検出撮像画像41’における領域100との間で、分割された領域毎に特徴量を求め、各特徴量に基づき類似度を算出する。図12(a)および図12(b)の例では、対応付け部321は、図12(a)に示す範囲共有撮像画像40’において取得した各領域50a〜50dと、図12(b)に示す対象検出撮像画像41’内の領域100において取得した各領域51aおよび51bとの間で、それぞれ類似度を算出する。
In the next step S32, the associating unit 321 obtains a feature amount for each divided region between the range sharing captured
各領域の特徴量としては、各領域の画素毎の色情報や、エッジ情報を用いることができる。また、各領域のテクスチャを特徴量として用いることもできる。特徴量間の類似度は、特徴量間のL1ノルムやバタチャリア(Bhattacharyya)距離を用いて求めることができる。 As the feature amount of each region, color information for each pixel of each region or edge information can be used. Moreover, the texture of each area can also be used as a feature quantity. The similarity between feature quantities can be determined using the L1 norm between feature quantities or the Bhattacharyya distance.
さらに、対応付け部321は、比較する2つの特徴量を1つに纏めて識別器で識別した出力結果に基づき、対応付けを行ってもよい。識別器は、例えばSVM(Support Vector Machine)を用いることができる。対応付け部321は、例えば、1つの領域の第1の特徴量に対して、第1の特徴量と、複数の領域による各第2の特徴量の類似度をそれぞれ算出し、算出した類似度が最大の組み合わせとなる第2の特徴量が第1の特徴量に対応付けられると判定することができる。これに限らず、対応付け部321は、類似度が閾値以上となる特徴量の組み合わせが対応付くと判定してもよい。 Furthermore, the associating unit 321 may associate the two feature quantities to be compared on the basis of an output result obtained by grouping the two feature quantities into one and identifying them using a classifier. The discriminator can use, for example, a SVM (Support Vector Machine). The associating unit 321 calculates, for example, the degree of similarity between the first feature amount and each of the second feature amounts of the plurality of regions with respect to the first feature amount of one region. It can be determined that the second feature that is the largest combination is associated with the first feature. Not only this but the matching part 321 may determine that the combination of the feature-value in which a similarity degree becomes more than a threshold value corresponds.
なお、道路10に対応して分割された領域50aおよび51aは、類似度の算出から除外するのが好ましい。この場合、対応付け部321は、対象検出撮像画像41’内の領域100において取得した領域51bと、範囲共有撮像画像40’において取得した領域50a〜50dそれぞれとの類似度を算出することになる。
In addition, it is preferable to exclude area |
次のステップS33で、対応付け部321は、ステップS32で算出された各類似度のうち、最大の類似度を求め、最大の類似度が算出された範囲共有撮像画像40’内の分割領域と、領域100内の分割領域とのペアを検出する。図12(a)および図12(b)の例では、範囲共有撮像画像40’において分割された領域50dと、対象検出撮像画像41’内の領域において分割された領域51bとのペアが、最大の類似度が算出された領域のペアであるものとする。
In the next step S33, the associating unit 321 obtains the maximum similarity among the respective degrees of similarity calculated in step S32, and the divided regions in the range sharing captured
次のステップS34で、対応付け部321は、ステップS33で検出された領域ペアに基づき、検出対象に対する背景物体を決定する。図12(b)の例では、領域51bに対応する物体(この例では他車両22)が背景物体とされ、領域51bが背景物体領域とされる。
In the next step S34, the associating unit 321 determines a background object for the detection target based on the area pair detected in step S33. In the example of FIG. 12B, an object corresponding to the
なお、上述では、ステップS33で、各類似度のうち最大の類似度に対応する領域のペアを検出しているが、これはこの例に限定されず、対応付け部321は、領域のペアを複数検出してもよい。例えば、対応付け部321は、ステップS32で算出された各類似度のうち最大の類似度に対して所定に範囲を設定し、当該最大の類似度と、設定した範囲内に含まれる類似度とを求め、これら複数の類似度にそれぞれ対応する、複数の領域のペアを検出することが考えられる。 In the above description, in step S33, the pair of areas corresponding to the largest similarity among the respective similarities is detected, but this is not limited to this example, and the associating unit 321 detects the pair of areas. Multiple detections may be made. For example, the associating unit 321 sets a predetermined range for the maximum similarity among the respective degrees of similarity calculated in step S32, and the maximum similarity and the similarity included in the set range. It is conceivable to detect a plurality of pairs of regions respectively corresponding to the plurality of similarities.
次に、図5のステップS15の、第1の実施形態に係る、検出対象と背景物体とを、検出矩形画像として切り出す切り出し処理について、図13のフローチャートと、図14〜図18とを用いて説明する。なお、図14〜図18において、上述した図9および図11と共通する部分には同一の符号を付して、詳細な説明を省略する。切り出し部323は、検出部320で検出された検出対象矩形画像101の全体と、対応付け部321により取得された背景物体領域の画像とを含む最小矩形の一定の割合の領域を含む矩形を検出矩形画像として切り出す。
Next, the clipping process of clipping out the detection target and the background object as a detection rectangular image according to the first embodiment of step S15 of FIG. 5 will be described using the flowchart of FIG. 13 and FIGS. explain. In FIG. 14 to FIG. 18, the same reference numerals are given to parts common to FIG. 9 and FIG. 11 described above, and detailed description will be omitted. The
図13のフローチャートにおいて、ステップS60で、切り出し部323は、検出対象が検出された対象検出撮像画像41’を取得する。また、切り出し部323は、図5のステップS14で対応付け部321により取得された背景物体領域の画像と、検出対象矩形画像101とを取得する。切り出し部323は、ステップS14にて複数の背景物体領域の画像が取得された場合には、この複数の背景物体領域の画像を全て取得する。
In the flowchart of FIG. 13, in step S <b> 60, the
次のステップS61で、切り出し部323は、対象検出撮像画像41’において、検出対象矩形画像101の周辺の所定範囲内に、背景物体領域が存在するか否かを判定する。切り出し部323は、図5のステップS14で背景物体を探索する際に設定した探索範囲の領域100を、背景物体領域の存在の有無を判定する所定範囲とすることができる。これに限らず、領域100よりも狭い範囲を当該所定範囲としてもよい。切り出し部323は、当該所定範囲内に背景物体領域が存在しないと判定した場合、処理をステップS62に移行させる。
In the next step S61, the
ステップS62で、切り出し部323は、検出対象矩形画像101を中心に、一定範囲の領域を切り出す。図14は、検出対象矩形画像101の周辺の所定範囲(この例では領域100)に背景物体領域が存在しない例を示す。この場合、切り出し部323は、検出対象矩形画像101を中心として一定範囲の領域120aを、検出矩形画像として対象検出撮像画像41’から切り出す。領域120aの切り出しが行われると、図13のフローチャートによる一連の処理が終了される。
In step S62, the
切り出し部323は、切り出した領域120aの画像をRAM3002などに記憶させてもよいし、領域120aの座標と、切り出しを行った対象検出撮像画像41’を識別する情報とをRAM3002などに記憶させてもよい。領域120aのサイズは、検出対象矩形画像101と同じ大きさでもよいし、検出対象矩形画像101よりも多少大きなサイズ、例えば検出対象矩形画像101に対して幅および高さが1.2倍程度などであってもよい。適切なサイズは、実験的に決定する事ができる。
The
切り出し部323は、ステップS61で、検出対象矩形画像101の周辺の所定範囲内に背景物体領域が存在すると判定した場合、処理をステップS63に移行させる。ステップS63で、切り出し部323は、検出対象矩形画像101の周辺の所定範囲内に存在する背景物体領域が1個であるか否かを判定する。切り出し部323は、当該所定領域内に複数の背景物体領域が存在すると判定した場合、処理をステップS64に移行させる。
If it is determined in step S61 that the background object region is present within a predetermined range around the detection target
ステップS64で、切り出し部323は、当該所定領域内に存在する複数の背景物体領域のうち、対象検出撮像画像41’上で検出対象矩形画像101との距離が最も近い背景物体領域を含む矩形の一定の割合の領域を含む矩形と、検出対象矩形画像101とを含むように切り出す。
In step S64, the
図15は、検出対象矩形画像101の周辺の所定範囲(領域100)に複数の背景物体領域102aおよび102bが存在する例を示す。この例では、草花13の画像を含む領域と、標識12の画像を含む領域とが、それぞれ背景物体領域102aおよび102bとして取得されている。図15において、検出対象矩形画像101の重心と、背景物体領域102aおよび102bそれぞれの重心との間の距離を求めると、背景物体領域102aの方が、背景物体領域102bよりも検出対象矩形画像101に近いことが分かる。そのため、切り出し部323は、背景物体領域102aを切り出し対象の背景物体領域として特定して、処理をステップS65に移行させる。
FIG. 15 shows an example in which a plurality of
なお、検出対象矩形画像101と、背景物体領域102aおよび102bとの距離は、重心を用いて求める例に限定されない。切り出し部323は、例えば検出対象矩形画像101と、背景物体領域102aおよび102bそれぞれの中心位置や、頂点、エッジなどに基づき距離を求めてもよい。
Note that the distance between the detection target
上述したステップS63で、切り出し部323は、検出対象矩形画像101の周辺の所定範囲内に存在する背景物体領域が1個であると判定した場合、当該背景物体領域を切り出し対象の背景物体領域として特定して、処理をステップS65に移行させる。
If it is determined in step S63 described above that the
ステップS65で、切り出し部323は、ステップS63またはステップS64で切り出し対象として特定された背景物体領域と検出対象矩形画像101とを比較し、背景物体領域が検出対象矩形画像101よりも大きいか否かを判定する。
In step S65, the
切り出し部323は、背景物体領域と検出対象矩形画像101との比較の結果、背景物体領域を含む最小矩形の高さおよび幅が、それぞれ検出対象矩形画像101の高さおよび幅に対して、所定の割合よりも小さい場合に、背景物体領域が検出対象矩形画像101よりも小さいと判定する。切り出し部323は、背景物体領域が検出対象矩形画像101よりも小さいと判定した場合、処理をステップS66に移行させる。
As a result of comparison between the background object region and the detection target
ステップS66で、切り出し部323は、背景物体領域と検出対象矩形画像101とを含む矩形を切り出す。図16は、背景物体領域が検出対象矩形画像101よりも小さい場合の例を示す。図16の例では、背景物体領域102aの幅および高さが、検出対象矩形画像101の幅および高さよりも小さい。そのため、切り出し部323は、背景物体領域102aと検出対象矩形画像101とを含む矩形の領域120cを、検出矩形画像として対象検出撮像画像41’から切り出す。領域120cの切り出しが行われると、図13のフローチャートによる一連の処理が終了される。
In step S66, the
ステップS65で、切り出し部323は、背景物体領域が検出対象矩形画像101よりも大きいと判定した場合、処理をステップS67に移行させる。例えば、切り出し部323は、背景物体領域102aおよび検出対象矩形画像101の幅および高さのうち少なくとも一方が、背景物体領域102aの方が大きい場合に、背景物体領域が検出対象矩形画像101よりも大きいと判定する。
If it is determined in step S65 that the background object region is larger than the detection target
ステップS67で、切り出し部323は、対象検出撮像画像41’において道路10の路面を推定し、背景物体領域に示される背景物体が路面上の物体か否かを判定する。例えば、切り出し部323は、図10のフローチャートのステップS31で、対象検出撮像画像41’において分割された路面の領域51aに基づき、背景物体が路面上の物体であるか否かを判定することができる。これに限らず、このステップS67の時点で上述と同様にして路面の領域を検出してもよい。切り出し部323は、例えば背景物体領域の底辺が路面の領域内に含まれる場合に、背景物体が路面上の物体であると判定できる。
In step S67, the
切り出し部323は、ステップS67で、背景物体領域に示される背景物体が路面上の物体ではないと判定した場合、処理をステップS68に移行させる。ステップS68で、切り出し部323は、背景物体領域を含む最小矩形の、対象検出撮像画像41’上における垂直方向において、検出対象矩形画像101の画像上の位置と近い側の矩形の1辺から一定の割合の領域と、検出対象矩形画像101の全体とを含む矩形を切り出す。
If it is determined in step S67 that the background object indicated in the background object region is not an object on the road surface, the
図17は、背景物体領域に示される背景物体が路面上の物体ではない場合の例を示す。図17において、背景物体領域102cを含む最小矩形は、この例では背景物体領域102cと同一となっており、幅が検出対象矩形画像101の幅よりも大きい。そのため、背景物体領域102cが検出対象矩形画像101よりも大きいと判定できる。また、背景物体領域102cの底辺は、画像上で路面の領域に含まれないので、背景物体が路面上の物体ではないと判定できる。
FIG. 17 shows an example where the background object shown in the background object area is not an object on the road surface. In FIG. 17, the minimum rectangle including the
さらに、図17において、検出対象矩形画像101の画像上の位置と垂直方向に向けて近い背景物体領域102cの1辺は、当該背景物体領域102cの底辺となる。したがって、切り出し部323は、検出対象矩形画像101の全体と、背景物体領域102cの一定の割合の領域とを含む矩形の領域120dを、検出矩形画像として対象検出撮像画像41’から切り出す。
Further, in FIG. 17, one side of the
図17の例では、領域120dは、背景物体領域102cの幅全体を含み、高さは、8割程度を含んでいる。これはこの例に限定されず、領域120dは、背景物体領域102cの全体を含んでもよいし、背景物体領域102cの幅および高さの所定割合までを含んでいてもよい。領域120dの切り出しが行われると、図13のフローチャートによる一連の処理が終了される。
In the example of FIG. 17, the
切り出し部323は、ステップS67で、背景物体領域に示される背景物体が路面上の物体であると判定した場合、処理をステップS69に移行させる。ステップS69で、切り出し部323は、背景物体領域を含む最小矩形の、対象検出撮像画像41’上における水平方向において、検出対象矩形画像101の画像上の位置と近い側の矩形の1辺から一定の割合の領域と、検出対象矩形画像101の全体とを含む矩形を切り出す。
If the
図18は、背景物体領域に示される背景物体が路面上の物体である場合の例を示す。図18において、背景物体領域102eを含む最小矩形は、この例では背景物体領域102eと同一となっており、幅および高さが検出対象矩形画像101の幅および高さよりそれぞれ大きい。そのため、背景物体領域102eが検出対象矩形画像101よりも大きいと判定できる。また、背景物体領域102eの底辺は、画像上で路面の領域に含まれるので、背景物体が路面上の物体であると判定できる。
FIG. 18 shows an example where the background object shown in the background object area is an object on the road surface. In FIG. 18, the minimum rectangle including the
さらに、検出対象矩形画像101の画像上の位置と水平方向に向けて近い背景物体領域102bの1辺は、当該背景物体領域102eの右辺となる。したがって、切り出し部323は、検出対象矩形画像101の全体と、背景物体領域102eの一定の割合の領域とを含む矩形の領域120fを、検出矩形画像として対象検出撮像画像41’から切り出す。
Furthermore, one side of the
図18の例では、領域120fは、背景物体領域102eの高さ全体を含み、幅は、8割程度を含んでいる。これはこの例に限定されず、領域120fは、背景物体領域102eの全体を含んでもよいし、背景物体領域102eの幅および高さの所定割合までを含んでいてもよい。領域120fの切り出しが行われると、図13のフローチャートによる一連の処理が終了される。
In the example of FIG. 18, the
次に、図5のステップS16の検出情報の生成処理について説明する。ステップS16で、検出情報生成部324は、取得部310から、検出対象矩形画像101が撮像された位置を示す位置情報を取得する。そして、検出情報生成部324は、取得した位置情報と、ステップS15で対象検出撮像画像41’から切り出された検出矩形画像とを含む検出情報を生成する。
Next, the process of generating detection information in step S16 of FIG. 5 will be described. In step S16, the detection information generation unit 324 acquires, from the
次に、図5のステップS17の、表示情報の生成処理について説明する。ステップS17で、表示情報生成部325は、ステップS11で周辺画像生成部311が生成した自車両周辺画像と、ステップS16で検出情報生成部324が生成した検出情報とに基づき、ユーザに提示するための表示画面を示す表示情報を生成する。
Next, the process of generating display information in step S17 of FIG. 5 will be described. In step S17, the display
図19(a)および図19(b)は、第1の実施形態に係る、表示情報に基づき表示装置3020に表示される表示画像の例を示す。なお、図19(a)および図19(b)において、上述した図9および図11、図14〜図18と共通する部分には同一の符号を付して、詳細な説明を省略する。 FIG. 19A and FIG. 19B show examples of display images displayed on the display device 3020 based on display information according to the first embodiment. In FIGS. 19 (a) and 19 (b), the same parts as those in FIGS. 9 and 11 and FIGS. 14 to 18 described above are denoted by the same reference numerals, and detailed description will be omitted.
表示情報生成部325は、検出情報に含まれる検出矩形画像と自車両周辺画像とを含む表示画面を示す表示情報を生成する。このとき、表示情報生成部325は、検出矩形画像を、自車両周辺画像上または自車両周辺画像の周辺の、検出情報に含まれる位置情報に応じた位置に、位置情報と共に配置する。
The display
このとき、表示情報生成部325は、検出矩形画像に含まれる検出対象の画像が含まれる対象検出撮像画像を撮像した位置に応じて、検出矩形画像を自車両周辺画像の左右の何れに配置するかを決める。例えば、検出対象が検出された対象検出撮像画像41’を撮像した位置が、自車両20が走行する自車線の領域に含まれる場合、当該検出対象の画像を含む検出矩形画像を、図19(a)に例示されるように、自車両周辺画像の自車線側(左側)に配置する。
At this time, the display
図19(a)において、表示装置3020に表示される表示画面3060に対し、右側に自車両周辺画像3062が配置され、自車両周辺画像3062の左側に、検出矩形画像3061が配置されている。ここで、表示画面3060に表示される自車両周辺画像3062に対し、センターライン14が示され、自車両20および他車両24が左側車線を走行している様子が示されている。また、自車両周辺画像3062に対し、自車両20から見て他車両24の陰に歩行者23が存在し、歩行者23の近傍に標識12が設置されている様子が示されている。さらに、自車両周辺画像3062に対し、自車両20のカメラ3030の位置と、カメラ3030による撮像範囲40とが示されると共に、自車両20を特定するための情報(例えばラベル「自車両」)が示されている。
In FIG. 19 (a), on the
ここで、歩行者23の姿は、自車両20からは、自車両20の前方を走行する他車両24に隠されてしまい、見ることができない。自車両周辺画像3062は、上述したように、周辺画像生成部311により、互いに異なる方向から撮像した複数の撮像画像を合成した俯瞰画像として生成されている。そのため、自車両20の運転者は、図19(a)に示す自車両周辺画像3062では、画像の歪みにより歩行者23および標識12の存在を認識することが困難である場合がある。
Here, the figure of the
一方、表示画面3060に表示される検出矩形画像3061は、1つの対象検出撮像画像41’から切り出すことで作成されている。そのため、自車両20の運転者は、検出矩形画像3061から、検出対象の歩行者23と、検出対象に対して背景物体である標識12とを容易に認識することができる。さらに、検出矩形画像3061には、自車両20から認識可能な背景物体(この例では標識12)の画像が含まれるため、自車両20の運転者は、歩行者23との位置関係を容易に把握することが可能である。
On the other hand, the detection
表示画面3060に対して、検出矩形画像3061と自車両周辺画像3062との関連を示す表示3063を表示させると、歩行者23の位置をより容易に把握でき、好ましい。
If a
図19(b)は、検出対象が検出された対象検出撮像画像41’を撮像した位置が、自車両20に対して対向車線の領域に含まれる場合の表示画面3060の例を示す。図19(b)の例では、当該検出対象の画像を含む検出矩形画像3061’を、自車両周辺画像3062’の対向車線側(右側)に配置する。
FIG. 19B shows an example of the
図19(a)および図19(b)のように、検出矩形画像3061および3061’を、自車両周辺画像3062および3062’に対して、検出対象の画像が撮像された車線側に配置することで、自車両20の運転者は、検出対象(歩行者23)の位置を、より直感的に認識することが可能となる。
As shown in FIGS. 19 (a) and 19 (b), the detected
ここで、図19(b)において、表示画面3060に表示される自車両周辺画像3062’に対し、センターライン14が示され、自車両20および他車両24が左側車線を走行し、右側車線に他車両21および22が存在する様子が示されている。また、自車両周辺画像3062’は、他車両22の近傍に状態を示すラベル「駐車中」が配置され、他車両22が現在駐車中であることが示されている。
Here, in FIG. 19 (b), the
さらに、自車両周辺画像3062’に対し、自車両20から見て他車両22の陰に歩行者23が存在する様子が示されている。さらに、自車両周辺画像3062’に対し、自車両20のカメラ3030の位置およびカメラ3030による撮像範囲40と、他車両21の撮像装置31の位置および撮像装置31による撮像範囲41とが示されている。
Furthermore, it is shown that the
一方、図19(b)において、検出矩形画像3061’は、自車両20に対して対向車線を走行する他車両21から撮像した対象検出撮像画像41’から切り出されているため、自車両20から見た場合に対して、左右が逆になっている。そのため、表示情報生成部325は、検出情報生成部324から取得した検出情報に含まれる検出矩形画像の左右を反転した画像を生成し、この左右反転画像を、検出矩形画像3061’として、表示画面3060に配置する。
On the other hand, in FIG. 19B, the detection
図19(b)の例においても、検出矩形画像3061’には、自車両20から認識可能な背景物体(この例では他車両22)の画像が含まれるため、自車両20の運転者は、歩行者23との位置関係を容易に把握することが可能である。
Also in the example of FIG. 19B, the detected
(第2の実施形態)
次に、第2の実施形態について説明する。図20は、第2の実施形態に係る画像処理部の機能を説明するための機能ブロック図である。なお、第2の実施形態では、図1および図2を用いて説明した画像処理システムの構成と、運転支援装置30のハードウェア構成とをそのまま適用できるので、これらのここでの説明を省略する。また、図20において、上述した図4と共通する部分には同一の符号を付して、詳細な説明を省略する。
Second Embodiment
Next, a second embodiment will be described. FIG. 20 is a functional block diagram for explaining the function of the image processing unit according to the second embodiment. In the second embodiment, since the configuration of the image processing system described with reference to FIGS. 1 and 2 and the hardware configuration of the driving
図20に示されるように、第2の実施形態に係る画像処理部300bにおいて、対応付け部321aは、図4で説明した第1の実施形態に係る対応付け部321が含む分割部322に代えて、物体検出部330を含む。物体検出部330は、検出部320で検出対象が検出された対象検出撮像画像41’の当該検出対象の画像の周囲一定領域内から、背景物体の画像を検出する。
As shown in FIG. 20, in the image processing unit 300b according to the second embodiment, the association unit 321a replaces the
図21は、第2の実施形態に係る画像処理部300bにおける、背景物体検出処理を示す一例のフローチャートである。この図21のフローチャートによる処理は、上述した図5のフローチャートにおけるステップS14の処理、および、図10のフローチャートによる処理に対応するものである。 FIG. 21 is a flowchart of an example illustrating background object detection processing in the image processing unit 300 b according to the second embodiment. The process of the flowchart of FIG. 21 corresponds to the process of step S14 in the flowchart of FIG. 5 described above and the process of the flowchart of FIG.
ステップS40で、対応付け部321aは、検出対象の画像が含まれる撮像画像41’(対象検出撮像画像41’と呼ぶ)の、検出対象の周囲の一定の範囲の領域100(図11参照)の画像と、自車両20に搭載された、当該撮像画像41’と撮像範囲を共有するカメラ3030で撮像された撮像画像40’(範囲共有撮像画像40’と呼ぶ)の全体とを取得する。
In step S40, the associating unit 321a sets the region 100 (see FIG. 11) around the detection target in the captured
ステップS41で、対応付け部321aは、物体検出部330において、ステップS40で取得した対象検出撮像画像41’における領域100に対して背景物体の検出を行う。また、次のステップS42で、対応付け部321aは、物体検出部330において、ステップS40で取得した範囲共有撮像画像40’から背景物体の検出を行う。
In step S41, the association unit 321a causes the object detection unit 330 to detect a background object with respect to the
ステップS41およびステップS42の背景物体の検出処理は、例えば、上述した非特許文献1に開示されている技術を適用することができる。すなわち、物体検出部330は、複数種類の背景物体のそれぞれに特化した複数種類の検出器を作成し、これら複数種類の検出器を用いて領域100および範囲共有撮像画像40’からそれぞれ背景物体の領域および当該領域の画像内での位置を検出する。
For example, the technology disclosed in
例えば、車両、道路標識、動物、看板など、さらに詳細な、軽自動車、トラック、バス、案内標識、指示標識、補助標識、規制標識、警戒標識、犬、猫、店舗看板など複数種類の背景物体にそれぞれ特化した複数種類の検出器を予め作成する。物体検出部330は、これら複数種類の検出器を用いて、各種類の背景物体をそれぞれ検出する。 For example, multiple types of background objects such as vehicles, road signs, animals, signs, etc., and more detailed mini cars, trucks, buses, information signs, instruction signs, supplementary signs, regulation signs, warning signs, dogs, cats, store signs, etc. A plurality of types of detectors specialized for each are created in advance. The object detection unit 330 detects each type of background object using the plurality of types of detectors.
これに限らず、物体検出部330は、例えば特許文献2に開示される技術を用い、予め定めた複数種類の背景物体を1つの識別器を用いて学習し、領域100内および範囲共有撮像画像40’内の特徴量が、学習した複数種類の背景物体のうちどの背景物体の特徴量に近いかを識別してもよい。
The object detection unit 330 is not limited to this, and learns a plurality of predetermined types of background objects using one identifier using, for example, the technology disclosed in
次のステップS43で、対応付け部321aは、ステップS41で領域100から検出された各背景物体の領域と、ステップS42で範囲共有撮像画像40’から検出された各背景物体の領域との類似度を、それぞれの画像の特徴量に基づき算出する。そして、対応付け部321aは、領域100から検出された各背景物体の領域と、範囲共有撮像画像40’から検出された各背景物体の領域との間で、類似度が最大となる領域のペアを検出する。そして、次のステップS44で、対応付け部321aは、ステップS43で検出された領域ペアに基づき、検出対象に対する背景物体を決定する。
In the next step S43, the associating unit 321a calculates the similarity between the area of each background object detected from the
第2の実施形態では、検出物体に対する背景物体を、検出器を用いて検出することで、背景物体の画像の位置や領域をより正確に求めることができ、検出矩形画像の切り出しをより高精度に実行できる。 In the second embodiment, by detecting the background object with respect to the detected object using the detector, the position and the area of the image of the background object can be determined more accurately, and the detection rectangle image is extracted with higher accuracy. Can be
(第3の実施形態)
次に、第3の実施形態について説明する。図22は、第3の実施形態に係る画像処理部の機能を説明するための機能ブロック図である。なお、第3の実施形態では、図1および図2を用いて説明した画像処理システムの構成と、運転支援装置30のハードウェア構成とをそのまま適用できるので、ここでの説明を省略する。また、図22において、上述した図4および図20と共通する部分には同一の符号を付して、詳細な説明を省略する。
Third Embodiment
Next, a third embodiment will be described. FIG. 22 is a functional block diagram for explaining the function of the image processing unit according to the third embodiment. In the third embodiment, the configuration of the image processing system described with reference to FIGS. 1 and 2 and the hardware configuration of the driving
図22に示されるように、第3の実施形態に係る画像処理部300cにおいて、対応付け部321bは、図4で説明した第1の実施形態に係る対応付け部321が含む分割部322と、図20で説明した第2の実施形態に係る対応付け部321aが含む物体検出部330とを共に含む。
As illustrated in FIG. 22, in the image processing unit 300c according to the third embodiment, the associating unit 321b includes the
図23は、第3の実施形態に係る画像処理部300cにおける、背景物体検出処理を示す一例のフローチャートである。この図23のフローチャートによる処理は、上述した図5のフローチャートにおけるステップS14の処理、および、図10のフローチャートによる処理に対応するものである。 FIG. 23 is a flowchart of an example illustrating background object detection processing in the image processing unit 300c according to the third embodiment. The process of the flowchart of FIG. 23 corresponds to the process of step S14 in the flowchart of FIG. 5 described above and the process of the flowchart of FIG.
ステップS50で、対応付け部321bは、検出対象の画像が含まれる対象検出撮像画像41’の、検出対象の周囲の一定領域100(図11参照)の画像と、自車両20に搭載された、当該撮像画像41’と撮像範囲を共有するカメラ3030で撮像された範囲共有撮像画像40’の全体とを取得する。
In step S50, the associating unit 321b is mounted on the
次のステップS51で、対応付け部321bは、分割部322および物体検出330とを用いて、範囲共有撮像画像40’と、対象検出撮像画像41’における領域100とから背景物体の画像を検出する。このとき、対応付け部321bは、分割部322による、画像の色情報およびエッジ情報に基づく分割処理と、物体検出部330による、画像の特徴量に基づく物体検出処理とをそれぞれ行い、分割処理により検出された背景物体の領域と、物体検出処理により検出された背景物体の領域とをそれぞれ取得する。
In the next step S51, the associating unit 321b detects the image of the background object from the range sharing captured image 40 'and the
次のステップS52で、対応付け部321bは、ステップS51で各処理により得られた、領域100から検出された各背景物体領域と、範囲共有撮像画像40’から検出された各背景物体領域との類似度を算出する。このとき、対応付け部321bは、分割部322により得られた色情報およびエッジ情報それぞれと、物体検出部330により得られた属性情報とのうち少なくとも1つを特徴量として用いて、類似度を算出する。
In the next step S52, the associating unit 321b combines each background object area detected from the
属性情報は、例えば、物体検出部330が用いる複数種類の検出器がそれぞれ検出する各種類の背景物体を示す情報(例えば、上述した車両、道路標識、動物、看板など、さらに詳細な、軽自動車、トラック、バス、案内標識、指示標識、補助標識、規制標識、警戒標識、犬、猫、店舗看板を示す情報)を用いることができる。 The attribute information is, for example, information indicating background objects of each type detected by a plurality of types of detectors used by the object detection unit 330 (for example, the above-mentioned vehicle, road sign, animal, signboard, etc.) , Tracks, buses, information signs, indication signs, supplementary signs, regulation signs, warning signs, information indicating dog, cat, store sign).
次のステップS53で、対応付け部321bは、領域100から検出された各背景物体の領域と、範囲共有撮像画像40’から検出された各背景物体の領域との間で、類似度が最大となる領域のペアを検出する。そして、次のステップS54で、対応付け部321bは、ステップS53で検出された領域ペアに基づき、検出対象に対する背景物体を決定する。
In the next step S53, the associating unit 321b determines that the degree of similarity is maximum between the area of each background object detected from the
対応付け部321bは、特徴量間の類似度を、特徴量間のL1ノルムやバタチャリア(Bhattacharyya)距離を用いて求めることができる。対応付け部321bは、比較する2つの特徴量を1つに纏めてSVMなどの識別器で識別した出力結果に基づき、対応付けを行ってもよい。対応付け部321bは、領域100から検出された各背景物体領域と、範囲共有撮像画像40’から検出された各背景物体領域との組み合わせのそれぞれの類似度を比較し、類似度が最大となる領域のペア、または、類似度が閾値以上となる領域のペアを求め、検出対象に対する背景物体を決定する。
The associating unit 321 b can determine the similarity between the feature amounts using the L1 norm between the feature amounts and the Bhattacharyya distance. The associating unit 321 b may perform association based on an output result obtained by combining two feature quantities to be compared into one and identifying using a discriminator such as an SVM. The associating unit 321 b compares the similarity of each combination of each background object region detected from the
第3の実施形態では、検出物体に対する背景物体を、色情報、エッジ情報および特徴量を用いて検出することで、背景物体の画像の位置や領域をより正確に求めることができ、検出矩形画像の切り出しをより高精度に実行できる。 In the third embodiment, the position and area of the image of the background object can be determined more accurately by detecting the background object with respect to the detected object using color information, edge information, and feature quantities. Can be cut out with higher accuracy.
(第4の実施形態)
次に、第4の実施形態について説明する。上述した第1〜第3の実施形態に係る画像処理システムは、自車両20に搭載された運転支援装置30は、他車両21に搭載された撮像装置31と、固定物(信号機11)に設置された撮像装置32とから、無線通信を介して直接的に撮像画像および位置情報を受け取っていた。これに対して、第4の実施形態は、運転支援装置30は、撮像装置31および32から、サーバ装置を介して撮像画像および位置情報を受け取る。
Fourth Embodiment
Next, a fourth embodiment will be described. In the image processing system according to the first to third embodiments described above, the driving
図24は、第4の実施形態に係る画像処理システムの一例の構成を概略的に示す。なお、図24において、上述した図2と共通する部分には同一の符号を付して、詳細な説明を省略する。図24において、画像処理システムは、図2の構成に対してサーバ装置60と、データベース(DB)61と、アクセスポイント(AP)62とが追加されている。運転支援装置30の通信部302、ならびに、撮像装置31および32の通信部は、AP62の探索を行い、AP62が発見されると、それぞれAP62との間で通信を確立する。
FIG. 24 schematically illustrates the configuration of an example of an image processing system according to the fourth embodiment. In FIG. 24, the same parts as those in FIG. 2 described above are denoted by the same reference numerals, and the detailed description will be omitted. Referring to FIG. 24, in the image processing system, a
例えば撮像装置31は、撮像部により撮像した撮像画像と、位置情報取得部で取得した、撮像位置を示す位置情報とを、撮像を行った時間を示す時間情報と共にAP62に送信する。AP62は、撮像装置31から送信された撮像画像、位置情報および時間情報を受信し、受信したこれら各情報をサーバ装置60に渡す。サーバ装置60は、撮像画像に、位置情報および時間情報を関連付けてDB61に格納する。
For example, the
撮像装置32の動作は、撮像装置31と略同様なので、ここでの説明を省略する。なお、固定物に設置される撮像装置32は、サーバ装置60と有線により接続することも可能である。
The operation of the
運転支援装置30は、通信部302によりAP62と通信を行い、サーバ装置60に対して、撮像装置31および32に撮像された撮像画像と、撮像画像を撮像した位置および時間をそれぞれ示す位置情報および時間情報とを要求する。このとき、運転支援装置30は、位置情報取得部303で取得した現在の位置示す位置情報と、現在の時間を示す時間情報とを、サーバ装置60への要求に対して付加する。また、運転支援装置30は、例えばサーバ装置60に要求を送信するタイミングに応じて、撮像部301により撮像を行い撮像画像を取得し、位置情報取得部303により現在の位置を示す位置情報を取得する。
The driving
AP62は、運転支援装置30から送信された要求と、要求に付加された位置情報および時間情報とを受信し、受信したこれら要求および各情報をサーバ装置60に渡す。サーバ装置60は、受け取った要求に従い、位置情報および時間情報に基づきDB61に格納された撮像画像の検索を実行する。例えば、サーバ装置60は、DB61に格納される撮像画像から、運転支援装置30からの要求と共に受け取った位置情報および時間情報に対してそれぞれ所定範囲内にある位置情報および時間情報を検索する。
The
サーバ装置60は、このようにDB61から検索された位置情報および時間情報に関連付けられた撮像画像と、当該撮像画像に関連付けられた位置情報とを、検索結果として取得する。サーバ装置60は、取得した撮像画像および位置情報を、AP62から運転支援装置30に無線通信53により送信する。運転支援装置30は、AP62から送信された撮像画像および位置情報を受信する。運転支援装置30は、受信した撮像画像および位置情報と、サーバ装置60に要求を送信するタイミングに応じて運転支援装置30の撮像部301および位置情報取得部303でそれぞれ取得された撮像画像および位置情報とを用いて、第1〜第3の実施形態で説明したような処理を行い、検出矩形画像3061と、自車両周辺画像3062とを取得する。
The
なお、各実施形態は、上述したそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 In addition, each embodiment is not limited to the above as it is, and in the implementation stage, the constituent elements can be modified and embodied without departing from the scope of the invention. In addition, various inventions can be formed by appropriate combinations of a plurality of components disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, components in different embodiments may be combined as appropriate.
10 道路
20 自車両
21,22,24 他車両
23 歩行者
30 運転支援装置
31,32 撮像装置
40,41,42 撮像範囲
40’ 撮像画像(範囲共有撮像画像)
41’ 撮像画像(対象検出撮像画像)
51,51’,52,52’,53 無線通信
50a,50b,50c,51a,51b,100,120a,120b.120c,120d.120e 領域
60 サーバ装置
61 データベース(DB)
62 アクセスポイント(AP)
101 検出対象矩形画像
102a,102b,102c 背景物体領域
300,300a,300b,300c 画像処理部
301 撮像部
302 通信部
303 位置情報取得部
305 表示部
310 取得部
311 周辺画像生成部
320 検出部
321,321a,321b 対応付け部
322 分割部
323 切り出し部
324 検出情報生成部
325 表示情報生成部
330 物体検出部
3020 表示装置
3030 カメラ
3060 表示画面
3061 検出矩形画像
3062 自車両周辺画像
10
41 'Captured image (target detection captured image)
51, 51 ', 52, 52', 53
62 Access Point (AP)
101 detection target
Claims (20)
前記第1の画像から検出対象を検出する検出部と、
前記第1の画像のうち、前記検出対象が検出された第2の画像と、該第2の画像と撮像範囲を共有する撮像装置が撮像した第3の画像とにおいて、該第2の画像上で該検出対象とは異なる物体の画像と、該第3の画像中の物体の画像とを対応付ける対応付け部と、
前記検出対象の全体と、前記対応付け部が対応付けた前記物体とを含む検出矩形を前記第2の画像から切り出す切り出し部と、
前記切り出し部で前記検出矩形が切り出された場合に、該検出矩形の画像と、前記取得部が取得した前記第1の画像のうち前記移動体周辺の画像とを配置した出力画像を生成する生成部と
を有する画像処理装置。 An acquisition unit configured to acquire a first image captured by a plurality of imaging devices including an imaging device mounted on a mobile object;
A detection unit that detects a detection target from the first image;
Among the first images, in the second image in which the detection target is detected, and in the third image captured by the imaging device sharing the imaging range with the second image, the second image And an associating unit that associates the image of an object different from the detection target with the image of the object in the third image;
A cutout unit that cuts out a detection rectangle including the entire detection target and the object associated with the association unit from the second image;
When the detection rectangle is cut out by the cutout unit, an output image is generated in which an image of the detection rectangle and an image around the moving object among the first images acquired by the acquisition unit are generated. An image processing apparatus having a unit.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image around the mobile object is a bird's-eye image looking over the periphery of the mobile object.
前記俯瞰画像は、前記位置情報に基づき複数の俯瞰画像を用いて合成した俯瞰画像である
請求項2記載の画像処理装置。 The acquisition unit acquires position information indicating a position at which the first image is captured,
The image processing apparatus according to claim 2, wherein the bird's-eye view image is a bird's-eye view image synthesized using a plurality of bird's-eye view images based on the position information.
請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the generation unit arranges the image of the detection rectangle in accordance with a position at which the detection target included in the image of the detection rectangle is imaged.
前記生成部は、前記第2の画像を撮像した位置を示す位置情報を前記取得部より取得し、該位置情報と、前記検出矩形の画像と、前記移動体周辺の画像とを配置した出力画像を生成する
請求項1に記載の画像処理装置。 The acquisition unit acquires position information indicating a position at which the first image is captured,
The generation unit acquires, from the acquisition unit, position information indicating a position at which the second image is captured, and an output image in which the position information, the image of the detection rectangle, and the image around the moving body are arranged. The image processing apparatus according to claim 1, which generates
請求項1乃至5の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the first image includes an image captured by an imaging device installed near the mobile object.
請求項1乃至6の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the generation unit generates a display indicating an association between the image of the detection rectangle and the image around the moving object.
前記取得部は、
前記通信部による前記無線通信を介して前記第1の画像を取得する
請求項1乃至請求項7の何れか1項に記載の画像処理装置。 It further has a communication unit that performs wireless communication,
The acquisition unit
The image processing apparatus according to any one of claims 1 to 7, wherein the first image is acquired via the wireless communication by the communication unit.
前記移動体に搭載された撮像装置による撮像で得られた前記第1の画像を取得し、
前記移動体の周辺環境に設置された撮像装置による撮像で得られた前記第1の画像を前記通信部による対固定物通信の前記無線通信により取得し、
前記移動体と異なる移動体に搭載された撮像装置による撮像で得られた前記第1の画像を前記通信部による移動体間通信の前記無線通信により取得する
請求項8に記載の画像処理装置。 The acquisition unit
Acquiring the first image obtained by imaging with an imaging device mounted on the mobile object;
Acquiring the first image obtained by imaging by an imaging device installed in a surrounding environment of the mobile body by the wireless communication of fixed object communication by the communication unit;
The image processing apparatus according to claim 8, wherein the first image obtained by imaging by an imaging device mounted on a moving body different from the moving body is acquired by the wireless communication of communication between moving bodies by the communication unit.
サーバ装置との間で前記無線通信を行い、
前記取得部は、
前記移動体に搭載された撮像装置による撮像で得られた前記第1の画像を取得し、
前記通信部による前記無線通信で、前記サーバ装置から前記第1の画像を取得する
請求項8に記載の画像処理装置。 The communication unit is
Perform the wireless communication with the server device;
The acquisition unit
Acquiring the first image obtained by imaging with an imaging device mounted on the mobile object;
The image processing apparatus according to claim 8, wherein the first image is acquired from the server device by the wireless communication by the communication unit.
前記第1の画像から検出対象を検出する検出ステップと、
前記第1の画像のうち、前記検出対象が検出された第2の画像と、該第2の画像と撮像範囲を共有する撮像装置が撮像した第3の画像とにおいて、該第2の画像上で該検出対象とは異なる物体の画像と、該第3の画像中の物体の画像とを対応付ける対応付けステップと、
前記検出対象の全体と、前記対応付けステップが対応付けた前記物体とを含む検出矩形を前記第2の画像から切り出す切り出しステップと、
前記切り出しステップにより前記検出矩形が切り出された場合に、該検出矩形の画像と、前記取得ステップにより取得した前記第1の画像のうち前記移動体周辺の画像とを配置した出力画像を生成する生成ステップと
を含む画像処理方法。 An acquisition step of acquiring a first image captured by a plurality of imaging devices including an imaging device mounted on a mobile object;
A detection step of detecting a detection target from the first image;
Among the first images, in the second image in which the detection target is detected, and in the third image captured by the imaging device sharing the imaging range with the second image, the second image Associating the image of the object different from the detection target with the image of the object in the third image;
A cutout step of cutting out from the second image a detection rectangle including the entire detection target and the object correlated by the correlating step;
When the detection rectangle is cut out in the cutting step, an output image is generated in which an image of the detection rectangle and an image around the moving body among the first images acquired in the acquisition step are generated. And an image processing method including steps.
請求項11に記載の画像処理方法。 The image processing method according to claim 11, wherein the image around the moving object is a bird's-eye image looking over the periphery of the moving object.
前記俯瞰画像は、前記位置情報に基づき複数の俯瞰画像を用いて合成した俯瞰画像である
請求項12記載の画像処理方法。 The acquiring step acquires position information indicating a position at which the first image is captured,
The image processing method according to claim 12, wherein the bird's-eye view image is a bird's-eye view image synthesized using a plurality of bird's-eye view images based on the position information.
請求項11記載の画像処理方法。 The image processing method according to claim 11, wherein the generation step arranges the image of the detection rectangle in accordance with a position at which the detection target included in the image of the detection rectangle is imaged.
前記生成ステップは、前記第2の画像を撮像した位置を示す位置情報を前記取得ステップより取得し、該位置情報と、前記検出矩形の画像と、前記移動体周辺の画像とを配置した出力画像を生成する
請求項11に記載の画像処理方法。 The acquiring step acquires position information indicating a position at which the first image is captured,
The generation step acquires, from the acquisition step, position information indicating a position at which the second image is captured, and an output image in which the position information, the image of the detection rectangle, and the image around the moving body are arranged. The image processing method according to claim 11, wherein
請求項11乃至15の何れか1項に記載の画像処理方法。 The image processing method according to any one of claims 11 to 15, wherein the first image includes an image captured by an imaging device installed near the mobile object.
請求項11乃至16の何れか1項に記載の画像処理方法。 The image processing method according to any one of claims 11 to 16, wherein the generation step generates a display indicating an association between the image of the detection rectangle and the image around the moving object.
前記第1の画像から検出対象を検出する検出ステップと、
前記第1の画像のうち、前記検出対象が検出された第2の画像と、該第2の画像と撮像範囲を共有する撮像装置が撮像した第3の画像とにおいて、該第2の画像上で該検出対象とは異なる物体の画像と、該第3の画像中の物体の画像とを対応付ける対応付けステップと、
前記検出対象の全体と、前記対応付けステップが対応付けた前記物体とを含む検出矩形を前記第2の画像から切り出す切り出しステップと、
前記切り出しステップにより前記検出矩形が切り出された場合に、該検出矩形の画像と、前記取得ステップにより取得した前記第1の画像のうち前記移動体周辺の画像とを配置した出力画像を生成する生成ステップと
をコンピュータに実行させるための画像処理プログラム。 An acquisition step of acquiring a first image captured by a plurality of imaging devices including an imaging device mounted on a mobile object;
A detection step of detecting a detection target from the first image;
Among the first images, in the second image in which the detection target is detected, and in the third image captured by the imaging device sharing the imaging range with the second image, the second image Associating the image of the object different from the detection target with the image of the object in the third image;
A cutout step of cutting out from the second image a detection rectangle including the entire detection target and the object correlated by the correlating step;
When the detection rectangle is cut out in the cutting step, an output image is generated in which an image of the detection rectangle and an image around the moving body among the first images acquired in the acquisition step are generated. An image processing program for causing a computer to execute steps.
前記第1の通信装置は、
移動体周辺に設置された撮像装置で撮像された前記第1の画像を送信し、
前記第2の通信装置は、
前記移動体とは異なる移動体に搭載された撮像装置で撮像された前記第1の画像を送信し、
前記取得部は、
前記移動体に搭載された撮像装置による撮像で得られた前記第1の画像を取得し、
前記第1の通信装置および前記第2の通信装置のうち少なくとも一方から送信された前記第1の画像を、前記通信部により前記無線通信を介して取得する
画像処理システム。 An image processing system comprising the image processing device according to claim 8, a first communication device, and a second communication device,
The first communication device is
Transmitting the first image captured by an imaging device installed around the mobile object;
The second communication device is
Transmitting the first image captured by an imaging device mounted on a moving body different from the moving body;
The acquisition unit
Acquiring the first image obtained by imaging with an imaging device mounted on the mobile object;
An image processing system for acquiring the first image transmitted from at least one of the first communication device and the second communication device by the communication unit via the wireless communication.
前記第1の通信装置は、
移動体周辺に設置された撮像装置で撮像された前記第1の画像を送信し、
前記第2の通信装置は、
前記移動体とは異なる移動体に搭載された撮像装置で撮像された前記第1の画像を送信し、
前記サーバ装置は、
前記第1の通信装置および前記第2の通信装置からそれぞれ送信された前記第1の画像を取得し、
前記取得部は、
前記移動体に搭載された撮像装置による撮像で得られた前記第1の画像を取得し、
前記第1の通信装置および前記第2の通信装置のうち少なくとも一方から送信された前記第1の画像を、前記サーバ装置から、前記通信部により前記無線通信を介して取得する
画像処理システム。 An image processing system comprising the image processing apparatus according to claim 8, a first communication apparatus, a second communication apparatus, and a server apparatus,
The first communication device is
Transmitting the first image captured by an imaging device installed around the mobile object;
The second communication device is
Transmitting the first image captured by an imaging device mounted on a moving body different from the moving body;
The server device is
Acquiring the first image respectively transmitted from the first communication device and the second communication device;
The acquisition unit
Acquiring the first image obtained by imaging with an imaging device mounted on the mobile object;
An image processing system for acquiring the first image transmitted from at least one of the first communication device and the second communication device from the server device by the communication unit via the wireless communication.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018222435A JP6753915B2 (en) | 2018-11-28 | 2018-11-28 | Image processing equipment, image processing methods, image processing programs and image processing systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018222435A JP6753915B2 (en) | 2018-11-28 | 2018-11-28 | Image processing equipment, image processing methods, image processing programs and image processing systems |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015176100A Division JP6444835B2 (en) | 2015-09-07 | 2015-09-07 | Image processing apparatus, image processing program, and image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019050622A true JP2019050622A (en) | 2019-03-28 |
JP6753915B2 JP6753915B2 (en) | 2020-09-09 |
Family
ID=65906000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018222435A Active JP6753915B2 (en) | 2018-11-28 | 2018-11-28 | Image processing equipment, image processing methods, image processing programs and image processing systems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6753915B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114049404A (en) * | 2022-01-12 | 2022-02-15 | 深圳佑驾创新科技有限公司 | Method and device for calibrating internal phase and external phase of vehicle |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003319383A (en) * | 2002-04-24 | 2003-11-07 | Equos Research Co Ltd | On-vehicle image processing apparatus |
JP2008070955A (en) * | 2006-09-12 | 2008-03-27 | Sumitomo Electric Ind Ltd | Display system for displaying traveling object, on-vehicle apparatus, image transmitter and display method |
JP2008250503A (en) * | 2007-03-29 | 2008-10-16 | Aisin Aw Co Ltd | Operation support device |
JP2017055177A (en) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | Image processing apparatus, image processing program, and image processing system |
-
2018
- 2018-11-28 JP JP2018222435A patent/JP6753915B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003319383A (en) * | 2002-04-24 | 2003-11-07 | Equos Research Co Ltd | On-vehicle image processing apparatus |
JP2008070955A (en) * | 2006-09-12 | 2008-03-27 | Sumitomo Electric Ind Ltd | Display system for displaying traveling object, on-vehicle apparatus, image transmitter and display method |
JP2008250503A (en) * | 2007-03-29 | 2008-10-16 | Aisin Aw Co Ltd | Operation support device |
JP2017055177A (en) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | Image processing apparatus, image processing program, and image processing system |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114049404A (en) * | 2022-01-12 | 2022-02-15 | 深圳佑驾创新科技有限公司 | Method and device for calibrating internal phase and external phase of vehicle |
CN114049404B (en) * | 2022-01-12 | 2022-04-05 | 深圳佑驾创新科技有限公司 | Method and device for calibrating internal phase and external phase of vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP6753915B2 (en) | 2020-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6444835B2 (en) | Image processing apparatus, image processing program, and image processing system | |
Possatti et al. | Traffic light recognition using deep learning and prior maps for autonomous cars | |
EP3229041B1 (en) | Object detection using radar and vision defined image detection zone | |
JP4624594B2 (en) | Object recognition method and object recognition apparatus | |
US7366325B2 (en) | Moving object detection using low illumination depth capable computer vision | |
Eum et al. | Enhancing light blob detection for intelligent headlight control using lane detection | |
Gavrila et al. | Real time vision for intelligent vehicles | |
CN109116846B (en) | Automatic driving method, device, computer equipment and storage medium | |
US20130286205A1 (en) | Approaching object detection device and method for detecting approaching objects | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP6819996B2 (en) | Traffic signal recognition method and traffic signal recognition device | |
JP4609603B2 (en) | 3D information display device and 3D information display method | |
Yoneda et al. | Simultaneous state recognition for multiple traffic signals on urban road | |
KR102003387B1 (en) | Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program | |
JP6753915B2 (en) | Image processing equipment, image processing methods, image processing programs and image processing systems | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment | |
US20220309693A1 (en) | Adversarial Approach to Usage of Lidar Supervision to Image Depth Estimation | |
JP2017211765A (en) | Object recognition device | |
Kiro et al. | Road Lane Line Detection using Machine Learning | |
JP7323716B2 (en) | Image processing device and image processing method | |
US20230230257A1 (en) | Systems and methods for improved three-dimensional data association using information from two-dimensional images | |
Gu et al. | Road traffic tracking and parameter estimation based on visual information analysis using self-calibrated camera views | |
WO2020073271A1 (en) | Snapshot image of traffic scenario | |
WO2020073270A1 (en) | Snapshot image of traffic scenario | |
WO2020073268A1 (en) | Snapshot image to train roadmodel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191025 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200616 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200721 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200820 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6753915 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |