JP6855254B2 - Image processing device, image processing system, and image processing method - Google Patents
Image processing device, image processing system, and image processing method Download PDFInfo
- Publication number
- JP6855254B2 JP6855254B2 JP2017003584A JP2017003584A JP6855254B2 JP 6855254 B2 JP6855254 B2 JP 6855254B2 JP 2017003584 A JP2017003584 A JP 2017003584A JP 2017003584 A JP2017003584 A JP 2017003584A JP 6855254 B2 JP6855254 B2 JP 6855254B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- camera
- image processing
- virtual viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 64
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000034 method Methods 0.000 claims description 44
- 238000001514 detection method Methods 0.000 claims description 41
- 239000000284 extract Substances 0.000 claims description 14
- 230000037237 body shape Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 101000786631 Homo sapiens Protein SYS1 homolog Proteins 0.000 description 4
- 102100025575 Protein SYS1 homolog Human genes 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、画像処理システム、及び、画像処理方法に関する。 The present invention relates to an image processing apparatus, an image processing system, and an image processing method.
従来、撮影された画像データから移動物体を検出するシステムが知られる。このようなシステムでは、移動物体の検出が行われない領域が、マスク領域として予め指定される。そして、当該マスク領域を除く領域に対して、移動物体の検出処理が行われる(例えば特許文献1参照)。 Conventionally, a system for detecting a moving object from captured image data is known. In such a system, a region in which a moving object is not detected is designated in advance as a mask region. Then, a moving object detection process is performed on the region other than the mask region (see, for example, Patent Document 1).
ところで、車載カメラを用いて、車両周辺の移動物体の検出や駐車枠の検出を行う画像処理システムが知られている。このような画像処理システムにおいて、カメラによる撮影画像内に映り込む車両のボディは、移動物体や駐車枠等の検出に不要な領域である。また、車両のボディに映り込んだ背景等によって、誤検出が生じるおそれがある。このために、撮影画像内における車両のボディが映り込む領域は、マスク領域とされ、検出処理に使用されないことが好ましい。 By the way, there is known an image processing system that detects a moving object around a vehicle and a parking frame by using an in-vehicle camera. In such an image processing system, the body of the vehicle reflected in the image captured by the camera is an area unnecessary for detecting a moving object, a parking frame, or the like. In addition, erroneous detection may occur due to the background reflected on the body of the vehicle. For this reason, the region in which the vehicle body is reflected in the captured image is preferably a mask region and is not used for the detection process.
車両の形状は、車両の種類やグレードによって異なる。また、車両に対するカメラの取付けには、ばらつきがある。このために、撮影画像への車両のボディの映り込みは、車両ごとに異なる。したがって、撮影画像内のどの領域がマスク領域として設定されるべきかについては、車両ごとに決められることが好ましい。しかしながら、車両ごとにマスク領域を設定することは、作業負担が大きく、現実的ではない。 The shape of the vehicle depends on the type and grade of the vehicle. In addition, there are variations in the mounting of cameras on vehicles. For this reason, the reflection of the vehicle body on the captured image differs from vehicle to vehicle. Therefore, it is preferable to determine which area in the captured image should be set as the mask area for each vehicle. However, setting the mask area for each vehicle is not realistic because the work load is heavy.
本発明は、上記の課題に鑑み、車載カメラによる撮影画像に対するマスク領域の設定を容易に行うことができる技術を提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide a technique capable of easily setting a mask area for an image captured by an in-vehicle camera.
本発明に係る画像処理装置は、車両において用いられる画像処理装置であって、前記車両に搭載されるカメラによる撮影画像に基づいて、仮想視点から見た前記車両の周辺を示す仮想視点画像を生成する画像生成部と、前記仮想視点画像に基づいて、前記カメラの撮影画像中において所定の処理に使用しない領域であるマスク領域を設定する設定部と、を備える構成(第1の構成)である。 The image processing device according to the present invention is an image processing device used in a vehicle, and generates a virtual viewpoint image showing the periphery of the vehicle as seen from a virtual viewpoint based on an image taken by a camera mounted on the vehicle. This is a configuration (first configuration) including an image generation unit to be used and a setting unit for setting a mask area which is an area not used for a predetermined process in the captured image of the camera based on the virtual viewpoint image. ..
また、上記第1の構成の画像処理装置において、前記仮想視点画像中には、前記車両の周辺を表示しない死角領域が設定され、前記設定部は、前記死角領域に基づいて前記マスク領域を設定する構成(第2の構成)であることが好ましい。 Further, in the image processing device having the first configuration, a blind spot area that does not display the periphery of the vehicle is set in the virtual viewpoint image, and the setting unit sets the mask area based on the blind spot area. It is preferable that the configuration is (second configuration).
また、上記第2の構成の画像処理装置において、前記設定部は、前記死角領域の境界上の複数点のそれぞれについて、前記カメラの撮影画像における対応座標位置を抽出し、複数の前記対応座標位置から導出される近似曲線に基づいて前記マスク領域を設定する構成(第3の構成)であることが好ましい。 Further, in the image processing apparatus having the second configuration, the setting unit extracts the corresponding coordinate positions in the image captured by the camera for each of the plurality of points on the boundary of the blind spot region, and the plurality of the corresponding coordinate positions. It is preferable that the mask region is set based on the approximate curve derived from (third configuration).
また、上記第3の構成の画像処理装置において、前記設定部は、前記死角領域の境界上の点に加えて、前記境界の延長線上の点についても前記対応座標位置を抽出して前記マスク領域を設定する構成(第4の構成)であってよい。 Further, in the image processing apparatus having the third configuration, the setting unit extracts the corresponding coordinate positions of the points on the extension line of the boundary in addition to the points on the boundary of the blind spot region, and the mask area. It may be a configuration (fourth configuration) for setting.
また、上記第1から第4のいずれかの構成の画像処理装置において、前記設定部は、前記仮想視点の視点位置が前記車両の真上、かつ、視線方向が真下である場合の前記仮想視点画像に基づいて前記マスク領域を設定する構成(第5の構成)であることが好ましい。 Further, in the image processing device having any of the first to fourth configurations, the setting unit uses the virtual viewpoint when the viewpoint position of the virtual viewpoint is directly above the vehicle and the line-of-sight direction is directly below. It is preferable that the mask region is set based on the image (fifth configuration).
また、上記第1から第5のいずれかの構成の画像処理装置において、前記所定の処理は、前記カメラによる撮影画像に基づいて検出対象を検出する処理であり、前記カメラの撮影画像に前記マスク領域によるマスクを行って前記検出対象を検出する検出部を更に備える構成(第6の構成)であってよい。 Further, in the image processing apparatus having any of the first to fifth configurations, the predetermined process is a process of detecting a detection target based on an image captured by the camera, and the mask is added to the image captured by the camera. The configuration may be a configuration (sixth configuration) further including a detection unit that detects the detection target by masking with a region.
本発明に係る画像処理システムは、上記第1から第6のいずれかの構成の画像処理装置と、前記カメラと、を備える構成(第7の構成)である。 The image processing system according to the present invention has a configuration (seventh configuration) including the image processing device having any of the first to sixth configurations and the camera.
本発明に係る画像処理方法は、処理装置による画像処理方法であって、車両に搭載されるカメラによる撮影画像に基づいて、仮想視点から見た前記車両の周辺を示す仮想視点画像を生成する画像生成工程と、前記仮想視点画像に基づいて、前記カメラの撮影画像中において所定の処理に使用しない領域であるマスク領域を設定するマスク領域設定工程と、を備える構成(第8の構成)である。 The image processing method according to the present invention is an image processing method using a processing device, and is an image that generates a virtual viewpoint image showing the periphery of the vehicle as seen from a virtual viewpoint based on an image taken by a camera mounted on the vehicle. It is a configuration (eighth configuration) including a generation step and a mask area setting step of setting a mask area which is an area not used for a predetermined process in the captured image of the camera based on the virtual viewpoint image. ..
本発明によれば、車載カメラによる撮影画像に対するマスク領域の設定を容易に行える技術を提供することができる。 According to the present invention, it is possible to provide a technique that can easily set a mask area for an image captured by an in-vehicle camera.
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」とする。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the following description, the direction in which the vehicle travels straight from the driver's seat to the steering wheel is referred to as the "forward direction". Further, the direction in which the vehicle travels straight from the steering wheel to the driver's seat is defined as the "rear direction". Further, the direction from the right side to the left side of the driver facing forward, which is the direction perpendicular to the straight traveling direction and the vertical straight line of the vehicle, is defined as the "left direction". Further, the direction from the left side to the right side of the driver facing forward, which is the direction perpendicular to the straight traveling direction and the vertical straight line of the vehicle, is defined as the "right direction".
<1.システムの構成>
図1は、本発明の実施の形態に係る車両周辺監視システムSYS1の構成を示すブロック図である。車両周辺監視システムSYS1は、車両ごとに搭載される。車両周辺監視システムSYS1は、当該システムを搭載する車両の周辺状況を監視する機能を有する。図1に示すように、車両監視システムSYS1は、画像処理システムSYS2と、表示装置3と、を備える。
<1. System configuration>
FIG. 1 is a block diagram showing a configuration of a vehicle peripheral monitoring system SYS1 according to an embodiment of the present invention. The vehicle peripheral monitoring system SYS1 is installed in each vehicle. The vehicle peripheral monitoring system SYS1 has a function of monitoring the peripheral condition of the vehicle equipped with the system. As shown in FIG. 1, the vehicle monitoring system SYS1 includes an image processing system SYS2 and a
画像処理システムSYS2は、車両の周辺を撮影して画像を生成し、生成した画像を表示装置3に出力する機能を有する。また、画像処理システムSYS2は、車両の周辺を撮影して得られた画像に基づいて、検出対象を検出する機能も有する。本実施の形態では、検出対象には駐車枠が含まれる。なお、これは例示であり、検出対象には、移動体等が含まれてよい。検出した駐車枠情報は、例えば駐車支援等を行う運転支援装置(不図示)によって使用される。画像処理システムSYS2は、車両の周囲を撮影する撮影部1と、画像処理装置2とを備える。
The image processing system SYS2 has a function of photographing the surroundings of the vehicle, generating an image, and outputting the generated image to the
撮影部1は、車両に搭載される4つのカメラ11〜14を備える。すなわち、画像処理システムSYS2は、車両に搭載されるカメラ11〜14を備える。図2は、4つのカメラ11〜14が配置された車両4を示す模式図である。本実施の形態において、車両4は自動車である。撮影部1が備えるカメラの数は例示であり、カメラの数は適宜変更されてよい。各カメラ11〜14は、有線又は無線で画像処理装置2に接続されており、撮影画像を画像処理装置2に送信する。
The photographing
図2に示すように、カメラ11は車両4の前端に設けられる。このため、カメラ11をフロントカメラ11とも呼ぶ。フロントカメラ11の光軸11aは平面視で車両4の前後方向に沿っている。フロントカメラ11は車両4の前方向を撮影する。カメラ14は車両4の後端に設けられる。このため、カメラ14をバックカメラ14とも呼ぶ。バックカメラ14の光軸14aは平面視で車両4の前後方向に沿っている。バックカメラ14は車両4の後方向を撮影する。フロントカメラ11及びバックカメラ14の取付け位置は、車両4の左右中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
As shown in FIG. 2, the
カメラ12は車両4の左側ドアミラー41に設けられる。このため、カメラ12を左サイドカメラ12とも呼ぶ。左サイドカメラ12の光軸12aは平面視で車両4の左右方向に沿っている。左サイドカメラ12は車両4の左方向を撮影する。カメラ13は車両4の右側ドアミラー42に設けられる。このため、カメラ13を右サイドカメラ13とも呼ぶ。右サイドカメラ13の光軸13aは平面視で車両4の左右方向に沿っている。右サイドカメラ13は車両4の右方向を撮影する。
The
各カメラ11〜14のレンズとしては、例えば魚眼レンズが使用される。各カメラ11〜14の水平方向の画角θは180度以上である。このため、4つのカメラ11〜14を利用することで、車両4の水平方向における全周囲を撮影することが可能になっている。
As the lens of each camera 11-14, for example, a fisheye lens is used. The horizontal angle of view θ of each of the
画像処理装置2は、撮影部1によって撮影された撮影画像を取得して、当該撮影画像の処理を行う。また、画像処理装置2は、撮影画像を処理して得られた処理画像を表示装置3に出力する。また、画像処理装置2は、撮影画像を処理して、撮影画像中から検出対象(例えば駐車枠)を検出する。画像処理装置2は、車両4の所定の位置に配置される。すなわち、画像処理装置2は、車両において用いられる。画像処理装置2の詳細については後述する。
The
表示装置3は、例えばタッチパネル等の操作機能を有する液晶等のディスプレイを備え、画像処理システムによる処理で得られた表示画像を表示する。表示装置3は、車両4の乗員(代表的には運転手)がディスプレイの表示画面を視認できる位置に設けられる。例えば、表示装置3は、車両4のインストルメントパネルに設置される。
The
<2.画像処理装置の構成>
画像処理装置2は、ECU(Electronic Control Unit)として構成される。図1に示すように、画像処理装置2は、画像生成部21と、制御部22と、通信部23と、記憶部24と、を備える。
<2. Image processing device configuration>
The
画像生成部21は、撮影部1で取得された撮影画像を処理して表示用画像を生成する。本実施の形態では、画像生成部21は、各種の画像処理が可能なハードウェア回路として構成されている。本実施の形態では、画像生成部21は、車両4に搭載されるカメラ11〜14による撮影画像に基づいて、仮想視点から見た車両4の周辺を示す仮想視点画像を生成する。仮想視点画像を生成する手法の詳細については後述する。
The
画像生成部21は、カメラ11〜14による撮影画像を表示用に調整する。詳細には、画像生成部21は、撮影画像の明るさやコントラスト等の画質調整や、表示の際に自然となるように画像の歪み補正を行う。また、画像生成部21は、表示用に調整された撮影画像、及び、上述の仮想視点画像に基づいて、運転者等に提供する表示用画像を生成する。生成された表示用画像は、通信部23によって表示装置3に出力され、表示装置3の表示画面に表示される。
The
制御部22は、画像処理装置2の全体を制御する。制御部22は、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータである。本実施の形態では、制御部22は、画像制御部221と、表示制御部222と、設定部223と、検出部224と、を備える。制御部22が備えるこれらの各部は、例えばROMに格納されるプログラムに従ってCPUが演算処理を行うことによって実現される機能である。
The
画像制御部221は、画像生成部21によって実行される画像処理を制御する。例えば、画像制御部221は、画像生成部21に対して、仮想視点画像を生成するために必要となる各種のパラメータ等の指示を行う。
The
表示制御部222は、主に画像処理装置2の処理によって得られた画像情報を表示装置3で表示させるための制御を行う。例えば、表示制御部222は、画像生成部21で生成された仮想視点画像を表示装置3に出力する際の制御を行う。
The
設定部223は、仮想視点画像に基づいて、カメラ11〜14の撮影画像中において所定の処理に使用しない領域であるマスク領域を設定する。本実施の形態では、所定の処理は、カメラ11〜14による撮影画像に基づいて検出対象を検出する処理である。上述のように、本実施の形態では、検出対象には、駐車枠が含まれる。
The
また、詳細には、マスク領域は、カメラ11〜14による撮影画像中において、車両4のボディが映り込むことが想定される領域である。車両4のボディが映り込む領域は、駐車枠や移動体等の検出には不要な領域であるためにマスク領域とされる。本実施の形態によれば、仮想視点画像に関する既存の技術を利用して、単一のカメラの撮影画像に対するマスク領域を設定することができる。このために、単一のカメラの撮影画像に対してマスク領域を設定する手法について新たなロジックの開発を行う必要がなく、開発コストの削減を図ることができる。
Further, in detail, the mask area is an area where the body of the
なお、本実施の形態では、4つのカメラ11〜14の全てに対してマスク領域の設定が行われるが、これは例示であり、一部のカメラに対してのみマスク領域の設定が行われてもよい。例えば、カメラで撮影した撮影画像から駐車枠を検出することのみが目的である場合、左右のサイドカメラ12、13及びバックカメラ14に対してマスク領域が設定される構成としてよい。マスク領域の設定手法の詳細については後述する。
In the present embodiment, the mask area is set for all four
検出部224は、カメラ11〜14の撮影画像にマスク領域によるマスクを行って検出対象を検出する。 本実施の形態では、設定部223によって、各カメラ11〜14の撮影画像に対するマスク領域が設定される。このために、検出部224は、不要な領域を除外して検出対象の検出処理を行うことができる。また、撮影画像を用いて検出対象を検出する際に不要な部分が予め除外されているために、検出部224による誤検出の発生確率を低減することができる。
The
検出部224は、特に限定する趣旨ではないが、例えばサイドカメラ12、13で撮影される撮影画像に基づいて駐車枠の検出を行う。例えば、サイドカメラ12、13の代わりにバックカメラ14が用いられてもよいし、サイドカメラ12、13とバックカメラ14との両方が用いられてもよい。駐車枠の検出処理は、適宜実施される。
Although not particularly limited, the
検出部224は、カメラ12、13等による撮影画像中の輝度変化に基づいて、車両の駐車領域を区画する駐車枠線の検出を行う。駐車枠線は、一般的に白色又は黄色等の明るい色彩が施されるために、画像中における輝度が高い。このために、駐車枠線の輝度と駐車場の路面表面の輝度との間に輝度差が発生する。当該輝度差に基づく輝度変化は一定範囲になるために、輝度変化が一定範囲となるエッジを検出することにより、駐車枠線の検出を行うことができる。なお、「エッジ」は、画像中において、画素間の輝度が所定以上の大きさで変化する部分を指す。
The
検出部224は、検出された2つの駐車枠線のエッジ間の距離が所定の距離であると判断される場合に、検出された2つの駐車枠線間の領域を駐車枠として認識する。所定の距離とは、例えば、駐車場に関する法令等で規定される一般公共用の標準的な駐車枠の幅であり、2.5mである。本実施の形態では、車両4のボディが映り込む可能性がある部分がマスクされた状態で駐車枠線の検出を行い、駐車枠の検出が行われる。このために、効率良く駐車枠の検出を行うことができる。また、車両4のボディに映り込んだ背景等によって駐車枠の誤検出を行う可能性を低減することができる。
When it is determined that the distance between the edges of the two detected parking frame lines is a predetermined distance, the
通信部23は、表示装置3との間で通信を行う。通信部23は、例えば、画像生成部21で生成された仮想視点画像を表示装置3に出力する。また、通信部23は、運転者等が表示装置3の操作を行った場合に操作部(タッチパネル等)から送信される信号を受信する。
The
記憶部24は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部24は、例えば、ファームウェアとしてのプログラム、画像生成部21が仮想視点画像を生成するための各種のデータを記憶する。また、記憶部24は、設定部223及び検出部224が処理を実行するために必要となる各種のデータを記憶する。
The
<3.仮想視点画像の生成処理>
画像生成部21が、仮想視点から見た車両4の周辺の様子を示す仮想視点画像を生成する手法について説明する。図3は、画像生成部21が仮想視点画像を生成する手法を説明するための図である。画像生成部21は、仮想視点画像の生成に仮想の立体的な投影面TSを用いることで、現実に近い臨場感のある仮想視点画像を生成する。
<3. Virtual viewpoint image generation process>
A method in which the
フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及び、バックカメラ14によって、車両4の前方、左側方、右側方、及び、後方をそれぞれ示す4つの撮影画像P11〜P14が同時に取得される。これら4つの撮影画像P11〜P14には、車両4の全周囲のデータが含まれている。画像生成部21は、これら4つの撮影画像P11〜P14を取得する。
The
画像生成部21は、これら4つの撮影画像P11〜P14に含まれるデータ(画素の値)を、仮想的な三次元空間における立体的な曲面である投影面TSに投影する。投影面TSは、例えば、略半球状(お椀形状)をしており、その中心部(お椀の底部分)が車両4の位置として定められている。撮影画像P11〜P14に含まれる各画素の位置と、投影面TSの各画素の位置とは予め対応関係が定められている。この対応関係を示すテーブルデータは、記憶部24に記憶されている。投影面TSの各画素の値は、この対応関係と、撮影画像P11〜P14に含まれる各画素の値とに基づいて決定できる。
The
次に、画像生成部21は、画像制御部221の制御により、三次元空間に対して仮想視点VPを設定する。仮想視点VPは、視点位置と視線方向とで規定される。画像生成部21は、任意の視点位置、かつ、任意の視線方向の仮想視点VPを三次元空間に設定できる。画像生成部21は、設定された仮想視点VPに応じて投影面TSにおける必要な領域を切り出す。これにより、任意の仮想視点VPから見た仮想視点画像が生成される。
Next, the
例えば、図3に示すように、視点位置を車両4の真上、視線方向を直下とした仮想視点VPaを想定した場合、車両4及び車両4の周辺を俯瞰する仮想視点画像(俯瞰画像)CPaを生成できる。また、視点位置を車両4の左後方、視線方向を車両4の前方とした仮想視点VPbを想定した場合、車両4の左後方から見た車両4及び車両4の周辺を示す仮想視点画像CPbを生成できる。
For example, as shown in FIG. 3, assuming a virtual viewpoint VPa with the viewpoint position directly above the
なお、仮想視点画像CP中に示す車両4の像は、予めビットマップなどのデータとして用意され、記憶部24に記憶されている。仮想視点画像の生成の際には、当該仮想視点画像の仮想視点VPの視点位置と視線方向とに応じた形状の車両4の像のデータが読み出されて、仮想視点画像中に重畳される。
The image of the
図4は、仮想視点画像における車両4の像が配置される部分を拡大して示した図である。なお、図4では、上述の仮想視点VPaによる仮想視点画像を想定している。図4に示すように、仮想視点画像中には、車両4の周辺を表示しない死角領域5が設定されている。図4において、死角領域5は斜線を施した部分である。本実施の形態において、死角領域5は、車両4のボディが映り込む可能性がある領域である。詳細には、死角領域5の外縁(境界)は、図4に示すように矩形状である。死角領域5は、表示装置3においては、例えば黒色等で表示される。
FIG. 4 is an enlarged view showing a portion of the virtual viewpoint image in which the image of the
死角領域5は、車両4のボディ形状及びカメラ11〜14の搭載位置によって決まる。このために、死角領域5は、例えば車種ごと、又は、グレードごとに設定することができる。本実施の形態では、死角領域5は、カメラ11〜14の取付誤差及びキャリブレーション誤差を考慮して設定されている。詳細には、死角領域5は、誤差によって車両4のボディが映り込む範囲が最大となる場合でも、車両4のボディ画像が仮想視点画像中に表示されないように設定されている。死角領域5に関するデータは、記憶部24に記憶されている。死角領域5は、仮想視点画像の生成の際に、当該仮想視点画像の仮想視点VPの視点位置と視線方向とに応じて仮想視点画像中に重畳される。
The
<4.マスク領域の設定処理>
本実施の形態においては、設定部223は、仮想視点画像中に設定される死角領域5に基づいてマスク領域を設定する。マスク領域は、各カメラ11〜14に対して設定される。マスク領域の設定は、車両4にカメラ11〜14を取り付けた後に行われる。マスク領域の設定は、例えば、車両の組み立て工場や、車両を販売するディーラ等で行われる。図5は、本実施の形態におけるマスク領域の設定手順を示すフローチャートである。図5を参照しながら、マスク領域の設定処理について説明する。
<4. Mask area setting process>
In the present embodiment, the
設定部223は、仮想視点画像中の死角領域5の境界上の複数点を抽出する(ステップS1)。本実施の形態において、死角領域5の境界上とは、死角領域5の外縁(外周)上のことである。本実施の形態では、設定部223は、仮想視点の視点位置が車両4の真上、かつ、視線方向が真下である場合の仮想視点画像に基づいてマスク領域を設定する。マスク領域を設定するために用いる仮想視点画像は、別の仮想視点を想定したものであってもよい。ただし、本実施の形態の構成の仮想視点画像を利用することにより、いずれのカメラ11〜14に対しても同じ仮想視点画像を利用することができる。このために、処理効率を向上することができる。
The
図6は、図5のステップS1を説明するための図である。図6は、バックカメラ14用のマスク領域を設定する場合を想定した図である。バックカメラ14用のマスク領域の設定を行うにあたって、設定部223は、死角領域5における車両後方側の短辺5B上の複数点gを抽出する。例えば、設定部223は、一定の間隔で短辺5B上の点gを抽出する。一定の間隔は、適宜設定すればよい。例えば100mm間隔等であってよいが、間隔を細かく設定することによって、後述の近似曲線をより正確に取得することができる。本実施の形態では、死角領域5の境界上に加えて、境界の延長線上の点も抽出する。詳細には、図6に示すように、設定部223は、短辺5Bを左右方向に延長した延長線5E上の点gについても抽出する。ただし、これは例示であり、短辺5B上の点gだけでもよい。また、本実施の形態では、短辺5Bから左右に延びる延長線5E上の点が抽出されているが、左右いずれか一方に延びる延長線上の点だけが抽出されてもよい。
FIG. 6 is a diagram for explaining step S1 of FIG. FIG. 6 is a diagram assuming a case where a mask area for the
なお、フロントカメラ11用のマスク領域を設定する場合には、設定部223は、死角領域5における車両前方側の短辺5F上の複数点を抽出する。短辺5Fの延長線上の点も抽出されてよい。左サイドカメラ12用のマスク領域を設定する場合には、設定部223は、死角領域5における車両左方側の長辺5L上の複数点を抽出する。長辺5Lの延長線上の点も抽出されてよい。右サイドカメラ13用のマスク領域を設定する場合には、設定部223は、死角領域5における車両右方側の長辺5R上の複数点を抽出する。長辺5Rの延長線上の点も抽出されてよい。
When setting the mask area for the
次に、設定部223は、死角領域5の境界上の複数点のそれぞれについて、カメラ11〜14の撮影画像における対応座標位置を抽出する(ステップS2)。本実施の形態では、死角領域5の境界上の点に加えて、境界の延長線上の点についても対応座標位置を抽出する。
Next, the
図7は、図5のステップS2を説明するための図である。図7は、バックカメラ14用のマスク領域を設定する場合を想定した図である。設定部223は、バックカメラ14用のマスク領域を設定する場合には、短辺5B上の複数点gのそれぞれについて、バックカメラ14の撮影画像における対応座標位置Gを抽出する。また、設定部223は、短辺5Bの延長線上の点gについても、バックカメラ14の撮影画像における対応座標位置Gを抽出する。これにより、図7に示すように、複数の対応座標位置Gが得られる。なお、図6と図7は、いずれも模式図であり、抽出点の数は特に対応させていない。
FIG. 7 is a diagram for explaining step S2 of FIG. FIG. 7 is a diagram assuming a case where a mask area for the
詳細には、設定部223は、仮想視点VPの視点位置及び視線方向に基づいて、仮想視点画像から抽出した複数点gの投影面TSおける座標位置を求める。そして、設定部223は、投影面TSの座標位置と、バックカメラ14の撮影画像の座標位置との対応関係が示されたデータ(記憶部24に記憶される)に基づいて、仮想視点画像から抽出した複数点gのそれぞれについて、バックカメラ14の撮影画像における対応座標位置Gを求める。
Specifically, the
なお、仮想視点画像から抽出した複数点のそれぞれに対して、上述の対応座標位置を求める処理は、フロントカメラ11、左サイドカメラ12、及び、右サイドカメラ13の場合についても、バックカメラ14の場合と同様である。このため、詳細な説明は省略する。
The process of obtaining the corresponding coordinate positions for each of the plurality of points extracted from the virtual viewpoint image is performed by the
設定部223は、カメラ11〜14の撮影画像上において、複数の対応座標位置から近似曲線を導出する(ステップS3)。図8は、図5のステップS3を説明するための図である。図8は、バックカメラ14用のマスク領域を設定する場合を想定した図である。図8に示すように、設定部223は、複数の対応座標位置Gに基づいて曲線近似を行って近似曲線Lを取得する。曲線近似の手法としては、特に限定する趣旨ではないが、例えば最小二乗法が用いられる。
The
本実施の形態では、死角領域5の境界上の点だけでなく、前述の境界の延長線上の点についても利用して、カメラ11〜14の撮影画像における対応座標位置が抽出される。このために、広い範囲に亘って存在する複数の座標位置を利用して曲線近似を行えるために、より正確な近似曲線を得ることができる。
In the present embodiment, not only the points on the boundary of the
なお、近似曲線を求める処理は、フロントカメラ11、左サイドカメラ12、及び、右サイドカメラ13の場合についても、バックカメラ14の場合と同様である。このため、詳細な説明は省略する。
The process of obtaining the approximate curve is the same for the
設定部223は、近似曲線に基づいてマスク領域を設定する(ステップS4)。図9は、図5のステップS4を説明するための図である。図9は、バックカメラ14用のマスク領域を設定する場合を想定した図である。バックカメラ14の撮影画像において、車両4のボディが映り込む大体の位置は予め把握できている。本実施の形態では、撮影画像の下側に車両4が映り込む。このため、設定部223は、近似曲線Lの下側の領域をマスク領域Rとして設定する。
The
なお、設定部223は、マスク領域Rを設定すると、設定したマスク領域を記憶部24に記憶する。すなわち、マスク領域Rを一度生成すれば、その後は、再度マスク領域Rの設定を行わずに、記憶部24からマスク領域Rに関する情報を読み出して使用することができる。
When the mask area R is set, the
なお、マスク領域を設定する処理は、フロントカメラ11、左サイドカメラ12、及び、右サイドカメラ13の場合についても、バックカメラ14の場合と同様である。このため、詳細な説明は省略する。これらのカメラ11〜13用のマスク領域についても記憶部24に記憶される。
The process of setting the mask area is the same for the
本実施の形態によれば、仮想視点画像において設定される死角領域5から、各カメラ11〜14の撮影画像において車両4のボディが映り込む領域を推定してマスク領域を設定することができる。車両4のボディが映り込む可能性がある領域として設定される死角領域5は、取付誤差及びキャリブレーション誤差を考慮して設定されている。このために、本実施の形態によれば、起り得るばらつきに適切に対応したマスク領域の設定を行うことができる。すなわち、本実施の形態によれば、マスク領域によってマスクした撮影画像に車両4のボディが映り込んだ領域が残ることを避けられる。また、本実施の形態によれば、車両一台、一台に対して、個別にカメラの取付誤差等を考慮しながらマスク領域の算出を行う必要がなく、作業負担を低減することができる。本実施の形態によれば、同一形状のボディを有する車両4に対しては、同じ処理でマスク領域の設定を行うことができる。
According to the present embodiment, the mask area can be set by estimating the area in which the body of the
また、本実施の形態によれば、仮想視点画像における死角領域5に関する情報を単一のカメラ11〜14の画像上に落とし込み、曲線近似を利用してマスク領域を設定する。既存の技術を流用してマスク領域を設定することができるために、単一のカメラごとにマスク領域を設定するための新たなロジックを開発する必要がなく、開発コストの削減を図ることができる。
Further, according to the present embodiment, the information about the
また、本実施の形態の画像処理システムでは、各カメラ11〜14用のマスク領域を設定した後は、その後、一々マスク領域の設定処理を行うことなく、先に設定したマスク領域情報を記憶部24から読み出すことによって、検出部224による検出処理を行うことができる。検出部224は、記憶部24に記憶されるマスク領域情報によってカメラ11〜14の撮影画像にマスク処理を行って、当該マスク処理が施された画像に基づいて検出対象(本実施の形態では駐車枠)の検出処理を行うことができる。なお、マスク処理では、例えば、マスク領域と設定された部分の画素値が0とされる。
Further, in the image processing system of the present embodiment, after the mask areas for each
<<3.留意点>>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
<< 3. Points to keep in mind >>
The various technical features disclosed herein can be modified in addition to the above embodiments without departing from the gist of the technical creation. In addition, a plurality of embodiments and modifications shown in the present specification may be combined and implemented to the extent possible.
例えば、以上に示した実施形態では、画像処理装置2が検出部224を備える構成としたが、これは例示である。画像処理部装置は、検出部を備えなくてもよい。この場合には、画像処理装置とは別に、検出対象を検出する検出装置を設け、両装置が有線又は無線でつながれて情報のやり取りを行うシステムが採用されてよい。
For example, in the embodiment shown above, the
また、以上に示した実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能のうちの少なくとも一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの少なくとも一部は、ソフトウェア的に実現されてもよい。 Further, in the above-described embodiment, it has been described that various functions are realized by software by the arithmetic processing of the CPU according to the program, but at least a part of these functions is electrical hardware. It may be realized by a circuit. On the contrary, at least a part of the functions realized by the hardware circuit may be realized by software.
2・・・画像処理装置
4・・・車両
5・・・死角領域
11・・・フロントカメラ
12・・・左サイドカメラ
13・・・右サイドカメラ
14・・・バックカメラ
21・・・画像生成部
223・・・設定部
224・・・検出部
G・・・対応座標位置
L・・・近似曲線
R・・・マスク領域
SYS2・・・画像処理システム
2 ...
Claims (8)
前記車両に搭載されるカメラによる撮影画像に基づいて、仮想視点から見た前記車両の周辺を示す仮想視点画像を生成する画像生成部と、
前記仮想視点画像に基づいて、前記カメラの撮影画像中において所定の処理に使用しない領域であるマスク領域を設定する設定部と、
を備え、
前記所定の処理は、前記カメラによる撮影画像に基づいて検出対象を検出する処理であり、
前記仮想視点画像中には、前記車両の周辺を表示しない死角領域が設定されており、
前記設定部は、前記死角領域の境界上の複数点のそれぞれについて、前記カメラの撮影画像における対応座標位置を抽出し、複数の前記対応座標位置から導出される近似曲線に基づいて前記マスク領域を設定する、画像処理装置。 An image processing device used in a vehicle
An image generation unit that generates a virtual viewpoint image showing the periphery of the vehicle as seen from a virtual viewpoint based on an image taken by a camera mounted on the vehicle.
Based on the virtual viewpoint image, a setting unit for setting a mask area, which is an area not used for a predetermined process in the captured image of the camera, and a setting unit.
With
The predetermined process is a process of detecting a detection target based on an image captured by the camera.
In the virtual viewpoint image, a blind spot area that does not display the periphery of the vehicle is set.
The setting unit extracts the corresponding coordinate positions in the image captured by the camera for each of the plurality of points on the boundary of the blind spot region, and sets the mask region based on the approximate curves derived from the plurality of the corresponding coordinate positions. Image processing device to set.
前記設定部は、前記死角領域の境界を構成する一辺上の点に加えて、前記一辺の延長線上の点についても前記対応座標位置を抽出して前記マスク領域を設定する、請求項3に記載の画像処理装置。 The boundary of the blind spot region is rectangular and has a rectangular shape.
The third aspect of the present invention, wherein the setting unit extracts the corresponding coordinate position for a point on an extension line of the one side in addition to a point on one side constituting the boundary of the blind spot area and sets the mask area. Image processing equipment.
前記カメラと、
を備える、画像処理システム。 The image processing apparatus according to any one of claims 1 to 6.
With the camera
An image processing system.
車両に搭載されるカメラによる撮影画像に基づいて、仮想視点から見た前記車両の周辺を示す仮想視点画像を生成する画像生成工程と、
前記仮想視点画像に基づいて、前記カメラの撮影画像中において所定の処理に使用しない領域であるマスク領域を設定するマスク領域設定工程と、
を備え、
前記所定の処理は、前記カメラによる撮影画像に基づいて検出対象を検出する処理であり、
前記仮想視点画像中には、前記車両の周辺を表示しない死角領域が設定され、
前記マスク領域設定工程においては、前記死角領域の境界上の複数点のそれぞれについて、前記カメラの撮影画像における対応座標位置が抽出され、複数の前記対応座標位置から導出される近似曲線に基づいて前記マスク領域が設定される、画像処理方法。 It is an image processing method using a processing device.
An image generation process that generates a virtual viewpoint image showing the surroundings of the vehicle as seen from a virtual viewpoint based on an image taken by a camera mounted on the vehicle.
Based on the virtual viewpoint image, a mask area setting step of setting a mask area which is an area not used for a predetermined process in the captured image of the camera, and a mask area setting step.
With
The predetermined process is a process of detecting a detection target based on an image captured by the camera.
In the virtual viewpoint image, a blind spot area that does not display the periphery of the vehicle is set.
In the mask area setting step, the corresponding coordinate positions in the image captured by the camera are extracted for each of the plurality of points on the boundary of the blind spot area, and the approximation curves derived from the plurality of corresponding coordinate positions are used. An image processing method in which a mask area is set.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003584A JP6855254B2 (en) | 2017-01-12 | 2017-01-12 | Image processing device, image processing system, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017003584A JP6855254B2 (en) | 2017-01-12 | 2017-01-12 | Image processing device, image processing system, and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018113622A JP2018113622A (en) | 2018-07-19 |
JP6855254B2 true JP6855254B2 (en) | 2021-04-07 |
Family
ID=62912536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017003584A Active JP6855254B2 (en) | 2017-01-12 | 2017-01-12 | Image processing device, image processing system, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6855254B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7095537B2 (en) * | 2018-10-02 | 2022-07-05 | トヨタ自動車株式会社 | Image processing equipment, programs, information processing systems, and control methods |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10105678A (en) * | 1996-09-26 | 1998-04-24 | Toshiba Corp | Device and method for processing image |
CA2369648A1 (en) * | 1999-04-16 | 2000-10-26 | Matsushita Electric Industrial Co., Limited | Image processing device and monitoring system |
JP2005349890A (en) * | 2004-06-09 | 2005-12-22 | Alpine Electronics Inc | Vehicle surrounding image generating device |
JP5007953B2 (en) * | 2008-03-14 | 2012-08-22 | 日本電気株式会社 | Image processing apparatus, image processing method, and program |
JP5134504B2 (en) * | 2008-11-06 | 2013-01-30 | クラリオン株式会社 | Vehicle perimeter monitoring system |
JP5456330B2 (en) * | 2009-02-04 | 2014-03-26 | アルパイン株式会社 | Image display apparatus and camera mounting angle calculation method |
JP5251947B2 (en) * | 2010-09-17 | 2013-07-31 | 日産自動車株式会社 | Image display device for vehicle |
JP6178280B2 (en) * | 2014-04-24 | 2017-08-09 | 日立建機株式会社 | Work machine ambient monitoring device |
-
2017
- 2017-01-12 JP JP2017003584A patent/JP6855254B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018113622A (en) | 2018-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10620000B2 (en) | Calibration apparatus, calibration method, and calibration program | |
JP6458439B2 (en) | On-vehicle camera calibration device, image generation device, on-vehicle camera calibration method, and image generation method | |
JP5124147B2 (en) | Camera calibration apparatus and method, and vehicle | |
JP5341789B2 (en) | Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program | |
JP5339124B2 (en) | Car camera calibration system | |
JP5455124B2 (en) | Camera posture parameter estimation device | |
JP5108605B2 (en) | Driving support system and vehicle | |
EP3368373B1 (en) | Filling in surround view areas blocked by mirrors or other vehicle parts | |
JP5953824B2 (en) | Vehicle rear view support apparatus and vehicle rear view support method | |
JP5011049B2 (en) | Image processing system | |
JP2009017020A (en) | Image processor and method for generating display image | |
JP2012105158A (en) | Combination vehicle birds-eye-view display system | |
JP2008271308A (en) | Image processor and method, and vehicle | |
CN112224132A (en) | Vehicle panoramic all-around obstacle early warning method | |
JP2006268076A (en) | Driving assistance system | |
US20170028917A1 (en) | Driving assistance device and driving assistance method | |
CN107249934B (en) | Method and device for displaying vehicle surrounding environment without distortion | |
JP2007150658A (en) | On-vehicle perimeter image display apparatus | |
CN110378836B (en) | Method, system and equipment for acquiring 3D information of object | |
JP6151535B2 (en) | Parameter acquisition apparatus, parameter acquisition method and program | |
JP5959311B2 (en) | Data deriving apparatus and data deriving method | |
JP2008085710A (en) | Driving support system | |
JP2018533098A (en) | Panel conversion | |
KR20160050439A (en) | Method for adjusting output video of rear camera for vehicles | |
WO2019053929A1 (en) | Vehicle device, calibration result determination system, calibration result determination method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210302 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6855254 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |