JP2022113526A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2022113526A
JP2022113526A JP2021009829A JP2021009829A JP2022113526A JP 2022113526 A JP2022113526 A JP 2022113526A JP 2021009829 A JP2021009829 A JP 2021009829A JP 2021009829 A JP2021009829 A JP 2021009829A JP 2022113526 A JP2022113526 A JP 2022113526A
Authority
JP
Japan
Prior art keywords
map
hue
value
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021009829A
Other languages
Japanese (ja)
Inventor
守 久保田
Mamoru Kubota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Information and Telecommunication Engineering Ltd
Original Assignee
Hitachi Information and Telecommunication Engineering Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Information and Telecommunication Engineering Ltd filed Critical Hitachi Information and Telecommunication Engineering Ltd
Priority to JP2021009829A priority Critical patent/JP2022113526A/en
Publication of JP2022113526A publication Critical patent/JP2022113526A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To detect a parking area accurately regardless of environment.SOLUTION: An image processing apparatus 100 includes: an image synthesis unit 120 which synthesizes captured images obtained in a camera to generate a synthesized image; a map creation unit 131 which calculates a hue value of the synthesized image to create a hue map; a cumulative map creation unit 132 which accumulates hue values of hue maps for each predetermined area, in a predetermined range, for a predetermined period, to create a cumulative map 220; a parking area extraction unit 134 which extracts a parking area 300 from the cumulative map 220; and an output processing unit 140 which outputs the parking area 300.SELECTED DRAWING: Figure 2

Description

本発明は、カラー画像を処理する画像処理技術に関する。 The present invention relates to image processing technology for processing color images.

車載カメラで撮影した画像を用いて、駐車場の白線を検出する技術がある。例えば、特許文献1には、「第1白線検出部の検出結果に基づいて、第1駐車枠検出部で前方俯瞰画像における駐車枠を検出し、第1駐車枠検出部の検出結果を参照して、側方俯瞰画像から駐車枠線を第2白線検出部で検出するように構成した。そして、第1白線検出部および第2白線検出部の検出結果に基づいて、前方俯瞰画像と側方俯瞰画像とにまたがって存在する駐車枠を第2駐車枠検出部で検出するように構成した(要約抜粋)」技術が開示されている。 There is technology for detecting white lines in a parking lot using an image captured by an in-vehicle camera. For example, in Patent Document 1, "Based on the detection result of the first white line detection unit, the first parking frame detection unit detects the parking frame in the front bird's-eye view image, and refers to the detection result of the first parking frame detection unit. Then, based on the detection results of the first white line detection unit and the second white line detection unit, the front bird's-eye view image and the side bird's-eye view image are detected by the second white line detection unit. A technique is disclosed in which a second parking frame detection unit detects a parking frame existing over an overhead image (summary excerpt).

また、黄色の線を検出する画像処理技術がある。例えば、特許文献2には、「画像処理装置において線分抽出部は、算出部と、補正部と、抽出部とを備える。算出部は、撮像装置によって得られた画像データの画素に対し、R値またはG値と、B値との差に基づく彩度を算出する。補正部は、算出された彩度を強調量として所定の黄色条件を満たす画素の輝度値を補正する。抽出部は、補正後の輝度値に基づいて路面に表示された区画線を検出する(要約抜粋)」技術が開示されている。 There is also an image processing technique for detecting yellow lines. For example, in Patent Document 2, "In the image processing apparatus, the line segment extraction unit includes a calculation unit, a correction unit, and an extraction unit. A saturation is calculated based on the difference between the R value or the G value and the B value.The correction unit corrects the luminance value of the pixel that satisfies a predetermined yellow condition using the calculated saturation as an enhancement amount. , Detecting marking lines displayed on the road surface based on corrected luminance values (summary excerpt)” technology is disclosed.

特開2014-106738号公報JP 2014-106738 A 特開2020-095621号公報JP 2020-095621 A

特許文献1に記載の技術は、路面と駐車枠線の輝度差をもとに駐車枠を認識している。このため、輝度差の少ない環境、例えば、曇天時、夜間、屋内等では認識が難しい。 The technique described in Patent Literature 1 recognizes a parking frame based on the luminance difference between the road surface and the parking frame line. For this reason, it is difficult to recognize in an environment with little luminance difference, for example, when it is cloudy, at night, indoors, or the like.

特許文献2に記載の技術は、色情報を考慮し、駐車枠を認識する。しかしながら、黄色成分の強さを基の輝度に加算する技術であり、認識対象が、一般的な黄色(オレンジ色)の駐車枠線に限定されている。 The technology described in Patent Literature 2 considers color information and recognizes a parking frame. However, this technology adds the strength of the yellow component to the base luminance, and the recognition target is limited to general yellow (orange) parking frame lines.

本発明は、上記事情に鑑みてなされたもので、環境によらず、精度よく駐車領域を検出する技術を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a technique for accurately detecting a parking area regardless of the environment.

本発明の画像処理装置は、カメラで取得した撮影画像を合成し、合成画像を生成する画像合成部と、前記合成画像の色相値を算出し、色相マップを作成するマップ作成部と、予め定めた期間分の、予め定めた範囲の、予め定めた領域毎の前記色相マップの前記色相値を蓄積し、蓄積マップを作成する蓄積マップ作成部と、前記蓄積マップから、駐車領域を抽出する駐車領域抽出部と、前記駐車領域を出力する出力処理部と、を備えることを特徴とする。 The image processing apparatus of the present invention includes an image synthesizing unit that synthesizes captured images obtained by a camera to generate a synthesized image, and a map creation unit that calculates the hue value of the synthesized image and creates a hue map. an accumulated map creation unit for creating an accumulated map by accumulating the hue values of the hue map for each predetermined area in a predetermined range for a predetermined period; and a parking area for extracting a parking area from the accumulated map. An area extraction unit and an output processing unit that outputs the parking area are provided.

本発明によれば、環境によらず、精度よく駐車領域を検出できる。上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, the parking area can be detected with high accuracy regardless of the environment. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

本発明の実施形態の概要を説明するための説明図である。BRIEF DESCRIPTION OF THE DRAWINGS It is explanatory drawing for demonstrating the outline|summary of embodiment of this invention. (a)および(b)は、それぞれ、本発明の実施形態の画像処理装置の、ハードウェア構成図および機能ブロック図である。1A and 1B are a hardware configuration diagram and a functional block diagram, respectively, of an image processing apparatus according to an embodiment of the present invention; FIG. 本発明の実施形態の駐車領域特定処理のフローチャートである。It is a flowchart of parking area identification processing of the embodiment of the present invention. 本発明の実施形態のマップ作成処理を説明するための説明図である。It is an explanatory view for explaining map creation processing of an embodiment of the present invention. (a)および(b)は、それぞれ、本発明の実施形態の蓄積マップおよび蓄積マップの各グリッドに対応づけて登録されるデータを説明するための説明図である。(a) and (b) are explanatory diagrams for explaining an accumulation map and data registered in association with each grid of the accumulation map, respectively, according to the embodiment of the present invention. 本発明の実施形態の蓄積マップ作成処理を説明するための説明図である。FIG. 5 is an explanatory diagram for explaining accumulation map creation processing according to the embodiment of this invention; (a)は、本発明の実施形態の確信度算出処理のフローチャートであり、(b)および(c)は、それぞれ、本発明の実施形態の明度増減値テーブルおよび色相増減値テーブルの一例を説明するための説明図である。(a) is a flowchart of certainty calculation processing according to the embodiment of the present invention, and (b) and (c) respectively explain an example of a brightness increase/decrease value table and a hue increase/decrease value table of the embodiment of the present invention. It is an explanatory view for doing. 本発明の実施形態の駐車領域抽出処理のフローチャートである。It is a flow chart of parking area extraction processing of the embodiment of the present invention. (a)および(b)は、それぞれ、本発明の実施形態の彩色部分の抽出処理および無彩色部分の抽出処理のフローチャートである。4(a) and 4(b) are flowcharts of a colored portion extraction process and an achromatic part extraction process, respectively, according to the embodiment of the present invention. 本発明の変形例の蓄積マップ作成処理を説明するための説明図である。It is an explanatory view for explaining accumulation map creation processing of a modification of the present invention. (a)および(b)は、本発明の変形例の駐車領域抽出手法を説明するための説明図である。(a) and (b) are explanatory diagrams for explaining a parking area extraction method according to a modification of the present invention.

以下、図面を参照しながら本発明の実施の形態を説明する。なお、本発明は、本実施形態に制限されず、本発明の思想に合致するあらゆる応用例がその技術的範囲に含まれる。また、特に明示しない限り、各構成要素は複数でも単数でも構わない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the present invention is not limited to this embodiment, and all application examples consistent with the idea of the present invention are included in its technical scope. Also, unless otherwise specified, each component may be singular or plural.

まず、本実施形態の概要を、説明する。図1は、本実施形態の概要を説明するための図である。本実施形態では、車両910に搭載されたカメラで画像(撮影画像)を取得する毎に、その撮影画像を合成し、変換することにより俯瞰画像210を生成する。俯瞰画像210は、車両910の上方から車両周囲を俯瞰する画像である。そして、俯瞰画像210の、各画素211、212の色相値および明度値を算出する。 First, an outline of this embodiment will be described. FIG. 1 is a diagram for explaining the outline of this embodiment. In this embodiment, every time an image (captured image) is acquired by the camera mounted on the vehicle 910, the captured image is synthesized and converted to generate the bird's-eye view image 210. FIG. A bird's-eye view image 210 is an image that looks down on the surroundings of the vehicle from above the vehicle 910 . Then, the hue value and brightness value of each pixel 211 and 212 of the overhead image 210 are calculated.

その後、所定期間の、所定範囲の色相値および明度値を、所定領域(グリッド222)毎に蓄積し、所定範囲の蓄積マップ220を生成する。このとき、各グリッド222の蓄積値の確信度を算出してもよい。そして、これらの蓄積値を用いて、所定範囲内の駐車領域300を抽出する。なお、本実施形態では、駐車領域300として、駐車枠線310により囲まれた領域と、駐車スペース320と、を含む。 After that, hue values and lightness values in a predetermined range for a predetermined period are accumulated for each predetermined area (grid 222) to generate an accumulation map 220 for the predetermined range. At this time, the reliability of the accumulated value of each grid 222 may be calculated. Then, using these accumulated values, a parking area 300 within a predetermined range is extracted. In this embodiment, the parking area 300 includes the area surrounded by the parking frame line 310 and the parking space 320 .

本実施形態では、上記処理を車載の画像処理装置100により実現する。まず、本実施形態の画像処理装置100について説明する。 In this embodiment, the above processing is realized by the image processing device 100 mounted on the vehicle. First, the image processing apparatus 100 of this embodiment will be described.

[ハードウェア構成]
図2(a)は、本実施形態の画像処理装置のハードウェア構成図である。本図に示すように、本実施形態の画像処理装置100は、CPU(Central Processing Unit)111と、メモリ112と、記憶装置113と、入力装置114と、出力装置115と、データI/F116と、を備える。さらに、通信I/F等を備えてもよい。画像処理装置100は、例えば、汎用の情報処理装置(コンピュータ)で実現される。
[Hardware configuration]
FIG. 2A is a hardware configuration diagram of the image processing apparatus of this embodiment. As shown in the figure, the image processing apparatus 100 of this embodiment includes a CPU (Central Processing Unit) 111, a memory 112, a storage device 113, an input device 114, an output device 115, a data I/F 116, and a , provided. Furthermore, a communication I/F or the like may be provided. The image processing apparatus 100 is implemented by, for example, a general-purpose information processing apparatus (computer).

CPU111は、所定のプログラムに従って画像処理装置100全体を制御する主制御部(メインプロセッサ)である。マイクロプロセッサユニット(MPU)で実現されてもよい。 A CPU 111 is a main control unit (main processor) that controls the entire image processing apparatus 100 according to a predetermined program. It may be implemented in a microprocessor unit (MPU).

メモリ112は、一時記憶領域、ワーク領域である。例えば、RAM(Randam Access Memory)等が用いられる。RAMは、CPU111と一体構成であっても良い。 A memory 112 is a temporary storage area and a work area. For example, a RAM (Random Access Memory) or the like is used. The RAM may be integrated with the CPU 111 .

記憶装置113は、CPU111が処理に利用するデータ、処理により生成したデータ等が記憶される。ROM(Read OnlyMemory)や、フラッシュメモリ、ハードディスク等が用いられる。 The storage device 113 stores data used by the CPU 111 for processing, data generated by the processing, and the like. A ROM (Read Only Memory), a flash memory, a hard disk, or the like is used.

入力装置114は、操作指示の入力を受け付ける。電源キー、音量キー、ホームキー等の操作キーや、タッチセンサ等を備えてもよい。なお、タッチセンサは、タッチパネルとして後述のディスプレイに重ねて配置される。なお、音声入力を受け付ける場合、マイクであってもよい。 The input device 114 receives input of operation instructions. Operation keys such as a power key, a volume key, a home key, and a touch sensor may be provided. It should be noted that the touch sensor is arranged as a touch panel so as to overlap a display, which will be described later. It should be noted that a microphone may be used when receiving voice input.

出力装置115は、処理結果を出力する。例えば、ディスプレイ、スピーカ、ランプ等を備えてもよい。 The output device 115 outputs the processing result. For example, a display, a speaker, a lamp, etc. may be provided.

データI/F116は、車内の例えば、ECU(Electronic Control Unit)との間でデータの送受信を行ったり、車載カメラ191(図2(b)参照)からデータを受信したりするインタフェースである。 The data I/F 116 is an interface that transmits and receives data to, for example, an ECU (Electronic Control Unit) in the vehicle, and receives data from the vehicle-mounted camera 191 (see FIG. 2B).

なお、車載カメラ191は、例えば、CCD(Charge Coupled Device)やCMOS(Cpmplementary Metal Oxide Semiconductor)などの撮像素子を備え、当該カメラが搭載される車両910の周囲を撮影する。 In addition, the vehicle-mounted camera 191 includes an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and photographs the surroundings of the vehicle 910 in which the camera is mounted.

車載カメラ191の数は限定されず、車両の周囲360度を撮影できればよい。例えば、水平画角が90度以上のカメラを4つ、それぞれ、車両の前方、後方、左側方、右側方を撮影してもよい。また、360度カメラ(全天球カメラ)1つであってもよい。以下、本実施形態では、車載カメラ191を複数備える場合を例にあげて説明する。 The number of in-vehicle cameras 191 is not limited as long as they can photograph 360 degrees around the vehicle. For example, four cameras each having a horizontal angle of view of 90 degrees or more may photograph the front, rear, left side, and right side of the vehicle. Alternatively, one 360-degree camera (omnidirectional camera) may be used. Hereinafter, in this embodiment, a case in which a plurality of in-vehicle cameras 191 are provided will be described as an example.

[機能ブロック]
本実施形態では、画像処理装置100は、上述のように、車載カメラ191で取得した撮影画像を用いて、車両910の周囲の駐車領域300を特定する。これを実現する本実施形態の画像処理装置100の機能構成を以下に説明する。図2(b)は、本実施形態の画像処理装置100の機能ブロック図である。
[Function block]
In this embodiment, the image processing device 100 identifies the parking area 300 around the vehicle 910 using the captured image acquired by the vehicle-mounted camera 191 as described above. The functional configuration of the image processing apparatus 100 of this embodiment that realizes this will be described below. FIG. 2B is a functional block diagram of the image processing apparatus 100 of this embodiment.

画像処理装置100は、画像合成部120と、演算処理部130と、出力処理部140と、を備える。演算処理部130は、マップ作成部131と、蓄積マップ作成部132と、駐車領域抽出部134と、を備える。また、蓄積マップ作成部132は、確信度算出部133を備える。 The image processing apparatus 100 includes an image synthesizing section 120 , an arithmetic processing section 130 and an output processing section 140 . Arithmetic processing unit 130 includes map creating unit 131 , accumulated map creating unit 132 , and parking area extracting unit 134 . The accumulation map creating unit 132 also includes a certainty calculating unit 133 .

画像合成部120は、複数の車載カメラ191で取得した各撮影画像を合成し、合成画像(俯瞰画像210)を生成する画像合成処理を行う。俯瞰画像210は、各撮影画像を、撮影方向に応じて座標変換した上で、つなぎ合わせることによって合成される。本処理は、周知の各種処理を用いることができる。画像合成処理は、所定の間隔、例えば、各車載カメラ191から撮影画像が入力される毎に行われる。 The image synthesizing unit 120 performs an image synthesizing process of synthesizing the captured images acquired by the plurality of in-vehicle cameras 191 and generating a synthesized image (overhead image 210). The bird's-eye view image 210 is synthesized by connecting the photographed images after performing coordinate transformation according to the photographing direction. Various well-known processes can be used for this process. The image synthesizing process is performed at predetermined intervals, for example, each time a photographed image is input from each vehicle-mounted camera 191 .

なお、ここで生成される合成画像は、俯瞰画像210に限定されない。車両910の周囲を把握可能な画像であればよい。 Note that the synthesized image generated here is not limited to the overhead image 210 . Any image may be used as long as the surroundings of the vehicle 910 can be grasped.

なお、俯瞰画像210は、各画素について、RGBの色情報(以下、RGB値と呼ぶ。)を備える。色情報の形式はカメラの画像出力形式によるが、ここではRGB形式で各車載カメラ191が色情報を出力するものとする。 Note that the overhead image 210 includes RGB color information (hereinafter referred to as RGB values) for each pixel. Although the format of the color information depends on the image output format of the camera, here it is assumed that each vehicle-mounted camera 191 outputs the color information in RGB format.

演算処理部130は、俯瞰画像210に対し、予め定めた演算を行い、車両周囲の駐車領域300を認識する。 The calculation processing unit 130 performs predetermined calculations on the bird's-eye view image 210 to recognize the parking area 300 around the vehicle.

マップ作成部131は、画像合成部120で作成された俯瞰画像210から、色相マップおよび明度マップを作成する。マップ作成部131は、最新の俯瞰画像210の各画素のRGB値をHSV形式に変換し、俯瞰画像210に対応する領域の色相マップと明度マップとを作成する。 Map creator 131 creates a hue map and a lightness map from bird's-eye view image 210 created by image synthesizer 120 . The map creation unit 131 converts the RGB values of each pixel of the latest bird's-eye view image 210 into the HSV format, and creates a hue map and a brightness map of the region corresponding to the bird's-eye view image 210 .

なお、HSVとは、色を色相(Hue;以下H)と、彩度(Saturation)と、明度(Value・Brightness;以下、V)との3要素で表現する方式である。本実施形態では、このうち、色相(H)と明度(V)とを用いる。よって、色相マップは、車両910の周辺の、俯瞰画像210の範囲の色情報をマッピングしたものであり、明度マップは、同範囲の明度をマッピングしたものである。 Note that HSV is a method of expressing a color by three elements of Hue (H), Saturation, and Value/Brightness (V). In the present embodiment, hue (H) and brightness (V) are used among these. Therefore, the hue map maps the color information of the range of the bird's-eye view image 210 around the vehicle 910, and the brightness map maps the brightness of the same range.

蓄積マップ作成部132は、マップ作成部131が作成した色相マップの色相値および明度マップの明度値を、予め定めた領域(グリッド)単位で蓄積し、蓄積マップ220を作成する。なお、蓄積マップ220は、現時点から所定期間遡った所定数の色相マップおよび明度マップを用いて、実空間上の同じ位置に対応するグリッドの、色相値および明度値を蓄積したものである。蓄積は、俯瞰画像210より広い、予め定めた範囲について行う。 Accumulation map creation unit 132 creates an accumulation map 220 by accumulating the hue values of the hue map and the brightness values of the brightness map created by map creation unit 131 in units of predetermined regions (grids). Note that the accumulation map 220 is obtained by accumulating hue values and lightness values of grids corresponding to the same position on the real space using a predetermined number of hue maps and lightness maps that go back a predetermined period from the current time. Accumulation is performed for a predetermined range wider than the bird's-eye view image 210 .

確信度算出部133は、蓄積マップ220の各グリッドの確信度を計算する。ここで、確信度は、そのグリッドの値の確からしさを示す度合いである。 The certainty calculation unit 133 calculates the certainty of each grid of the accumulation map 220 . Here, the degree of certainty is the degree of certainty of the value of the grid.

駐車領域抽出部134は、蓄積マップ作成部132で作成した、確信度を含む蓄積マップ220から、2種類の駐車領域300を抽出する。ここでは、所定の面領域である駐車スペース320で規定される駐車領域300と、駐車枠線310のペアで規定される駐車領域300と、を抽出する。 The parking area extraction unit 134 extracts two types of parking areas 300 from the accumulation map 220 including the certainty generated by the accumulation map generation unit 132 . Here, a parking area 300 defined by a parking space 320, which is a predetermined plane area, and a parking area 300 defined by a pair of parking frame lines 310 are extracted.

出力処理部140は、駐車領域抽出部134が抽出した駐車領域300を、出力画像として生成し、出力装置115から出力する。または、データI/F116を介して、ECUへ出力する。例えば、ECUでは、自動駐車制御等にこの情報を用いてもよい。 The output processing unit 140 generates an output image of the parking area 300 extracted by the parking area extraction unit 134 and outputs the image from the output device 115 . Alternatively, it outputs to the ECU via the data I/F 116 . For example, the ECU may use this information for automatic parking control or the like.

画像処理装置100の各機能は、例えば、CPU111が、記憶装置113に記憶されたプログラムを、メモリ112にロードして実行することにより実現される。なお、画像処理装置100は、一部が、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などで実現されてもよい。 Each function of the image processing apparatus 100 is implemented by, for example, the CPU 111 loading a program stored in the storage device 113 into the memory 112 and executing the program. A part of the image processing apparatus 100 may be realized by an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like.

[駐車領域特定処理]
本実施形態の演算処理部130による駐車領域特定処理の流れを、図3に示す。本処理は、画像合成部120が画像を合成し、俯瞰画像210を生成する毎に実行される。
[Parking area identification process]
FIG. 3 shows the flow of parking area identification processing by the arithmetic processing unit 130 of the present embodiment. This processing is executed each time the image synthesizing unit 120 synthesizes images to generate the bird's-eye view image 210 .

まず、マップ作成部131は、マップ作成処理を実行する(ステップS1101)。これにより、マップ作成部131は、俯瞰画像210の各画素位置の画素値が色相値である色相マップと、明度値である明度マップとを作成する。マップ作成処理の詳細は、後述する。 First, the map creation unit 131 executes map creation processing (step S1101). Thereby, the map creating unit 131 creates a hue map in which the pixel values at each pixel position of the bird's-eye view image 210 are the hue values, and a lightness map in which the lightness values are the lightness values. Details of the map creation process will be described later.

次に、蓄積マップ作成部132は、蓄積マップ220を作成する蓄積マップ作成処理を実行する(ステップS1102)。蓄積マップ作成処理の詳細は、後述する。このとき、確信度算出部133は、各グリッドの確信度を算出する。 Next, the accumulation map creation unit 132 executes accumulation map creation processing for creating the accumulation map 220 (step S1102). Details of the accumulation map creation process will be described later. At this time, the certainty calculation unit 133 calculates the certainty of each grid.

そして、駐車領域抽出部134は、蓄積マップから、駐車領域300を抽出し(ステップS1103)、処理を終了する。 Then, the parking area extraction unit 134 extracts the parking area 300 from the accumulation map (step S1103), and ends the process.

なお、出力処理部140は、演算処理部130が抽出した駐車領域300を出力画像とし、ディスプレイ等に表示する。本実施形態では、例えば、元の俯瞰画像210に駐車領域300を重畳して表示する。 Note that the output processing unit 140 uses the parking area 300 extracted by the arithmetic processing unit 130 as an output image and displays it on a display or the like. In this embodiment, for example, the parking area 300 is superimposed on the original overhead image 210 and displayed.

以下、上記演算処理の各処理の詳細を説明する。 The details of each processing of the above arithmetic processing will be described below.

[マップ作成]
マップ作成部131は画像合成部120で作成した、各画素値がRGB値である俯瞰画像210から、各画素値が(H)値である色相マップおよび明度(V)値である明度マップを生成する。色相マップおよび明度マップは、図4に示すように、俯瞰画像210上に、車両910周辺の色情報、明度情報をマッピングしたものである。
[Create map]
The map creation unit 131 creates a hue map in which each pixel value is an (H) value and a brightness map in which each pixel value is a brightness (V) value from the bird's-eye view image 210 created by the image synthesis unit 120 and in which each pixel value is an RGB value. do. As shown in FIG. 4, the hue map and the brightness map are obtained by mapping color information and brightness information around the vehicle 910 on the bird's-eye view image 210 .

上述のように、俯瞰画像210の各画素は、それぞれ、RGB値を有する。このRGB値からHV値を算出する際の変換式は、以下の式(1)の通りである。

Figure 2022113526000002
なお、各画素において、RGBの3つの値のうち、最大のものをMAX、最小のものをMINとする。 As described above, each pixel of the overhead image 210 has an RGB value. The conversion formula for calculating the HV value from the RGB values is as shown in formula (1) below.
Figure 2022113526000002
Note that for each pixel, among the three values of RGB, the maximum value is MAX and the minimum value is MIN.

例えば、図4の画素211に対応する俯瞰画像210の画素が、(R,G,B)=(128,128,128)である場合、画素211の色相値、明度値は、(H,V)=(定義不可,128)となる。同様に画素212に対応する俯瞰画像210の画素が、(R,G,B)=(140,170,220)の場合、画素212の色相値、明度値は、(H,V)=(159.5,220)となる。 For example, when the pixel of the overhead image 210 corresponding to the pixel 211 in FIG. 4 is (R, G, B)=(128, 128, 128), the hue value and brightness value of the pixel 211 are )=(undefinable, 128). Similarly, when the pixel of the overhead image 210 corresponding to the pixel 212 is (R, G, B)=(140, 170, 220), the hue value and brightness value of the pixel 212 are (H, V)=(159). .5,220).

なお、色相が算出できない箇所(MIN=MAX)は定義不可領域として色相マップ上に記録する。ここで、定義不可の画素は、各画素のRGB値が全て同じ値、すなわち、白、灰色、黒等のグレースケール(無彩色)の画素である。このように、本実施形態では、色相(H)が算出不可の場合でも色相マップではH=定義不可として情報が保持される。 A portion (MIN=MAX) where the hue cannot be calculated is recorded on the hue map as an undefinable region. Here, the undefinable pixels are pixels whose RGB values are all the same, that is, grayscale (achromatic) pixels such as white, gray, and black. As described above, in the present embodiment, even if the hue (H) cannot be calculated, the information is held as H=impossible to define in the hue map.

[蓄積マップ作成]
蓄積マップ220は、過去に作成した色相マップおよび明度マップの色相値および明度値をそれぞれ蓄積し、保持したマップである。蓄積マップ220は、2次元のグリッドを持ったマップであり、図5(a)に示すように色相マップおよび明度マップに比べサイズの大きいマップである。また、各グリッドは、色相マップおよび明度マップの元の俯瞰画像210の画素に対応してもよいし、複数の画素を含んでもよい。以下、色相マップおよび明度マップを特に区別する必要がない場合、色相マップ等と呼ぶ。
[Create accumulation map]
The accumulation map 220 is a map that accumulates and holds hue values and brightness values of hue maps and brightness maps that have been created in the past. The accumulation map 220 is a map having a two-dimensional grid, and as shown in FIG. 5A, the map is larger in size than the hue map and the brightness map. Each grid may correspond to the pixels of the original bird's-eye view image 210 of the hue map and the lightness map, or may include a plurality of pixels. Hereinafter, when there is no particular need to distinguish between a hue map and a lightness map, they will be referred to as a hue map or the like.

本実施形態では、例えば、蓄積マップ220は、色相マップ等(俯瞰画像210)に比べ、縦横それぞれ2倍の大きさとする。例えば、色相マップ等が、車両910を中心とし、一辺が8mの矩形とすると、蓄積マップ220は、同じく車両910を中心とした一辺が16mの矩形とする。 In the present embodiment, for example, the accumulation map 220 is twice as large in height and width as the hue map (overhead image 210). For example, if the hue map or the like is a rectangle centered on the vehicle 910 and 8 m on a side, the accumulated map 220 is also a rectangle centered on the vehicle 910 and 16 m on a side.

なお、蓄積マップ220と色相マップ等(俯瞰画像210)とのサイズ比はこれに限定されない。蓄積マップ220のサイズが、色相マップ等より大きければよい。また、蓄積マップ220のサイズは、固定値であってもよいし、抽出対象の駐車領域300に合わせて変更してもよい。 Note that the size ratio between the accumulation map 220 and the hue map or the like (overhead image 210) is not limited to this. It is sufficient if the size of the accumulation map 220 is larger than the hue map or the like. Also, the size of the accumulation map 220 may be a fixed value, or may be changed according to the parking area 300 to be extracted.

蓄積マップ220の各グリッド221は、図5(b)に示すように、色相蓄積値と、明度蓄積値と、確信度と、の情報を保持する。色相蓄積値および明度蓄積値は、予め定めた領域の色相マップ等の、現実空間の同じ位置に対応する、過去の所定期間の、それぞれ、色相値および明度値を蓄積したものである。蓄積数は、予め定めておく。 Each grid 221 of the accumulation map 220, as shown in FIG. 5B, holds information on hue accumulation value, lightness accumulation value, and certainty. The hue accumulation value and the lightness accumulation value are accumulated hue and lightness values, respectively, for a predetermined period of time in the past corresponding to the same position in the physical space, such as a hue map of a predetermined region. The number of accumulations is determined in advance.

確信度は、過去の信頼度情報をもとに、現在の色相蓄積値または明度蓄積値の状況を判定して値を算出する。 The degree of certainty is calculated by judging the state of the current hue accumulated value or lightness accumulated value based on past reliability information.

車載カメラ191は、車両910に搭載される。このため、図6に示すように、車両910の移動に伴い、車載カメラ191により撮影される領域が異なる。すなわち、撮影画像の撮影範囲が異なり、撮影画像から生成される俯瞰画像210がカバーする現実空間の範囲も異なる。したがって、俯瞰画像210に対応する色相マップ等の範囲も異なる。 Vehicle-mounted camera 191 is mounted on vehicle 910 . Therefore, as shown in FIG. 6, the area photographed by the vehicle-mounted camera 191 changes as the vehicle 910 moves. That is, the photographing ranges of the photographed images are different, and the range of the physical space covered by the bird's-eye view image 210 generated from the photographed images is also different. Therefore, the range of the hue map etc. corresponding to the bird's-eye view image 210 is also different.

図6に、一例として、車両910が位置Aにいるときのマップ210Aおよび蓄積マップ220Aと、車両910が位置Bにいるときのマップ210Bおよび蓄積マップ220Bと、を示す。このように、車両910が位置Aから位置Bに移動するのに伴い、マップに対応する俯瞰画像210がカバーする現実空間の範囲、それに伴う蓄積マップ220のカバーする現実空間の範囲も変化する。 FIG. 6 shows a map 210A and accumulated map 220A when vehicle 910 is at position A, and a map 210B and accumulated map 220B when vehicle 910 is at position B, as an example. In this way, as the vehicle 910 moves from position A to position B, the range of the real space covered by the bird's-eye view image 210 corresponding to the map and the range of the real space covered by the accumulated map 220 accordingly change.

色相マップおよび明度マップの元となる俯瞰画像210の各画素の画素位置は、車両910に固定されたローカル座標系(以下、車両座標系)で特定される。車両座標系は、例えば、車両910の重心を原点とする座標系である。 The pixel position of each pixel of bird's-eye view image 210, which is the source of the hue map and the brightness map, is specified in a local coordinate system fixed to vehicle 910 (hereinafter referred to as vehicle coordinate system). The vehicle coordinate system is, for example, a coordinate system whose origin is the center of gravity of the vehicle 910 .

蓄積マップ作成部132は、色相マップおよび明度マップの各画素のローカル座標系の座標値を、空間に固定されたワールド座標系の座標値に変換する。ワールド座標系は、例えば、予め定めた路面上の特定の位置を原点とする座標系である。ワールド座標系は、例えば、緯度経度であってもよい。 Accumulation map creation unit 132 converts the coordinate values of each pixel of the hue map and the lightness map in the local coordinate system into coordinate values in the world coordinate system fixed in space. The world coordinate system is, for example, a coordinate system whose origin is a specific position on a predetermined road surface. The world coordinate system may be, for example, latitude and longitude.

変換は、例えば、ECU経由で取得した車両情報および車載カメラ191の情報を用いて行う。具体的には、車両情報のうち、加速度情報、速度情報等と、車載カメラ191の搭載位置、撮影視野等を用いて、車両910の姿勢の変化、移動量、実空間上での撮影範囲等を算出する。そして、それを用いて、最新の俯瞰画像210(すなわち、色相マップおよび明度マップ)の、各画素の、予め定めたワールド座標系での座標位置を特定する。 The conversion is performed using, for example, vehicle information acquired via the ECU and information from the vehicle-mounted camera 191 . Specifically, using the vehicle information such as acceleration information, speed information, etc., the mounting position of the vehicle-mounted camera 191, the imaging field of view, etc., the change in the attitude of the vehicle 910, the amount of movement, the imaging range in the real space, etc. Calculate Then, using it, the coordinate position of each pixel in the latest bird's-eye view image 210 (that is, the hue map and the lightness map) is specified in a predetermined world coordinate system.

そして、蓄積マップの、ワールド座標系の同じ座標値を含むグリッドに、それぞれ、色相値および明度値を、色相蓄積値および明度蓄積値として蓄積する。蓄積する際は、時刻情報に対応づけて蓄積してもよい。 Then, the hue value and the lightness value are accumulated as the hue accumulation value and the lightness accumulation value, respectively, in the grids of the accumulation map that include the same coordinate values in the world coordinate system. When accumulating, the information may be accumulated in association with the time information.

なお、蓄積は、予め定めた1以上の画素を含むグリッド単位で行う。1グリッドが複数の画素を含む場合、各グリッドを構成する複数の画素の値(色相値、明度値)の統計値を用いる。統計値は、例えば、平均値等である。 Note that accumulation is performed in units of grids containing one or more predetermined pixels. When one grid includes a plurality of pixels, statistical values of the values (hue value, brightness value) of the plurality of pixels forming each grid are used. A statistical value is, for example, an average value.

例えば、図6の例において、その時点でマップ210Aおよびマップ210Bのみが算出されているものとすると、グリッド225は、何も値が登録されない。また、グリッド226には、マップ210Aの値が登録される。グリッド227には、マップ210Aの値と、マップ210Bの値とが登録される。そして、グリッド228には、マップ210Bの値が登録される。 For example, in the example of FIG. 6, assuming that only the maps 210A and 210B have been calculated at that time, no values are registered in the grid 225 . Also, the values of the map 210A are registered in the grid 226. FIG. The grid 227 registers the values of the map 210A and the values of the map 210B. The values of the map 210B are registered in the grid 228. FIG.

[確信度算出処理]
蓄積マップ220の各グリッドには、さらに、確信度が蓄積される。以下、確信度算出部133による確信度算出処理について説明する。
[Confidence calculation process]
Each grid in the accumulation map 220 also accumulates a certainty. The certainty calculation processing by the certainty calculation unit 133 will be described below.

確信度算出処理の流れを図7(a)に示す。確信度算出処理は、グリッド毎に、グリッド毎の確信度を算出する。確信度は、例えば、初期値を0とし、そのグリッドの色相値または明度値の分散の値に応じて、その値が増減される。なお、確信度算出処理は、蓄積マップ220が更新される毎に実行される。更新される毎に蓄積マップ220の全グリッドについて確信度を算出してもよいし、値が更新されたグリッドについてのみ、確信度を算出してもよい。以下、特定のグリッド(対象グリッドと呼ぶ。)の確信度算出処理について説明する。 FIG. 7A shows the flow of the certainty calculation process. The certainty calculation process calculates the certainty for each grid. For example, the initial value of the certainty is 0, and the value is increased or decreased according to the variance of the hue value or lightness value of the grid. Note that the certainty calculation process is executed each time the accumulation map 220 is updated. The certainty factor may be calculated for all the grids of the accumulation map 220 each time it is updated, or the certainty factor may be calculated only for the grids whose values have been updated. Confidence calculation processing for a specific grid (referred to as a target grid) will be described below.

まず、確信度算出部133は、対象グリッドの色相蓄積値について判別する。ここでは、全てが定義不可であるか否かを判別する(ステップS1201)。 First, the certainty calculation unit 133 determines the hue accumulated value of the target grid. Here, it is determined whether or not all of them cannot be defined (step S1201).

全てが定義不可、すなわち、蓄積を開始してから、ずっと無彩色の領域である場合(S1201;Yes)、明度蓄積値を用いて確信度の増減を決める。ここでは、まず、明度蓄積値の分散(明度分散値)を算出する(ステップS1202)。 If everything is undefinable, that is, if the area has been achromatic all the time since the start of accumulation (S1201; Yes), the lightness accumulation value is used to decide whether to increase or decrease the degree of certainty. Here, first, the variance of the brightness accumulated value (brightness variance value) is calculated (step S1202).

そして、算出した明度分散値に応じた確信度の増減値を決定する(ステップS1203)。明度分散値に応じた増減値は、予め明度増減値テーブルとして定めておく。ここで、明度増減値テーブル410の一例を、図7(b)に示す。例えば、予め定めた第一閾値を用いて、明度分散値が第一閾値未満であれば、第一固定値分、増加させ、第一閾値以上であれば、第一固定値分、減少させる。よって、ここでは、増減値として、分散値が予め定めた第一閾値未満の場合、プラス第一固定値、第一閾値以上の場合、マイナス第一固定値、と決定される。 Then, the increase/decrease value of the confidence factor is determined according to the calculated brightness variance value (step S1203). Increase/decrease values corresponding to brightness variance values are defined in advance as a brightness increase/decrease value table. Here, an example of the brightness increase/decrease value table 410 is shown in FIG. 7(b). For example, using a predetermined first threshold, if the brightness variance value is less than the first threshold, it is increased by the first fixed value, and if it is equal to or greater than the first threshold, it is decreased by the first fixed value. Therefore, here, as the increase/decrease value, if the variance value is less than the predetermined first threshold value, plus the first fixed value, and if the variance value is equal to or greater than the first threshold value, minus the first fixed value is decided.

すなわち、本実施形態では、明度分散値が第一閾値未満の場合、明度が安定していると判断され、それに伴い、確信度も高められる。逆に、第一閾値以上の場合は、明度が不安定であるため、確信度は減らされる。増減を決定する第一閾値は、予め定めておく。 That is, in the present embodiment, when the brightness variance value is less than the first threshold value, it is determined that the brightness is stable, and the degree of certainty is accordingly increased. Conversely, if it is equal to or greater than the first threshold, the degree of certainty is reduced because the lightness is unstable. The first threshold for determining the increase/decrease is determined in advance.

そして、決定した増減値を用いて、最新の確信度を決定する(ステップS1204)。ここでは、現状の確信度に対し、ステップS1203で決定した増減値を適用する。例えば、明度分散値が予め定めた第一閾値未満の場合、現状の確信度の値に、予め定めた第一固定値を加算する。一方、分散値が第一閾値以上の場合、現状の確信度から、第一固定値を減算する。 Then, using the determined increase/decrease value, the latest confidence factor is determined (step S1204). Here, the increase/decrease value determined in step S1203 is applied to the current certainty factor. For example, if the brightness variance value is less than a predetermined first threshold value, a predetermined first fixed value is added to the current confidence value. On the other hand, if the variance is greater than or equal to the first threshold, the first fixed value is subtracted from the current certainty.

また、過去に1度でも、定義不可でない値がある場合(S1201;No)、その色相の蓄積値の値を用いて、確信度の増減を決める。ここでは、まず、色相蓄積値の分散(色相分散値)を算出する(ステップS1205)。 Also, if there is a value that is not undefinable even once in the past (S1201; No), the accumulation value of that hue is used to determine the increase or decrease of the degree of certainty. Here, first, the variance of the hue accumulation value (hue variance value) is calculated (step S1205).

そして、算出した色相分散値と、定義不可である蓄積値の個数との組み合わせで、増減値を決定する(ステップS1206)。これらは、予め色相増減値テーブル420として定めておく。例えば、定義不可の個数が予め定めた閾値未満であるか否かで分類し、それぞれにおいて、色相分散値が予め定めた閾値未満であるか否かで、増減値を決定する。 Then, an increase/decrease value is determined by combining the calculated hue dispersion value and the number of accumulation values that cannot be defined (step S1206). These are defined in advance as the hue increase/decrease value table 420 . For example, classification is performed according to whether the number of undefinable items is less than a predetermined threshold value, and the increase/decrease value is determined depending on whether the hue dispersion value is less than the predetermined threshold value.

色相増減値テーブル420の一例を、図7(c)に示す。例えば、定義不可の蓄積値の個数が、第四閾値未満である場合、色相分散値を、第二閾値と比較する。そして、第二閾値未満であれば、予め定めた第二固定値分、増加させる。一方、第二閾値以上であれば、第二固定値分、減少させる。また、定義不可の蓄積値の個数が、第四閾値以上の場合、色相分散値を、第三閾値と比較する。そして、第三閾値未満であれば、予め定めた第三固定値分、増加させる。一方、第三閾値以上であれば、第三固定値分、減少させる。 An example of the hue increase/decrease value table 420 is shown in FIG. For example, if the number of undefinable accumulated values is less than a fourth threshold, the hue variance value is compared with a second threshold. If it is less than the second threshold, it is increased by a predetermined second fixed value. On the other hand, if it is equal to or greater than the second threshold, it is decreased by the second fixed value. Also, when the number of undefinable accumulated values is equal to or greater than the fourth threshold, the hue variance value is compared with the third threshold. If it is less than the third threshold, it is increased by a predetermined third fixed value. On the other hand, if it is equal to or greater than the third threshold, it is decreased by the third fixed value.

ここで、第二固定値と第三固定値とは、第二固定値の方が大きく設定される。これは、定義不可の数が少ない場合の、確信度に対する影響度を、定義不可の数が多い場合の影響度より大きくするためである。分散に関しては、明度の場合と同様の理由である。第二閾値、第三閾値、第四閾値は、予め定められる。 Here, between the second fixed value and the third fixed value, the second fixed value is set larger. This is to make the degree of influence on confidence when the number of undefinables is small larger than that when the number of undefinables is large. As for dispersion, the reason is the same as for brightness. The second threshold, third threshold, and fourth threshold are determined in advance.

そして、ステップS1204へ移行し、決定した増減値を現状の確信度に反映させ、処理を終了する。 Then, the process proceeds to step S1204, the determined increase/decrease value is reflected in the current certainty factor, and the process ends.

[駐車枠抽出処理]
次に、駐車領域抽出部134による駐車領域抽出処理について説明する。駐車領域抽出部134は、作成した蓄積マップ220から駐車領域300を抽出する。本実施形態では、図5に示す、駐車枠線310を2つ組み合わせた領域と、駐車スペース320と、を駐車領域300として抽出する。
[Parking frame extraction process]
Next, parking area extraction processing by the parking area extraction unit 134 will be described. The parking area extraction unit 134 extracts the parking area 300 from the created accumulation map 220 . In the present embodiment, an area obtained by combining two parking frame lines 310 and a parking space 320 shown in FIG.

駐車領域抽出部134による駐車領域抽出処理の流れを、図8に示す。本処理は、例えば、蓄積マップ220が更新される毎に行われる。 A flow of parking area extraction processing by the parking area extraction unit 134 is shown in FIG. This processing is performed, for example, each time the accumulation map 220 is updated.

駐車領域抽出部134は、まず、蓄積マップ220の各グリッドを、彩色部分か、無彩色部分か、分類する(ステップS1301)。ここでは、色相蓄積値が全て定義不可の部分を無彩色部分とし、その他の部分、すなわち、色相蓄積値に定義不可以外がある部分を彩色部分と分類する。 The parking area extraction unit 134 first classifies each grid of the accumulation map 220 into a colored portion or an achromatic portion (step S1301). Here, a portion whose hue accumulation values are all undefinable is classified as an achromatic portion, and other portions, that is, portions with hue accumulation values other than undefinable, are classified as colored portions.

次に、彩色部分の抽出処理(ステップS1302)を行い、その後、無彩色部分の抽出処理(ステップS1303)を行う。彩色部分の抽出処理は、彩色部分で、駐車領域を特定し、その座標、種別(形状)を取得する。また、無彩色部分の抽出処理は、無彩色部分で駐車領域を特定し、その座標、種別(形状)を取得する。 Next, a chromatic portion extraction process (step S1302) is performed, and then an achromatic portion extraction process (step S1303) is performed. In the colored portion extraction processing, the parking area is specified in the colored portion, and its coordinates and type (shape) are acquired. Further, in the achromatic portion extraction processing, the parking area is specified by the achromatic portion, and its coordinates and type (shape) are acquired.

ここで、彩色部分の抽出処理について説明する。図9(a)は、本実施形態の駐車領域抽出部134による彩色部分の抽出処理の処理フローである。 Now, the process of extracting the colored portion will be described. FIG. 9(a) is a processing flow of the colored portion extraction processing by the parking area extraction unit 134 of the present embodiment.

まず、駐車領域抽出部134は、最新の蓄積マップ220を走査する(ステップS1401)。そして、色相の傾向が変わる点(色相変化領域)を抽出する(ステップS1402)。色相変化領域は、走査方向に並んだ(隣接する)グリッドの間で、無彩色から彩色に変化する箇所(境界点;境界領域)、彩色から無彩色に変化する箇所(境界点)、および、彩色から彩色への変化において、色相値の変化量が閾値以上の箇所(色相変化点)、のいずれかである。 First, the parking area extraction unit 134 scans the latest accumulation map 220 (step S1401). Then, a point (hue change area) where the tendency of hue changes is extracted (step S1402). The hue change areas are, between (adjacent) grids arranged in the scanning direction, points where the color changes from achromatic to chromatic (boundary points; boundary areas), places where the color changes to achromatic (boundary points), and In the change from coloring to coloring, it is either a point (hue change point) where the amount of change in hue value is equal to or greater than a threshold value.

ここで、駐車領域抽出部134は、境界点を、上記の分類に従って、特定する。一方、色相変化点については、例えば、特定のグリッドの、蓄積された複数の値の平均値と、当該グリッドに隣接するグリッドの同じく平均値とを比較し、変化量が閾値以上であるかを判別し、閾値以上である場合、色相変化点と特定する。 Here, the parking area extraction unit 134 identifies the boundary points according to the above classification. On the other hand, regarding the hue change point, for example, the average value of the accumulated values of a specific grid is compared with the same average value of grids adjacent to the grid, and it is determined whether the amount of change is a threshold value or more. It is discriminated, and if it is equal to or greater than the threshold value, it is specified as a hue change point.

このようなグリッドを、色相変化領域として抽出すると、駐車領域抽出部134は、所定のペアのグリッドを特定する(ステップS1403)。ここでは、抽出した色相変化領域のうち、所定の間隔(駐車枠線の横幅、または駐車スペースの横幅)に相当するペアを特定する。枠線の横幅、スペースの横幅の値は、例えば、グリッド数等で予め所定範囲の値を記憶しておく。特定する際、枠線の横幅に対応するペアか、スペースの横幅に対応するペアかを決定し、識別可能な情報(識別情報)を付与しておく。なお、抽出する際、方向は問わない。 After extracting such a grid as a hue change area, the parking area extraction unit 134 identifies a predetermined pair of grids (step S1403). Here, a pair corresponding to a predetermined interval (the width of the parking frame line or the width of the parking space) is specified from among the extracted hue change areas. For the horizontal width of the frame line and the horizontal width of the space, values within a predetermined range such as the number of grids are stored in advance. When specifying, a pair corresponding to the horizontal width of the frame line or a pair corresponding to the horizontal width of the space is determined, and identifiable information (identification information) is added. In addition, when extracting, the direction does not matter.

次に、駐車領域抽出部134は、抽出したペアに対し、グルーピングを行い、その後、フィルタリングを行う(ステップS1404)。グルーピングは、同種の色相変化点のペアで直線状に並んでいるものを一つのグループとして関連付ける処理である。同種のペアとは、同じ識別情報が付与されているペアであり、本実施形態では、枠線のペアか、スペースのペアか、である。また、フィルタリングは、長さが閾値未満のグループは無効なグループとして削除する処理である。 Next, the parking area extraction unit 134 performs grouping on the extracted pairs, and then performs filtering (step S1404). Grouping is a process of associating, as one group, pairs of hue change points of the same kind that are arranged in a straight line. A pair of the same kind is a pair to which the same identification information is assigned, and in this embodiment, it is a pair of frame lines or a pair of spaces. Filtering is a process of deleting groups whose length is less than a threshold as invalid groups.

駐車領域抽出部134は、フィルタリング後に残ったグループを駐車枠線候補または駐車スペース候補と判定し、それぞれの領域の、ワールド座標系の座標値と種別(駐車枠線候補、駐車スペース候補)とを取得し(ステップS1405)、記録して処理を終了する。 The parking area extraction unit 134 determines the remaining groups after filtering as parking line candidates or parking space candidates, and extracts the coordinate values and types (parking line candidate, parking space candidate) of each area in the world coordinate system. It is acquired (step S1405), recorded, and the process ends.

次に、無彩色部分の抽出処理について説明する。図9(b)は、駐車領域抽出部134による無彩色部分の抽出処理の処理フローである。 Next, extraction processing of an achromatic portion will be described. FIG. 9B is a processing flow of extraction processing of an achromatic portion by the parking area extraction unit 134. As shown in FIG.

本処理は、基本的に彩色部分の処理と同様である。すなわち、まず、蓄積マップ220を走査する(ステップS1501)。 This processing is basically the same as the processing of the colored portion. First, the accumulation map 220 is scanned (step S1501).

次に、無彩色部分の抽出処理では、明度変化領域を抽出する(ステップS1502)。明度変化領域は、走査方向に並んだグリッドの間で、無彩色から彩色に変化する箇所(境界点)、彩色から無彩色に変化する箇所(境界点)、および、無彩色から無彩色への変化において、明度値の変化量が閾値以上の箇所(明度変化点)、のいずれかである。なお、明度変化点は、上記彩色部分の抽出処理と同様、蓄積された複数の値の平均値を用いて特定する。 Next, in the achromatic portion extraction processing, a brightness change region is extracted (step S1502). The lightness change areas are the points where the achromatic color changes to the chromatic color (boundary points), the points where the chromatic color changes to the achromatic color (boundary points), and the achromatic to achromatic color areas between the grids arranged in the scanning direction. In the change, the amount of change in the brightness value is either a point (brightness change point) where the amount of change is equal to or greater than the threshold. Note that the lightness change point is specified by using the average value of a plurality of accumulated values in the same manner as in the color portion extraction process.

そして、抽出した明度変化領域について、彩色部分の処理同様、ペアのグリッドを特定し(ステップS1503)、その後、グルーピングとフィルタリングとを行い(ステップS1504)、残ったグループを駐車枠線候補または駐車スペース候補と判定し、それぞれの領域の座標値と種別(駐車枠線候補、駐車スペース候補)とを取得し(ステップS1405)、記録して処理を終了する。 Then, for the extracted lightness change area, a pair of grids is identified (step S1503), similar to the processing of the colored portion, and then grouping and filtering are performed (step S1504). The area is determined as a candidate, and the coordinate values and types (parking frame line candidate, parking space candidate) of each area are obtained (step S1405), recorded, and the process ends.

図8に戻り、駐車領域抽出部134は、彩色部分の抽出処理および無彩色部分の抽出処理で特定した駐車枠線候補および駐車スペース候補の情報から、駐車枠線および駐車スペースを特定する(ステップS1304)。ここでは、抽出した駐車枠候補のうち、隣接する2線の間隔が、予め定めた閾値内であり、かつ、2線の角度差が閾値未満の組を抽出し、駐車領域を構成する駐車枠線の組とする。また、駐車スペース候補は、そのまま、駐車スペースとする。 Returning to FIG. 8, the parking area extraction unit 134 identifies the parking frame line and the parking space from the information of the parking frame line candidate and the parking space candidate identified in the colored portion extraction processing and the achromatic portion extraction processing (step S1304). Here, among the extracted parking frame candidates, a set in which the interval between two adjacent lines is within a predetermined threshold and the angle difference between the two lines is less than the threshold is extracted, and the parking frame constituting the parking area is extracted. Let it be a set of lines. Also, the parking space candidate is directly used as the parking space.

次に、確信度によるフィルタリングを行う(ステップS1305)。ここでは、ステップS1304で特定された駐車枠線および駐車スペースに含まれるグリッドの確信度の平均値を算出する。算出した確信度の平均値が、予め定めた閾値以上の領域を、駐車領域300と決定し(ステップS1306)、処理を終了する。 Next, filtering is performed according to certainty (step S1305). Here, the average value of the certainty factors of the grids included in the parking closing line and the parking space specified in step S1304 is calculated. An area in which the calculated average value of certainty is equal to or greater than a predetermined threshold value is determined as the parking area 300 (step S1306), and the process ends.

なお、決定した駐車領域300は、そのワールド座標系での座標値を出力部に出力する、なお、さらに、記憶装置113に記憶してもよい。 The determined parking area 300 may be stored in the storage device 113 by outputting the coordinate values in the world coordinate system to the output unit.

以上説明したように、本実施形態の画像処理装置100は、車載カメラ191で取得した撮影画像を合成し、合成画像(俯瞰画像210)を生成する画像合成部120と、合成画像の色相値を算出し、色相マップを作成するマップ作成部131と、予め定めた期間分の、予め定めた範囲の、予め定めた領域(グリッド)毎の色相マップの色相値を蓄積し、蓄積マップ220を作成する蓄積マップ作成部132と、蓄積マップ220から、駐車枠を抽出する駐車領域抽出部134と、前記駐車枠を出力する出力処理部と、を備える。 As described above, the image processing apparatus 100 of the present embodiment combines the images captured by the on-vehicle camera 191 to generate a composite image (overhead image 210), and the hue value of the composite image. A map creation unit 131 that calculates and creates a hue map, and accumulates the hue values of the hue map for each predetermined region (grid) within a predetermined range for a predetermined period to create an accumulation map 220. a parking area extraction unit 134 for extracting a parking frame from the accumulation map 220; and an output processing unit for outputting the parking frame.

このように、本実施形態によれば、俯瞰画像210から算出した、色相と明度とを用いて駐車領域を特定する。具体的には、まず、色相を用いて駐車領域候補を検出し、色相が取得できない領域については、その明度を用いて駐車領域候補を検出する。RGBのような輝度値ではないため、曇天時、夜間、屋内等、輝度差が少ない環境においても、精度よく検出することができる。また、色相値を用いて検出するため、色の制約もない。 Thus, according to the present embodiment, the parking area is specified using the hue and brightness calculated from the bird's-eye view image 210 . Specifically, parking area candidates are first detected using the hue, and parking area candidates are detected using the lightness of areas for which the hue cannot be obtained. Since it is not a brightness value like RGB, it can be detected with high accuracy even in an environment with little brightness difference, such as when it is cloudy, at night, or indoors. In addition, since the detection is performed using the hue value, there are no color restrictions.

また、色相値、すなわち、色情報が取得できないグレースケールの領域については、補完的に明度値を用いて検出する。このため、さらに幅広く対応ができる。 In addition, a hue value, that is, a grayscale region in which color information cannot be obtained is detected using a lightness value in a complementary manner. For this reason, it is possible to deal with a wider range of applications.

本実施形態の画像処理装置によれば、芝生が用いられていたり、障碍者用の駐車スペース等、特定の色で塗られていたり、ショッピングモール等、エリア別に色分けされている等、多様な駐車場において、駐車領域を適切に抽出できる。 According to the image processing apparatus of the present embodiment, various parking spaces such as a lawn, a parking space for the disabled, etc., painted in a specific color, and a shopping mall, etc., which are color-coded by area, can be used. A parking area can be appropriately extracted in a parking lot.

さらに、本実施形態によれば、色相、明度を用いて検出した駐車領域候補を、確信度を用いてフィルタリングする。このため、さらに高い精度で駐車領域300を特定できる。 Furthermore, according to this embodiment, parking area candidates detected using hue and lightness are filtered using certainty. Therefore, parking area 300 can be identified with higher accuracy.

これにより、本実施形態によれば、環境によらず、精度よく駐車領域を検出できる。 As a result, according to the present embodiment, the parking area can be accurately detected regardless of the environment.

<変形例1>
なお、上記実施形態では、確信度を算出しているが、確信度は算出しなくてもよい。ステップS1304で算出した駐車枠線候補および駐車スペース候補をそのまま駐車枠線、駐車スペースとして決定してもよい。
<Modification 1>
In addition, although the certainty factor is calculated in the above embodiment, the certainty factor does not have to be calculated. The parking closing line candidate and parking space candidate calculated in step S1304 may be directly determined as the parking closing line and parking space.

また、確信度は、上記手法以外の手法で決定してもよい。例えば、分散値の逆数、蓄積値の標準偏差の逆数等を用いてもよい。 Also, the certainty factor may be determined by a method other than the above method. For example, the reciprocal of the variance value, the reciprocal of the standard deviation of the accumulated value, or the like may be used.

また、ステップS1304で算出した駐車枠線候補および駐車スペース候補をそのまま駐車枠線、駐車スペースと決定し、確信度とともに、記憶するよう構成してもよい。そして、例えば、別の日に、同じ領域で駐車領域抽出処理を行う際、演算処理部130は、確信度が所定未満の場合のみ、抽出処理を行い、確信度が所定以上の場合は、記憶された駐車領域をそのまま用いるよう構成してもよい。 Alternatively, the parking closing line candidate and parking space candidate calculated in step S1304 may be directly determined as the parking closing line and parking space, and stored together with the degree of certainty. Then, for example, when the parking area extraction process is performed in the same area on another day, the arithmetic processing unit 130 performs the extraction process only when the degree of certainty is less than a predetermined degree, and when the degree of certainty is greater than or equal to the predetermined value, the storage area is stored. The designated parking area may be used as it is.

<変形例2>
また、上記実施形態では、実空間上(ワールド座標系)での蓄積マップ220の範囲は、車両910の移動に伴って変化しているが、これに限定されない。実空間上で、蓄積マップ220の範囲は固定であってもよい。例えば、図10にしめすように、車両910が位置Aにいる場合であっても、位置Bにいる場合であっても、蓄積マップ220の範囲は、同じとする。作成する蓄積マップ220の範囲は、予めワールド座標系等で特定しておく。
<Modification 2>
Also, in the above embodiment, the range of the accumulated map 220 in the real space (world coordinate system) changes as the vehicle 910 moves, but the range is not limited to this. The range of the accumulation map 220 may be fixed on the real space. For example, as shown in FIG. 10, the range of the accumulation map 220 is the same regardless of whether the vehicle 910 is at position A or at position B. FIG. The range of the accumulation map 220 to be created is specified in advance by the world coordinate system or the like.

このように構成することで、例えば、駐車場全体のエリアが予めわかっているとき等、駐車場エリアの色相値、明度値を多数蓄積でき、その分、抽出精度も高まる。 By configuring in this way, for example, when the area of the entire parking lot is known in advance, a large number of hue values and brightness values of the parking lot area can be accumulated, and the extraction accuracy is improved accordingly.

<変形例3>
また、上記実施形態では、駐車領域抽出部134は、彩色部分の抽出処理の色相変化点の特定および無彩色部分の抽出処理の明度変化点の特定において、蓄積値の平均値を用いている。しかしながら、これに限定されない。例えば、各値取得時の、自車(車両910)とその地点の距離との逆数を重みとした、重みづけ平均を用いてもよい。
<Modification 3>
In the above-described embodiment, the parking area extraction unit 134 uses the average value of accumulated values to specify the hue change point in the colored portion extraction process and the brightness change point in the achromatic part extraction process. However, it is not limited to this. For example, a weighted average may be used in which the reciprocal of the distance between the own vehicle (vehicle 910) and the point at the time each value is acquired is weighted.

俯瞰画像210の各画素に対応する距離値(車両910から当該画素に対応する実空間の位置までの距離)は、カメラ191が取得した撮影画像に基づいて算出する。そして、蓄積マップ作成部132は、図11(a)および図11(b)に示すように、蓄積マップ220作成時に、各グリッドの距離値を算出し、色相値および明度値とともに、蓄積する。なお、カメラ191以外に、車両910は、必要に応じて、さらに、別途距離センサを搭載してもよい。この場合、画像処理装置100の、マップ作成部131は、この距離センサの出力を用いて、俯瞰画像210の各画素に対応する距離値を算出する。 A distance value corresponding to each pixel of the overhead image 210 (distance from the vehicle 910 to the position in the real space corresponding to the pixel) is calculated based on the image captured by the camera 191 . Then, as shown in FIGS. 11A and 11B, when creating an accumulation map 220, the accumulation map creating unit 132 calculates the distance value of each grid and accumulates it together with the hue value and the lightness value. In addition to the camera 191, the vehicle 910 may be equipped with a separate distance sensor, if necessary. In this case, the map creating unit 131 of the image processing device 100 calculates a distance value corresponding to each pixel of the bird's-eye view image 210 using the output of this distance sensor.

駐車領域抽出部134は、色相変化点、明度変化点を算出する際、当該グリッドの色相値として、この距離蓄積値を用いて、自車(車両910)に近いほど重みを高くした、加重平均を算出する。すなわち、i番目に登録されている距離蓄積値をL_iとすると、重みWiは、1/Liで算出される。この重みを、i番目に登録されている色相値Hiに対して乗算して得た加重平均値を、そのグリッドの値とする。 When calculating the hue change point and the lightness change point, the parking area extraction unit 134 uses this accumulated distance value as the hue value of the grid, and calculates a weighted average value in which the closer the vehicle (vehicle 910) is, the higher the weight is. Calculate That is, if the i-th registered distance accumulation value is L_i, the weight Wi is calculated by 1/Li. A weighted average value obtained by multiplying the i-th registered hue value Hi by this weight is used as the grid value.

例えば、図11(a)の例では、L2が自車(車両910)と最も近くなるので、重みW2=1/L2の値が一番大きくなり、この時に取得した色相値H2の重みが一番大きくなる。 For example, in the example of FIG. 11A, since L2 is closest to the own vehicle (vehicle 910), the value of weight W2=1/L2 is the largest, and the weight of hue value H2 acquired at this time is the same. become bigger.

駐車領域抽出部134は、この加重平均値を各グリッドについて算出し、隣接するグリッドの加重平均値と比較し、色相変化点を特定する。 The parking area extraction unit 134 calculates this weighted average value for each grid, compares it with the weighted average values of adjacent grids, and identifies hue change points.

これにより、取得時の距離に応じて重みづけをした値を用いて、各グリッドの色相値の変化を判定できる。したがって、より高い精度で色相変化点、明度変化点を特定することができる。 This makes it possible to determine the change in the hue value of each grid using a value weighted according to the distance at the time of acquisition. Therefore, it is possible to specify the hue change point and the lightness change point with higher accuracy.

<その他の変形例>
処理中の各閾値は、任意に設定可能である。確信度の増減値は、例えば、ユーザが入力装置114を介して自由に入力可能としてもよい。
<Other Modifications>
Each threshold during processing can be set arbitrarily. The increase/decrease value of the certainty factor may be freely input by the user via the input device 114, for example.

さらに、輝度による駐車領域の検出も組み合わせてもよい。 Furthermore, detection of the parking area by luminance may also be combined.

さらに、本実施形態は、駐車領域検出のみに限定されない。例えば、走行路の白線の検出に用いてもよい。 Furthermore, the present embodiment is not limited to parking area detection only. For example, it may be used to detect white lines on the road.

なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。また、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 In addition, the present invention is not limited to the above-described embodiments, and includes various modifications. Further, the above-described embodiments are described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the described configurations. Also, part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and part of the configuration of the embodiment can be added, deleted, or replaced with another configuration. is.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD等の記録装置、または、ICカード、SDカード、光ディスク等の記録媒体に置いてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。例えば実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, each of the configurations, functions, processing units, processing means, etc. described above may be realized by hardware, for example, by designing a part or all of them using an integrated circuit. Moreover, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, and files that implement each function may be placed in a recording device such as a memory, a hard disk, or an SSD, or a recording medium such as an IC card, an SD card, or an optical disc. In addition, the control lines and information lines indicate those considered to be necessary for explanation, and not all the control lines and information lines are necessarily indicated on the product. For example, in practice, it may be considered that almost all configurations are interconnected.

100:画像処理装置、111:CPU、112:メモリ、113:記憶装置、114:入力装置、115:出力装置、116:データI/F、120:画像合成部、130:演算処理部、131:マップ作成部、132:蓄積マップ作成部、133:確信度算出部、134:駐車領域抽出部、140:出力処理部、191:車載カメラ、
210:俯瞰画像、210A:マップ、210B:マップ、211:画素、212:画素、220:蓄積マップ、220A:蓄積マップ、220B:蓄積マップ、221:グリッド、222:グリッド、225:グリッド、226:グリッド、227:グリッド、228:グリッド、
300:駐車領域、310:駐車枠線、320:駐車スペース、410:明度増減値テーブル、420:色相増減値テーブル、910:車両
100: Image processing device, 111: CPU, 112: Memory, 113: Storage device, 114: Input device, 115: Output device, 116: Data I/F, 120: Image synthesizing unit, 130: Arithmetic processing unit, 131: Map creation unit 132: Accumulation map creation unit 133: Confidence calculation unit 134: Parking area extraction unit 140: Output processing unit 191: In-vehicle camera
210: bird's-eye view image, 210A: map, 210B: map, 211: pixel, 212: pixel, 220: accumulated map, 220A: accumulated map, 220B: accumulated map, 221: grid, 222: grid, 225: grid, 226: grid, 227: grid, 228: grid,
300: Parking area, 310: Parking frame line, 320: Parking space, 410: Brightness increase/decrease value table, 420: Hue increase/decrease value table, 910: Vehicle

Claims (9)

カメラで取得した撮影画像を合成し、合成画像を生成する画像合成部と、
前記合成画像の色相値を算出し、色相マップを作成するマップ作成部と、
予め定めた期間分の、予め定めた範囲の、予め定めた領域毎の前記色相マップの前記色相値を蓄積し、蓄積マップを作成する蓄積マップ作成部と、
前記蓄積マップから、駐車領域を抽出する駐車領域抽出部と、
前記駐車領域を出力する出力処理部と、を備えること
を特徴とする画像処理装置。
an image synthesizing unit that synthesizes captured images acquired by a camera and generates a synthesized image;
a map creation unit that calculates hue values of the composite image and creates a hue map;
an accumulation map creation unit that creates an accumulation map by accumulating the hue values of the hue map for each predetermined area in a predetermined range for a predetermined period;
A parking area extraction unit that extracts a parking area from the accumulation map;
and an output processing unit that outputs the parking area.
請求項1記載の画像処理装置であって、
前記マップ作成部は、前記合成画像の前記色相値を算出不可な領域について、明度値を算出し、明度マップを作成し、
前記蓄積マップ作成部は、前記予め定めた期間分の前記予め定めた範囲の、前記予め定めた領域毎の前記明度マップの前記明度値も蓄積すること
を特徴とする画像処理装置。
The image processing device according to claim 1,
The map creation unit calculates a brightness value and creates a brightness map for an area of the composite image in which the hue value cannot be calculated,
The image processing apparatus, wherein the accumulation map creation unit also accumulates the brightness values of the brightness map for each of the predetermined regions within the predetermined range for the predetermined period.
請求項2記載の画像処理装置であって、
前記駐車領域抽出部は、前記蓄積マップの、前記色相値が予め定めた色相変化閾値以上変化する前記領域である色相変化領域および前記色相値を算出可能な前記領域と不可能な前記領域との境界領域とを特定し、前記色相変化領域と前記境界領域とを用いて、駐車枠線候補および駐車スペース候補を特定すること
を特徴とする画像処理装置。
The image processing device according to claim 2,
The parking area extraction unit extracts a hue change area, which is the area where the hue value changes by a predetermined hue change threshold or more, and the area where the hue value can be calculated and the area where the hue value cannot be calculated. A boundary area is specified, and a parking frame line candidate and a parking space candidate are specified using the hue change area and the boundary area.
請求項3記載の画像処理装置であって、
前記駐車領域抽出部は、前記蓄積マップの、前記明度値が予め定めた明度変化閾値以上変化する前記領域である明度変化領域を特定し、当該明度変化領域をさらに用い、前記駐車枠線候補および前記駐車スペース候補を特定すること
を特徴とする画像処理装置。
The image processing device according to claim 3,
The parking area extraction unit identifies a brightness change area, which is the area in which the brightness value changes by a predetermined brightness change threshold or more, in the accumulation map, further uses the brightness change area, and extracts the parking frame line candidate and An image processing device that identifies the parking space candidate.
請求項3または4記載の画像処理装置であって、
前記蓄積マップ作成部は、蓄積した値を用いて、前記蓄積マップの前記予め定めた領域毎の確信度を算出する確信度算出部を備え、
前記駐車領域抽出部は、前記駐車枠線候補および前記駐車スペース候補のうち、前記確信度が予め定めた閾値以上の候補を、前記駐車領域として抽出すること
を特徴とする画像処理装置。
The image processing device according to claim 3 or 4,
The accumulation map creation unit includes a certainty calculation unit that calculates the certainty for each of the predetermined areas of the accumulation map using the accumulated values,
The image processing device, wherein the parking area extracting unit extracts, as the parking area, a candidate whose degree of certainty is equal to or greater than a predetermined threshold from among the parking frame line candidates and the parking space candidates.
請求項5記載の画像処理装置であって、
前記確信度は、前記色相値の分散である色相分散値と前記明度値の分散である明度分散値とに応じて、定められること
を特徴とする画像処理装置。
The image processing device according to claim 5,
The image processing apparatus, wherein the degree of certainty is determined according to a hue variance value that is a variance of the hue value and a lightness variance value that is a variance of the lightness value.
請求項1から6いずれか1項記載の画像処理装置であって、
前記撮影画像は、前記カメラを搭載する車両の周囲の画像であって、
前記合成画像は、前記車両を俯瞰する俯瞰画像であること
を特徴とする画像処理装置。
The image processing device according to any one of claims 1 to 6,
The captured image is an image of the surroundings of the vehicle equipped with the camera,
The image processing device, wherein the synthesized image is a bird's-eye view image of the vehicle.
カメラで取得した撮影画像を合成し、合成画像を生成する画像合成ステップと、
前記合成画像の色相値を算出し、色相マップを作成するマップ作成ステップと、
予め定めた期間分の、予め定めた範囲の、予め定めた領域毎の前記色相マップの前記色相値を蓄積し、蓄積マップを作成する蓄積マップ作成ステップと、
前記蓄積マップから、駐車領域を抽出する駐車領域抽出ステップと、
前記駐車領域を出力する出力ステップと、を備えること
を特徴とする画像処理方法。
an image synthesizing step of synthesizing captured images acquired by a camera to generate a synthesized image;
a map creation step of calculating hue values of the composite image and creating a hue map;
an accumulation map creating step of creating an accumulation map by accumulating the hue values of the hue map for each predetermined region in a predetermined range for a predetermined period;
a parking area extracting step of extracting a parking area from the accumulation map;
and an output step of outputting the parking area.
コンピュータを、
カメラで取得した撮影画像を合成し、合成画像を生成する画像合成手段、
前記合成画像の色相値を算出し、色相マップを作成するマップ作成手段、
予め定めた期間分の、予め定めた範囲の、予め定めた領域毎の前記色相マップの前記色相値を蓄積し、蓄積マップを作成する蓄積マップ作成手段、
前記蓄積マップから、駐車領域を抽出する駐車領域抽出手段、
前記駐車領域を出力する出力処理手段、
として機能させるためのプログラム。
the computer,
image synthesizing means for synthesizing captured images acquired by a camera to generate a synthesized image;
map creating means for calculating hue values of the synthesized image and creating a hue map;
accumulation map creating means for creating an accumulation map by accumulating the hue values of the hue map for each predetermined area in a predetermined range for a predetermined period;
Parking area extracting means for extracting a parking area from the accumulation map;
output processing means for outputting the parking area;
A program to function as
JP2021009829A 2021-01-25 2021-01-25 Image processing apparatus, image processing method, and program Pending JP2022113526A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021009829A JP2022113526A (en) 2021-01-25 2021-01-25 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021009829A JP2022113526A (en) 2021-01-25 2021-01-25 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2022113526A true JP2022113526A (en) 2022-08-04

Family

ID=82658133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021009829A Pending JP2022113526A (en) 2021-01-25 2021-01-25 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2022113526A (en)

Similar Documents

Publication Publication Date Title
Premebida et al. Pedestrian detection combining RGB and dense LIDAR data
CN110826499A (en) Object space parameter detection method and device, electronic equipment and storage medium
JP6270102B2 (en) Moving surface boundary line recognition apparatus, moving body device control system using the moving surface boundary line recognition method, and moving surface boundary line recognition program
RU2587425C2 (en) Method of producing high-quality image depth map
JP2017191608A (en) Object recognition method, object recognition device, and classifier training method
JP6808586B2 (en) External recognition device for vehicles
CN111462503B (en) Vehicle speed measuring method and device and computer readable storage medium
JP2011505610A (en) Method and apparatus for mapping distance sensor data to image sensor data
JP2004112144A (en) Front car tracking system and method for tracking front car
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP2013203374A (en) Display device for vehicle, control method therefor, and program
CN109413399B (en) Apparatus for synthesizing object using depth map and method thereof
JPWO2020179065A1 (en) Image processing equipment, image processing methods and programs
KR102167835B1 (en) Apparatus and method of processing image
JP2006236104A (en) Object determining device
CN111104893B (en) Target detection method, target detection device, computer equipment and storage medium
CN111598065A (en) Depth image acquisition method, living body identification method, apparatus, circuit, and medium
KR101699014B1 (en) Method for detecting object using stereo camera and apparatus thereof
JP2011170599A (en) Outdoor structure measuring instrument and outdoor structure measuring method
EP2282224B1 (en) Image processing apparatus, image processing method, and computer program
TWI716874B (en) Image processing apparatus, image processing method, and image processing program
JP4874836B2 (en) Image search method and image search system
JP2022113526A (en) Image processing apparatus, image processing method, and program
KR20140026078A (en) Apparatus and method for extracting object
JPH1023311A (en) Image information input method and device therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231106