JP2009301495A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2009301495A
JP2009301495A JP2008158191A JP2008158191A JP2009301495A JP 2009301495 A JP2009301495 A JP 2009301495A JP 2008158191 A JP2008158191 A JP 2008158191A JP 2008158191 A JP2008158191 A JP 2008158191A JP 2009301495 A JP2009301495 A JP 2009301495A
Authority
JP
Japan
Prior art keywords
detection target
candidate
image
captured image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008158191A
Other languages
Japanese (ja)
Other versions
JP5077088B2 (en
Inventor
Hiroaki Saito
裕昭 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2008158191A priority Critical patent/JP5077088B2/en
Publication of JP2009301495A publication Critical patent/JP2009301495A/en
Application granted granted Critical
Publication of JP5077088B2 publication Critical patent/JP5077088B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and an image processing method capable of effectively removing reflection components projected integrally with a detection object in a picked up image and correctly detecting the object from the picked up image. <P>SOLUTION: The control part of the image processor determines a difference by a background difference or the like on the basis of image data acquired from an imaging apparatus (S2), and extracts it as the candidate of a detection object region where the detection object is projected. On the basis of the position in the image data of the extracted candidate, a distance to the detection object is calculated (S3). The control part decides whether or not the reflection component is included by deciding whether or not the size in the image data of the extracted candidate is proper as the size of a region to be occupied by the detection object region on the basis of the calculated distance (S4). When the reflection component is included, the control part specifies a boundary to removes the reflection component (S5). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置により撮像された撮像画像に写る対象を検出するための画像処理装置に関する。特に、撮像画像に対象と一体となって写りこむ反射成分を効果的に除去し、撮像画像から対象のみを正しく検出することを可能とする画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus for detecting an object appearing in a captured image captured by an imaging apparatus. In particular, the present invention relates to an image processing apparatus and an image processing method that can effectively remove only a reflection component reflected in a captured image integrally with a target and correctly detect only the target from the captured image.

従来より、見通しの悪いT字路、十字路等の交差点での交通事故を防止するための交通制御システムが種々提案されている。特に、交差点近傍の路側に道路状況を上方から可視光波長帯にて撮像する撮像装置を設置し、撮像した画像を自動車へ送信することにより運転者に警告、注意を通知できるシステムが提案されている(例えば、特許文献1参照)。   Conventionally, various traffic control systems for preventing traffic accidents at intersections such as T-shaped roads and crossroads with poor visibility have been proposed. In particular, a system has been proposed in which an imaging device that captures road conditions in the visible light wavelength band from above is installed on the roadside in the vicinity of the intersection, and the driver can be alerted and alerted by transmitting the captured image to the automobile. (For example, refer to Patent Document 1).

また、撮像画像から自動車を検出するための前処理が行なわれる場合がある(例えば、特許文献2参照)。この場合、前処理として「背景差分」、「エッジ抽出」、「時間差分(フレーム差分)」、「オプティカルフロー」等の技術を利用し、撮像した画像内の自動車に相当する領域を判別している。
特開2003−109199号公報 特開2008−46761号公報
Further, preprocessing for detecting a car from a captured image may be performed (see, for example, Patent Document 2). In this case, by using techniques such as “background difference”, “edge extraction”, “time difference (frame difference)”, and “optical flow” as preprocessing, an area corresponding to a car in the captured image is determined. Yes.
JP 2003-109199 A JP 2008-46761 A

自動車同士の衝突のみならず、自動車と自転車との衝突、自動車と人との衝突等の種々の交通事故を削減するため、更に高度な安全運転支援システムの実現が期待されている。具体的には、交差点における他の自動車、自転車、人、又は落下物の有無及び位置の情報を交差点に進入しようとする自動車へ送信する。そして、自動車側で受信する情報に基づき事故を回避するための制御を自動的に実行する。これにより事故を未然に防ぐことができ、更に被害を最小限に抑えることが期待される。この場合、撮像画像から対象物の有無のみならず、他の自動車、自転車、人、又は落下物等の検出対象の種類を夫々識別して検出することが必要となる。   In order to reduce various traffic accidents such as a collision between a car and a bicycle, a collision between a car and a person as well as a collision between cars, it is expected to realize a more advanced safe driving support system. Specifically, information on the presence and location of other automobiles, bicycles, people, or fallen objects at the intersection is transmitted to the automobile about to enter the intersection. And the control for avoiding an accident is automatically performed based on the information received by the vehicle side. As a result, accidents can be prevented and damage is expected to be minimized. In this case, it is necessary to identify and detect not only the presence / absence of the target object but also the type of detection target such as another automobile, bicycle, person, or fallen object from the captured image.

撮像画像から検出対象の種類をも識別した上で検出するためには、撮像画像内の検出対象領域から、検出対象の種類毎に異なる特徴量を検知できるか否かの判断が有効である。例えば撮像画像内における検出対象領域の形状及び大きさを種類毎に特徴量として設定しておき、検出対象領域の形状及び大きさが設定されている形状及び大きさと一致するか否かによって検出対象の種類を識別することが可能である。   In order to identify and detect the type of detection target from the captured image, it is effective to determine whether or not a different feature amount can be detected for each type of detection target from the detection target region in the captured image. For example, the shape and size of the detection target area in the captured image is set as a feature amount for each type, and the detection target is determined by whether or not the shape and size of the detection target area match the set shape and size. Can be identified.

しかしながら、撮像画像に検出対象が写っている場合、検出対象の反射像も撮像画像に写りこむときがある。例えば、雨天時など路面が濡れた状態で車両、人などの検出対象を撮像した場合、路面に生じる検出対象の反射も撮像される。背景差分又は時間差分などの画像処理にて検出対象領域を抽出しようとする場合、反射成分を検出対象の一部として検出する可能性が高い。検出対象領域と反射成分との境目が明確に分離していない場合には一連の領域として抽出されるからである。この場合、検出対象領域のサイズを反射成分の大きさだけ大きく検出するので、検出対象の種類を誤って検出する可能性がある。   However, when the detection target is reflected in the captured image, the reflected image of the detection target may be reflected in the captured image. For example, when a detection target such as a vehicle or a person is imaged when the road surface is wet, such as in rainy weather, the reflection of the detection target generated on the road surface is also captured. When trying to extract a detection target region by image processing such as background difference or time difference, there is a high possibility that a reflection component is detected as a part of the detection target. This is because when the boundary between the detection target region and the reflection component is not clearly separated, it is extracted as a series of regions. In this case, since the size of the detection target area is detected to be larger by the size of the reflection component, there is a possibility that the type of detection target is erroneously detected.

これに対し、撮像画像における平均の輝度値に基づき路面での反射があるか否かを判断し、反射があると判断できる場合に以下のような処理を行なって検出対象と反射成分との境界を特定する方法が行なわれている。この先行例ではまず、検出対象領域として抽出された範囲をエッジ処理して各水平方向ラインで輝度値を加算する。エッジ処理によりエッジが検出されるほど各水平ラインで加算される輝度値が高くなる。そして、画像の垂直方向に対する各水平方向ラインの合計輝度値の分布は検出対象自体及びその反射成分の両方でピークを有するとの仮定の基に、ピーク間にある輝度値の最小値に対応するラインを境界として特定している。   On the other hand, it is determined whether there is reflection on the road surface based on the average luminance value in the captured image, and when it can be determined that there is reflection, the following processing is performed to determine the boundary between the detection target and the reflection component A way to identify is being done. In the preceding example, first, the range extracted as the detection target region is edge-processed, and the luminance value is added in each horizontal line. As the edge is detected by the edge processing, the luminance value added in each horizontal line increases. Then, the distribution of the total luminance value of each horizontal line with respect to the vertical direction of the image corresponds to the minimum value of the luminance value between the peaks on the assumption that both the detection target itself and its reflection component have peaks. The line is specified as a boundary.

しかしながら上述の方法では、反射有無の判断、及び検出対象領域と反射成分領域との境界を精度良く特定することは難しい。
まず、先行例では撮像画像の平均輝度値と基準値とを比較し、路面での反射の有無を判断している。しかしながら、この方法で精度良く反射有無を判断することは困難である。晴天時と比較して雨天時における撮像画像は全体的に暗いことが多いが、撮像画像が全体的に明るくとも、局所的に残った水たまりによって反射が起こる場合もある。この場合、反射がないと判断されて境界を特定しないので、正しく検出対象領域を特定できない。
また、一般に路面の濡れ度合いは道路各部で異なっており、反射の強さも夫々異なる。濡れてはいるが水たまりにはなっていない路面部分では、反射成分で明確なエッジ輝度値のピークが存在しない場合もあり得る。先行例の方法では、検出対象自体及び反射成分の両方においてピークを有することを前提としている。したがって、反射成分があってもピークが存在していない場合には境界を特定することができない。
However, with the above-described method, it is difficult to determine the presence or absence of reflection and to specify the boundary between the detection target region and the reflection component region with high accuracy.
First, in the preceding example, the average luminance value of the captured image is compared with a reference value, and the presence or absence of reflection on the road surface is determined. However, it is difficult to accurately determine the presence or absence of reflection by this method. The captured image in rainy weather is generally darker than in clear weather, but even if the captured image is generally bright, reflection may occur due to locally remaining puddles. In this case, since it is determined that there is no reflection and the boundary is not specified, the detection target region cannot be specified correctly.
In general, the degree of wetness of the road surface is different in each part of the road, and the strength of reflection is also different. On the road surface portion that is wet but not puddle, there may be a case where there is no clear peak of the edge luminance value due to the reflection component. In the method of the previous example, it is assumed that both the detection target itself and the reflection component have peaks. Therefore, when there is no peak even if there is a reflection component, the boundary cannot be specified.

本発明は斯かる事情に鑑みてなされたものであり、撮像画像に検出対象の反射成分を含む場合でも、撮像画像に基づき対象を精度よく検出することを可能とする画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an image processing apparatus and an image processing method capable of accurately detecting a target based on a captured image even when the captured image includes a reflection component of the detection target. The purpose is to provide.

第1発明に係る画像処理装置は、撮像手段を備え、該撮像手段から得られる撮像画像に基づいて撮像範囲内にある対象を検出するための画像処理を行なう画像処理装置において、前記撮像画像から検出対象が写っている検出対象領域の候補を抽出する抽出手段と、該抽出手段が抽出した候補の撮像画像中における位置、前記候補の垂直方向及び水平方向の大きさ、並びに、予め記憶してある検出対象の大きさを示す寸法情報に基づき、前記候補が、前記検出対象の反射成分を含むか否かを判定する判定手段と、該判定手段が反射成分を含むと判定した場合、前記候補内の検出対象自体の領域、及び反射成分の領域間の境界を特定する特定手段と、該特定手段が特定した境界に基づき、前記候補から反射成分の領域を除去する手段と、反射成分を除去して得られる検出対象領域に基づき、検出対象を検出する手段とを備えることを特徴とする。   An image processing apparatus according to a first aspect of the present invention is an image processing apparatus that includes an imaging unit, and performs image processing for detecting an object within an imaging range based on a captured image obtained from the imaging unit. Extraction means for extracting a candidate for a detection target area in which the detection target is shown, a position in the captured image of the candidate extracted by the extraction means, the size of the candidate in the vertical direction and the horizontal direction, and pre-stored Based on dimensional information indicating the size of a certain detection target, a determination unit that determines whether or not the candidate includes a reflection component of the detection target; and the determination unit that determines that the determination unit includes a reflection component, the candidate A specifying unit for specifying a boundary between the region of the detection target itself and the region of the reflection component, a unit for removing the reflection component region from the candidate based on the boundary specified by the specifying unit, and the reflection component Based on the detection target region obtained by removing, characterized in that it comprises a means for detecting a detection target.

第2発明に係る画像処理装置は、前記特定手段は、撮像画像中におけるエッジ部を抽出するエッジ抽出処理手段と、前記抽出手段が抽出した候補の上端の、撮像画像における垂直方向の座標を特定する上端特定手段と、前記寸法情報に基づき、撮像画像中で検出対象領域が占めるべき垂直方向の大きさを求める手段と、前記上端特定手段が特定した座標から、求めた垂直方向の大きさの分だけ下方にある撮像画像における座標を特定する下端特定手段と、該下端特定手段が特定した座標から更に下方の複数の座標毎に、該座標を通る水平方向の帯領域内に含まれる各エッジ部のエッジ強度に基づき、前記帯領域のエッジ強度を示す指標値を求める手段と、該手段が求めた指標値の、垂直方向の各座標に対する分布曲線を求める手段と、求めた分布曲線における特徴点を特定する手段とを備え、特定した特徴点に対応する撮像画像における帯領域を、境界として特定するようにしてあることを特徴とする。   In the image processing device according to the second invention, the specifying means specifies an edge extraction processing means for extracting an edge portion in the captured image, and a vertical coordinate in the captured image of the upper end of the candidate extracted by the extraction means. Based on the dimension information, means for determining the vertical size that the detection target area should occupy in the captured image, and the coordinates in the vertical direction determined from the coordinates specified by the upper end specifying means. Lower end specifying means for specifying coordinates in a captured image that is lower by the amount, and each edge included in a horizontal band region passing through the coordinates for each of a plurality of lower coordinates from the coordinates specified by the lower end specifying means Means for obtaining an index value indicating the edge strength of the band region based on the edge strength of the part, and means for obtaining a distribution curve for each coordinate in the vertical direction of the index value obtained by the means And means for identifying a characteristic point in the cloth curve, a band region in the captured image corresponding to the identified feature points, characterized in that are to be identified as a boundary.

第3発明に係る画像処理装置は、前記下端特定手段は、前記上端特定手段が特定した座標に基づき、撮像手段から前記検出対象までの実空間における距離を算出する手段を更に備え、該手段が算出した距離及び前記寸法情報に基づき、実空間で撮像手段から前記距離に前記検出対象がある場合に撮像画像中で前記検出対象領域が占めるべき領域の下端の座標を特定するようにしてあることを特徴とする。   In the image processing apparatus according to a third aspect, the lower end specifying means further comprises means for calculating a distance in real space from the imaging means to the detection target based on the coordinates specified by the upper end specifying means. Based on the calculated distance and the dimensional information, the coordinates of the lower end of the area that should be occupied by the detection target area in the captured image when the detection target exists at the distance from the imaging means in real space are specified. It is characterized by.

第4発明に係る画像処理装置は、前記判定手段は、前記抽出手段が抽出した候補の撮像画像中における位置に基づき、撮像手段から前記検出対象までの実空間における距離を算出する手段と、該手段が算出した距離及び前記抽出手段が抽出した候補の垂直方向の大きさに基づき、前記検出対象の実空間における大きさを算出する手段と、該手段が算出した大きさが前記寸法情報が示す実空間における大きさと対応するか否かを判断する手段とを備え、対応しないと判断した場合、前記候補は反射成分を含むと判定するようにしてあることを特徴とする。   The image processing apparatus according to a fourth aspect of the invention is characterized in that the determination unit calculates a distance in real space from the imaging unit to the detection target based on a position in the candidate captured image extracted by the extraction unit, Based on the distance calculated by the means and the vertical size of the candidate extracted by the extracting means, the size information indicates the means for calculating the size of the detection target in real space, and the size calculated by the means And a means for determining whether or not the size corresponds to the size in the real space. If it is determined that the size does not correspond, the candidate is determined to include a reflection component.

第5発明に係る画像処理装置は、前記撮像手段の撮像範囲を、前記撮像手段と異なる角度から同時的に撮像する第2の撮像手段と、該第2の撮像手段が撮像した撮像画像から検出対象が写っている検出対象領域の候補を抽出する手段と、前記抽出手段が撮像手段から得られる撮像画像から抽出した検出対象領域の候補、及び前記第2の撮像手段により撮像された撮像画像から抽出した検出対象領域の候補を対応付ける手段と、該手段が対応付けた2つの候補の夫々の撮像画像中における位置を特定する手段と、2つの候補夫々が特定された位置間の差異に基づき、前記撮像手段又は前記第2の撮像手段から前記検出対象までの実空間における距離を算出する手段と、該手段が算出した距離、及び前記抽出手段が抽出した候補の垂直方向の大きさに基づき、検出対象の実空間における大きさを算出する手段と、該手段が算出した大きさが前記寸法情報が示す実空間における大きさと対応するか否かを判断する手段とを更に備え、対応しないと判断した場合、前記判定手段により反射成分を含むと判定するようにしてあることを特徴とする。   An image processing apparatus according to a fifth aspect of the invention detects an imaging range of the imaging unit from a second imaging unit that images simultaneously from a different angle from the imaging unit, and a captured image captured by the second imaging unit. From a means for extracting a candidate for a detection target area in which the object is shown, a candidate for a detection target area extracted from a captured image obtained by the extraction means from the imaging means, and a captured image captured by the second imaging means Based on the difference between the means for associating the extracted candidates for the detection target region, the means for identifying the positions of the two candidates associated with the means in the captured image, and the positions where the two candidates are identified, Means for calculating a distance in real space from the imaging means or the second imaging means to the detection target; a distance calculated by the means; and a size of a candidate in the vertical direction extracted by the extraction means And a means for calculating the size in the real space to be detected, and a means for determining whether the size calculated by the means corresponds to the size in the real space indicated by the dimension information. When it is determined that the reflection component is not included, the determination unit determines that the reflection component is included.

第6発明に係る画像処理装置は、検出対象は特定の検出対象であるか否かを判定する手段を更に備えることを特徴とする。   The image processing apparatus according to a sixth aspect of the present invention further includes means for determining whether or not the detection target is a specific detection target.

第7発明に係る画像処理装置は、前記特定の検出対象は人物であることを特徴とする。   The image processing apparatus according to a seventh aspect is characterized in that the specific detection target is a person.

第8発明に係る画像処理方法は、撮像画像に基づき、撮像範囲内にある対象を検出するための画像処理を行なう方法において、前記撮像画像から検出対象が写っている検出対象領域の候補を抽出する抽出ステップと、該抽出ステップで抽出した候補の撮像画像中における位置、前記候補の垂直方向及び水平方向の大きさ、並びに、予め記憶してある検出対象の大きさを示す寸法情報に基づき、前記候補が、検出対象の反射成分を含むか否かを判定する判定ステップと、該判定ステップで反射成分を含むと判定した場合、前記候補内の検出対象自体の領域、及び反射成分の領域間の境界を特定する特定ステップと、該特定ステップが特定した境界に基づき、前記候補から反射成分を除去するステップと、反射成分を除去して得られる検出対象領域に基づき、検出対象を検出するステップとを含むことを特徴とする。   An image processing method according to an eighth aspect of the present invention is a method of performing image processing for detecting an object within an imaging range based on a captured image, and extracting a detection target area candidate in which the detection target is reflected from the captured image. Based on the extraction step, the position in the captured image of the candidate extracted in the extraction step, the size of the candidate in the vertical and horizontal directions, and the dimension information indicating the size of the detection target stored in advance, A determination step for determining whether or not the candidate includes a reflection component of a detection target, and when it is determined that the candidate includes a reflection component in the determination step, between the region of the detection target itself in the candidate and the region of the reflection component A step of identifying a boundary of the target, a step of removing a reflection component from the candidate based on the boundary identified by the identification step, and a detection target region obtained by removing the reflection component Based on, characterized in that it comprises the steps of detecting a detection target.

第9発明に係る画像処理方法は、前記特定ステップは、撮像画像中におけるエッジ部を抽出するエッジ抽出処理ステップと、前記抽出ステップで抽出した候補の上端の、撮像画像における垂直方向の座標を特定するステップと、前記寸法情報に基づき、撮像画像で検出対象領域が占めるべき垂直方向の大きさを求めるステップと、特定した座標から、求めた垂直方向の大きさの分だけ下方にある検出対象自体の下端に対応する撮像画像における座標を特定するステップと、特定した前記座標から更に下方の複数の座標毎に、該座標を通る水平方向の帯領域内に含まれる各エッジ部のエッジ強度に基づき、前記帯領域のエッジ強度を示す指標値を求めるステップと、該ステップが求めた指標値の、垂直方向の各座標に対する分布曲線を求めるステップと、求めた分布曲線における特徴点を特定するステップと、特定した特徴点に対応する撮像画像における帯領域を、境界として特定するステップとを含むことを特徴とする。   In the image processing method according to a ninth aspect of the invention, the specifying step specifies an edge extraction processing step for extracting an edge portion in the captured image, and specifies vertical coordinates in the captured image of the upper end of the candidate extracted in the extraction step. A step of obtaining a vertical size that the detection target region should occupy in the captured image based on the dimension information, and a detection target itself that is below the specified coordinate by the determined vertical size Identifying the coordinates in the captured image corresponding to the lower end of the image, and for each of a plurality of coordinates further below the identified coordinates, based on the edge strength of each edge portion included in the horizontal band region passing through the coordinates A step of obtaining an index value indicating the edge strength of the band area, and a step of obtaining a distribution curve for each coordinate in the vertical direction of the index value obtained by the step. And-up, identifying a characteristic point in the distribution curve obtained, a band region in the captured image corresponding to the feature points identified, characterized in that it comprises the steps of: identifying as a boundary.

第1発明及び第8発明にあっては、撮像画像から検出対象に相当する領域の候補が抽出される。そして、抽出された領域候補の撮像画像における位置と、抽出された領域候補の縦横の大きさとに基づき、各候補領域が反射成分を含むか否かが判定手段により夫々判定される。判定手段による判定は以下の根拠による。検出対象の大きさにはその種類に応じた所定の範囲がある。したがって、検出対象領域の候補として抽出された領域の撮像画像中における位置に、実際に検出対象が写る場合には、検出対象領域が画像中に占めるべき縦横の大きさを必然的に決定できる。本発明ではこれを利用し、検出対象領域の撮像画像中における位置と、該位置に応じてあるべき大きさを示す寸法情報と、実際に抽出された領域の縦横の大きさとに基づき、反射成分が含まれているか否かが判定される。反射成分が含まれていると判定された場合、検出対象領域と反射成分の領域との境界が特定され、境界で区切られる反射成分の領域が除去される。   In the first invention and the eighth invention, a candidate for a region corresponding to the detection target is extracted from the captured image. Then, based on the position of the extracted area candidate in the captured image and the vertical and horizontal sizes of the extracted area candidate, whether or not each candidate area includes a reflection component is determined by the determination unit. The determination by the determination means is based on the following grounds. The size of the detection target has a predetermined range corresponding to the type. Therefore, when the detection target is actually captured at a position in the captured image of the region extracted as the detection target region candidate, the vertical and horizontal sizes that the detection target region should occupy in the image can be inevitably determined. In the present invention, this is utilized, and based on the position in the captured image of the detection target region, the dimension information indicating the size that should be in accordance with the position, and the vertical and horizontal sizes of the actually extracted region, the reflection component Whether or not is included is determined. When it is determined that the reflection component is included, the boundary between the detection target region and the reflection component region is specified, and the reflection component region delimited by the boundary is removed.

第2発明及び第9発明にあっては、第1発明及び第7発明における検出対象領域と反射成分の領域との境界の特定が以下のように行なわれる。撮像画像に対しエッジ処理が行なわれてエッジ部が抽出される。
そして、撮像画像における検出対象領域の候補の上端の座標が特定される。反射がある場合、検出対象の接地点付近を写した画像範囲では、反射成分の領域と検出対象領域とが一連となっている可能性が高く、下端は反射成分の領域の下端であって検出対象自体の領域の下端ではない場合がある。したがって、上端の座標を特定する。
特定された上端の座標の位置に、検出対象の頭部が位置して写されている場合に、検出対象領域が占めるべき大きさから検出対象自体の領域の下端に相当すべき座標が特定される。下端に相当すべき座標近傍に、検出対象自体の領域と反射成分との境界があると推定されるので、下端に相当すべき座標から垂直方向の下方へ向けて、複数の異なる座標夫々に対し、各座標を通る帯領域に含まれるエッジ部のエッジ強度を総合した指標値を求める。そして、指標値に基づき、エッジ強度が比較的弱まる帯領域を特定する。エッジ強度が比較的弱まる帯領域の特定は、水平方向に対するエッジ強度の指標値の分布曲線を求め分布曲線の特徴点を特定することによって為される。
下端に相当すべき座標、即ち境界が存在する可能性が高い部分から開始することにより、処理を軽くすると共に、検出対象領域内部に誤って境界を特定することを回避し、精度よく反射成分との境界を特定し、除去することが可能となる。
In the second and ninth inventions, the boundary between the detection target area and the reflection component area in the first and seventh inventions is specified as follows. Edge processing is performed on the captured image to extract an edge portion.
And the coordinate of the upper end of the candidate of the detection object area | region in a captured image is specified. When there is reflection, in the image range that shows the vicinity of the grounding point to be detected, there is a high possibility that the reflection component area and the detection target area are in a series, and the lower end is the lower end of the reflection component area and is detected It may not be the lower end of the area of the subject itself. Therefore, the coordinates of the upper end are specified.
When the head of the detection target is located at the position of the specified upper end coordinate, the coordinate that should correspond to the lower end of the detection target area is specified from the size that the detection target area should occupy. The Since it is presumed that there is a boundary between the area of the detection target itself and the reflection component in the vicinity of the coordinate corresponding to the lower end, the coordinate corresponding to the lower end is directed downward in the vertical direction with respect to each of a plurality of different coordinates. Then, an index value obtained by integrating the edge strengths of the edge portions included in the band region passing through each coordinate is obtained. Then, based on the index value, a band region where the edge strength is relatively weak is specified. The band region in which the edge strength is relatively weak is specified by obtaining a distribution curve of the index value of the edge strength in the horizontal direction and specifying the characteristic points of the distribution curve.
By starting from the coordinates that should correspond to the lower end, i.e., the portion where the boundary is likely to exist, the processing is lightened, and it is avoided that the boundary is erroneously specified inside the detection target region, and the reflection component is accurately detected. It is possible to identify and remove the boundary of the.

第3発明にあっては、検出対象領域の下端は以下のように特定される。まず、抽出手段により抽出された領域候補の上端に、検出対象の頭部の端が写る場合、その端の撮像画像における位置と、検出対象の種類とに応じて撮像手段からの距離を算出することが可能である。算出された距離に応じて検出対象領域が占めるべき大きさが求められ、上端の座標と求められた大きさとに基づき下端の座標を精度よく特定することが可能である。これにより境界を誤って特定することを回避し、境界を精度よく特定することができ、効果的に反射成分を除去することが可能である。   In the third invention, the lower end of the detection target area is specified as follows. First, when the edge of the head of the detection target is captured at the upper end of the region candidate extracted by the extraction means, the distance from the imaging means is calculated according to the position of the edge in the captured image and the type of the detection target. It is possible. The size that the detection target area should occupy is determined according to the calculated distance, and the lower end coordinates can be accurately identified based on the upper end coordinates and the determined size. Accordingly, it is possible to avoid erroneously specifying the boundary, to accurately specify the boundary, and to effectively remove the reflection component.

第4発明にあっては、抽出手段により抽出された検出対象領域の候補に反射成分の領域が含まれているか否かの判定が以下のように行なわれる。抽出された領域の候補の撮像画像中における大きさと、抽出された候補の撮像画像中の位置と、該位置から求められる撮像手段から検出対象までの実空間における距離とに基づき、検出対象の実空間における大きさが算出される。算出された実空間における大きさと検出対象の種類によって決まる寸法情報が示す大きさとが比較される、撮像画像中から検出対象領域の候補として抽出された領域から求められた実空間における大きさが、検出対象にとってあり得ない大きさである場合、反射成分の分だけ大きくなっている可能性が高いため、反射成分を含むと判定される。これにより、反射成分を含むか否かを精度よく判定することができる。   In the fourth aspect of the invention, the determination as to whether or not the reflection target region is included in the detection target region candidates extracted by the extraction means is performed as follows. Based on the size of the extracted candidate area in the captured image, the position of the extracted candidate image in the captured image, and the distance in real space from the imaging means to the detection target obtained from the position, The size in space is calculated. The calculated size in the real space is compared with the size indicated by the dimension information determined by the type of the detection target, and the size in the real space obtained from the region extracted as a detection target region candidate from the captured image is When the size is not possible for the detection target, it is highly likely that the size is increased by the amount of the reflection component, and thus it is determined that the reflection component is included. Thereby, it can be accurately determined whether or not a reflection component is included.

第5発明にあっては、同一範囲を同時的に、所定角度以上異なる角度で撮像する第2撮像手段が更に備えられ、異なる角度で撮像された撮像画像に基づき撮像手段から検出対象までの距離が算出される。そして、抽出された領域候補の夫々の撮像画像中における位置と距離とに基づき、検出対象の実空間における大きさが算出される。撮像画像中から検出対象領域の候補として抽出された領域から求められた実空間における大きさが、検出対象にとってあり得ない大きさである場合、反射成分の分だけ大きくなっている可能性が高いため、反射成分を含むと判定される。これにより、反射成分を含むか否かを精度よく判定することができる。   In the fifth invention, there is further provided second imaging means for simultaneously imaging the same range at a different angle by a predetermined angle or more, and the distance from the imaging means to the detection target based on the captured images captured at different angles Is calculated. Then, based on the position and distance of each extracted region candidate in the captured image, the size of the detection target in real space is calculated. When the size in the real space obtained from the region extracted as the detection target region candidate from the captured image is a size that is impossible for the detection target, it is likely that the size is increased by the amount of the reflection component. Therefore, it is determined that the reflection component is included. Thereby, it can be accurately determined whether or not a reflection component is included.

第6発明にあっては、検出対象が特定の検出対象であるか否かが判定される。これにより、検出対象を識別して検出することが可能となる。   In the sixth invention, it is determined whether or not the detection target is a specific detection target. Thereby, it becomes possible to identify and detect a detection target.

第7発明にあっては、検出対象を人物とした場合は統計的に、垂直方向に対するエッジ強度の分布曲線の特徴点が明確となり易いことを利用する。これにより、撮像画像に人物の反射成分が写っている場合でも精度よく人物を検出することが可能となる。   In the seventh invention, when the detection target is a person, it is statistically utilized that the characteristic points of the distribution curve of the edge strength with respect to the vertical direction are easily clarified. As a result, it is possible to detect a person with high accuracy even when the reflected component of the person is reflected in the captured image.

本発明による場合、検出対象の背景からの反射成分を除去することができるので、検出対象領域を正確に検出することが可能である。これにより、検出対象を高精度に正しく識別することが可能となる。   According to the present invention, since the reflection component from the background of the detection target can be removed, it is possible to accurately detect the detection target region. This makes it possible to correctly identify the detection target with high accuracy.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。   Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof.

なお、以下に示す実施の形態では、本発明に係る画像処理装置によって交差点にいる人人物を正確に検出することを可能とし、交差点に進入する自動車で事故防止のための走行制御を実行させる安全運転支援システムに適用した場合を例に説明する。   In the embodiment shown below, it is possible to accurately detect a person at an intersection by the image processing apparatus according to the present invention, and to perform a traveling control for preventing an accident on a car entering the intersection. A case where the present invention is applied to a driving support system will be described as an example.

(実施の形態1)
図1は、実施の形態1における安全運転支援システムが設置されている交差点の例を示す上方からの斜視図である。図1中の1は、交差点を撮像する撮像装置と一体に構成される画像処理装置である。画像処理装置1は、路側に設置されて所定の高さで道路側に伸びている支柱に取り付けられている。画像処理装置1と一体に構成されている撮像装置のレンズが交差点及びその近傍の範囲を俯瞰するように設置されており、画像処理装置1及び撮像装置は撮像装置のレンズ側を撮影波長帯を透過する素材とした筐体に収められている。図1中の2は路側機であり、画像処理装置1と同様に路側の支柱に取り付けられている。画像処理装置1と路側機2とは通信線により接続されている。
(Embodiment 1)
FIG. 1 is a perspective view from above showing an example of an intersection where the safe driving support system according to Embodiment 1 is installed. Reference numeral 1 in FIG. 1 denotes an image processing apparatus configured integrally with an imaging apparatus that images an intersection. The image processing apparatus 1 is attached to a column installed on the road side and extending to the road side at a predetermined height. The lens of the image pickup apparatus configured integrally with the image processing apparatus 1 is installed so as to overlook the intersection and the range in the vicinity thereof, and the image processing apparatus 1 and the image pickup apparatus have a shooting wavelength band on the lens side of the image pickup apparatus. It is housed in a casing made of transparent material. Reference numeral 2 in FIG. 1 denotes a roadside machine, which is attached to a roadside column like the image processing apparatus 1. The image processing apparatus 1 and the roadside machine 2 are connected by a communication line.

画像処理装置1は、路側機2を介して無線通信によりデータを送受信することが可能である。例えば、図1中には2台の自動車が示されている。各自動車の車載器は、例えばDSRC(Dedicated Short Range Communication)技術により路側機2との無線通信が可能に構成されている。   The image processing apparatus 1 can transmit and receive data via wireless communication via the roadside device 2. For example, two cars are shown in FIG. The vehicle-mounted device of each automobile is configured to be able to perform wireless communication with the roadside device 2 by, for example, DSRC (Dedicated Short Range Communication) technology.

実施の形態1における安全運転支援システムでは、画像処理装置1が以下に説明する動作を行なうことにより各自動車での走行制御を実現する。画像処理装置1が、交差点を俯瞰するように撮像する撮像装置により得られる画像データから、交差点における自動車、自転車、歩行者、又は落下物等を検出する。そして、画像処理装置1は検出対象の情報を路側機2を介して各自動車に送信する。これにより各自動車では、路側機2を介して受信した情報に基づき、進行方向に歩行者の存在を検知した場合にはブレーキを自動的に作動させるなどの走行制御が実現可能となる。また、緩衝装置を作動させるなど、衝突事故が起こった場合でも衝突による衝撃を軽減させるための安全制御も実現可能となる。   In the safe driving support system according to the first embodiment, the image processing apparatus 1 performs the operation described below, thereby realizing traveling control in each automobile. The image processing apparatus 1 detects an automobile, a bicycle, a pedestrian, a fallen object, or the like at an intersection from image data obtained by an imaging apparatus that captures an image of the intersection. Then, the image processing apparatus 1 transmits information to be detected to each automobile via the roadside device 2. Thereby, in each automobile, it is possible to realize traveling control such as automatically operating a brake when the presence of a pedestrian is detected in the traveling direction based on information received via the roadside device 2. In addition, even when a collision accident occurs, such as operating a shock absorber, it is possible to realize safety control for reducing the impact caused by the collision.

このような安全運転支援システムを実現するために、画像処理装置1が画像データに基づき行なう画像処理、及び画像処理によって得られる各種情報について以下に説明する。   In order to realize such a safe driving support system, image processing performed by the image processing apparatus 1 based on image data and various information obtained by the image processing will be described below.

図2は、実施の形態1における安全運転支援システムを構成する画像処理装置1、路側機2、及び撮像装置3の内部構成を示すブロック図である。画像処理装置1は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等を利用して各構成部を制御する制御部10と、EEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ等の不揮発性のメモリを利用した記憶部11と、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)等のメモリを利用した画像メモリ12と、撮像装置3からの画像信号を受け付ける画像取得部13と、路側機2との通信を実現する通信部14とを備える。   FIG. 2 is a block diagram illustrating an internal configuration of the image processing device 1, the roadside device 2, and the imaging device 3 that constitute the safe driving support system in the first embodiment. The image processing apparatus 1 includes a control unit 10 that controls each component using a CPU (Central Processing Unit), an MPU (Micro Processing Unit), etc., an EEPROM (Electrically Erasable and Programmable Read Only Memory), a flash memory, and the like. A storage unit 11 using a non-volatile memory, an image memory 12 using a memory such as SRAM (Static Random Access Memory) and DRAM (Dynamic Random Access Memory), and an image acquisition unit that receives an image signal from the imaging device 3 13 and a communication unit 14 that realizes communication with the roadside machine 2.

制御部10は、内蔵するROM(Read Only Memory)又は記憶部11に記憶されている制御プログラムを読み出して実行することにより各構成部を制御し、後述にて説明する画像処理を行なうようにしてある。記憶部11は制御部10に内蔵される構成としてもよい。制御部10の処理によって発生する各種データは、更に別途備えられる不揮発性のメモリ又は制御部10内蔵のメモリに一時的に記憶される。   The control unit 10 reads out and executes a control program stored in a built-in ROM (Read Only Memory) or the storage unit 11 to control each component unit and perform image processing described later. is there. The storage unit 11 may be built in the control unit 10. Various data generated by the processing of the control unit 10 is temporarily stored in a non-volatile memory provided separately or in a memory built in the control unit 10.

画像メモリ12は、画像取得部13により取得された画像データを記憶する。制御部10は、画像取得部13にて画像データを取得した場合に画像メモリ12への書き込みを指示する。   The image memory 12 stores the image data acquired by the image acquisition unit 13. The control unit 10 instructs writing to the image memory 12 when the image acquisition unit 13 acquires image data.

画像メモリ12は、制御部10が内蔵するRAM(Random Access Memory)の一部の記憶領域であってもよい。また、記憶部11又は画像メモリ12は画像処理装置1の外部に設置され、画像処理装置1の制御部10が読み書きが可能なように、画像処理装置1と接続されている構成としてもよい。また、後述にて説明する各処理は、画像メモリ12に記憶されている画像データ、又はその複製に対して行なう。   The image memory 12 may be a partial storage area of a RAM (Random Access Memory) built in the control unit 10. The storage unit 11 or the image memory 12 may be installed outside the image processing apparatus 1 and connected to the image processing apparatus 1 so that the control unit 10 of the image processing apparatus 1 can read and write. Each process described below is performed on the image data stored in the image memory 12 or a copy thereof.

画像取得部13は撮像装置から出力される画像信号を受け付ける。画像取得部13は、受け付けた画像信号から画像データを取り出し画像メモリ12に記憶する。詳細には、画像取得部13は制御部10からの指示に従い、受け付けている画像信号から画像を構成する画素毎の輝度値又は色差等を特定して画像データとし、画像メモリ12へ書き込む。   The image acquisition unit 13 receives an image signal output from the imaging device. The image acquisition unit 13 extracts image data from the received image signal and stores it in the image memory 12. Specifically, according to an instruction from the control unit 10, the image acquisition unit 13 specifies a luminance value or a color difference for each pixel constituting the image from the received image signal, and writes it to the image memory 12 as image data.

通信部14は、路側機2との間を接続する通信線を介した情報の送受信を実現する。制御部10は、画像処理によって得られた情報を通信部14にて路側機2へ送信し、通信部14にて路側機2からの情報を受信する。   The communication unit 14 realizes transmission / reception of information via a communication line connecting the roadside device 2. The control unit 10 transmits information obtained by the image processing to the roadside device 2 through the communication unit 14 and receives information from the roadside device 2 through the communication unit 14.

路側機2は、CPU又はMPUを利用して各構成部を制御する制御部20と、画像処理装置1との通信を実現する通信部21と、各自動車に搭載されている車載器への通信を無線により実現する無線通信部22とを備える。   The roadside machine 2 includes a control unit 20 that controls each component using a CPU or MPU, a communication unit 21 that realizes communication with the image processing apparatus 1, and communication with an on-vehicle device mounted on each vehicle. And a wireless communication unit 22 that realizes the above wirelessly.

通信部21は画像処理装置1の通信部14と対応して情報の送受信が可能である。制御部20は、通信部21が画像処理装置1から送信された情報を受信した場合、通信部21からの通知を受けてこれを受信する。   The communication unit 21 can transmit and receive information in correspondence with the communication unit 14 of the image processing apparatus 1. When the communication unit 21 receives information transmitted from the image processing apparatus 1, the control unit 20 receives a notification from the communication unit 21 and receives it.

無線通信部22は、DSRC技術の方式により無線通信が可能である。制御部20は、通信部22により画像処理装置1から受信した情報を無線通信部22により各自動車の車載器へ送信する。なお、無線通信部22は車載器へのDSRC方式による通信のみならず、遠隔地にある交通管制センター内の通信装置宛に情報を送信できるように構成してあってもよい。   The wireless communication unit 22 can perform wireless communication using a DSRC technique. The control unit 20 transmits information received from the image processing apparatus 1 by the communication unit 22 to the vehicle-mounted device of each automobile by the wireless communication unit 22. The wireless communication unit 22 may be configured not only to communicate with the vehicle-mounted device by the DSRC method but also to transmit information to a communication device in a traffic control center at a remote location.

撮像装置3は、赤外線レンズ及び遠赤外線撮像素子を備え、遠赤外線波長帯にて撮像を行なう遠赤外線カメラである。赤外線レンズは硫化亜鉛、カルコゲンガラス、ゲルマニウム、ジンクセレン等を原料として作製されている。遠赤外線撮像素子は、酸化バナジウム(VOx)、アモルファスシリコン、SOI(Silicon on Insulator)ダイオード、サーモパイル等を用いた非冷却型のものを用いる。遠赤外線撮像素子が検出可能な波長帯は例えば、8μm〜12μmである。フィルターを備えて他の波長の光を遮断するようにしてもよい。   The imaging device 3 is a far-infrared camera that includes an infrared lens and a far-infrared imaging device and performs imaging in the far-infrared wavelength band. The infrared lens is manufactured using zinc sulfide, chalcogen glass, germanium, zinc selenium, or the like as a raw material. As the far-infrared imaging device, an uncooled type using vanadium oxide (VOx), amorphous silicon, SOI (Silicon on Insulator) diode, thermopile or the like is used. The wavelength band that can be detected by the far-infrared imaging device is, for example, 8 μm to 12 μm. A filter may be provided to block light of other wavelengths.

撮像装置3の遠赤外線撮像素子は、温度差を輝度差に変換して出力する。撮像装置3の遠赤外線撮像素子の画素数は例えば320×240であり、1秒間に約30フレームのレートで生成される画像の画像信号を出力する。   The far-infrared imaging device of the imaging device 3 converts the temperature difference into a luminance difference and outputs it. The number of pixels of the far-infrared imaging element of the imaging device 3 is, for example, 320 × 240, and an image signal of an image generated at a rate of about 30 frames per second is output.

次に、上述のように構成される画像処理装置1の制御部10が、撮像装置3から出力される画像信号から取得した画像データに対して行なう画像処理について詳細を説明する。   Next, details of the image processing performed on the image data acquired from the image signal output from the imaging device 3 by the control unit 10 of the image processing device 1 configured as described above will be described.

制御部10は、画像取得部13にて取得した画像データから人物を検出する。具体的には制御部10は画像データから人物の領域を抽出する。画像データに基づく人物の検出方法としては従来より種々の技術がある。実施の形態1では背景差分の方法を用いる構成とするが、一又は複数フレーム分前の画像データとの差分をとるフレーム差分の方法を用いてもよいし、オプティカルフローと呼ばれる方法を用いてもよい。   The control unit 10 detects a person from the image data acquired by the image acquisition unit 13. Specifically, the control unit 10 extracts a person region from the image data. There are various techniques for detecting a person based on image data. In the first embodiment, the background difference method is used. However, a frame difference method that obtains a difference from one or more previous frames of image data may be used, or a method called an optical flow may be used. Good.

図3は、実施の形態1における画像処理装置1の記憶部11に予め記憶されている背景の画像データの内容例を示す説明図である。なお、図3に示すような遠赤外線用の背景の画像データが記憶部11に記憶してある。   FIG. 3 is an explanatory diagram illustrating an example of the content of background image data stored in advance in the storage unit 11 of the image processing apparatus 1 according to the first embodiment. In addition, background image data for far infrared rays as shown in FIG.

図3に示すように、背景の画像データには固定物である路面が写っている。撮像装置3から取得される画像データと背景の画像データとの差分を算出することにより、人物領域候補が抽出される。   As shown in FIG. 3, the road image which is a fixed object is reflected in the background image data. By calculating the difference between the image data acquired from the imaging device 3 and the background image data, a person region candidate is extracted.

なお、画像処理装置1の設置位置、設置高さ、及び撮像装置3の俯角、画角に応じて撮像範囲は決定される。実施の形態1の場合、撮像装置3は交差点を俯瞰するように設置される。したがって画像データ内における位置、特に垂直方向の位置と実空間の交差点における位置とに対応関係がある。図3中の破線で表わされる水平線は夫々、画像データ内における垂直方向の位置に対応する実空間における画像処理装置1からの距離を示している。例えば、図3中の一番下方にある破線上に写る路面の一部は、画像処理装置1が設置される位置から20mの距離に位置する。また、中央にある破線上に写る路面の一部は、画像処理装置1が設置される位置から50mの距離に位置する。一番上方にある破線上に写る路面の一部は、画像処理装置1が設置される位置から100mの距離に位置する。   The imaging range is determined according to the installation position and installation height of the image processing apparatus 1 and the depression angle and field angle of the imaging apparatus 3. In the case of Embodiment 1, the imaging device 3 is installed so as to look down at the intersection. Therefore, there is a correspondence relationship between the position in the image data, particularly the position in the vertical direction and the position at the intersection of the real space. Each horizontal line represented by a broken line in FIG. 3 indicates the distance from the image processing apparatus 1 in the real space corresponding to the position in the vertical direction in the image data. For example, a part of the road surface shown on the broken line at the bottom in FIG. 3 is located at a distance of 20 m from the position where the image processing apparatus 1 is installed. A part of the road surface shown on the broken line at the center is located at a distance of 50 m from the position where the image processing apparatus 1 is installed. A part of the road surface shown on the uppermost broken line is located at a distance of 100 m from the position where the image processing apparatus 1 is installed.

そして、人物の大きさはある程度決まっており、概ね縦×横×高さが80cm×80cm×2m(身長)の体積以内に収まるはずである。撮像装置3によって人物が撮像された場合、画像データ内の人物領域の大きさは、画像処理装置1から遠いほど小さく、近いほど大きくなる。そして、人物領域の画像データ中における大きさは、撮像装置3から人物までの実空間における距離、及び撮像装置の画角に応じて決まる。   The size of the person is determined to some extent, and the height x width x height should be approximately within a volume of 80 cm x 80 cm x 2 m (height). When a person is imaged by the imaging device 3, the size of the person area in the image data is smaller as it is farther from the image processing device 1 and larger as it is closer. The size of the person area in the image data is determined according to the distance in real space from the imaging device 3 to the person and the angle of view of the imaging device.

したがって、画像処理装置1から所定の距離に位置する人物領域の画像データ内に占めるべき縦横の大きさを記憶部11に記憶しておく。人物は上述のように80cm×80cm×2m(身長)の体積以内に収まる。画像処理装置1から50mの位置にいる人物が撮像装置3によって撮像された場合、人物の領域が占めるべき領域の大きさは、誤差を考慮して水平方向の大きさ(画素数)が15ピクセル、垂直方向の大きさが30ピクセル以内とする。   Therefore, the vertical and horizontal sizes to be occupied in the image data of the person area located at a predetermined distance from the image processing apparatus 1 are stored in the storage unit 11. As described above, the person falls within a volume of 80 cm × 80 cm × 2 m (height). When a person located 50 m from the image processing apparatus 1 is imaged by the imaging apparatus 3, the size of the area that the person's area should occupy is 15 pixels in the horizontal direction (number of pixels) in consideration of errors. The vertical size is within 30 pixels.

なお、人物領域として抽出した領域の画像データ内における位置が、記憶部11に記憶されているサイズ情報に対応する所定の位置(例えば、50mの距離の位置)とは異なる位置である場合、制御部10は、差異に応じて人物領域が占めるべき水平方向及び垂直方向の大きさを算出する。例えば画像処理装置1から100mの距離に対応する位置に、人物領域が位置する場合、所定の50mの距離から2倍の距離であるので、占めるべき大きさは略半分となる。   When the position in the image data of the area extracted as the person area is a position different from a predetermined position (for example, a position at a distance of 50 m) corresponding to the size information stored in the storage unit 11, the control is performed. The unit 10 calculates the size in the horizontal direction and the vertical direction that the person area should occupy according to the difference. For example, when the person area is located at a position corresponding to a distance of 100 m from the image processing apparatus 1, the distance to be occupied is approximately half because it is twice the distance from the predetermined distance of 50 m.

このように、画像データ中の人物領域が占めるべき縦横の大きさを記憶部11に予め記憶しておく。そして、制御部10は人物領域として抽出した領域の縦横の大きさが、人物の領域が占めるべき領域の大きさの条件に合っているか否かに基づき、抽出した領域が人物領域として妥当か否かを判定する。例えば制御部10は、人物領域として抽出した領域が画像処理装置1から50mの距離に相当する画像データ中の位置にある場合、抽出した領域の水平方向の大きさ(画素数)が45ピクセルであって、垂直方向の大きさが10ピクセルであったときには人物の領域が占めるべき領域の大きさと合わないので妥当でないと判定する。   In this way, the vertical and horizontal sizes that should be occupied by the person area in the image data are stored in the storage unit 11 in advance. Then, the control unit 10 determines whether or not the extracted area is appropriate as the person area based on whether or not the vertical and horizontal sizes of the area extracted as the person area meet the size condition of the area that the person area should occupy. Determine whether. For example, when the region extracted as the human region is at a position in the image data corresponding to a distance of 50 m from the image processing apparatus 1, the control unit 10 has a horizontal size (number of pixels) of 45 pixels. If the size in the vertical direction is 10 pixels, it does not match the size of the area that the person's area should occupy, so it is determined that it is not appropriate.

そして制御部10は、抽出した領域が人物領域として妥当でないということは、人物領域として抽出した領域が反射成分を含んで縦方向に大きくなっていると判定する。   Then, the control unit 10 determines that the extracted area is not valid as the person area, that the area extracted as the person area is larger in the vertical direction including the reflection component.

画像処理装置1の制御部10は、上述のように記憶部11に記憶されている情報を用いて以下に示す処理を行なう。図4は、実施の形態1における画像処理装置1の制御部10が行なう画像処理の手順の一例を示すフローチャートである。   The control unit 10 of the image processing apparatus 1 performs the following process using the information stored in the storage unit 11 as described above. FIG. 4 is a flowchart showing an example of an image processing procedure performed by the control unit 10 of the image processing apparatus 1 according to the first embodiment.

制御部10は、画像取得部13へ指示信号を出力することにより、撮像装置3から出力される画像信号に基づく画像データを取得する(ステップS1)。なお、ステップS1における画像データの取得タイミングは任意である。例えば1秒等の一定時間毎に行なう構成としてもよいし、路側機2で車載器からの情報を受信した場合など、自動車が交差点への進入を検知した場合に行なう構成としてもよい。   The control unit 10 acquires the image data based on the image signal output from the imaging device 3 by outputting an instruction signal to the image acquisition unit 13 (step S1). In addition, the acquisition timing of the image data in step S1 is arbitrary. For example, it may be configured to be performed at regular intervals such as 1 second, or may be configured to be performed when the vehicle detects entry into an intersection, such as when the roadside device 2 receives information from the vehicle-mounted device.

制御部10は、撮像装置3から出力される画像信号からステップS1で画像取得部13が取得した画像データと、記憶部11に記憶してある遠赤外線用の背景の画像データとの差分データを算出する(ステップS2)。算出された差分データは、画像メモリ12又は制御部10内蔵メモリに一時的に記憶される。これにより、遠赤外線波長帯にて撮像する撮像装置3から得られる画像データから、背景の画像データには写っていない検出対象、即ち人物が存在する領域の候補が抽出される。   The control unit 10 obtains difference data between the image data acquired by the image acquisition unit 13 in step S <b> 1 from the image signal output from the imaging device 3 and the far-infrared background image data stored in the storage unit 11. Calculate (step S2). The calculated difference data is temporarily stored in the image memory 12 or the control unit 10 built-in memory. Thereby, from the image data obtained from the imaging device 3 that captures an image in the far-infrared wavelength band, a detection target that is not reflected in the background image data, that is, a candidate for a region where a person exists is extracted.

制御部10は差分データを例えば以下のようにして算出する。制御部10は画素毎に、背景の画像データと取得した画像データとの輝度値の差分を算出し、差分が所定値以上である画素と、差分が所定値未満である画素とに区別する。制御部10は、画像データを構成する画素毎の、差分が所定値以上であるか否かの真偽を示す1ビット情報の二次元配列を、差分データとして算出する。なお、複数の連続する画素で真である場合以外、即ち、真である画素が連続しない場合は当該画素の1ビット情報を偽としてもよい。ノイズにより差分が所定値以上となった画素を除去するためである。   The control unit 10 calculates the difference data as follows, for example. For each pixel, the control unit 10 calculates a difference in luminance value between the background image data and the acquired image data, and distinguishes between a pixel whose difference is greater than or equal to a predetermined value and a pixel whose difference is less than the predetermined value. The control unit 10 calculates, as difference data, a two-dimensional array of 1-bit information indicating whether the difference is greater than or equal to a predetermined value for each pixel constituting the image data. It should be noted that the 1-bit information of the pixel may be set to false unless the true pixel is true, that is, if the true pixel is not continuous. This is to remove pixels whose difference is equal to or greater than a predetermined value due to noise.

更に具体的には、制御部10は取得した画像データの画素毎に、以下に示す式1に基づく演算を行なう。   More specifically, the control unit 10 performs an operation based on Expression 1 shown below for each pixel of the acquired image data.

ただし、式1におけるf(x,y)は、取得した画像データを構成する水平方向の位置x及び垂直方向の位置yで特定される各画素の1ビット情報である。なお、水平方向の位置xは画像データの左端からの画素数であり、垂直方向のyは画像データの上端からの画素数とする。Ix,yは取得した画像データにおけるx、yで特定される画素毎の輝度値である。I´x,yは、背景の画像データにおけるx、yで特定される画素毎の輝度値である。thresholdは任意の閾値である。 However, f (x, y) in Expression 1 is 1-bit information of each pixel specified by the position x in the horizontal direction and the position y in the vertical direction constituting the acquired image data. The position x in the horizontal direction is the number of pixels from the left end of the image data, and y in the vertical direction is the number of pixels from the upper end of the image data. I x, y is a luminance value for each pixel specified by x, y in the acquired image data. I ′ x, y is a luminance value for each pixel specified by x and y in the background image data. Threshold is an arbitrary threshold value.

なお、式1に示すように差分データを算出する際、取得した画像データ及び背景の画像データ夫々にエッジ抽出処理を施すなどした後の輝度値に基づいて算出してもよい。   In addition, when calculating the difference data as shown in Expression 1, the difference data may be calculated based on the luminance value after performing the edge extraction process on each of the acquired image data and background image data.

そして制御部10は、ステップS2で算出された遠赤外線画像データの差分位置、即ち人物領域候補の位置に基づき、画像処理装置1から検出対象の人物までの距離を算出する(ステップS3)。詳細には、制御部10は、ステップS2で算出された差分データの連続領域に外接する矩形を特定し、特定した矩形を抽出された人物領域候補とする。そして、制御部10は人物領域候補の下端の画像データ中における垂直方向の座標を特定する。人物領域の下端は人物の路面との接地点に対応する可能性が高いので、接地点に対応する座標を特定することにより、画像処理装置1から人物までの実空間における距離を算出することができるからである。差分データにおける差分値が所定値以上である画素の連続領域が複数ある場合には夫々の連続領域を人物領域候補とし、人物領域候補毎に距離を算出する。特定される下端の座標と実空間における距離との対応は、図3に示したように予め記憶してあるものに基づいて求める。これにより、演算処理が容易となる。   Then, the control unit 10 calculates the distance from the image processing apparatus 1 to the person to be detected based on the difference position of the far-infrared image data calculated in step S2, that is, the position of the person area candidate (step S3). Specifically, the control unit 10 specifies a rectangle circumscribing the continuous area of the difference data calculated in step S2, and sets the specified rectangle as the extracted person area candidate. And the control part 10 specifies the coordinate of the perpendicular direction in the image data of the lower end of a person area candidate. Since the lower end of the person area is likely to correspond to a contact point with the road surface of the person, the distance in the real space from the image processing apparatus 1 to the person can be calculated by specifying the coordinates corresponding to the contact point. Because it can. When there are a plurality of continuous regions of pixels whose difference values in the difference data are equal to or larger than a predetermined value, each continuous region is set as a human region candidate, and a distance is calculated for each human region candidate. The correspondence between the coordinates of the specified lower end and the distance in the real space is obtained based on what is stored in advance as shown in FIG. Thereby, the arithmetic processing becomes easy.

次に制御部10は、ステップS3で算出した実空間における画像処理装置1から人物までの距離と、人物領域候補が画像データ中に占める領域の大きさとに基づき、検出対象領域候補、即ち人物領域候補が画像データ中に占める領域の大きさは妥当か否かを判定する(ステップS4)。これにより、ステップS2の差分データの算出により抽出された人物領域候補が、反射成分を含んでいるか否かが判定される。   Next, based on the distance from the image processing apparatus 1 to the person in the real space calculated in step S3 and the size of the area occupied by the person area candidate in the image data, the control unit 10 detects the detection target area candidate, that is, the person area. It is determined whether or not the size of the area occupied by the candidate in the image data is appropriate (step S4). Thereby, it is determined whether the person area candidate extracted by the calculation of the difference data in step S2 includes a reflection component.

詳細には、制御部10は人物領域候補の水平方向及び垂直方向の画素数(ピクセル)が、人物領域が占めるべき大きさに対応するか否かを判定する。例えば、ステップS3で算出した距離が50mであった場合、画像データ中において人物領域が占めるべき大きさは水平方向15ピクセル、垂直方向30ピクセルであった。誤差を夫々プラスマイナス2ピクセルとすると、人物領域候補の水平方向の大きさ(画素数)が13ピクセル、垂直方向の大きさが25ピクセルであった場合、制御部10は、人物領域の大きさとして妥当であると判定する。制御部10は、外接矩形の水平方向の大きさが14ピクセル、垂直方向の大きさが36ピクセルであった場合は、人物領域の大きさとして妥当でないと判定する。   Specifically, the control unit 10 determines whether the number of pixels (pixels) in the horizontal direction and the vertical direction of the person area candidate corresponds to the size that the person area should occupy. For example, when the distance calculated in step S3 is 50 m, the size that the person area should occupy in the image data is 15 pixels in the horizontal direction and 30 pixels in the vertical direction. If the error is plus or minus 2 pixels, when the horizontal size (number of pixels) of the human region candidate is 13 pixels and the vertical size is 25 pixels, the control unit 10 determines the size of the human region. Is determined to be appropriate. When the size of the circumscribed rectangle in the horizontal direction is 14 pixels and the size in the vertical direction is 36 pixels, the control unit 10 determines that the size of the person area is not appropriate.

制御部10はステップS4において上述のように、人物領域候補の大きさが人物領域が占めるべき領域の大きさとして妥当か否かを判定した。したがって、差分データの算出により抽出された領域が人物以外の乗用車、自転車等の車両、又は落下物の領域であった場合も、ステップS4で妥当でないと判定される。実施の形態1では人物を特定の検出対象としている。したがってステップS4における判定では、制御部10は背景差分の算出により抽出された人物領域候補の水平方向の大きさ又は縦横比に基づき、人物領域である可能性が高いか否かを判断する。そして制御部10は、人物領域である可能性が高い場合のみに、人物領域の大きさとして妥当でない場合の処理を行なう。例えば、制御部10はステップS3で算出した距離が50mであった場合に、抽出された人物領域候補の水平方向の大きさが20ピクセル以上であるときには人物領域である可能性は低いと判断する。制御部10は、水平方向の大きさが15ピクセル以下であっても縦横比が1:1であるときには人物領域である可能性は低いと判断する。   In step S4, the control unit 10 determines whether the size of the person area candidate is appropriate as the size of the area that the person area should occupy as described above. Therefore, even when the area extracted by calculating the difference data is a passenger car other than a person, a vehicle such as a bicycle, or a fallen object area, it is determined that it is not appropriate in step S4. In the first embodiment, a person is a specific detection target. Accordingly, in the determination in step S4, the control unit 10 determines whether or not there is a high possibility of being a person area based on the horizontal size or aspect ratio of the person area candidate extracted by calculating the background difference. Then, the control unit 10 performs processing when the size of the person area is not appropriate only when the possibility of the person area is high. For example, when the distance calculated in step S3 is 50 m and the horizontal size of the extracted person area candidate is 20 pixels or more, the control unit 10 determines that the possibility of being a person area is low. . The control unit 10 determines that the possibility of being a person region is low when the aspect ratio is 1: 1 even when the horizontal size is 15 pixels or less.

そして制御部10は、ステップS4で妥当であると判定した場合(S4:YES)、ステップS3で求めた距離を含む、検出対象である人物の情報を通信部14により送信し(ステップS6)、処理を終了する。   If the control unit 10 determines that it is appropriate in step S4 (S4: YES), the communication unit 14 transmits information about the person to be detected, including the distance obtained in step S3 (step S6). End the process.

なお、ステップS4で制御部10が、妥当ではないと判定できるものの人物領域である可能性が低いと判断した場合、ステップS6では以下のような処理を行なってもよい。制御部10は、抽出された領域の大きさ又は縦横比から検出対象の種類、例えば乗用車、自転車等を識別し、その種類の情報を検出対象の情報に含めて送信してもよい。   Note that if the control unit 10 determines in step S4 that the person area can be determined to be invalid, the following process may be performed in step S6. The control unit 10 may identify the type of detection target, for example, a passenger car, a bicycle, or the like from the size or aspect ratio of the extracted region, and transmit the type of information included in the detection target information.

制御部10は、ステップS4で妥当でないと判定した場合(S4:NO)、抽出された人物領域候補が反射成分を含んでいる可能性が高いので反射成分を除去する処理を行なう(ステップS5)。そして制御部10は、反射成分除去後に改めて算出し直された距離を含む、検出された人物の情報を通信部14により送信し(S6)、処理を終了する。ステップS5における反射成分除去の処理及び改めて距離が算出し直される処理については後述にて詳細を説明する。   When it is determined that the control unit 10 is not valid in step S4 (S4: NO), the extracted person region candidate is likely to contain a reflection component, and thus the process of removing the reflection component is performed (step S5). . And the control part 10 transmits the information of the detected person including the distance recalculated after reflection component removal by the communication part 14 (S6), and complete | finishes a process. Details of the reflection component removal process and the process of recalculating the distance in step S5 will be described later.

制御部10は、抽出された人物領域候補が画像データ中に複数存在する場合、夫々の候補に対しステップS3からステップS6までの処理を行なう。   When there are a plurality of extracted person area candidates in the image data, the control unit 10 performs the processing from step S3 to step S6 on each candidate.

次に、ステップS5における反射成分除去の処理の詳細を説明する。図5は、実施の形態1における画像処理装置1の制御部10が行なう反射成分除去処理の手順の一例を示すフローチャートである。   Next, details of the reflection component removal processing in step S5 will be described. FIG. 5 is a flowchart illustrating an example of the procedure of the reflection component removal process performed by the control unit 10 of the image processing apparatus 1 according to the first embodiment.

制御部10は、人物領域候補と同一範囲を画像データから切り出し、当該範囲でエッジ抽出処理を行なう(ステップS501)。制御部10は、例えばPrewittフィルタを用いてエッジ抽出処理を行なうが、勿論他の方法を用いる構成としてもよい。エッジ抽出処理により、エッジ部分(輪郭に相当する部分)の画素の輝度は高くなり、エッジ部分ではない画素の輝度は低くなる。   The control unit 10 cuts out the same range as the human region candidate from the image data, and performs edge extraction processing in the range (step S501). The controller 10 performs edge extraction processing using, for example, a Prewitt filter, but of course, other methods may be used. By the edge extraction process, the luminance of the pixel in the edge portion (the portion corresponding to the contour) is increased, and the luminance of the pixel that is not the edge portion is decreased.

制御部10は、画像データにおける人物領域候補の上端位置に基づき、画像処理装置1から検出対象の人物までの距離を再び算出する(ステップS502)。上述の図4のフローチャートにおいて制御部10は、画像データにおいて抽出された人物領域候補の下端位置に基づいて距離を算出した。しかしながら、本処理手順は、抽出された人物領域には反射成分が含まれており、抽出された人物領域の下端は人物と路面との接地点に対応していない可能性が高いので、上端に基づいて距離を算出する。   The control unit 10 calculates again the distance from the image processing apparatus 1 to the person to be detected based on the upper end position of the person area candidate in the image data (step S502). In the flowchart of FIG. 4 described above, the control unit 10 calculates the distance based on the lower end position of the person area candidate extracted from the image data. However, in this processing procedure, the extracted person area includes a reflection component, and the lower end of the extracted person area is not likely to correspond to the contact point between the person and the road surface. Based on this, the distance is calculated.

ただし、交差点における異なる位置に人物が立っている様子を撮像して画像データを取得した場合、画像データにおける人物領域夫々の上端は人物の現実の身長の違いによって同じ垂直方向の座標に位置するときがある。そこで、撮像装置3の俯角を適宜調整して設置しておく。例えば、画像データの垂直方向に対応する方向に50m以上現実に離れて立っている人物の上端が画像データ中で一致しないようにしてあることが望ましい。詳細には、俯角は15度から25度までの範囲となるように調整してある。   However, when the image data is acquired by capturing images of a person standing at different positions at the intersection, the upper end of each person area in the image data is located at the same vertical coordinate due to the difference in the actual height of the person There is. Therefore, the depression angle of the image pickup device 3 is appropriately adjusted and installed. For example, it is desirable that the upper end of a person who is actually 50 meters or more away in the direction corresponding to the vertical direction of the image data does not match in the image data. Specifically, the depression angle is adjusted to be in a range from 15 degrees to 25 degrees.

次に制御部10は、ステップS502で算出した距離に基づき、画像データにおける境界の探索を開始する垂直方向の座標を特定する(ステップS503)。制御部10は、特定した座標から下方へ向けて探索を開始するにあたり、後述する条件を満たす座標の数を計数するためのカウンタをゼロにリセットする。   Next, based on the distance calculated in step S502, the control unit 10 specifies the vertical coordinate for starting the search for the boundary in the image data (step S503). When starting the search downward from the identified coordinates, the control unit 10 resets a counter for counting the number of coordinates that satisfy a condition described later to zero.

ここで、ステップS503の垂直方向の座標の特定処理の詳細を図6を参照して説明する。   Here, details of the vertical coordinate specifying process in step S503 will be described with reference to FIG.

図6は、制御部10が人物領域候補内で、境界探索開始座標を特定する処理について示す説明図である。図6に示される矩形は、制御部10が画像データから人物領域候補と同一範囲を切り出し、切り出し範囲にエッジ抽出処理を行なった場合の例を模式的に示している。斜線によるハッチングの密度が濃いほど輝度が低く、白い部分は輝度が高い部分を示している。これにより、人物の輪郭が輝度が高い部分で示されていることが判る。更に、切り出し範囲の下部には人物の反射成分と考えられる輝度の高い部分が含まれていることが判る。人間の目で見た場合には下部は反射成分であることを容易に判別することが可能であるが、制御部10が反射成分を判別することは難しい。   FIG. 6 is an explanatory diagram showing a process in which the control unit 10 specifies the boundary search start coordinates in the person area candidate. The rectangle shown in FIG. 6 schematically illustrates an example in which the control unit 10 cuts out the same range as the human region candidate from the image data and performs edge extraction processing on the cut-out range. The darker the hatching density is, the lower the luminance is, and the white part indicates the high luminance part. As a result, it can be seen that the outline of the person is indicated by a portion with high luminance. Further, it can be seen that the lower part of the cutout range includes a portion with high luminance that is considered to be a reflection component of a person. When viewed with human eyes, it is possible to easily determine that the lower part is a reflection component, but it is difficult for the control unit 10 to determine the reflection component.

制御部10は、切り出し範囲の上端の画像データ中における位置に基づいて上述のステップS501で実空間における画像処理装置1から人物までの距離を算出し直した。制御部10は、算出し直した距離に基づき、当該距離に人物がいる場合に撮像データ中での人物領域が占めるべき大きさを求める。具体的には、距離が50mである場合の人物領域が占めるべき大きさが水平方向に15ピクセル、垂直方向に30ピクセルであった。算出し直した距離が100mであった場合には例えば、水平方向に7.5ピクセル、垂直方向に15ピクセルとなるべきと算出できる。   The control unit 10 recalculates the distance from the image processing apparatus 1 to the person in the real space in the above-described step S501 based on the position in the image data at the upper end of the cutout range. Based on the recalculated distance, the control unit 10 obtains the size that the person area should occupy in the imaging data when there is a person at the distance. Specifically, when the distance is 50 m, the size that the person area should occupy is 15 pixels in the horizontal direction and 30 pixels in the vertical direction. When the recalculated distance is 100 m, it can be calculated that, for example, it should be 7.5 pixels in the horizontal direction and 15 pixels in the vertical direction.

制御部10は、切り出し範囲の上端から人物領域が占めるべき垂直方向の大きさの分だけ下方の部分を、人物自体の領域と反射成分の領域との境界がある可能性が高い部分と認識する。ここで、画像ノイズにより人物領域の上端が一部欠落する場合、又は人間の身長差などを考慮し、制御部10は、当該部分よりも垂直方向上方に所定量オフセットした座標Y(画像データの下端からの画素数)を特定し、境界の探索を開始する座標(図中の探索開始座標)とする。前記オフセット量は固定値でもよいが、例えば抽出した人物領域の垂直方向の大きさに応じた割合で決定する構成としてもよい。   The control unit 10 recognizes the portion below the upper limit of the cutout range by the vertical size that the person region should occupy as a portion that is highly likely to have a boundary between the person's own region and the reflection component region. . Here, in the case where a part of the upper end of the human region is missing due to image noise, or in consideration of a difference in human height, the control unit 10 coordinates Y (image data of the image data) offset by a predetermined amount vertically above the portion. The number of pixels from the lower end) is specified and used as the coordinates for starting the boundary search (search start coordinates in the figure). The offset amount may be a fixed value, but may be determined at a rate corresponding to the size of the extracted person area in the vertical direction, for example.

図5のフローチャートに戻り説明を続ける。次に制御部10は、切り出した範囲内でステップS503で特定した座標から更に下方へ向けて、座標毎に同一水平位置の各画素のエッジ強度に基づき指標値を算出する(ステップS504)。詳細には、制御部10は、切り出した範囲内における水平位置が同一の各画素(同一ライン上の各画素)のエッジ抽出処理後の輝度を取り出す。そして制御部10は、取り出した輝度の内から上位数個(例えば、3つ)の輝度を選択し、選択した輝度の平均値を算出して指標値とする。指標値はライン毎に、エッジが鮮明なほど、そしてエッジが多いほど高い値となる。   Returning to the flowchart of FIG. Next, the control unit 10 calculates an index value based on the edge intensity of each pixel at the same horizontal position for each coordinate, further downward from the coordinates specified in step S503 within the cut-out range (step S504). Specifically, the control unit 10 extracts the luminance after edge extraction processing of each pixel (each pixel on the same line) having the same horizontal position within the cut-out range. Then, the control unit 10 selects the top several (for example, three) luminances from the extracted luminances, calculates an average value of the selected luminances, and sets it as an index value. For each line, the index value becomes higher as the edge becomes clearer and the number of edges becomes higher.

次に制御部10は、ステップS504で算出したエッジ強度の指標値は、境界であると判定するための条件を満たすか否かを判断する(ステップS505)。詳細には、制御部10は、エッジ強度の指標値が垂直方向に1画素分上方、即ち一つ上のラインにおいて算出された指標値よりも減少しており、且つ減少幅が所定値よりも小さい場合に条件を満たすと判断する。   Next, the control unit 10 determines whether or not the edge strength index value calculated in step S504 satisfies a condition for determining that it is a boundary (step S505). Specifically, the control unit 10 determines that the index value of the edge strength is lower than the index value calculated by one pixel in the vertical direction, that is, the line one level higher, and the decrease width is smaller than the predetermined value. If it is smaller, it is determined that the condition is satisfied.

更に具体的には、制御部10は各ラインの指標値に対し、以下に示す式2に基づく演算を行なう。   More specifically, the control unit 10 performs an operation based on Expression 2 shown below for the index value of each line.

ただし、式2におけるAve(Iy=n-1)は、一つ上のラインにおいて算出された指標値を示し、Ave(Iy=n)は現在のラインにおいて算出した指標値である。yは座標、nは任意の数を示す。thresholdは任意の閾値である。 However, Ave (I y = n−1 ) in Equation 2 indicates an index value calculated in the line above, and Ave (I y = n ) is an index value calculated in the current line. y is a coordinate, and n is an arbitrary number. Threshold is an arbitrary threshold value.

制御部10は、式2に示した条件を満たさないと判断した場合(S505:NO)、座標を垂直方向に下方へ移し、カウンタをゼロにリセットし(ステップS506)、次のラインについての判断を行なうために処理をステップS504へ戻す。   If the control unit 10 determines that the condition shown in Expression 2 is not satisfied (S505: NO), the control unit 10 moves the coordinates downward in the vertical direction, resets the counter to zero (step S506), and determines the next line. In order to perform the process, the process returns to step S504.

制御部10は、式2に示した条件を満たすと判断した場合(S505:YES)、座標を垂直方向に下方へ移し、条件を満たす垂直方向の座標(ライン)の数を計数するためのカウンタを1加算する(ステップS507)。そして制御部10は、処理を次へ進める。   If the control unit 10 determines that the condition shown in Formula 2 is satisfied (S505: YES), the counter moves the coordinates downward in the vertical direction and counts the number of vertical coordinates (lines) that satisfy the condition. 1 is added (step S507). And the control part 10 advances a process to the next.

次に制御部10は、計数されたカウンタはN(例えば、2)以上であるか否かを判定する(ステップS508)。制御部10は、カウンタがN未満であると判断した場合(S508:NO)、処理をステップS504へ戻して次のラインについての判断を行なう。ただし、前記の値Nは任意の閾値である。   Next, the control unit 10 determines whether or not the counted counter is N (for example, 2) or more (step S508). If the control unit 10 determines that the counter is less than N (S508: NO), the control unit 10 returns the process to step S504 and determines the next line. However, the value N is an arbitrary threshold value.

制御部10は、カウンタがN以上であると判断した場合(S508:YES)、カウンタの増加が開始された垂直方向の座標、即ち現在の垂直方向の座標よりもNライン分上の座標を境界と特定する(ステップS509)。即ち、制御部10は、ライン毎のエッジ強度を示す指標値は減少はしているものの減少幅がNライン以上連続して所定値以下となった場合に、エッジ(輪郭)が最も曖昧なラインであると判断する。人物自体の領域と反射成分の領域との境界ではエッジが曖昧となることを利用し、エッジが最も曖昧なラインを境界とするためである。   If the control unit 10 determines that the counter is greater than or equal to N (S508: YES), the control unit 10 demarcates the coordinate in the vertical direction where the counter starts to be incremented, that is, the coordinate on the N lines from the current vertical coordinate. (Step S509). That is, the control unit 10 determines that the edge (contour) is the most ambiguous line when the index value indicating the edge strength for each line is decreased, but the decrease width is continuously N lines or more and continuously becomes a predetermined value or less. It is judged that. This is because the edge is ambiguous at the boundary between the person's own area and the reflection component area, and the edge is the most ambiguous line.

そして制御部10は、切り出した範囲におけるステップS509で境界と特定したラインよりも下方は反射成分の領域であるから除去し(ステップS510)、図4のフローチャートに示したステップS6へ処理を戻す。   Then, the control unit 10 removes the region below the line identified as the boundary in step S509 in the cut-out range because it is a reflection component region (step S510), and returns the process to step S6 shown in the flowchart of FIG.

図5のフローチャートに示した処理手順の最後に、境界としたラインの画像データにおける垂直方向の座標を人物と路面との接地点に対応する位置であるとして、制御部10が改めて実空間における画像処理装置1から人物までの距離を算出するようにしてもよい。   At the end of the processing procedure shown in the flowchart of FIG. 5, assuming that the vertical coordinate in the image data of the line as the boundary is the position corresponding to the contact point between the person and the road surface, the control unit 10 revisits the image in the real space. You may make it calculate the distance from the processing apparatus 1 to a person.

図5のフローチャートに示した処理手順では、エッジ強度の弱まり方が鈍るラインを境界と特定する処理を行なった。これは、人物自体の領域と反射成分の領域の境界では、エッジ強度の指標値に以下の傾向があるという所見を得ているためである。具体的には昼間である場合、反射面が乱れている場合など、反射強度が弱い場合又は反射がないときには、境界付近でライン毎のエッジ強度の減少が停止する傾向がある。一方、夜間である場合、反射面が滑らかな場合など、反射強度が強いときには境界付近でライン毎のエッジ強度が増加に転じる傾向がある。したがって、ライン毎のエッジ強度の垂直方向に対する分布の分布曲線における変曲点、極小値に対応する点などの特徴点に相当するラインを境界とする。   In the processing procedure shown in the flowchart of FIG. 5, processing for specifying a line where the edge strength is weakened as a boundary is performed. This is due to the observation that the edge intensity index value has the following tendency at the boundary between the person's own area and the reflection component area. Specifically, in the case of daytime, when the reflection surface is disturbed, or when the reflection intensity is weak or there is no reflection, the decrease in edge intensity for each line tends to stop near the boundary. On the other hand, when the reflection intensity is strong, such as at night or when the reflection surface is smooth, the edge intensity for each line tends to increase near the boundary. Therefore, a line corresponding to a feature point such as an inflection point or a point corresponding to a minimum value in the distribution curve of the distribution of the edge intensity for each line in the vertical direction is used as a boundary.

更に、ステップS503の処理により、実空間における人物までの距離に基づいて境界探索開始座標を特定するのは、人物自体の領域内でもエッジ強度が弱まり、条件を満たすラインが特定される可能性があるのでこれを有効に回避するためである。   Further, the boundary search start coordinates are specified based on the distance to the person in the real space by the processing in step S503, and the edge strength is weakened even in the area of the person itself, and there is a possibility that the line satisfying the condition is specified. This is to avoid this effectively.

このように、ライン毎のエッジ強度の大きさを示す指標値を算出し、連続するラインで指標値の比較を行なうのみで上述の特徴点を求めることができるので、エッジ強度のピークの有無に依存せず、安定的に境界を特定することが可能となる。なお、反射がない場合であっても同様の処理によって人物自体の領域と路面の領域との境界を特定することができる。   As described above, the index value indicating the magnitude of the edge strength for each line is calculated, and the above feature points can be obtained only by comparing the index values in successive lines. It becomes possible to specify the boundary stably without depending on it. Even when there is no reflection, the boundary between the person's own area and the road surface area can be specified by the same processing.

次に、画像処理装置1の制御部10による処理を具体例を示して説明する。図7は、実施の形態1における画像処理装置1の制御部10が行なう画像処理結果の具体例を示す説明図である。図7(a)は、撮像装置3から画像取得部13にて取得される画像データ、即ち遠赤外線画像データの内容例を模式的に示す。   Next, processing by the control unit 10 of the image processing apparatus 1 will be described with a specific example. FIG. 7 is an explanatory diagram illustrating a specific example of an image processing result performed by the control unit 10 of the image processing apparatus 1 according to the first embodiment. FIG. 7A schematically shows an example of the content of image data acquired by the image acquisition unit 13 from the imaging device 3, that is, far-infrared image data.

図7(a)の遠赤外線画像データでは斜線によるハッチングが施された領域に示すように路面が写っている。画像データにおける中央右下付近には他の路面よりも輝度値が高い白抜きで示された領域がある。この輝度値が高い領域は人物領域であるとする。ただし、破線で囲まれる範囲は、路面が濡れている場合の路面からの反射成分である。   In the far-infrared image data of FIG. 7A, the road surface is shown as shown in the hatched area. In the vicinity of the lower right center of the image data, there is a white area having a brightness value higher than that of other road surfaces. It is assumed that the area with the high luminance value is a person area. However, the range surrounded by the broken line is a reflection component from the road surface when the road surface is wet.

この場合、制御部10が図4のフローチャートに示した処理を行ない、差分データを算出することにより、図中白抜きで示された領域が人物領域候補として抽出される。制御部10は、抽出した人物領域候補の下端の画像データにおける垂直方向の位置に基づいて人物までの距離を算出する。このとき、下端は反射成分を含んだ下端であるために正確な値ではない。算出した距離に基づいて人物領域が占めるべき大きさを求め、差分データが占める領域の大きさは妥当か否かを判定する。図7(a)に示す例の場合、反射成分の分だけ領域が縦長となっている。したがって、制御部10により妥当でないと判定される。   In this case, the control unit 10 performs the processing shown in the flowchart of FIG. 4 and calculates difference data, so that a region indicated by white in the drawing is extracted as a human region candidate. The control unit 10 calculates the distance to the person based on the position in the vertical direction in the image data at the lower end of the extracted person area candidate. At this time, the lower end is not an accurate value because it is a lower end including a reflection component. Based on the calculated distance, the size to be occupied by the person area is obtained, and it is determined whether or not the size of the area occupied by the difference data is appropriate. In the case of the example shown in FIG. 7A, the region is vertically long by the amount of the reflection component. Therefore, it is determined by the control unit 10 that it is not appropriate.

そこで制御部10は、人物領域候補と同一の範囲を画像データから切り出して反射成分を除去する処理を行なう。図7(b)は、図7(a)から抽出される人物領域候補と同一範囲の画像データに対してエッジ処理を行なった後の画像の拡大図である。白黒の階調は輝度の高低を示し、白い部分は輝度が高く、黒い部分は輝度が低いことを示す。人間の目で見た場合、左方向へ向かって歩行中の人物の輪郭を上半分に認識することが可能である。   Therefore, the control unit 10 performs processing for cutting out the same range as the human region candidate from the image data and removing the reflection component. FIG. 7B is an enlarged view of the image after performing the edge processing on the image data in the same range as the human region candidate extracted from FIG. The black and white gradation indicates the level of brightness, the white part indicates high brightness, and the black part indicates low brightness. When viewed with human eyes, it is possible to recognize the outline of a person walking in the left direction in the upper half.

制御部10は、切り出された範囲の上端の画像データにおける位置から距離を算出し直す。そして制御部10は、算出し直した距離に人物がいる場合の人物領域が占めるべき領域の垂直方向の大きさから境界である可能性が高い探索開始座標を特定する。そして制御部10は、ライン毎に上位3つの輝度値の平均値を指標値として算出する。制御部10は、指標値が減少し減少幅が所定値未満となったラインを境界として特定する。   The control unit 10 recalculates the distance from the position in the image data at the upper end of the clipped range. Then, the control unit 10 specifies the search start coordinates that are highly likely to be a boundary from the size in the vertical direction of the area that the person area should occupy when the person is at the recalculated distance. Then, the control unit 10 calculates an average value of the top three luminance values for each line as an index value. The control unit 10 specifies a line where the index value is decreased and the decrease is less than a predetermined value as a boundary.

図7(c)は、図7(b)に示す人物領域候補に対し、図5のフローチャートに示した処理手順を行なって得られるエッジ強度の垂直方向の分布を示すグラフ図である。横軸にエッジ強度(指標値)を示し、縦軸に人物領域候補の範囲における垂直方向の座標を示す。また縦軸は、図7(b)に示す人物領域候補と対応している。なお、図7(c)では説明を明確とするために、人物領域候補の範囲の垂直方向全体に対するエッジ強度の分布を示しているが、制御部10は探索開始座標から下方、指標値が条件を満たすと判断するまでのみ指標値を算出する。   FIG. 7C is a graph showing the vertical distribution of edge strength obtained by performing the processing procedure shown in the flowchart of FIG. 5 on the person region candidate shown in FIG. 7B. The horizontal axis indicates the edge strength (index value), and the vertical axis indicates the vertical coordinate in the range of the human area candidate. The vertical axis corresponds to the person area candidate shown in FIG. In FIG. 7C, for clarity of explanation, the distribution of the edge strength with respect to the entire vertical direction of the range of the human region candidate is shown. The index value is calculated only until it is determined that the condition is satisfied.

図7(c)に示すように、人物自体の領域ではエッジ強度は比較的高く、境界へ向けてエッジ強度が減少している。そして、境界ライン付近でエッジ強度の減少の仕方が鈍っている。図7(c)中の黒丸は、制御部10が特定した境界に対応する特徴点である。図7(c)では黒丸の特徴点よりも垂直方向に下方の部分ではピークが不明確である。しかしながら、図5のフローチャートに示したように制御部10は、指標値が条件を満たす特徴点を境界とするのでピークが不明でも有効に境界を特定することが可能である。   As shown in FIG. 7C, the edge strength is relatively high in the area of the person itself, and the edge strength decreases toward the boundary. And the way of decreasing the edge strength near the boundary line is dull. A black circle in FIG. 7C is a feature point corresponding to the boundary specified by the control unit 10. In FIG. 7 (c), the peak is unclear in the part vertically below the feature point of the black circle. However, as shown in the flowchart of FIG. 5, the control unit 10 uses a feature point that satisfies the index value as a boundary, and therefore can effectively specify the boundary even if the peak is unknown.

このように、検出対象である人物が写っている人物領域候補として抽出された領域の画像データにおける位置から求められる、実空間における距離の情報に基づき、人物領域として妥当か否かを判定して反射成分が含まれるか否かを判定し、反射成分が含まれている場合であっても、距離の情報とエッジ強度の分布の傾向とから精度よく境界を特定することができる。   In this way, it is determined whether the person area is appropriate based on the distance information in the real space obtained from the position in the image data of the area extracted as the person area candidate in which the person to be detected is shown. Whether or not a reflection component is included is determined, and even when the reflection component is included, the boundary can be specified with high accuracy from the distance information and the tendency of the distribution of edge strength.

なお制御部10は、境界を特定する際に、人物自体の下端であるべき座標を特定してから、エッジ強度の分布に基づいて境界を特定する構成としたことにより、境界を誤って特定することを回避して精度よく境界を特定することができる。これにより、効果的に画像データに写る反射成分を除去することができる点、優れた効果を奏する。   In addition, when specifying the boundary, the control unit 10 specifies the boundary that should be the lower end of the person itself, and then specifies the boundary based on the distribution of the edge strength, thereby specifying the boundary incorrectly. By avoiding this, the boundary can be specified with high accuracy. Thereby, the reflection component reflected in the image data can be effectively removed, and an excellent effect is achieved.

(変形例)
上述の実施の形態1における画像処理装置1は、人物領域候補に反射成分が含まれているか否かの判定の際、画像データにおける人物領域候補の位置で人物領域が占めるべき領域の大きさを求め、求めた大きさと実際に抽出された人物領域候補の大きさとを比較した。本発明では、抽出された人物領域候補の大きさから、実空間における人物の大きさを算出し、算出した大きさが人物の大きさとして妥当か否かによって反射成分を含むか否かを判定してもよい。
(Modification)
The image processing apparatus 1 according to the first embodiment described above determines the size of the area that the human area should occupy at the position of the human area candidate in the image data when determining whether or not the human area candidate includes a reflection component. The obtained size was compared with the size of the human region candidate actually extracted. In the present invention, the size of the person in the real space is calculated from the size of the extracted person area candidate, and it is determined whether or not the reflection component is included depending on whether or not the calculated size is appropriate as the size of the person. May be.

図8は、実施の形態1の変形例における画像処理装置1の制御部10が行なう画像処理の手順の一例を示すフローチャートである。以下に示す処理手順の内、図4のフローチャートに示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。   FIG. 8 is a flowchart illustrating an example of an image processing procedure performed by the control unit 10 of the image processing apparatus 1 according to the modification of the first embodiment. Among the processing procedures shown below, procedures common to the processing procedures shown in the flowchart of FIG. 4 are denoted by the same step numbers, and detailed description thereof is omitted.

制御部10は、画像処理装置1から検出対象の人物までの実空間における距離を算出し(S3)、算出した距離に基づいて検出対象の人物の実サイズを算出する(ステップS7)。そして制御部10は、式3により算出した実サイズが人物の大きさとして妥当であるか否かを判定する(ステップS8)。例えば制御部10は、算出した実サイズが1.7mである場合には人物の大きさとして妥当であると判定するが、2.5mである場合には、妥当でないと判定する。   The control unit 10 calculates the distance in the real space from the image processing apparatus 1 to the person to be detected (S3), and calculates the actual size of the person to be detected based on the calculated distance (step S7). Then, the control unit 10 determines whether or not the actual size calculated by Expression 3 is appropriate as the size of the person (step S8). For example, the control unit 10 determines that the size of the person is appropriate when the calculated actual size is 1.7 m, but determines that it is not appropriate when the calculated actual size is 2.5 m.

制御部10は、実サイズが妥当であると判定した場合には(S8:YES)、検出対象である人物の情報を送信し(S6)、処理を終了する。一方制御部10は、実サイズが妥当でないと判定した場合には(S8:NO)、反射成分を除去し(S5)、検出対象である人物の情報を送信し(S6)、処理を終了する。   When it is determined that the actual size is appropriate (S8: YES), the control unit 10 transmits information on the person to be detected (S6), and ends the process. On the other hand, when it is determined that the actual size is not appropriate (S8: NO), the control unit 10 removes the reflection component (S5), transmits information of the person to be detected (S6), and ends the process. .

ステップS7における人物の実サイズの算出について詳細を説明する。制御部10は、画像データにおいて、ステップS3の詳細処理にて抽出された人物領域候補の垂直方向の高さHo を画素数単位で求める。そして制御部10は、ステップS3で算出された距離Dと、求めた高さHo と、他の固定値とに基づいて人物の実空間における大きさ(実サイズ)Tを以下に示す式3に基づき算出する。 Details of the calculation of the actual size of the person in step S7 will be described. In the image data, the control unit 10 obtains the height H o in the vertical direction of the person area candidate extracted in the detailed process of step S3 in units of the number of pixels. The control unit 10 includes a distance D calculated at step S3, the height H o determined, Equation 3 shown size in the real space of a person on the basis of the other fixed value (actual size) T below Calculate based on

なお、式3におけるHc は、画像データの垂直方向の画素数である。θv は撮像装置3の画角である。 In Equation 3, H c is the number of pixels in the vertical direction of the image data. θ v is the angle of view of the imaging device 3.

図9は、実施の形態1の変形例における画像処理装置1の制御部10が、人物の実空間における大きさを算出する原理を模式的に示す説明図である。図9(a)は、撮像装置3が設置される画像処理装置1の位置と、画像処理装置1による検出対象となる交差点中の人物の位置との関係を示している。図9(b)は、画像処理装置1と人物とが図9(a)に示される位置関係にある場合に撮像装置によって撮像される画像データの内容例を模式的に示している。   FIG. 9 is an explanatory diagram schematically illustrating the principle by which the control unit 10 of the image processing apparatus 1 according to the modification of the first embodiment calculates the size of a person in real space. FIG. 9A shows the relationship between the position of the image processing apparatus 1 where the imaging apparatus 3 is installed and the position of a person at an intersection that is a detection target by the image processing apparatus 1. FIG. 9B schematically illustrates an example of the content of image data captured by the imaging device when the image processing apparatus 1 and a person are in the positional relationship illustrated in FIG.

なお、図9(a)に示す人の画像処理装置1からの距離Dは、上述の実施の形態1に示したように予め記憶部11に記憶してある情報から求めた。具体的には、制御部10は人に相当する領域として抽出された領域の下端の画像データにおける垂直方向の位置Yに対応付けて記憶してある実空間における画像処理装置1からの距離を求める。   It should be noted that the distance D of the person from the image processing apparatus 1 shown in FIG. 9A is obtained from information stored in the storage unit 11 in advance as described in the first embodiment. Specifically, the control unit 10 obtains the distance from the image processing apparatus 1 in the real space stored in association with the vertical position Y in the image data at the lower end of the region extracted as the region corresponding to the person. .

ただし、画像データにおける垂直方向の位置Yと、撮像装置3を備える画像処理装置1からの距離Dとの関係は、図9(a)及び図9(b)に示した画角θv 、画像データの垂直方向の画素数Hc に加え、撮像装置3を備える画像処理装置1が設置される高さh、撮像装置3の俯角φc を含む以下の式4に示す関係式により成立する。 However, the relationship between the position Y in the vertical direction in the image data and the distance D from the image processing apparatus 1 including the imaging device 3 is the angle of view θ v and the image shown in FIGS. 9A and 9B. In addition to the number of pixels H c in the vertical direction of the data, the relational expression shown below is established, including the height h at which the image processing apparatus 1 including the imaging apparatus 3 is installed and the depression angle φ c of the imaging apparatus 3.

式4を記憶部11に記憶しておくことにより、制御部10は検出対象領域(外接矩形)を特定した場合、領域の下端の画像データ中における垂直方向の座標Yを特定し、式4に基づいて実空間における、画像処理装置1から検出対象までの距離Dを算出してもよい。   By storing Expression 4 in the storage unit 11, when the control unit 10 specifies the detection target region (circumscribed rectangle), the control unit 10 specifies the vertical coordinate Y in the image data at the lower end of the region. Based on this, the distance D from the image processing apparatus 1 to the detection target in the real space may be calculated.

なお、実施の形態1では式4に基づいて予め算出しておいた座標Yと、距離Dとの対応を記憶部11に記憶しておき、特定される座標Yに対応する距離Dを記憶部11から読み出すことによって実空間における所定位置からの距離を求めた。これにより、演算によらずに簡易に実空間における検出対象の位置(撮像装置3からの距離)を特定することができる。したがって、自動車へ検出対象の人物の情報として交差点内での実空間での位置情報を送信することができ、安全運転支援のために高精度な走行制御を実現することを可能とする。   In the first embodiment, the correspondence between the coordinate Y calculated in advance based on Expression 4 and the distance D is stored in the storage unit 11, and the distance D corresponding to the specified coordinate Y is stored in the storage unit. The distance from a predetermined position in the real space was obtained by reading from 11. Thereby, the position (distance from the imaging device 3) of the detection target in the real space can be easily specified without depending on the calculation. Therefore, position information in the real space within the intersection can be transmitted to the automobile as information on the person to be detected, and high-precision traveling control can be realized for safe driving support.

(実施の形態2)
図10は、実施の形態2における安全運転支援システムが設置されている車両の例を模式的に示す模式図である。図10中の4,5は遠赤外線にて撮像を行なう第1撮像装置及び第2撮像装置である。図10中の6は、画像処理装置であって車載LAN7を介して自動車の走行制御の処理を行なう走行制御装置8に接続されている。また、第1及び第3撮像装置4,5は、信号線9を介して画像処理装置6に接続されている。
(Embodiment 2)
FIG. 10 is a schematic diagram schematically illustrating an example of a vehicle in which the safe driving support system according to the second embodiment is installed. Reference numerals 4 and 5 in FIG. 10 denote a first imaging device and a second imaging device that perform imaging with far infrared rays. Reference numeral 6 in FIG. 10 denotes an image processing apparatus, which is connected to a travel control apparatus 8 that performs a travel control process of the automobile via the in-vehicle LAN 7. The first and third imaging devices 4 and 5 are connected to the image processing device 6 through the signal line 9.

第1撮像装置4は自動車の先頭部の左側に前方へ向けて並設されている。第2撮像装置5は、自動車の先頭部の右側に前方へ向けて設置されている。第1及び第2撮像装置4,5は、略同一範囲を撮像範囲とし、同一画角での撮像が可能なように設置方向を調整してある。そして第1及び第2撮像装置4,5はいずれも、通信線9を介して画像処理装置6へ画像信号を出力することが可能に構成されている。   The first imaging device 4 is arranged side by side on the left side of the front portion of the automobile. The second imaging device 5 is installed forward on the right side of the front portion of the automobile. The first and second imaging devices 4 and 5 have substantially the same range as the imaging range, and the installation direction is adjusted so that imaging with the same angle of view is possible. The first and second imaging devices 4 and 5 are both configured to output an image signal to the image processing device 6 via the communication line 9.

画像処理装置6は、第1及び第2撮像装置4,5から出力される画像信号から画像データを取得し、取得した画像データに基づいて人物を検出した場合、検出した事実と自動車から人物までの距離とを走行制御装置8へ車載LAN7を介して送信する。走行制御装置8は、人物が検出された事実を受信した場合、人物までの距離に基づき、自動的にブレーキングを行なうべく指示する、又は車内外の緩衝装置を起動させる等の制御を行なうことが可能である。   When the image processing device 6 acquires image data from the image signals output from the first and second imaging devices 4 and 5 and detects a person based on the acquired image data, the detected fact and the vehicle to the person Is transmitted to the travel control device 8 via the in-vehicle LAN 7. When the fact that the person is detected is received, the travel control device 8 performs control such as automatically instructing braking based on the distance to the person or starting the shock absorber inside and outside the vehicle. Is possible.

図11は、実施の形態2における安全運転支援システムを構成する第1及び第2撮像装置4,5及び画像処理装置6の内部構成を示すブロック図である。第1及び第2撮像装置4,5の構成の詳細は、実施の形態1における撮像装置3と同様であるので説明を省略する。   FIG. 11 is a block diagram showing an internal configuration of the first and second imaging devices 4 and 5 and the image processing device 6 constituting the safe driving support system in the second embodiment. The details of the configuration of the first and second imaging devices 4 and 5 are the same as those of the imaging device 3 in the first embodiment, and a description thereof will be omitted.

画像処理装置6は、制御部60と、記憶部61と、画像メモリ62と、第1画像取得部63及び第2画像取得部64と、車載LAN7を介した走行制御装置への情報の送信を実現する通信部65とを備える。制御部60、記憶部61、画像メモリ62の詳細は、実施の形態1における画像処理装置1の制御部10、記憶部11、画像メモリ12と同様であるので詳細な説明を省略する。   The image processing device 6 transmits information to the travel control device via the control unit 60, the storage unit 61, the image memory 62, the first image acquisition unit 63 and the second image acquisition unit 64, and the in-vehicle LAN 7. And a communication unit 65 to be realized. Details of the control unit 60, the storage unit 61, and the image memory 62 are the same as those of the control unit 10, the storage unit 11, and the image memory 12 of the image processing apparatus 1 in the first embodiment, and thus detailed description thereof is omitted.

第1画像取得部63及び第2画像取得部64は夫々、実施の形態1における画像処理装置1の画像取得部13と同様に、受け付けた画像信号から画像データを取り出して画像メモリ62に記憶する。詳細には、夫々制御部60からの指示に従い、受け付けている画像信号から画像を構成する画素毎の輝度値又は色差等を特定して画像データとし、画像メモリ62へ書き込む。   Each of the first image acquisition unit 63 and the second image acquisition unit 64 extracts image data from the received image signal and stores it in the image memory 62, similarly to the image acquisition unit 13 of the image processing apparatus 1 in the first embodiment. . Specifically, according to an instruction from the control unit 60, the luminance value or color difference for each pixel constituting the image is specified from the received image signal, and is written as image data in the image memory 62.

通信部65は、CAN(Controller Area Network)、LIN(Local Interconnect Network)、FlexRay(登録商標)等の車載LANの規格に基づき情報を送受信する。制御部60は、通信部65により検出した人物の情報を走行制御装置へ送信する。   The communication unit 65 transmits and receives information based on standards for in-vehicle LANs such as CAN (Controller Area Network), LIN (Local Interconnect Network), and FlexRay (registered trademark). The control unit 60 transmits the person information detected by the communication unit 65 to the travel control device.

上述のように構成される実施の形態2における画像処理装置6は、第1及び第2撮像装置4,5から取得する画像データに対し、実施の形態1で示した画像処理手順と同様の処理を行なう。即ち、第1及び第2画像取得部63,64により画像データを同時的に取得して夫々差分データを算出して人物領域候補を抽出する。ただし、自動車に搭載される第1及び第2撮像装置4,5では、背景は走行中に随時変化するので背景差分ではなくフレーム差分を算出するようにすることが望ましい。   The image processing apparatus 6 according to the second embodiment configured as described above processes the image data acquired from the first and second imaging apparatuses 4 and 5 in the same manner as the image processing procedure described in the first embodiment. To do. That is, the first and second image acquisition units 63 and 64 acquire image data simultaneously, calculate difference data, and extract person area candidates. However, in the first and second imaging devices 4 and 5 mounted on the automobile, the background changes at any time during traveling, so it is desirable to calculate the frame difference instead of the background difference.

そして、実施の形態2における画像処理装置6の制御部60は、第1撮像装置4と離れて設置された第2撮像装置5から取得される画像データ夫々から抽出された人物領域の、画像データにおける位置の差異に基づき、自動車の車体の先頭部から検出対象である人物までの距離を以下に説明する処理により算出する。   Then, the control unit 60 of the image processing device 6 according to the second embodiment uses the image data of the person area extracted from each of the image data acquired from the second imaging device 5 installed away from the first imaging device 4. Based on the difference in position, the distance from the head of the car body to the person to be detected is calculated by the process described below.

第2撮像装置5は、第1撮像装置4と同一画角となるように設置されているから、第1撮像装置4で撮像される人物を、第2撮像装置5でも撮像可能である。設置方向が異なるので、同一人物を撮像した撮像画像であっても、第2撮像装置5から得られる画像データにおける人物領域の位置は、第1撮像装置4から得られる画像データにおける人物領域の位置と異なる。人物からの光の入射角度が異なるからである。   Since the second imaging device 5 is installed so as to have the same angle of view as the first imaging device 4, the second imaging device 5 can also image a person imaged by the first imaging device 4. Since the installation directions are different, the position of the person region in the image data obtained from the second image pickup device 5 is the position of the person region in the image data obtained from the first image pickup device 4 even if the images are the same person. And different. This is because the incident angle of light from a person is different.

制御部60は、第1及び第2撮像装置4,5から出力される画像信号に基づく画像データを同時的に取得し、夫々フレーム差分を取って抽出した人物領域候補の形状又は位置等に基づく類似度により、夫々で抽出される人物領域候補を対応付ける。即ち、制御部60は同一人物に対応して抽出される人物領域候補を対応付ける。制御部10は、夫々の同一画角内での位置の差異を求める。位置の差異は入射角の差異であるから、当該入射角の差異、並びに第1及び第2撮像装置4,5間の距離に基づき人物までの実空間における距離を求めることが可能である。そして制御部10は、実施の形態1で示した画像処理手順と同様に、距離情報に基づいて人物領域候補が反射成分を含むか否かを判定し、反射成分を含む場合にはこれを除去する。   The control unit 60 acquires image data based on the image signals output from the first and second imaging devices 4 and 5 at the same time, and based on the shape or position of the person region candidate extracted by taking the frame difference, respectively. The person area candidates extracted by the similarity are associated with each other. That is, the control unit 60 associates person area candidates extracted corresponding to the same person. The control unit 10 obtains a difference in position within the same angle of view. Since the difference in position is a difference in incident angle, the distance in real space to the person can be obtained based on the difference in incident angle and the distance between the first and second imaging devices 4 and 5. Then, similarly to the image processing procedure shown in the first embodiment, the control unit 10 determines whether or not the human area candidate includes a reflection component based on the distance information, and removes the reflection component if it includes the reflection component. To do.

このように、第1及び第2撮像装置4,5、並びに画像処理装置6を自動車に搭載する構成により、反射成分の有無判定に必要な検出対象の人物までの距離をステレオ視により精度よく算出することが可能となる。   As described above, the configuration in which the first and second imaging devices 4 and 5 and the image processing device 6 are mounted on the automobile accurately calculates the distance to the detection target person necessary for the presence / absence of the reflection component by stereo vision. It becomes possible to do.

上述の実施の形態1及び2では、撮像装置3並びに第1及び第2撮像装置は遠赤外線波長帯にて撮像する赤外線カメラを用いる構成とした。しかしながら本発明はこれに限らず、いずれも可視光波長帯又は近赤外線波長帯にて撮像するカメラを用いる構成としてもよい。いずれの場合も、撮像素子は路面による反射成分をも捉えるので、本発明に係る画像処理装置の制御部による処理を行なうことにより、有効に反射成分を除去することが可能となる。   In the first and second embodiments described above, the imaging device 3 and the first and second imaging devices are configured to use an infrared camera that captures an image in the far infrared wavelength band. However, the present invention is not limited to this, and any of the configurations may use a camera that captures an image in the visible light wavelength band or the near infrared wavelength band. In any case, since the imaging device also captures the reflection component due to the road surface, the reflection component can be effectively removed by performing the processing by the control unit of the image processing apparatus according to the present invention.

また、実施の形態1においても実施の形態2における構成同様に、異なる角度からの撮像を行なう第3撮像装置を別途備え、ステレオ視によって実空間における距離を算出するようにしてもよい。   Also, in the first embodiment, similarly to the configuration in the second embodiment, a third imaging device that performs imaging from different angles may be separately provided, and the distance in the real space may be calculated by stereo vision.

上述の実施の形態1及び2では、画像取得部13又は第1及び2画像取得部63,64による画像の取得、並びに画像処理を制御部10,60が行なう構成とした。しかしながら本発明はこれに限らず、画像の取得処理及び画像処理を画像処理部分を分離した集積回路によって実現するように構成してもよい。特に、上述の実施の形態1及び2では図4、図5及び図8のフローチャートに示した処理手順を制御部10が各構成部を制御して行なう構成とした。しかしながら、本発明に係る画像処理装置1は、フローチャートに示した各処理手順を行なうように設計された集積回路を更に集積した特定用途向けの回路(ASIC:Application Specific Integrated Circuit)を有する構成としてもよい。例えば、図4のフローチャートに示したステップS2に対応する差分データを算出する回路、図5及び図8のフローチャートに示したステップS5に対応する反射成分除去の処理を実現する回路、更に詳細には図5のフローチャートに示したステップS501に対応するエッジ抽出処理回路、ステップS503からステップS509までの処理に対応する境界特定回路等を組み合わせたASICを設計して用いることにより、各処理を高速に実行することができる。   In the first and second embodiments described above, the control units 10 and 60 perform image acquisition and image processing by the image acquisition unit 13 or the first and second image acquisition units 63 and 64. However, the present invention is not limited to this, and image acquisition processing and image processing may be realized by an integrated circuit in which the image processing portion is separated. In particular, in the first and second embodiments described above, the processing procedure shown in the flowcharts of FIGS. 4, 5, and 8 is configured so that the control unit 10 controls each component. However, the image processing apparatus 1 according to the present invention may be configured to have an application specific integrated circuit (ASIC) further integrated with an integrated circuit designed to perform each processing procedure shown in the flowchart. Good. For example, a circuit that calculates difference data corresponding to step S2 shown in the flowchart of FIG. 4, a circuit that realizes the reflection component removal process corresponding to step S5 shown in the flowcharts of FIGS. 5 and 8, and more specifically, By designing and using an ASIC that combines the edge extraction processing circuit corresponding to step S501 shown in the flowchart of FIG. 5 and the boundary identification circuit corresponding to the processing from step S503 to step S509, each processing is executed at high speed. can do.

更に、実施の形態1及び2は、安全運転支援システムに適用した場合を示した。しかしながら、本発明に係る画像処理装置による移動体の検出は安全運転支援システムに限らず、他の分野にも適用可能である。例えば、防犯システム又は監視システム等、撮像画像に基づき対象を精度よく検出することが可能である。   Furthermore, Embodiments 1 and 2 have shown the case where they are applied to a safe driving support system. However, the detection of the moving object by the image processing apparatus according to the present invention is not limited to the safe driving support system, and can be applied to other fields. For example, it is possible to detect a target accurately based on a captured image such as a security system or a monitoring system.

なお、上述のように開示された本実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiment disclosed above is illustrative in all respects and is not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

実施の形態1における安全運転支援システムが設置されている交差点の例を示す上方からの斜視図である。It is a perspective view from the upper part which shows the example of the intersection in which the safe driving assistance system in Embodiment 1 is installed. 実施の形態1における安全運転支援システムを構成する画像処理装置、路側機、及び撮像装置の内部構成を示すブロック図である。1 is a block diagram illustrating an internal configuration of an image processing device, a roadside device, and an imaging device that constitute a safe driving support system in Embodiment 1. FIG. 実施の形態1における画像処理装置の記憶部に予め記憶されている背景の画像データの内容例を示す説明図である。4 is an explanatory diagram illustrating an example of the content of background image data stored in advance in a storage unit of the image processing apparatus according to Embodiment 1. FIG. 実施の形態1における画像処理装置の制御部が行なう画像処理の手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of an image processing procedure performed by a control unit of the image processing apparatus according to the first embodiment. 実施の形態1における画像処理装置の制御部が行なう反射成分除去処理の手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a procedure of reflection component removal processing performed by a control unit of the image processing apparatus according to Embodiment 1. 制御部が人物領域候補内で、境界探索開始座標を特定する処理について示す説明図である。It is explanatory drawing shown about the process in which a control part specifies a boundary search start coordinate within a person area | region candidate. 実施の形態1における画像処理装置の制御部が行なう画像処理結果の具体例を示す説明図である。6 is an explanatory diagram illustrating a specific example of an image processing result performed by a control unit of the image processing apparatus according to Embodiment 1. FIG. 実施の形態1の変形例における画像処理装置の制御部が行なう画像処理の手順の一例を示すフローチャートである。10 is a flowchart illustrating an example of an image processing procedure performed by a control unit of the image processing apparatus according to a modification of the first embodiment. 実施の形態1の変形例における画像処理装置の制御部が、人物の実空間における大きさを算出する原理を模式的に示す説明図である。FIG. 10 is an explanatory diagram schematically illustrating a principle by which a control unit of an image processing apparatus according to a modification of the first embodiment calculates the size of a person in real space. 実施の形態2における安全運転支援システムが設置されている車両の例を模式的に示す模式図である。It is a schematic diagram which shows typically the example of the vehicle in which the safe driving assistance system in Embodiment 2 is installed. 実施の形態2における安全運転支援システムを構成する第1及び第2撮像装置及び画像処理装置の内部構成を示すブロック図である。FIG. 6 is a block diagram showing an internal configuration of first and second imaging devices and an image processing device that constitute a safe driving support system in a second embodiment.

符号の説明Explanation of symbols

1,6 画像処理装置
10,60 制御部
11,61 記憶部
3 撮像装置
4 第1撮像装置
5 第2撮像装置
DESCRIPTION OF SYMBOLS 1,6 Image processing apparatus 10,60 Control part 11,61 Memory | storage part 3 Imaging device 4 1st imaging device 5 2nd imaging device

Claims (9)

撮像手段を備え、該撮像手段から得られる撮像画像に基づいて撮像範囲内にある対象を検出するための画像処理を行なう画像処理装置において、
前記撮像画像から検出対象が写っている検出対象領域の候補を抽出する抽出手段と、
該抽出手段が抽出した候補の撮像画像中における位置、前記候補の垂直方向及び水平方向の大きさ、並びに、予め記憶してある検出対象の大きさを示す寸法情報に基づき、前記候補が、前記検出対象の反射成分を含むか否かを判定する判定手段と、
該判定手段が反射成分を含むと判定した場合、前記候補内の検出対象自体の領域、及び反射成分の領域間の境界を特定する特定手段と、
該特定手段が特定した境界に基づき、前記候補から反射成分の領域を除去する手段と、
反射成分を除去して得られる検出対象領域に基づき、検出対象を検出する手段と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that includes an imaging unit and performs image processing for detecting an object within an imaging range based on a captured image obtained from the imaging unit.
Extraction means for extracting a candidate for a detection target area in which the detection target is reflected from the captured image;
Based on the position in the captured image of the candidate extracted by the extraction means, the vertical and horizontal sizes of the candidate, and the dimension information indicating the size of the detection target stored in advance, the candidate is A determination means for determining whether or not a reflection component to be detected is included;
If it is determined that the determination means includes a reflection component, a specifying means for specifying a region between the detection target itself in the candidate and a boundary between the reflection component regions;
Means for removing a region of the reflection component from the candidate based on the boundary specified by the specifying means;
An image processing apparatus comprising: means for detecting a detection target based on a detection target region obtained by removing the reflection component.
前記特定手段は、
撮像画像中におけるエッジ部を抽出するエッジ抽出処理手段と、
前記抽出手段が抽出した候補の上端の、撮像画像における垂直方向の座標を特定する上端特定手段と、
前記寸法情報に基づき、撮像画像中で検出対象領域が占めるべき垂直方向の大きさを求める手段と、
前記上端特定手段が特定した座標から、求めた垂直方向の大きさの分だけ下方にある撮像画像における座標を特定する下端特定手段と、
該下端特定手段が特定した座標から更に下方の複数の座標毎に、該座標を通る水平方向の帯領域内に含まれる各エッジ部のエッジ強度に基づき、前記帯領域のエッジ強度を示す指標値を求める手段と、
該手段が求めた指標値の、垂直方向の各座標に対する分布曲線を求める手段と、
求めた分布曲線における特徴点を特定する手段と
を備え、
特定した特徴点に対応する撮像画像における帯領域を、境界として特定するようにしてあること
を特徴とする請求項1に記載の画像処理装置。
The specifying means is:
Edge extraction processing means for extracting an edge portion in a captured image;
Upper end specifying means for specifying the vertical coordinates of the upper end of the candidate extracted by the extracting means in the captured image;
Based on the dimension information, means for determining the vertical size that the detection target area should occupy in the captured image;
From the coordinates specified by the upper end specifying means, the lower end specifying means for specifying the coordinates in the captured image that is lower by the determined vertical size,
An index value indicating the edge strength of the band region based on the edge strength of each edge portion included in the horizontal band region passing through the coordinates for each of a plurality of coordinates further below the coordinate specified by the lower end specifying means A means of seeking
Means for obtaining a distribution curve for each coordinate in the vertical direction of the index value obtained by the means;
Means for specifying the characteristic points in the obtained distribution curve,
The image processing apparatus according to claim 1, wherein a band region in the captured image corresponding to the identified feature point is identified as a boundary.
前記下端特定手段は、
前記上端特定手段が特定した座標に基づき、撮像手段から前記検出対象までの実空間における距離を算出する手段を更に備え、
該手段が算出した距離及び前記寸法情報に基づき、実空間で撮像手段から前記距離に前記検出対象がある場合に撮像画像中で前記検出対象領域が占めるべき領域の下端の座標を特定するようにしてあること
を特徴とする請求項2に記載の画像処理装置。
The lower end specifying means includes
Based on the coordinates specified by the upper end specifying means, further comprising means for calculating a distance in real space from the imaging means to the detection target,
Based on the distance calculated by the means and the dimension information, when the detection target is located at the distance from the imaging means in real space, the coordinates of the lower end of the area that the detection target area should occupy in the captured image are specified. The image processing apparatus according to claim 2, wherein:
前記判定手段は、
前記抽出手段が抽出した候補の撮像画像中における位置に基づき、撮像手段から前記検出対象までの実空間における距離を算出する手段と、
該手段が算出した距離及び前記抽出手段が抽出した候補の垂直方向の大きさに基づき、前記検出対象の実空間における大きさを算出する手段と、
該手段が算出した大きさが前記寸法情報が示す実空間における大きさと対応するか否かを判断する手段と
を備え、
対応しないと判断した場合、前記候補は反射成分を含むと判定するようにしてあること
を特徴とする請求項1乃至3のいずれかに記載の画像処理装置。
The determination means includes
Means for calculating a distance in real space from the imaging means to the detection target based on the position in the captured image of the candidate extracted by the extraction means;
Means for calculating the size of the detection target in real space based on the distance calculated by the means and the vertical size of the candidate extracted by the extraction means;
Means for determining whether the size calculated by the means corresponds to the size in the real space indicated by the dimension information;
The image processing apparatus according to claim 1, wherein if it is determined that the candidate does not correspond, the candidate is determined to include a reflection component.
前記撮像手段の撮像範囲を、前記撮像手段と異なる角度から同時的に撮像する第2の撮像手段と、
該第2の撮像手段が撮像した撮像画像から検出対象が写っている検出対象領域の候補を抽出する手段と、
前記抽出手段が撮像手段から得られる撮像画像から抽出した検出対象領域の候補、及び前記第2の撮像手段により撮像された撮像画像から抽出した検出対象領域の候補を対応付ける手段と、
該手段が対応付けた2つの候補の夫々の撮像画像中における位置を特定する手段と、
2つの候補夫々が特定された位置間の差異に基づき、前記撮像手段又は前記第2の撮像手段から前記検出対象までの実空間における距離を算出する手段と、
該手段が算出した距離、及び前記抽出手段が抽出した候補の垂直方向の大きさに基づき、検出対象の実空間における大きさを算出する手段と、
該手段が算出した大きさが前記寸法情報が示す実空間における大きさと対応するか否かを判断する手段と
を更に備え、
対応しないと判断した場合、前記判定手段により反射成分を含むと判定するようにしてあること
を特徴とする請求項1乃至3のいずれかに記載の画像処理装置。
A second imaging means for simultaneously imaging the imaging range of the imaging means from an angle different from that of the imaging means;
Means for extracting a detection target area candidate in which a detection target is shown from a captured image captured by the second imaging means;
Means for associating a candidate for a detection target area extracted from a captured image obtained by the extraction means from the imaging means and a candidate for a detection target area extracted from the captured image captured by the second imaging means;
Means for specifying a position in each captured image of two candidates associated by the means;
Means for calculating a distance in real space from the imaging means or the second imaging means to the detection object based on a difference between positions where two candidates are specified;
Means for calculating the size in the real space of the detection target based on the distance calculated by the means and the vertical size of the candidate extracted by the extraction means;
Means for determining whether the size calculated by the means corresponds to the size in the real space indicated by the dimension information;
The image processing apparatus according to any one of claims 1 to 3, wherein when it is determined that the information does not correspond, the determination unit determines that a reflection component is included.
検出対象は特定の検出対象であるか否かを判定する手段を更に備えること
を特徴とする請求項1乃至5のいずれかに記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising means for determining whether or not the detection target is a specific detection target.
前記特定の検出対象は人物であることを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the specific detection target is a person. 撮像画像に基づき、撮像範囲内にある対象を検出するための画像処理を行なう方法において、
前記撮像画像から検出対象が写っている検出対象領域の候補を抽出する抽出ステップと、
該抽出ステップで抽出した候補の撮像画像中における位置、前記候補の垂直方向及び水平方向の大きさ、並びに、予め記憶してある検出対象の大きさを示す寸法情報に基づき、前記候補が、検出対象の反射成分を含むか否かを判定する判定ステップと、
該判定ステップで反射成分を含むと判定した場合、前記候補内の検出対象自体の領域、及び反射成分の領域間の境界を特定する特定ステップと、
該特定ステップが特定した境界に基づき、前記候補から反射成分を除去するステップと、
反射成分を除去して得られる検出対象領域に基づき、検出対象を検出するステップと
を含むことを特徴とする画像処理方法。
In a method of performing image processing for detecting an object within an imaging range based on a captured image,
An extraction step of extracting a detection target area candidate in which the detection target is shown from the captured image;
The candidate is detected based on the position in the captured image of the candidate extracted in the extraction step, the vertical and horizontal sizes of the candidate, and the dimension information indicating the size of the detection target stored in advance. A determination step of determining whether or not the target reflection component is included;
When it is determined that the reflection component is included in the determination step, a specifying step of specifying a region between the detection target itself in the candidate and a boundary between the reflection component regions;
Removing a reflection component from the candidate based on the boundary identified by the identifying step;
An image processing method comprising: detecting a detection target based on a detection target region obtained by removing the reflection component.
前記特定ステップは、
撮像画像中におけるエッジ部を抽出するエッジ抽出処理ステップと、
前記抽出ステップで抽出した候補の上端の、撮像画像における垂直方向の座標を特定するステップと、
前記寸法情報に基づき、撮像画像で検出対象領域が占めるべき垂直方向の大きさを求めるステップと、
特定した座標から、求めた垂直方向の大きさの分だけ下方にある検出対象自体の下端に対応する撮像画像における座標を特定するステップと、
特定した前記座標から更に下方の複数の座標毎に、該座標を通る水平方向の帯領域内に含まれる各エッジ部のエッジ強度に基づき、前記帯領域のエッジ強度を示す指標値を求めるステップと、
該ステップが求めた指標値の、垂直方向の各座標に対する分布曲線を求めるステップと、
求めた分布曲線における特徴点を特定するステップと、
特定した特徴点に対応する撮像画像における帯領域を、境界として特定するステップと
を含むことを特徴とする請求項8に記載の画像処理方法。
The specific step includes
An edge extraction processing step for extracting an edge portion in the captured image;
Identifying the vertical coordinates in the captured image of the top of the candidate extracted in the extraction step;
Based on the dimension information, obtaining a vertical size that the detection target region should occupy in the captured image;
Identifying the coordinates in the captured image corresponding to the lower end of the detection target itself that is lower by the determined vertical size from the identified coordinates;
Obtaining an index value indicating the edge strength of the band region based on the edge strength of each edge portion included in a horizontal band region passing through the coordinates for each of a plurality of coordinates further below the identified coordinates; ,
Obtaining a distribution curve for each vertical coordinate of the index value obtained in the step;
Identifying feature points in the obtained distribution curve;
The image processing method according to claim 8, further comprising: specifying a band region in the captured image corresponding to the specified feature point as a boundary.
JP2008158191A 2008-06-17 2008-06-17 Image processing apparatus and image processing method Expired - Fee Related JP5077088B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008158191A JP5077088B2 (en) 2008-06-17 2008-06-17 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008158191A JP5077088B2 (en) 2008-06-17 2008-06-17 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2009301495A true JP2009301495A (en) 2009-12-24
JP5077088B2 JP5077088B2 (en) 2012-11-21

Family

ID=41548296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008158191A Expired - Fee Related JP5077088B2 (en) 2008-06-17 2008-06-17 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5077088B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120020519A1 (en) * 2010-07-21 2012-01-26 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2014507722A (en) * 2011-12-29 2014-03-27 インテル コーポレイション Generalized robust multi-channel feature detector
JP2017183904A (en) * 2016-03-29 2017-10-05 セコム株式会社 Region detection device
JP2018109824A (en) * 2016-12-28 2018-07-12 株式会社デンソーテン Electronic control device, electronic control system, and electronic control method
JP2019040389A (en) * 2017-08-25 2019-03-14 独立行政法人自動車技術総合機構 Obstacle detection device, obstacle detection method, and obstacle detection program
CN111415365A (en) * 2019-01-04 2020-07-14 宁波舜宇光电信息有限公司 Image detection method and device
CN113506237A (en) * 2021-05-17 2021-10-15 毫末智行科技有限公司 Method for determining boundary of object and object detection method
JP7394240B2 (en) 2020-06-03 2023-12-07 グーグル エルエルシー Depth estimation based on the bottom edge position of the subject

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0335399A (en) * 1989-06-30 1991-02-15 Toshiba Corp Change area integrating device
JPH03286398A (en) * 1990-04-02 1991-12-17 Sumitomo Electric Ind Ltd Image processing type traffic flow measuring instrument
JPH08241413A (en) * 1995-03-07 1996-09-17 Matsushita Electric Ind Co Ltd Moving range detection device
JP2003296878A (en) * 2002-03-29 2003-10-17 Natl Inst For Land & Infrastructure Management Mlit Vehicle detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0335399A (en) * 1989-06-30 1991-02-15 Toshiba Corp Change area integrating device
JPH03286398A (en) * 1990-04-02 1991-12-17 Sumitomo Electric Ind Ltd Image processing type traffic flow measuring instrument
JPH08241413A (en) * 1995-03-07 1996-09-17 Matsushita Electric Ind Co Ltd Moving range detection device
JP2003296878A (en) * 2002-03-29 2003-10-17 Natl Inst For Land & Infrastructure Management Mlit Vehicle detection method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120020519A1 (en) * 2010-07-21 2012-01-26 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2012027616A (en) * 2010-07-21 2012-02-09 Canon Inc Image processing system, image processing method and program
US8923553B2 (en) * 2010-07-21 2014-12-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP2014507722A (en) * 2011-12-29 2014-03-27 インテル コーポレイション Generalized robust multi-channel feature detector
JP2017183904A (en) * 2016-03-29 2017-10-05 セコム株式会社 Region detection device
JP2018109824A (en) * 2016-12-28 2018-07-12 株式会社デンソーテン Electronic control device, electronic control system, and electronic control method
JP2019040389A (en) * 2017-08-25 2019-03-14 独立行政法人自動車技術総合機構 Obstacle detection device, obstacle detection method, and obstacle detection program
CN111415365A (en) * 2019-01-04 2020-07-14 宁波舜宇光电信息有限公司 Image detection method and device
CN111415365B (en) * 2019-01-04 2023-06-27 宁波舜宇光电信息有限公司 Image detection method and device
JP7394240B2 (en) 2020-06-03 2023-12-07 グーグル エルエルシー Depth estimation based on the bottom edge position of the subject
CN113506237A (en) * 2021-05-17 2021-10-15 毫末智行科技有限公司 Method for determining boundary of object and object detection method

Also Published As

Publication number Publication date
JP5077088B2 (en) 2012-11-21

Similar Documents

Publication Publication Date Title
JP5077088B2 (en) Image processing apparatus and image processing method
US11461595B2 (en) Image processing apparatus and external environment recognition apparatus
US7418112B2 (en) Pedestrian detection apparatus
US8831286B2 (en) Object identification device
US11427193B2 (en) Methods and systems for providing depth maps with confidence estimates
JP5690688B2 (en) Outside world recognition method, apparatus, and vehicle system
KR101891460B1 (en) Method and apparatus for detecting and assessing road reflections
EP2928178B1 (en) On-board control device
JP2009301494A (en) Image processing unit and image processing method
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
KR101103526B1 (en) Collision Avoidance Method Using Stereo Camera
KR101240499B1 (en) Device and method for real time lane recogniton and car detection
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
EP2741234B1 (en) Object localization using vertical symmetry
JP5083164B2 (en) Image processing apparatus and image processing method
JP7119317B2 (en) Information processing device, imaging device, device control system, moving object, information processing method, and information processing program
JP2005202787A (en) Display device for vehicle
KR20140024681A (en) Apparatus and method for detecting lane
JP2011103058A (en) Erroneous recognition prevention device
JP2010020557A (en) Image processor and image processing method
JP2014067320A (en) Stereo camera device
JP5957182B2 (en) Road surface pattern recognition method and vehicle information recording apparatus
KR101578434B1 (en) Apparatus for detecting lane and method thereof
JP6582891B2 (en) Empty vehicle frame identification system, method and program
JP6354963B2 (en) Object recognition apparatus, object recognition method, and object recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120813

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150907

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees