JP5686281B2 - Three-dimensional object identification device, and mobile object control device and information providing device provided with the same - Google Patents

Three-dimensional object identification device, and mobile object control device and information providing device provided with the same Download PDF

Info

Publication number
JP5686281B2
JP5686281B2 JP2010243989A JP2010243989A JP5686281B2 JP 5686281 B2 JP5686281 B2 JP 5686281B2 JP 2010243989 A JP2010243989 A JP 2010243989A JP 2010243989 A JP2010243989 A JP 2010243989A JP 5686281 B2 JP5686281 B2 JP 5686281B2
Authority
JP
Japan
Prior art keywords
dimensional object
identification
processing
polarization
polarization degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010243989A
Other languages
Japanese (ja)
Other versions
JP2011150688A (en
Inventor
平井 秀明
秀明 平井
青木 伸
青木  伸
小林 正典
正典 小林
雪 李
雪 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2010243989A priority Critical patent/JP5686281B2/en
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to CN201080058590.3A priority patent/CN102782720B/en
Priority to EP10839429.7A priority patent/EP2517175A4/en
Priority to PCT/JP2010/073069 priority patent/WO2011078199A1/en
Priority to KR1020127016422A priority patent/KR101404924B1/en
Priority to BR112012017199A priority patent/BR112012017199A2/en
Priority to US13/516,754 priority patent/US9317754B2/en
Publication of JP2011150688A publication Critical patent/JP2011150688A/en
Application granted granted Critical
Publication of JP5686281B2 publication Critical patent/JP5686281B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像領域内に存在する立体物を識別する立体物識別装置、並びに、この立体物識別装置の識別結果を利用して、車両、船舶、航空機、あるいは、産業用ロボットなどの移動体の移動制御を行う移動体制御装置、及び、移動体の運転者に有益な情報を提供する情報提供装置に関するものである。   The present invention relates to a three-dimensional object identification device that identifies a three-dimensional object existing in an imaging region, and a moving object such as a vehicle, a ship, an aircraft, or an industrial robot using the identification result of the three-dimensional object identification device. The present invention relates to a mobile control device that performs the above-described movement control and an information providing device that provides useful information to a driver of the mobile body.

この種の立体物識別装置としては、例えば、車両の運転者(ドライバー)の運転負荷を軽減させるための、ACC(Adaptive Cruise Control)等の運転者支援システムに利用されるものが知られている。このような車両走行支援システムにおいては、自車が側壁等の障害物に衝突することを回避したり衝突時の衝撃を軽減したりするための自動ブレーキ機能や警報機能、先行車との車間距離を維持するための自車速度調整機能などの様々な機能を実現するために、自車の周囲に存在する側壁等の障害物、先行車などの立体物を適切に区別して認識する(識別する)ことが必要となる。そのため、従来から様々な立体物識別装置が提案されている。   As this type of three-dimensional object identification device, for example, a device used in a driver support system such as ACC (Adaptive Cruise Control) for reducing the driving load of a driver (driver) of a vehicle is known. . In such a vehicle driving support system, an automatic brake function and an alarm function for preventing the own vehicle from colliding with an obstacle such as a side wall or reducing an impact at the time of collision, an inter-vehicle distance from a preceding vehicle In order to realize various functions such as the vehicle speed adjustment function for maintaining the vehicle, obstacles such as side walls around the vehicle and solid objects such as the preceding vehicle are properly distinguished and recognized (identified) ) Is required. Therefore, various three-dimensional object identification devices have been conventionally proposed.

特許文献1には、同色の物体が2つ重なっても、これらの物体を正しく認識できるようにする立体物識別装置が開示されている。この立体物識別装置は、同色の物体でもこれらの偏光の主軸方向(偏光強度が最大となる方向)が同一とならないことを利用して、同色の物体が2つ重なっても、これらの物体を区別して認識するものである。具体的には、複数の偏光子を介して画像を取得し、偏光方向が異なる偏光子のそれぞれを介して得られる所定画像箇所の受光強度を用いて該箇所における偏光成分を算出し、かつ、画像全体について偏光成分を算出する。そして、その偏光成分に含まれる偏光の主軸方向が同一と見なされる領域を区分し、その区分された各領域の移動方向を算出して、移動方向が同一である領域の画像部分を1つの物体として識別する。   Patent Document 1 discloses a three-dimensional object identification device that can correctly recognize two objects of the same color even when two objects of the same color overlap. This three-dimensional object identification device takes advantage of the fact that the principal axis directions of polarized light (the direction in which the polarization intensity is maximum) are not the same even for objects of the same color, so that even if two objects of the same color overlap, It distinguishes and recognizes. Specifically, an image is acquired through a plurality of polarizers, and the polarization component at the location is calculated using the received light intensity of a predetermined image location obtained through each of the polarizers having different polarization directions, and A polarization component is calculated for the entire image. Then, a region in which the principal axis directions of polarized light included in the polarization component are considered to be the same is divided, a movement direction of each of the divided regions is calculated, and an image portion of a region having the same movement direction is determined as one object. Identify as.

従来の立体物識別装置は、撮像画像中の輝度の違いを利用して、所定平面内に存在する平面物体(例えば路面のアスファルト)と、その所定平面とは異なる方向を向いた外面を有する立体物(例えば、路端に存在する側壁、ガードレール、電信柱、街灯、歩行者通路の段差部等の路端障害物)との間のエッジを抽出し、そのエッジにより区画される領域を立体物であると認識するものが一般的である。しかしながら、立体物と平面物体とを区別して認識する方法として輝度の違いを利用する従来の方法では、同一の平面物体中に輝度が大きく異なる部分が存在すると、これらの部分間の境をエッジであるとして抽出してしまい、これらの部分を同一の平面物体であるにも拘わらず別の物体であると誤認識してしまう場合があった。具体的には、例えば路面上の日向部分と日陰部分との間では輝度に大きな違いがあるため、その日陰部分(輝度が小さい部分)を日向部分(輝度が大きい部分)とは別の物体であると誤認識してしまう場合があった。このような誤認識は、例えばACCであれば誤認識した日陰部分を路端に存在する側壁等の障害物であるとして、衝突回避動作を実施してしまうなど、誤制御あるいは誤処理を引き起こす原因となる。   A conventional three-dimensional object identification device uses a difference in luminance in a captured image to create a three-dimensional object having a planar object (for example, asphalt on a road surface) existing in a predetermined plane and an outer surface facing in a direction different from the predetermined plane. Extracting edges between objects (for example, roadside obstacles such as side walls, guardrails, telephone poles, street lamps, stepped parts of pedestrian paths, etc. existing on roadsides) It is common to recognize that However, in the conventional method using the difference in luminance as a method for distinguishing and recognizing a three-dimensional object and a planar object, if there is a part with greatly different luminance in the same planar object, the boundary between these parts is represented by an edge. In some cases, these parts are extracted as being, and these parts are mistakenly recognized as different objects even though they are the same planar object. Specifically, for example, there is a large difference in brightness between the sunlit part and the shaded part on the road surface, so the shaded part (part with low brightness) is a different object from the sunlit part (part with high brightness). In some cases, it was mistakenly recognized. Such misrecognition is a cause of erroneous control or mishandling, such as a collision avoidance operation, assuming that the shaded part that was misrecognized is an obstacle such as a side wall existing at the roadside in the case of ACC. It becomes.

なお、この問題は、運転者支援システムに用いられる立体物識別装置に限らず、ロボット制御などに用いられる立体物識別装置など、あらゆる立体物識別装置においても同様に生じる問題である。
また、この問題を、撮像手段とは別の検出機器を新たに用意して解決することは、コストが高騰するため好ましくない。よって、従来の立体物識別装置において立体物からの反射光強度(輝度)を検出するために一般に用いられている検出機器である撮像手段を用いて、上記問題を解決することができれば、コストの観点から有益である。
Note that this problem is not limited to the three-dimensional object identification device used in the driver assistance system, and similarly occurs in any three-dimensional object identification device such as a three-dimensional object identification device used for robot control or the like.
In addition, it is not preferable to solve this problem by newly preparing a detection device different from the imaging means because the cost increases. Therefore, if the above-mentioned problem can be solved by using an imaging means that is a detection device generally used for detecting the reflected light intensity (luminance) from a three-dimensional object in a conventional three-dimensional object identification device, the cost can be reduced. It is beneficial from a viewpoint.

本発明は、上記問題に鑑みなされたものであり、その目的とするところは、同一の平面物体中に輝度が大きく異なる部分が存在しても、その平面物体と立体物との間を、撮像手段を用いて高い精度で識別することが可能な立体物識別装置、並びに、これを備えた移動体制御装置及び情報提供装置を提供することである。   The present invention has been made in view of the above problems, and the object of the present invention is to capture an image between a planar object and a three-dimensional object even if there is a portion with greatly different luminance in the same planar object. It is to provide a three-dimensional object identification device that can be identified with high accuracy using a means, and a mobile control device and an information providing device including the same.

上記目的を達成するために、請求項の発明は、撮像領域内に存在し、所定平面とは異なる方向を向いた外面を有する立体物を識別する立体物識別装置において、撮像領域内に存在する物体からの反射光に含まれている偏光方向が互いに異なる2つの偏光を受光して、それぞれの偏光画像を撮像する撮像手段と、該撮像手段が撮像した2つの偏光画像をそれぞれ所定の処理領域に分割し、処理領域ごとに、該2つの偏光画像間における輝度合計値を算出する輝度算出手段と、該処理領域ごとに、該輝度合計値に対する該2つの偏光画像間における輝度差分値の比率を示す差分偏光度を算出する差分偏光度算出手段と、上記所定平面と同一平面内に予め存在することが想定されている基準平面物体の存在場所に対応する処理領域のうち輝度が相対的に大きい部分である基準処理領域について該差分偏光度算出手段が算出した差分偏光度を基準差分偏光度とし、該基準処理領域とは異なる処理領域について該差分偏光度算出手段が算出した差分偏光度と該基準差分偏光度との差分値である差分偏光度差分値を算出する差分偏光度差分値算出手段と、該輝度算出手段が算出した輝度合計値と該差分偏光度差分値算出手段が算出した差分偏光度差分値とを識別指標値として用い、上記撮像領域内における各処理領域に対応した場所に存在する物体が上記立体物であるか否かの立体物識別処理を行う立体物識別処理手段とを有することを特徴とするものである。
また、請求項の発明は、請求項の立体物識別装置において、上記立体物識別処理手段は、上記基準平面物体の存在場所に対応する処理領域のうち輝度が小さい部分である低輝度処理領域に対応する場所に存在する該基準平面物体の低輝度部分と上記立体物とについてそれぞれ定められる複数の数値範囲のいずれに上記識別指標値が属するかを判断する判断処理を行い、当該処理領域に対応した場所に存在する物体を、該判断処理により属すると判断された数値範囲に対応する物体であると識別する処理を行うことにより、上記立体物識別処理を実施することを特徴とするものである。
また、請求項の発明は、請求項の立体物識別装置において、上記撮像手段は、移動面上を移動する移動体に搭載され、該移動面に対して斜め上方から該移動面を含む撮像領域を撮像するものであり、上記判断処理では、同一の物体に対して定められる数値範囲を、上記2つの偏光画像をそれぞれ上下方向に区分する少なくとも2つ以上の区域ごとにそれぞれ設定し、当該区域に属する処理領域の識別指標値が該区域に対して設定された数値範囲のいずれに属するかを判断することを特徴とするものである。
また、請求項の発明は、請求項乃至のいずれか1項に記載の立体物識別装置において、上記立体物識別処理手段が過去に行った上記立体物識別処理の結果を記憶する識別処理結果記憶手段を有し、上記立体物識別処理手段は、上記識別指標値とともに、上記識別処理結果記憶手段に記憶された過去の立体物識別処理の結果も用いて、上記立体物識別処理を行うことを特徴とするものである。
また、請求項の発明は、移動体の移動制御を行う移動制御手段と、該移動体の周囲を撮像対象として撮像し、該撮像対象内に存在する立体物を識別する立体物識別手段とを有し、上記移動制御手段は、上記立体物識別手段による識別結果を用いて上記移動制御を行う移動体制御装置において、上記立体物識別手段として、請求項1乃至のいずれか1項に記載の立体物識別装置を用いたことを特徴とするものである。
また、請求項の発明は、運転者による運転操作に従って移動する移動体の周囲を撮像対象として撮像し、該撮像対象内に存在する立体物を識別する立体物識別手段と、上記立体物識別手段による識別結果を用いて該運転者にとって有益な情報を生成する有益情報生成手段と、該有益情報生成手段が生成した情報を該運転者に報知する情報報知手段とを有する情報提供装置において、上記立体物識別手段として、請求項1乃至4のいずれか1項に記載の立体物識別装置を用いたことを特徴とするものである。
To achieve the above object, the present invention Motomeko 1 is present in the imaging area, in the three-dimensional object identifying device for identifying the three-dimensional object having an outer surface facing a direction different from the predetermined plane, the imaging area An imaging unit that receives two polarized light beams having different polarization directions included in reflected light from an existing object and captures the respective polarized images, and two polarized images captured by the imaging unit are respectively predetermined. Luminance calculation means that divides the image into processing regions and calculates a luminance total value between the two polarization images for each processing region; and a luminance difference value between the two polarization images with respect to the luminance total value for each processing region The differential polarization degree calculating means for calculating the differential polarization degree indicating the ratio of the ratio and the luminance of the processing area corresponding to the location of the reference plane object assumed to exist in the same plane as the predetermined plane in advance. The difference polarization degree calculated by the difference polarization degree calculation means for the reference processing area that is a large part is set as the reference difference polarization degree, and the difference polarization degree calculated by the difference polarization degree calculation means for a processing area different from the reference processing area A difference polarization degree difference value calculating means for calculating a difference polarization degree difference value, which is a difference value between a degree and the reference difference polarization degree, a luminance total value calculated by the brightness calculation means, and the difference polarization degree difference value calculating means. Three-dimensional object identification that uses the calculated differential polarization degree difference value as an identification index value and performs a three-dimensional object identification process for determining whether or not an object present at a location corresponding to each processing area in the imaging area is the three-dimensional object. And a processing means.
The invention according to claim 2 is the three-dimensional object identification device according to claim 1 , wherein the three-dimensional object identification processing means is a low-luminance process that is a portion having a low luminance in a processing area corresponding to the location of the reference plane object. A determination process for determining which of the plurality of numerical ranges defined for the low-intensity part of the reference plane object and the three-dimensional object existing at a location corresponding to the area belongs to the processing area; Performing the above three-dimensional object identification process by performing a process of identifying an object existing at a location corresponding to the object as an object corresponding to a numerical range determined to belong to the determination process. It is.
According to a third aspect of the present invention, in the three-dimensional object identification device according to the second aspect, the imaging means is mounted on a moving body that moves on a moving surface, and includes the moving surface obliquely from above the moving surface. In the determination process, a numerical range determined for the same object is set for each of at least two or more areas that divide the two polarized images in the vertical direction. It is characterized in determining which of the numerical ranges set for the area the identification index value of the processing area belonging to the area belongs.
The invention of claim 4 is the three-dimensional object identifying device according to any one of claims 1 to 3, the identification of the three-dimensional object identification processing means stores the results of the three-dimensional object identification processing performed in the past Processing result storage means, and the three-dimensional object identification processing means performs the three-dimensional object identification processing using the result of the past three-dimensional object identification processing stored in the identification processing result storage means together with the identification index value. It is characterized by doing.
Further, the invention of claim 5 is a movement control means for performing movement control of a moving object, a three-dimensional object identification means for picking up an image of the periphery of the moving object as an imaging target, and identifying a three-dimensional object existing in the imaging target; 5. The mobile control device that performs the movement control using the identification result obtained by the three-dimensional object identification unit, and the movement control unit includes any one of claims 1 to 4 as the three-dimensional object identification unit. The three-dimensional object identification device described above is used.
According to a sixth aspect of the present invention, there is provided a three-dimensional object identifying means for capturing an image of a moving body moving in accordance with a driving operation by a driver as an imaging target, and identifying a three-dimensional object existing within the imaging target, In an information providing apparatus comprising: useful information generating means for generating information useful for the driver using the identification result by the means; and information notifying means for notifying the driver of information generated by the useful information generating means. The three-dimensional object identification device according to any one of claims 1 to 4 is used as the three-dimensional object identification means.

本発明者らは、鋭意研究の結果、撮像手段が撮像した2つの偏光画像間における輝度合計値に対する輝度差分値の比率である差分偏光度を識別指標値として用いて、各処理領域に対応した場所に存在する立体物を平面物体と高精度に区別して認識できる新たな立体物識別方法を案出した。例えば、差分偏光度について基準処理領域と識別対象処理領域との間で差分をとったもの(差分偏光度差分値)を識別指標値として用いる立体物識別方法である。この方法によれば、輝度を識別指標値として用いる従来方法よりも、各処理領域に対応した場所に存在する立体物を平面物体と高精度に区別して認識可能である。ところが、差分偏光度を用いる方法であっても、その基準処理領域に存在する平面物体中に輝度が大きく異なる部分が存在すると、その基準処理領域とは異なる輝度を有する当該平面物体が存在する処理領域を立体物であると誤認識してしまう場合があった。
本発明者らは、更なる研究の結果、差分偏光度だけでなく、従来方法の識別指標値として用いられていた輝度も併用することで、後述するように、基準処理領域とは異なる輝度をもった処理領域と立体物が存在する処理領域とを高精度に区別して認識可能であることを見出した。
したがって、差分偏光度と輝度とを併用する本発明によれば、同一の平面物体中に輝度が大きく異なる部分が存在しても、立体物と誤認識されやすい基準処理領域とは異なる輝度をもった処理領域部分の平面物体と立体物との間を高い精度で識別することが可能である。しかも、本発明によれば、識別指標値として用いる輝度には、差分偏光度を算出するために用いる撮像手段が撮像した2つの偏光画像間の輝度合計値を使用するので、新たな検出機器は不要である。
As a result of earnest research, the present inventors corresponded to each processing region by using the differential polarization degree, which is the ratio of the luminance difference value to the luminance total value between the two polarized images captured by the imaging means, as the identification index value. We have devised a new three-dimensional object identification method that can distinguish a three-dimensional object existing at a place from a planar object with high accuracy. For example, it is a three-dimensional object identification method using a difference polarization degree (difference polarization degree difference value) obtained by taking a difference between a reference processing area and an identification target processing area. According to this method, it is possible to distinguish and recognize a three-dimensional object existing at a location corresponding to each processing region with higher accuracy than a conventional method using luminance as an identification index value. However, even in the method using the differential polarization degree, if there is a portion having a significantly different luminance in the planar object existing in the reference processing area, the processing in which the planar object having a luminance different from that of the reference processing area exists. In some cases, the region is misrecognized as a three-dimensional object.
As a result of further research, the inventors have used not only the differential polarization degree but also the luminance used as the identification index value of the conventional method, so that the luminance different from the reference processing region can be obtained as described later. It has been found that a processing area having a solid object and a processing area having a three-dimensional object can be distinguished and recognized with high accuracy.
Therefore, according to the present invention using both the differential polarization degree and the luminance, even if there is a portion with a large difference in luminance in the same planar object, the luminance has a luminance different from that of the reference processing region that is easily mistaken for a three-dimensional object. It is possible to discriminate between a planar object and a three-dimensional object in the processing area portion with high accuracy. Moreover, according to the present invention, since the luminance used as the identification index value is the total luminance value between the two polarized images captured by the imaging unit used to calculate the differential polarization degree, the new detection device is It is unnecessary.

以上、本発明によれば、同一の平面物体中に輝度が大きく異なる部分が存在しても、その平面物体と立体物との間を撮像手段を用いて高い精度で識別することが可能となるという優れた効果が得られる。   As described above, according to the present invention, even if there is a portion having a significantly different luminance in the same planar object, it is possible to identify the planar object and the three-dimensional object with high accuracy using the imaging unit. An excellent effect is obtained.

実施形態に係る運転者支援システムの機能ブロック図である。It is a functional block diagram of the driver assistance system concerning an embodiment. 同運転者支援システムに利用可能な偏光カメラの一構成例を示す説明図である。It is explanatory drawing which shows one structural example of the polarization camera which can be utilized for the driver | operator assistance system. 同運転者支援システムに利用可能な偏光カメラの他の構成例を示す説明図である。It is explanatory drawing which shows the other structural example of the polarization camera which can be utilized for the driver | operator assistance system. 同運転者支援システムに利用可能な偏光カメラの更に他の構成例を示す説明図である。It is explanatory drawing which shows the further another structural example of the polarization camera which can be used for the driver | operator assistance system. 同運転者支援システムに利用可能な偏光カメラの更に他の構成例を示す説明図である。It is explanatory drawing which shows the further another structural example of the polarization camera which can be used for the driver | operator assistance system. 同運転者支援システムに利用可能な偏光カメラの更に他の構成例を示す説明図である。It is explanatory drawing which shows the further another structural example of the polarization camera which can be used for the driver | operator assistance system. 同運転者支援システムに利用可能な偏光カメラの更に他の構成例を示す説明図である。It is explanatory drawing which shows the further another structural example of the polarization camera which can be used for the driver | operator assistance system. (a)は識別対象となり得るボッツドッツの上面図であり、(b)は同ボッツドッツの側面図である。(A) is a top view of the botsdots that can be identified, and (b) is a side view of the botsdots. (a)は識別対象となり得るキャッツアイの上面図であり、(b)は同キャッツアイの斜視図である。(A) is a top view of a cat's eye that can be an identification target, and (b) is a perspective view of the cat's eye. 実施形態における路面構造物特定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the road surface structure specific process in embodiment. 偏光カメラにて取得した偏光RAW画像データからモノクロ画像処理部にて生成されたモノクロ画像(輝度画像)の一例を示す説明図である。It is explanatory drawing which shows an example of the monochrome image (luminance image) produced | generated in the monochrome image process part from the polarization RAW image data acquired with the polarization camera. 同偏光RAW画像データから差分偏光度画像処理部にて生成された差分偏光度画像を示す説明図である。It is explanatory drawing which shows the difference polarization degree image produced | generated in the difference polarization degree image process part from the same polarization RAW image data. 図11中の白色破線矢印に沿って得られる輝度値をプロットしたグラフである。It is the graph which plotted the luminance value obtained along the white broken line arrow in FIG. 図12中の白色破線矢印に沿って得られる差分偏光度をプロットしたグラフである。It is the graph which plotted the differential polarization degree obtained along the white broken-line arrow in FIG. 実験室において、アスファルト面と金属表面に対し、光源位置を変化させて固定配置されたカメラでP偏光画像とS偏光画像を撮影したときの差分偏光度の変化の一例を示すグラフである。It is a graph which shows an example of a change of a differential polarization | polarized-light degree when a P polarization | polarized-light image and an S-polarized image are image | photographed with the camera which changed and fixedly arranged the light source position with respect to an asphalt surface and a metal surface. フロントガラスの影響を説明するための説明図である。It is explanatory drawing for demonstrating the influence of a windshield. 区間線としてボッツドッツが用いられている路面を偏光カメラで撮像し、これにより取得した偏光RAW画像データからモノクロ画像処理部が生成したモノクロ画像(輝度画像)の一例を示す説明図である。It is explanatory drawing which shows an example of the monochrome image (luminance image) which the monochrome image processing part produced | generated from the polarized RAW image data which imaged the road surface in which the botsdots are used as a section line with the polarization camera, and was acquired by this. 同偏光RAW画像データから差分偏光度画像処理部にて生成された差分偏光度画像を示す説明図である。It is explanatory drawing which shows the difference polarization degree image produced | generated in the difference polarization degree image process part from the same polarization RAW image data. 実験室において、アスファルト面とスチールに塗料を塗布した塗装面に対し、光源位置を変化させて固定配置されたカメラでP偏光画像とS偏光画像を撮影したときの差分偏光度の変化を示すグラフである。A graph showing the change in the degree of differential polarization when a P-polarized image and an S-polarized image are photographed with a camera that is fixedly arranged by changing the light source position on an asphalt surface and a coated surface obtained by applying paint to steel in a laboratory. It is. コールタールが付着した路面を偏光カメラで撮像し、これにより取得した偏光RAW画像データからモノクロ画像処理部13が生成したモノクロ画像(輝度画像)の一例を示す説明図である。It is explanatory drawing which shows an example of the monochrome image (luminance image) which the monochrome image process part 13 produced | generated from the polarized RAW image data which imaged the road surface to which coal tar adhered with the polarization camera, and was acquired by this. 同偏光RAW画像データから差分偏光度画像処理部にて生成された差分偏光度画像を示す説明図である。It is explanatory drawing which shows the difference polarization degree image produced | generated in the difference polarization degree image process part from the same polarization RAW image data. 実施形態における立体物特定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the solid object specific process in embodiment. 偏光カメラにて取得した偏光RAW画像データからモノクロ画像処理部にて生成されたモノクロ画像(輝度画像)の一例を示す説明図である。It is explanatory drawing which shows an example of the monochrome image (luminance image) produced | generated in the monochrome image process part from the polarization RAW image data acquired with the polarization camera. 同偏光RAW画像データから差分偏光度画像処理部にて生成された差分偏光度画像を示す説明図である。It is explanatory drawing which shows the difference polarization degree image produced | generated in the difference polarization degree image process part from the same polarization RAW image data. 100フレーム分について図23中の白枠3箇所の輝度値分布をとったヒストグラムである。24 is a histogram of luminance value distributions at three white frames in FIG. 23 for 100 frames. 100フレーム分について図24中の白枠3箇所の差分偏光度分布をとったヒストグラムである。FIG. 25 is a histogram obtained by taking differential polarization degree distributions at three positions in a white frame in FIG. 24 for 100 frames. 偏光カメラにて取得した偏光RAW画像データからモノクロ画像処理部にて生成されたモノクロ画像(輝度画像)の他の例を示す説明図である。It is explanatory drawing which shows the other example of the monochrome image (luminance image) produced | generated in the monochrome image process part from the polarization RAW image data acquired with the polarization camera. 図27に示した画像中に描かれた処理ライン(図中横方向の伸びる直線)上の各位置における差分偏光度を示すグラフである。It is a graph which shows the difference polarization degree in each position on the process line (the straight line extended in the horizontal direction in a figure) drawn in the image shown in FIG. 図27に示した画像中に描かれた処理ライン(図中横方向の伸びる直線)上の各位置における輝度(モノクロ輝度)を示すグラフである。It is a graph which shows the brightness | luminance (monochrome brightness | luminance) in each position on the process line (the straight line extended in the horizontal direction in the figure) drawn in the image shown in FIG. X軸に日向路面の輝度をとり、Y軸に撮像領域内に存在する日向路面以外の各種識別対象物の輝度をとった各種識別対象物の2次元分布図である。It is a two-dimensional distribution diagram of various identification objects with the brightness of the sun road surface taken along the X axis and the brightness of various object objects other than the sun road surface existing in the imaging area taken as the Y axis. X軸に日向路面の差分偏光度をとり、Y軸に識別対象物の差分偏光度をとり、Z軸に識別対象物の輝度をとった、各識別対象物の3次元分布図である。It is a three-dimensional distribution diagram of each identification target object, where the X-axis represents the differential polarization degree of the sun road surface, the Y-axis represents the differential polarization degree of the identification target object, and the Z-axis represents the luminance of the identification target object.

以下、本発明を、移動体制御装置及び情報提供装置としての運転者支援システムに適用した一実施形態について説明する。
図1は、本実施形態に係る運転者支援システムの機能ブロック図である。
図示しない車両に搭載された撮像手段としての偏光カメラ10により、移動体である車両が走行する路面(移動面)を含む自車周囲の風景を撮影し、画素ごとの垂直偏光強度(以下、単に「S偏光強度」という。)及び水平偏光強度(以下、単に「P偏光強度」という。)を含んだ偏光RAW画像データを取得する。偏光RAW画像データに含まれるP偏光強度データから得られる水平偏光画像データは水平偏光画像メモリ11に、偏光RAW画像データに含まれるS偏光強度データから得られる垂直偏光画像データは垂直偏光画像メモリ12にそれぞれ格納される。これらの画像データは、それぞれ、輝度算出手段としてのモノクロ画像処理部13と、差分偏光度算出手段及び差分偏光度差分値算出手段としての差分偏光度画像処理部15に送信される。
Hereinafter, an embodiment in which the present invention is applied to a driver support system as a mobile control device and an information providing device will be described.
FIG. 1 is a functional block diagram of the driver assistance system according to the present embodiment.
A landscape around the vehicle including a road surface (moving surface) on which a moving vehicle travels is photographed by a polarization camera 10 as an imaging means mounted on a vehicle (not shown), and a vertical polarization intensity (hereinafter simply referred to as “pixel polarization”) for each pixel. Polarized RAW image data including “S-polarized light intensity” and horizontal polarized light intensity (hereinafter simply referred to as “P-polarized light intensity”) is acquired. The horizontally polarized image data obtained from the P polarized light intensity data included in the polarized RAW image data is stored in the horizontally polarized image memory 11, and the vertically polarized image data obtained from the S polarized light intensity data included in the polarized RAW image data is displayed in the vertically polarized image memory 12. Respectively. These image data are respectively transmitted to the monochrome image processing unit 13 as the luminance calculation unit and the differential polarization degree image processing unit 15 as the differential polarization degree calculation unit and the differential polarization degree difference value calculation unit.

偏光カメラ10は、受光素子であるCCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)等の撮像素子により、例えばメガピクセルサイズの画素を有する周囲画像を撮像するものである。偏光カメラ10は、リアルタイムに近い短い時間間隔で周囲画像を連続的に取得するのが好ましい。偏光カメラ10は、例えばルームミラーに取り付けられ、車両前方の風景(路面を含むフロントビュー)を撮像するものであってもよいし、例えばサイドミラーに取り付けられ、車両側方の風景を撮像するものであってもよいし、例えばバックドアに取り付けられ、車両後方の風景を撮像するものであってもよい。本実施形態では、ルームミラーに取り付けられて車両前方の風景(路面を含むフロントビュー)を撮像する場合を例に挙げて説明する。   The polarization camera 10 captures a surrounding image having pixels of, for example, a megapixel size by an image sensor such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) that is a light receiving element. It is preferable that the polarization camera 10 continuously acquires surrounding images at short time intervals close to real time. The polarization camera 10 may be attached to a room mirror, for example, to capture a landscape in front of the vehicle (a front view including a road surface), or attached to a side mirror, for example, to capture a landscape on the side of the vehicle. For example, it may be attached to a back door and may take an image of a landscape behind the vehicle. In the present embodiment, an example will be described in which a landscape (a front view including a road surface) in front of a vehicle is imaged by being attached to a rearview mirror.

図2は、偏光カメラ10の一構成例を示す説明図である。
この偏光カメラ10Aは、図2に示すように、CCD等の撮像素子を備えた1台のカメラ101の前面に、回転駆動する回転偏光子102を配置したものである。この偏光カメラ10Aは、回転偏光子102の回転角に応じて通過する光の偏光方向が変化する。よって、カメラ101は、回転偏光子102を回転駆動させながら撮像することで、P偏光画像とS偏光画像とを交互に撮像することができる。
FIG. 2 is an explanatory diagram illustrating a configuration example of the polarization camera 10.
As shown in FIG. 2, the polarization camera 10 </ b> A has a rotating polarizer 102 that is rotationally driven on the front surface of one camera 101 that includes an image pickup device such as a CCD. In this polarization camera 10 </ b> A, the polarization direction of light passing therethrough changes according to the rotation angle of the rotating polarizer 102. Therefore, the camera 101 can capture the P-polarized image and the S-polarized image alternately by imaging while rotating the rotating polarizer 102.

図3は、偏光カメラ10の他の構成例を示す説明図である。
この偏光カメラ10Bは、図3のように、CCD等の撮像素子を備えた2台のカメラ111,112を用い、それぞれの前面に、S偏光を透過するS偏光フィルタ113とP偏光を透過するP偏光フィルタ114とを配置したものである。図2に示した偏光カメラ10Aでは、1台のカメラ101でP偏光画像とS偏光画像とを交互に撮像するため、P偏光画像とS偏光画像とを同時に撮影することができなかったが、図3に示した偏光カメラ10Bでは、P偏光画像とS偏光画像とを同時に撮影することができる。
FIG. 3 is an explanatory diagram illustrating another configuration example of the polarization camera 10.
As shown in FIG. 3, the polarization camera 10B uses two cameras 111 and 112 each having an image sensor such as a CCD, and transmits an S-polarized light filter 113 that transmits S-polarized light and a P-polarized light to the respective front surfaces. A P-polarization filter 114 is disposed. In the polarization camera 10A shown in FIG. 2, since one camera 101 alternately captures P-polarized images and S-polarized images, the P-polarized image and S-polarized image could not be captured simultaneously. With the polarization camera 10B shown in FIG. 3, a P-polarized image and an S-polarized image can be taken simultaneously.

図4は、偏光カメラ10の更に他の構成例を示す説明図である。
この偏光カメラ10Cは、図4に示すように、撮像素子がP偏光画像とS偏光画像とについて個別に設けられている点では、図3に示した偏光カメラ10Bと同様であるが、各撮像素子が図3に示した偏光カメラ10Bの場合よりも近接配置されている点で大きく異なる。この偏光カメラ10Cによれば、図3に示した偏光カメラ10Bよりも小型化できる。図4に示す偏光カメラ10Cは、レンズアレイ122と、遮光スペーサ123と、偏光フィルタ124と、スペーサ125と、固体撮像ユニット126とが積層されて形成されている。レンズアレイ122は、2つの撮像レンズ122a,122bを有する。この2つの撮像レンズ122a,122bは、互いに独立した同一形状の例えば非球面レンズ等からなる単レンズで形成され、それぞれの光軸121a,121bが互いに平行となるように、かつ、同一平面上に配置している。遮光スペーサ123は、2つの開口部123a,123bを有し、レンズアレイ122に対して被写体側とは反対側に設けられている。2つの開口部123a,123bは、光軸121a,121bをそれぞれ中心として所定の大きさで貫通され、内壁面には黒塗りや粗面やつや消しなどにより光の反射防止処理がされている。偏光フィルタ124は、偏光面が90度異なる2つの偏光子領域124a,124bを有する領域分割型の偏光子フィルタであり、遮光スペーサ123に対してレンズアレイ122とは反対側に設けられている。この偏光子領域124a,124bは、不特定の方向に電磁界が振動する無偏光を、偏光面に沿った方向の振動成分(偏光成分)だけを透過させて直線偏光にする。なお、金属の微細凹凸形状で形成されたワイヤグリッド方式や、オートクローニング型のフォトニック結晶方式を用いることで、境界部が明瞭な領域分割型の偏光子フィルタを得ることができる。スペーサ125は、偏光フィルタ124の偏光子領域偏光a,偏光bに対応する領域が貫通した開口部125aを有する矩形枠状に形成され、偏光フィルタ124に対して遮光スペース123とは反対側に設けられている。固体撮像ユニット126は、基板127上に搭載された2つの固体撮像素子126a,126bを有し、スペーサ125に対して偏光フィルタ124とは反対側に設けられている。本実施形態では、モノクロのセンシングを行うため、これらの固体撮像素子126a,126bはカラーフィルタを備えていない。ただし、カラー画像のセンシングを行う場合には、カラーフィルタを配置する。
FIG. 4 is an explanatory diagram showing still another configuration example of the polarization camera 10.
As shown in FIG. 4, the polarization camera 10C is similar to the polarization camera 10B shown in FIG. 3 in that the imaging elements are individually provided for the P-polarized image and the S-polarized image. The elements are greatly different in that they are arranged closer than in the polarization camera 10B shown in FIG. According to this polarization camera 10C, it can be made smaller than the polarization camera 10B shown in FIG. The polarization camera 10C shown in FIG. 4 is formed by laminating a lens array 122, a light shielding spacer 123, a polarization filter 124, a spacer 125, and a solid-state imaging unit 126. The lens array 122 has two imaging lenses 122a and 122b. The two imaging lenses 122a and 122b are formed of a single lens made of, for example, an aspheric lens having the same shape independent from each other, and the optical axes 121a and 121b are parallel to each other and on the same plane. It is arranged. The light shielding spacer 123 has two openings 123a and 123b, and is provided on the side opposite to the subject side with respect to the lens array 122. The two openings 123a and 123b are penetrated with a predetermined size centering on the optical axes 121a and 121b, respectively, and the inner wall surface is subjected to light reflection prevention processing by blackening, roughening or matting. The polarizing filter 124 is a region-dividing type polarizer filter having two polarizer regions 124 a and 124 b whose polarization planes are different by 90 degrees, and is provided on the side opposite to the lens array 122 with respect to the light shielding spacer 123. The polarizer regions 124a and 124b transmit non-polarized light whose electromagnetic field vibrates in an unspecified direction to linearly polarized light by transmitting only the vibration component (polarized component) in the direction along the polarization plane. Note that a region-divided polarizer filter with a clear boundary can be obtained by using a wire grid method formed with a metal fine concavo-convex shape or an auto-cloning photonic crystal method. The spacer 125 is formed in a rectangular frame shape having an opening 125 a through which regions corresponding to the polarizer regions polarized light a and polarized light b of the polarizing filter 124 pass, and is provided on the side opposite to the light shielding space 123 with respect to the polarizing filter 124. It has been. The solid-state image pickup unit 126 has two solid-state image pickup devices 126 a and 126 b mounted on a substrate 127, and is provided on the side opposite to the polarization filter 124 with respect to the spacer 125. In the present embodiment, in order to perform monochrome sensing, these solid-state imaging devices 126a and 126b do not include a color filter. However, a color filter is arranged when sensing a color image.

図5は、偏光カメラ10の更に他の構成例を示す説明図である。
この偏光カメラ10Dは、図5に示すように、1:1の透過性を備えるハーフミラー131と、反射ミラー132と、S偏光フィルタ133と、P偏光フィルタ134と、S偏光フィルタ133を介してS偏光を受光するS偏光用CCD135と、P偏光フィルタ134を介してP偏光を受光するP偏光用CCD136とを有する。図3や図4に示した偏光カメラ10B,10Cでは、S偏光画像とP偏光画像の同時撮影は可能であるものの、視差が生じてしまう。これに対し、図5に示した偏光カメラ10Dでは、図示しない同一の撮像光学系(レンズ)を介して受光される同じ光を使ってS偏光画像とP偏光画像を同時撮影するため、視差が生じない。よって、視差ずれ補正などの処理が不要となる。
なお、ハーフミラー131に代えて、P偏光を反射し、かつ、S偏光を透過するプリズム等の偏光ビームスプリッタを用いてもよい。このような偏光ビームスプリッタを用いることで、S偏光フィルタ133やP偏光フィルタ134を省略することが可能となり、光学系の簡素化が図られるとともに、光利用効率も向上できる。
FIG. 5 is an explanatory diagram showing still another configuration example of the polarization camera 10.
As illustrated in FIG. 5, the polarization camera 10 </ b> D includes a half mirror 131 having 1: 1 transparency, a reflection mirror 132, an S polarization filter 133, a P polarization filter 134, and an S polarization filter 133. It has an S-polarized CCD 135 that receives S-polarized light and a P-polarized CCD 136 that receives P-polarized light via a P-polarized filter 134. In the polarization cameras 10B and 10C shown in FIGS. 3 and 4, although S-polarized images and P-polarized images can be captured simultaneously, parallax occurs. On the other hand, in the polarization camera 10D shown in FIG. 5, since the S-polarized image and the P-polarized image are simultaneously captured using the same light received through the same imaging optical system (lens) (not shown), the parallax is reduced. Does not occur. Therefore, processing such as parallax deviation correction is not necessary.
Instead of the half mirror 131, a polarizing beam splitter such as a prism that reflects P-polarized light and transmits S-polarized light may be used. By using such a polarization beam splitter, the S-polarization filter 133 and the P-polarization filter 134 can be omitted, the optical system can be simplified, and the light utilization efficiency can be improved.

図6は、偏光カメラ10の更に他の構成例を示す説明図である。
この偏光カメラ10Eは、図6に示すように、撮像レンズ142aの光軸141に沿ってカメラ構成要素が積層されたユニットである点では、図4に示した偏光カメラ10Cと同様であるが、S偏光画像とP偏光画像を単一の撮像レンズ(撮像レンズは光軸に複数枚積層配置してもよい。)142で撮像する点で異なっている。この偏光カメラ10Eによれば、図5に示した偏光カメラ10Dと同様に、S偏光画像とP偏光画像との間で視差が生じない。しかも、図5に示した偏光カメラ10Dよりも小型化できる。なお、図6に示した偏光カメラ10Eの偏光フィルタ144は、偏光面が90度異なる2種類の偏光子領域144a,144bが2つずつ設けられた領域分割型の偏光子フィルタとなっており、これに伴い、4つの固体撮像素子146a,146b,146c,146dが設けられている。
FIG. 6 is an explanatory diagram showing still another configuration example of the polarization camera 10.
This polarization camera 10E is the same as the polarization camera 10C shown in FIG. 4 in that it is a unit in which camera components are stacked along the optical axis 141 of the imaging lens 142a as shown in FIG. The difference is that an S-polarized image and a P-polarized image are captured by a single imaging lens 142 (a plurality of imaging lenses may be stacked on the optical axis) 142. According to this polarization camera 10E, no parallax occurs between the S-polarized image and the P-polarized image, as in the polarization camera 10D shown in FIG. Moreover, it can be made smaller than the polarizing camera 10D shown in FIG. The polarization filter 144 of the polarization camera 10E shown in FIG. 6 is a region-dividing polarizer filter in which two types of polarizer regions 144a and 144b having different polarization planes of 90 degrees are provided. Accordingly, four solid-state image sensors 146a, 146b, 146c, 146d are provided.

図7は、偏光カメラ10の更に他の構成例を示す説明図である。
この偏光カメラ10Fは、図7に示すように、領域分割型のフィルタを採用したものである。図7において、縦横に並ぶ正方形が各受光素子の受光部151を示し、縦線で示す領域がS偏光フィルタ152の領域を示し、横線で示す領域がP偏光フィルタ153の領域を示す。この偏光カメラ10Fは、受光素子の画素に1:1で対応させたものではなく、各フィルタ152,153の領域は、横方向に受光素子一個分の幅を持ち、領域の境界線の傾きは2、つまり横方向に1画素分進む間に縦方向に2画素分変化する角度を持つ斜めの帯の形状をとる。このような特殊なフィルタ配置パターンと信号処理を組み合わせることによって、撮像素子配列と領域分割フィルタを接合する際の位置合せの精度が十分でなくとも、画面全体で各フィルタ透過画像を再現することを可能とし、S偏光画像及びP偏光画像を撮像できる低コストな偏光カメラを実現できる。
FIG. 7 is an explanatory diagram showing still another configuration example of the polarization camera 10.
As shown in FIG. 7, the polarization camera 10F employs a region division type filter. In FIG. 7, squares arranged vertically and horizontally indicate the light receiving portions 151 of the respective light receiving elements, a region indicated by a vertical line indicates a region of the S polarization filter 152, and a region indicated by a horizontal line indicates the region of the P polarization filter 153. This polarization camera 10F is not made to correspond to the pixels of the light receiving element 1: 1, but the area of each filter 152, 153 has a width corresponding to one light receiving element in the horizontal direction, and the inclination of the boundary line of the area is 2. That is, it takes the shape of an oblique band having an angle that changes by two pixels in the vertical direction while proceeding by one pixel in the horizontal direction. By combining such a special filter arrangement pattern and signal processing, it is possible to reproduce each filter transmission image on the entire screen even if the alignment accuracy when joining the image sensor array and the area division filter is not sufficient. It is possible to realize a low-cost polarization camera that can capture an S-polarized image and a P-polarized image.

モノクロ画像処理部13は、水平偏光画像メモリ11及び垂直偏光画像メモリ12内のP偏光強度データ及びS偏光強度データから、画素ごとのモノクロ輝度(当該画素のP偏光強度+S偏光強度)を算出する。このモノクロ輝度データを用いてモノクロ画像が生成できる。モノクロ画像処理部13が算出したモノクロ輝度データは、ライン検出手段としての白線識別部14と立体物識別処理手段としての立体物識別部18とに出力される。
差分偏光度画像処理部15は、水平偏光画像メモリ11及び垂直偏光画像メモリ12内のP偏光強度データ及びS偏光強度データから、画素ごとに差分偏光度(識別指標値)を算出する。この差分偏光度を用いて差分偏光度画像が生成できる。差分偏光度は、下記の式(1)に示す計算式から求められる。すなわち、差分偏光度は、P偏光強度とS偏光強度との合計値(輝度合計値)に対するP偏光強度とS偏光強度との差分値(輝度差分値)の比率である。また、差分偏光度は、輝度合計値に対するP偏向強度の比率(P偏光比)と、輝度合計値に対するS偏向強度の比率(S偏光比)との差分値であると言い換えることもできる。なお、本実施形態では、P偏光強度からS偏光強度を差し引く場合について説明するが、S偏光強度からP偏光強度を差し引くようにしてもよい。差分偏光度画像処理部15が算出した差分偏光度のデータは、路面構造物識別部16及び立体物識別部18に出力される。
差分偏光度=(P偏光強度−S偏光強度)/(P偏光強度+S偏光強度) ・・(1)
The monochrome image processing unit 13 calculates the monochrome luminance (P polarization intensity + S polarization intensity of the pixel) for each pixel from the P polarization intensity data and the S polarization intensity data in the horizontal polarization image memory 11 and the vertical polarization image memory 12. . A monochrome image can be generated using the monochrome luminance data. The monochrome luminance data calculated by the monochrome image processing unit 13 is output to a white line identification unit 14 as a line detection unit and a three-dimensional object identification unit 18 as a three-dimensional object identification processing unit.
The differential polarization degree image processing unit 15 calculates the differential polarization degree (identification index value) for each pixel from the P polarization intensity data and the S polarization intensity data in the horizontal polarization image memory 11 and the vertical polarization image memory 12. A differential polarization degree image can be generated using the differential polarization degree. The differential polarization degree is obtained from the calculation formula shown in the following formula (1). That is, the differential polarization degree is the ratio of the difference value (luminance difference value) between the P polarization intensity and the S polarization intensity to the total value (luminance total value) of the P polarization intensity and the S polarization intensity. The differential polarization degree can be paraphrased as a difference value between the ratio of the P deflection intensity to the total luminance value (P polarization ratio) and the ratio of the S deflection intensity to the total luminance value (S polarization ratio). In this embodiment, the case where the S polarization intensity is subtracted from the P polarization intensity will be described. However, the P polarization intensity may be subtracted from the S polarization intensity. The differential polarization degree data calculated by the differential polarization degree image processing unit 15 is output to the road surface structure identification unit 16 and the three-dimensional object identification unit 18.
Differential polarization degree = (P polarization intensity−S polarization intensity) / (P polarization intensity + S polarization intensity) (1)

白線識別部14は、モノクロ画像処理部13により算出されたモノクロ輝度データに基づき、以下の方法により走行路面上の白線を識別するものである。なお、ここでいう白線には、黄色線等の任意の色の線、実線、破線、点線、二重線等の道路を区画するあらゆる線を含んでよい。
通常の道路の車線(区画線)は、運転者が視認しやすいように、アスファルト等の黒い部分に対し、コントラストの高い色(白等)で形成されている。したがって、このような車線(ここでは白線とする。)の輝度は、その他の場所に存在するアスファルト等の物体よりも十分に大きい。よって、モノクロ輝度データが所定の閾値以上の部分を白線と判定することができる。なお、本実施形態で用いるモノクロ輝度データは、上述した偏光カメラ10により得たP偏光強度とS偏光強度の合計値を用いている。
The white line identification unit 14 identifies a white line on the traveling road surface by the following method based on the monochrome luminance data calculated by the monochrome image processing unit 13. The white line referred to here may include any line that divides the road, such as a line of an arbitrary color such as a yellow line, a solid line, a broken line, a dotted line, and a double line.
A normal road lane (division line) is formed in a high-contrast color (white or the like) with respect to a black portion such as asphalt so that the driver can easily see. Therefore, the luminance of such a lane (here, a white line) is sufficiently higher than that of an object such as asphalt existing elsewhere. Therefore, it is possible to determine a portion where the monochrome luminance data is equal to or greater than the predetermined threshold as a white line. Note that the monochrome luminance data used in the present embodiment uses the total value of the P-polarized light intensity and the S-polarized light intensity obtained by the polarization camera 10 described above.

本実施形態における白線識別処理の流れとしては、まず、上述した偏光カメラ10により得た各画素のP偏光強度とS偏光強度の合計値を、モノクロ画像処理部13にて各画素のモノクロ輝度として算出する。白線識別部14は、このモノクロ輝度により得られるモノクロ画像に対し、複数の処理ラインを設定する。本実施形態の処理ラインは、差分偏光度画像内の横1列に並んだ画素列ごとに設定される。処理ラインの方向は、必ずしも横方向である必要はなく、縦方向又は斜め方向であってもよい。また、各処理ラインの画素数は、互いに同じであっても異なってもよい。また、処理ラインは、必ずしも、差分偏光度画像内の全画素に対して設定される必要はなく、差分偏光度画像内の適切に選択された一部の画素について設定するようにしてもよい。また、後述するように、処理ラインではなく、処理ブロック(縦横それぞれ2画素以上からなるブロック)単位で行ってもよい。白線識別部14は、各処理ラインについて、隣接する2つの画素間におけるモノクロ輝度の差を算出し、その算出結果が所定の白線エッジ閾値以上であるか否かを判断する。この判断で白線エッジ閾値以上であると判断された場合、その判断に係る2つの隣接画素間を白線エッジとして記憶する。これを全処理ラインについて行うことで、モノクロ画像内における白線エッジを抽出することができる。   As a flow of white line identification processing in the present embodiment, first, the monochrome image processing unit 13 uses the total value of the P-polarized light intensity and S-polarized light intensity of each pixel obtained by the polarization camera 10 as the monochrome luminance of each pixel. calculate. The white line identification unit 14 sets a plurality of processing lines for the monochrome image obtained by the monochrome luminance. The processing line of this embodiment is set for each pixel column arranged in one horizontal row in the differential polarization degree image. The direction of the processing line is not necessarily the horizontal direction, and may be the vertical direction or the oblique direction. In addition, the number of pixels in each processing line may be the same or different. Further, the processing line is not necessarily set for all the pixels in the differential polarization degree image, and may be set for a part of appropriately selected pixels in the differential polarization degree image. Further, as will be described later, the processing may be performed in units of processing blocks (blocks each consisting of two or more pixels in the vertical and horizontal directions) instead of the processing line. The white line identification unit 14 calculates a monochrome luminance difference between two adjacent pixels for each processing line, and determines whether the calculation result is equal to or greater than a predetermined white line edge threshold. If it is determined by this determination that the threshold is equal to or greater than the white line edge threshold value, the two adjacent pixels related to the determination are stored as a white line edge. By performing this for all the processing lines, it is possible to extract the white line edge in the monochrome image.

白線識別部14により白線エッジを識別した結果は、様々な処理に利用することが可能である。
例えば、CRTや液晶等で構成される車内の情報報知手段である表示部(ディスプレイ)に、モノクロ画像処理部で算出した輝度データを用いて生成されるモノクロ画像(フロントビュー画像)を表示し、その画像中の白線部分の情報を、運転者にとって有益な情報として報知するために、運転者が見やすい表示形態で表示する処理が挙げられる。これによれば、例えば、運転者が目視で白線を認識することが困難な状況下であっても、運転者は表示部のフロントビュー画像を見ることで、自車と白線との相対位置関係を把握することができ、白線で区画される走行レーンを維持して走行させることが容易になる。
また、例えば、白線識別部14により認識された白線の位置情報から、自車と白線との相対位置関係を把握する処理を行い、自車が白線で区画される走行レーン上の適正走行位置から外れて走行していないかどうかを判断し、適正走行位置から外れて走行しているときに警報音等を発する処理が挙げられる。あるいは、適正走行位置から外れて走行しているときに、自動ブレーキ機能を実行して、自車の走行速度を落とすような処理も挙げられる。
The result of identifying the white line edge by the white line identifying unit 14 can be used for various processes.
For example, a monochrome image (front view image) generated by using the luminance data calculated by the monochrome image processing unit is displayed on a display unit (display) which is an in-vehicle information notification unit composed of a CRT, a liquid crystal or the like, In order to notify the information of the white line portion in the image as information useful for the driver, there is a process of displaying the information in a display form easy for the driver to see. According to this, for example, even in a situation where it is difficult for the driver to visually recognize the white line, the driver can see the front view image of the display unit, and thereby the relative positional relationship between the vehicle and the white line. It is easy to keep track of the driving lanes demarcated by the white line.
In addition, for example, from the position information of the white line recognized by the white line identification unit 14, a process of grasping the relative positional relationship between the own vehicle and the white line is performed, and the own vehicle is determined from the appropriate travel position on the travel lane partitioned by the white line. A process for determining whether or not the vehicle is running off and generating an alarm sound or the like when the vehicle is running out of the proper running position can be given. Alternatively, there is a process in which the automatic braking function is executed to reduce the traveling speed of the host vehicle when traveling out of the proper traveling position.

路面構造物識別部16は、差分偏光度画像処理部15により算出された差分偏光度に基づき、後述する方法にて走行路面上に存在する構造物(以下。「路面構造物」という。)を識別するものである。路面構造物識別部16は、その認識結果を路面構造物特定部17と白線識別部14に出力する。路面構造物としては、マンホールの蓋、高速道路や陸橋などの道路に存在する道路連結部などの金属物、走行レーンを区分する区間線を形成するボッツドッツやキャッツアイなどの金属物と反射板等から構成される複合物が挙げられる。また、ここではコールタールのような意図的に作られたものではない路面の一部を覆う異物も含むものとする。路面構造物識別部16では、外面が路面と略同一面内に位置する平面物体を路面構造物として識別するが、その路面構造物が、マンホールの蓋なのか、道路連結部なのか、ボッツドッツやキャッツアイなのかについては、路面構造物特定部17で特定する。   Based on the differential polarization degree calculated by the differential polarization degree image processing unit 15, the road surface structure identification unit 16 refers to a structure (hereinafter referred to as “road surface structure”) present on the traveling road surface by a method described later. To identify. The road surface structure identifying unit 16 outputs the recognition result to the road surface structure identifying unit 17 and the white line identifying unit 14. Road surface structures include manhole covers, metal objects such as road connections on roads such as highways and overpasses, metal objects such as bots dots and cats eyes that form section lines that divide traveling lanes, reflectors, etc. A composite composed of: In addition, here, it is assumed to include a foreign substance that covers a part of the road surface that is not intentionally made, such as coal tar. The road surface structure identification unit 16 identifies a planar object whose outer surface is located substantially in the same plane as the road surface as a road surface structure. Whether the road surface structure is a manhole cover, a road connection unit, The road surface structure specifying unit 17 specifies whether it is a cat's eye.

なお、路面構造物識別部16は、上述した白線識別部14による白線エッジの識別結果に基づいて差分偏光度画像から白線を除去し、白線が除去された差分偏光度画像に対して路面構造物識別処理を行ってもよい。この場合、白線を含むノイズを適切に除去して、路面構造物の識別精度を高めることができる。   The road surface structure identification unit 16 removes the white line from the differential polarization degree image based on the white line edge identification result by the white line identification unit 14 described above, and the road surface structure object with respect to the differential polarization degree image from which the white line has been removed. An identification process may be performed. In this case, noise including a white line can be appropriately removed, and the road surface structure identification accuracy can be improved.

ここでいうマンホールの蓋とは、マンホールの開口部に嵌められた金属板を指し、一般には強固かつ重量のある鋳鉄製のものである。
また、ボッツドッツBは、主として北米で区間線として用いられる例えばセラミック製のものである。ボッツドッツBは、図8(b)に示すように直径100mm程度の円形ドーム状の物体を路面に埋め込んだものであり、これを図8(a)に示すように路上の走行レーンに沿って多数配置することで、区間線として用いられる。
また、キャッツアイCは、区間線として用いられるもので、図9(b)に示すように、略矩形状の本体内部に、入射光を同一の方向に反射する特性を有する反射体Dが取り付けられたものである。キャッツアイCは、図8(a)に示すように、路上の走行レーンに沿って多数配置されることで、区間線として用いられる。
なお、ボッツドッツ及びキャッツアイは、いずれも路面から僅かに突出した状態で配設される。
The manhole cover here refers to a metal plate fitted in the opening of the manhole, and is generally made of cast iron that is strong and heavy.
Botsdots B is made of ceramic, for example, which is mainly used as a section line in North America. As shown in FIG. 8 (b), the botsdots B is obtained by embedding a circular dome-shaped object having a diameter of about 100 mm in the road surface. As shown in FIG. By arranging, it is used as a section line.
The cat's eye C is used as a section line. As shown in FIG. 9B, a reflector D having a characteristic of reflecting incident light in the same direction is attached inside a substantially rectangular body. It is what was done. As shown in FIG. 8A, the cat's eyes C are used as section lines by being arranged in large numbers along the traveling lane on the road.
Both the botsdots and the cat's eyes are arranged in a state of slightly protruding from the road surface.

立体物識別部18は、差分偏光度画像処理部15により算出された差分偏光度と後述する基準差分偏光度との差分値である差分偏光度差分値と、モノクロ画像処理部13により算出されたモノクロ輝度とに基づき、後述する方法にて偏光カメラ10の撮像領域内に存在する立体物を識別するものである。このような立体物としては、走行路面上を走行する他の車両、走行路面の路端近傍に存在する側壁、ガードレール、電信柱、街灯、標識、路端の段差部等の路外障害物、走行路面上又は路肩に居る人、動物、自転車等の衝突回避物など、走行路面とは異なる方向を向いた外面を有するあらゆる立体物が含まれる。立体物識別部18は、その認識結果を立体物特定部19に出力する。立体物識別部18では、このような立体物を、路面、及び、外面が路面と略同一面内に存在する平面物体と区別して認識するが、その立体物が、他の車両なのか、路外障害物なのか、衝突回避物なのかについては、立体物特定部19で特定する。   The three-dimensional object identifying unit 18 is calculated by the differential polarization degree difference value, which is a difference value between the differential polarization degree calculated by the differential polarization degree image processing unit 15 and a reference differential polarization degree described later, and the monochrome image processing unit 13. Based on the monochrome luminance, a solid object existing in the imaging region of the polarizing camera 10 is identified by a method described later. As such a three-dimensional object, other vehicles traveling on the road surface, side walls existing near the road edge of the road surface, guardrails, telephone poles, street lights, signs, roadside obstacles such as stepped portions, Any solid object having an outer surface facing in a direction different from the traveling road surface is included, such as a collision avoidance object such as a person, an animal, or a bicycle on the traveling road surface or on the shoulder. The three-dimensional object identification unit 18 outputs the recognition result to the three-dimensional object identification unit 19. The three-dimensional object identification unit 18 recognizes such a three-dimensional object by distinguishing it from a road object and a plane object having an outer surface substantially in the same plane as the road surface. The three-dimensional object specifying unit 19 specifies whether the object is an external obstacle or a collision avoidance object.

形状情報記憶手段としての形状記憶部20には、路面構造物特定部17及び立体物特定部19で用いる形状情報としての各種形状テンプレートのデータが記憶されている。形状記憶部20に記憶される形状テンプレートは、路面構造物特定部17及び立体物特定部19で特定する対象物(特定物体)を、偏光カメラ10により撮像したときの形状(撮像画像中における特定物体の形状)を示すものである。例えば、マンホールの蓋(円形)の形状テンプレートは、偏光カメラ10が路面上のマンホール蓋を斜め上方から撮影するため、楕円形状を示すものとなる。なお、形状テンプレートは、サイズ情報が含まれていてもよい。本実施形態において、路面構造物特定部17で用いることが可能な形状テンプレートとしては、例えば、マンホールの蓋を特定するための形状テンプレート、ボッツドッツ又はキャッツアイからなる区間線を特定するための形状テンプレート、高速道路や陸橋などの道路に存在する道路連結部を特定するための形状テンプレートが挙げられる。また、立体物特定部19で用いることが可能な形状テンプレートとしては、例えば、他の車両を特定するための形状テンプレート、電信柱や街灯を特定するための形状テンプレート、路端の段差部を特定するための形状テンプレートが挙げられる。もちろん、ここに例示した以外のものでも、その形状から物体の特定が可能な物体であれば、その物体を特定するためのテンプレートを用意してもよい。   Data of various shape templates as shape information used in the road surface structure specifying unit 17 and the three-dimensional object specifying unit 19 are stored in the shape storage unit 20 as the shape information storage unit. The shape template stored in the shape storage unit 20 is a shape (specification in a picked-up image) when an object (specific object) specified by the road surface structure specifying unit 17 and the three-dimensional object specifying unit 19 is imaged by the polarization camera 10. The shape of the object). For example, the shape template of the manhole cover (circular) shows an elliptical shape because the polarizing camera 10 photographs the manhole cover on the road surface from obliquely above. The shape template may include size information. In this embodiment, as a shape template that can be used in the road surface structure specifying unit 17, for example, a shape template for specifying a manhole cover, a shape template for specifying a section line made up of botsdots or cat's eyes And a shape template for identifying a road connecting portion existing on a road such as an expressway or a crossover. In addition, as a shape template that can be used by the three-dimensional object specifying unit 19, for example, a shape template for specifying another vehicle, a shape template for specifying a telephone pole or a streetlight, and a stepped portion on a road edge are specified. The shape template for doing is mentioned. Of course, a template for identifying an object other than those exemplified here may be prepared as long as the object can be identified from its shape.

路面構造物特定部17は、路面構造物識別部16の識別結果に基づき、路面構造物として識別された画像領域の形状を、形状記憶部20に記憶されている形状テンプレートと照らし合わせ、その路面構造物が、マンホールの蓋なのか、道路連結部なのか、ボッツドッツ又はキャッツアイからなる区間線なのか、それともこれら以外の路面構造物なのかを、後述する方法にて特定する。   The road surface structure specifying unit 17 compares the shape of the image area identified as the road surface structure with the shape template stored in the shape storage unit 20 based on the identification result of the road surface structure identification unit 16, and the road surface Whether the structure is a manhole cover, a road connecting portion, a section line made up of botts or cats eyes, or a road surface structure other than these is specified by a method described later.

立体物特定部19は、立体物識別部18の識別結果に基づき、立体物として識別された画像領域の形状を、形状記憶部20に記憶されている形状テンプレートと照らし合わせ、その立体物が、他の車両なのか、路外障害物なのか、衝突回避物なのか、それともこれら以外の立体物なのかを、後述する方法にて特定する。   The three-dimensional object specifying unit 19 compares the shape of the image area identified as the three-dimensional object with the shape template stored in the shape storage unit 20 based on the identification result of the three-dimensional object identification unit 18, and the three-dimensional object is Whether it is another vehicle, an off-road obstacle, a collision avoidance object, or a three-dimensional object other than these is specified by a method described later.

次に、本実施形態に係る運転者支援システムにおいて路面構造物を特定する路面構造物特定処理の流れについて説明する。
図10は、路面構造物特定処理の流れを示すフローチャートである。
偏光カメラ10により偏光RAW画像データを取得したら、その偏光RAW画像データに含まれるP偏光強度データから得られる水平偏光画像データを水平偏光画像メモリ11に格納するとともに、その偏光RAW画像データに含まれるS偏光強度データから得られる垂直偏光画像データを垂直偏光画像メモリ12に格納する(S1)。その後、差分偏光度画像処理部15は、水平偏光画像メモリ11及び垂直偏光画像メモリ12内のP偏光強度データ及びS偏光強度データから、画素ごとに、上記式(1)に示す計算式より、差分偏光度(識別指標値)を算出する(S2)。この算出結果から得られる差分偏光度画像のデータは、差分偏光度画像処理部15内の図示しない画像メモリに格納される。
Next, the flow of the road surface structure specifying process for specifying the road surface structure in the driver assistance system according to the present embodiment will be described.
FIG. 10 is a flowchart showing the flow of the road surface structure specifying process.
When polarized RAW image data is acquired by the polarization camera 10, the horizontally polarized image data obtained from the P polarization intensity data included in the polarized RAW image data is stored in the horizontally polarized image memory 11 and included in the polarized RAW image data. The vertically polarized image data obtained from the S polarization intensity data is stored in the vertically polarized image memory 12 (S1). Thereafter, the differential polarization degree image processing unit 15 calculates, from the P-polarization intensity data and the S-polarization intensity data in the horizontal polarization image memory 11 and the vertical polarization image memory 12, for each pixel, from the calculation formula shown in the above formula (1). A differential polarization degree (identification index value) is calculated (S2). Data of the differential polarization degree image obtained from the calculation result is stored in an image memory (not shown) in the differential polarization degree image processing unit 15.

次に、エッジ判別処理について説明する。
差分偏光度画像を得た差分偏光度画像処理部15は、その差分偏光度画像に対して複数の処理ラインを設定する。本実施形態の処理ラインは、差分偏光度画像内の横1列に並んだ画素列ごとに設定される。処理ラインの方向は、必ずしも横方向である必要はなく、縦方向又は斜め方向であってもよい。また、各処理ラインの画素数は、互いに同じであっても異なってもよい。また、処理ラインは、必ずしも、差分偏光度画像内の全画素に対して設定される必要はなく、差分偏光度画像内の適切に選択された一部の画素について設定するようにしてもよい。
Next, the edge determination process will be described.
The differential polarization degree image processing unit 15 that has obtained the differential polarization degree image sets a plurality of processing lines for the differential polarization degree image. The processing line of this embodiment is set for each pixel column arranged in one horizontal row in the differential polarization degree image. The direction of the processing line is not necessarily the horizontal direction, and may be the vertical direction or the oblique direction. In addition, the number of pixels in each processing line may be the same or different. Further, the processing line is not necessarily set for all the pixels in the differential polarization degree image, and may be set for a part of appropriately selected pixels in the differential polarization degree image.

また、処理ラインではなく、処理ブロック(縦横それぞれ2画素以上からなるブロック)単位で行ってもよい。この場合、例えば、後述するエッジ判別処理において、差分偏光度画像に対して複数の処理ブロックを設定し、処理ブロックごとに、差分偏光度のばらつき度合い(散らばり度合い)を示す標準偏差を算出し、算出した標準偏差が基準偏差閾値以上である場合にその処理ブロック内にエッジが存在すると判定することができる。なお、処理ブロックは、矩形の区域で設定されてもよいし、他の形状の区域で設定されてもよい。処理ブロックの大きさは、例えば10×10画素程度であってよい。なお、各処理ブロックは、同じサイズであっても、異なるサイズであってもよい。また、標準偏差に代えて、分散や平均偏差等の統計量が用いられてもよい。   Further, the processing may be performed in units of processing blocks (blocks each composed of two or more pixels in the vertical and horizontal directions) instead of the processing line. In this case, for example, in an edge determination process described later, a plurality of processing blocks are set for the differential polarization degree image, and a standard deviation indicating a variation degree (scattering degree) of the differential polarization degree is calculated for each processing block. When the calculated standard deviation is equal to or greater than the reference deviation threshold, it can be determined that an edge exists in the processing block. Note that the processing block may be set in a rectangular area, or may be set in an area having another shape. The size of the processing block may be about 10 × 10 pixels, for example. Each processing block may be the same size or a different size. Further, instead of the standard deviation, a statistic such as variance or average deviation may be used.

差分偏光度画像処理部15は、各処理ラインについて、隣接する2つの画素間における差分偏光度の差を算出し、その算出結果が所定のエッジ閾値以上であるか否かを判断する(S3)。この判断でエッジ閾値以上であると判断された場合、その判断に係る2つの隣接画素間をエッジとして記憶する(S4)。これを全処理ラインについて行うことで(S5)、差分偏光度画像内における互いに異なる物体の境界線を特定することができる。   The differential polarization degree image processing unit 15 calculates the difference in differential polarization degree between two adjacent pixels for each processing line, and determines whether or not the calculation result is equal to or greater than a predetermined edge threshold (S3). . If it is determined in this determination that the threshold value is equal to or greater than the edge threshold value, the two adjacent pixels related to the determination are stored as an edge (S4). By performing this for all the processing lines (S5), it is possible to specify the boundary lines of different objects in the differential polarization degree image.

ここで、従来のエッジ判別処理では、各処理ラインについて、隣接する各画素のモノクロ輝度の差を算出し、その算出結果が所定のエッジ閾値以上であるか否かを判断する場合が多い。しかしながら、この従来のエッジ判別処理では、例えばマンホールの蓋とアスファルトのようにカメラで受光される反射光の強度(モノクロ輝度)が同程度の異種物体間については、そのエッジを判別することができなかった。これに対し、本実施形態におけるエッジ判別処理では、モノクロ輝度ではなく差分偏光度を用いてエッジ判別を行うため、反射光の強度が同程度の異種物体間のエッジを高精度に判別することができる。以下、この点について説明する。   Here, in the conventional edge determination processing, for each processing line, a difference in monochrome luminance between adjacent pixels is calculated, and it is often determined whether or not the calculation result is equal to or greater than a predetermined edge threshold value. However, in this conventional edge discrimination process, for example, the edge can be discriminated between dissimilar objects with similar intensities of reflected light (monochrome luminance) received by the camera, such as manhole covers and asphalt. There wasn't. On the other hand, in the edge discrimination processing in the present embodiment, the edge discrimination is performed using the differential polarization degree instead of the monochrome luminance, so that it is possible to accurately discriminate edges between different kinds of objects having the same reflected light intensity. it can. Hereinafter, this point will be described.

図11は、偏光カメラ10にて取得した偏光RAW画像データからモノクロ画像処理部13にて生成されたモノクロ画像(輝度画像)の一例を示す説明図である。
図12は、同偏光RAW画像データから差分偏光度画像処理部15にて生成された差分偏光度画像を示す説明図である。
図13は、図11中の白色破線矢印に沿って得られる輝度値をプロットしたグラフである。
図14は、図12中の白色破線矢印に沿って得られる差分偏光度をプロットしたグラフである。
FIG. 11 is an explanatory diagram showing an example of a monochrome image (luminance image) generated by the monochrome image processing unit 13 from the polarized RAW image data acquired by the polarization camera 10.
FIG. 12 is an explanatory diagram showing a differential polarization degree image generated by the differential polarization degree image processing unit 15 from the same polarized RAW image data.
FIG. 13 is a graph in which the luminance values obtained along the white dashed arrows in FIG. 11 are plotted.
FIG. 14 is a graph in which the degree of differential polarization obtained along the white dashed arrow in FIG. 12 is plotted.

図13に示すグラフからわかるように、輝度値については、アスファルトの領域もマンホール蓋の領域もほぼ同じ値(−0.4以上−0.5以下の範囲)を示し、これらの領域間において輝度値に変化が見られない。これに対し、図14に示すグラフからわかるように、差分偏光度については、アスファルトの領域では約ゼロであるのに対し、マンホール蓋の領域では約−0.3であり、これらの領域間で差分偏光度に大きな変化が見られる。したがって、0〜−0.3の間の適切な閾値(例えば−0.2)を設定することで、差分偏光度の違いにより、モノクロ輝度では判別が困難であったアスファルトの領域とマンホール蓋の領域とのエッジを高い精度で判別することができる。
なお、本実施形態における物体識別において、差分偏光度ではなく、差分偏光度差分値を用いている理由については後述する。
As can be seen from the graph shown in FIG. 13, as for the luminance value, both the asphalt area and the manhole cover area show almost the same value (range of −0.4 or more and −0.5 or less). No change in value. On the other hand, as can be seen from the graph shown in FIG. 14, the degree of differential polarization is about zero in the asphalt area, and is about −0.3 in the manhole cover area. A large change is seen in the differential polarization degree. Therefore, by setting an appropriate threshold value (for example, -0.2) between 0 and -0.3, the asphalt area and the manhole cover, which are difficult to discriminate with monochrome luminance due to the difference in the degree of differential polarization, are set. The edge with the region can be discriminated with high accuracy.
The reason for using the differential polarization degree difference value instead of the differential polarization degree in the object identification in the present embodiment will be described later.

次に、路面構造物識別部16が行う路面構造物識別処理について説明する。
路面構造物識別処理を説明するにあたり、まず、差分偏光度から路面構造物を識別可能である理由について説明する。
物体で反射した反射光には、いわゆる「てかり」である鏡面反射成分、物体表面の微細な凹凸構造であるマットな反射成分である拡散反射成分、物体内部で散乱して出てきた内部散乱成分が含まれている。反射光の強度は、これら3つの成分の和として表現される。なお、鏡面反射成分は、拡散反射成分の一部という考え方もできる。拡散反射成分と内部散乱成分は、物体を照射する光源がいずれの方向に存在しても観測されるが(すなわち、入射角の依存性が低い。)、鏡面反射成分は、反射光の受光部に対してほぼ正反射方向に光源が存在する場合にのみ観測される入射角依存性の強い成分である。これは、偏光特性に関しても成り立つ。拡散反射成分と内部散乱成分は、上述したように、物体を照射する光源がいずれの方向に存在しても観測されるのであるが、その偏光特性は互いに異なっている。具体的には、拡散反射成分は、物体表面を微小領域に分け、それぞれの領域ではフレネルの反射特性を満足するものと想定できるため、無偏光の光が入射した場合にはS偏光成分がP偏光成分に比べて大きいという偏光特性がある。これに対し、内部散乱成分は、物体内部で散乱されて出てきた成分であるため、無偏光の光が入射した場合は、物体へ入射した光の偏光成分に影響されにくく、物体内部から外部に出てくる際にP偏光成分が強くなるという偏光特性がある。
Next, the road surface structure identification process performed by the road surface structure identification unit 16 will be described.
In describing the road surface structure identification process, first, the reason why the road surface structure can be identified from the differential polarization degree will be described.
Reflected light reflected from an object includes a specular reflection component that is a so-called “light”, a diffuse reflection component that is a matte reflection component that is a fine uneven structure on the surface of the object, and internal scattering that is scattered inside the object. Contains ingredients. The intensity of the reflected light is expressed as the sum of these three components. The specular reflection component can also be considered as a part of the diffuse reflection component. Although the diffuse reflection component and the internal scattering component are observed regardless of the direction of the light source that irradiates the object (that is, the dependency on the incident angle is low), the specular reflection component is the light receiving unit for the reflected light. On the other hand, it is a component having a strong incident angle dependency that is observed only when a light source is present in a substantially regular reflection direction. This is also true for polarization characteristics. As described above, the diffuse reflection component and the internal scattering component are observed regardless of the direction of the light source that irradiates the object, but their polarization characteristics are different from each other. Specifically, the diffuse reflection component can be assumed to divide the object surface into minute regions and satisfy the Fresnel reflection characteristics in each region. Therefore, when non-polarized light is incident, the S-polarized component is P There is a polarization property that is larger than the polarization component. On the other hand, the internal scattering component is a component that is scattered inside the object, so when non-polarized light is incident, it is less affected by the polarization component of the light incident on the object, There is a polarization characteristic that the P-polarized light component becomes stronger when it comes out.

そして、本実施形態のように、自車からのフロントビューを撮影する際にその撮影領域内に存在し得る物体(アスファルトやマンホールの蓋等)は、そのほとんどが表面に少なからず凹凸がある物体であるため、鏡面反射成分は少ないものと考えることができる。その結果、本実施形態では、偏光カメラ10の撮像領域内に存在する物体からの反射光は、拡散反射成分及び内部散乱成分が支配的であると考えることができる。この結果、反射光中のS偏光成分及びP偏光成分の強さを比較することにより、S偏光成分が強ければ反射光には拡散反射成分が多く含まれていることが把握でき、P偏光成分が強ければ反射光には内部散乱成分が多く含まれていることが把握できる。   And, as in this embodiment, most of the objects (such as asphalt and manhole cover) that can exist in the shooting area when shooting the front view from the host vehicle are not a little uneven on the surface. Therefore, it can be considered that the specular reflection component is small. As a result, in the present embodiment, it can be considered that the diffuse reflection component and the internal scattering component are dominant in the reflected light from the object existing in the imaging region of the polarization camera 10. As a result, by comparing the intensity of the S-polarized component and the P-polarized component in the reflected light, it can be understood that if the S-polarized component is strong, the reflected light contains a large amount of diffusely reflected component. If is strong, it can be understood that the reflected light contains many internal scattering components.

図15は、実験室において、アスファルト面と金属表面(平滑な面)に対し、光源位置を変化させて固定配置されたカメラでP偏光画像とS偏光画像を撮影したときの差分偏光度の変化の一例を示すグラフである。
このグラフは、横軸に入射角度(光源位置)をとり、縦軸に差分偏光度をとったものである。カメラ仰角は水平から10度傾けた状態である。この差分偏光度は、各入射角度の撮影画像についての略中央部の輝度情報から算出したものである。このブラフにおける差分偏光度は、P偏光成分(Rp)とS偏光成分(Rs)の合計値に対する、P偏光成分からS偏光成分を差し引いた値の比率である。よって、S偏光成分よりもP偏光成分の方が強い場合には、差分偏光度は正の値をとり、P偏光成分よりもS偏光成分の方が強い場合には、差分偏光度は負の値をとることになる。
FIG. 15 shows a change in the degree of differential polarization when a P-polarized image and an S-polarized image are taken with a camera that is fixedly arranged by changing the light source position with respect to an asphalt surface and a metal surface (smooth surface) in the laboratory. It is a graph which shows an example.
In this graph, the horizontal axis represents the incident angle (light source position), and the vertical axis represents the differential polarization degree. The camera elevation angle is tilted 10 degrees from the horizontal. This differential polarization degree is calculated from luminance information at a substantially central portion of the captured image at each incident angle. The difference polarization degree in this bluff is a ratio of a value obtained by subtracting the S polarization component from the P polarization component with respect to the total value of the P polarization component (Rp) and the S polarization component (Rs). Therefore, when the P polarization component is stronger than the S polarization component, the differential polarization degree takes a positive value, and when the S polarization component is stronger than the P polarization component, the differential polarization degree is negative. Will take the value.

図15に示すグラフからわかるように、アスファルト面については、入射角のほぼ全域にわたって、差分偏光度が負の値をとっている。すなわち、P偏光成分よりもS偏光成分の方が強いことを示している。これは、アスファルト面からの反射光は拡散反射成分が支配的であるためである。一方、金属面については、入射角が30°を超えた領域全体にわたって、差分偏光度が正の値をとっている。すなわち、S偏光成分よりもP偏光成分の方が強いことを示している。これは、金属面からの反射光は内部散乱成分が支配的であるためである。   As can be seen from the graph shown in FIG. 15, regarding the asphalt surface, the differential polarization degree takes a negative value over almost the entire incident angle. That is, the S polarization component is stronger than the P polarization component. This is because the diffuse reflection component is dominant in the reflected light from the asphalt surface. On the other hand, regarding the metal surface, the differential polarization degree has a positive value over the entire region where the incident angle exceeds 30 °. That is, the P-polarized component is stronger than the S-polarized component. This is because the internal scattering component is dominant in the reflected light from the metal surface.

以上のように、反射光に含まれるS偏光成分とP偏光成分の差をとることで、その物体の反射特性について、拡散反射成分が強いのか、それとも内部散乱成分が強いのかを把握することができる。よって、拡散反射成分が強いアスファルトと内部散乱成分が強い路面構造物のように、互いに反射特性が異なる物体を、反射光に含まれるS偏光成分とP偏光成分の差に基づいて識別することができる。
また、一般に、材質が異なると屈折率も異なるため、この影響もS偏光成分とP偏光成分の差に現れる。よって、材質が異なる物体を、反射光に含まれるS偏光成分とP偏光成分の差に基づいて識別することができる。
As described above, by taking the difference between the S-polarized component and the P-polarized component included in the reflected light, it is possible to grasp whether the diffuse reflection component or the internal scattering component is strong in the reflection characteristics of the object. it can. Therefore, an object having different reflection characteristics, such as an asphalt having a strong diffuse reflection component and a road surface structure having a strong internal scattering component, can be identified based on the difference between the S polarization component and the P polarization component included in the reflected light. it can.
In general, since the refractive index is different for different materials, this effect also appears in the difference between the S-polarized component and the P-polarized component. Therefore, objects with different materials can be identified based on the difference between the S-polarized component and the P-polarized component included in the reflected light.

なお、図15に示したグラフの結果は、アスファルト面と金属表面との表面状態の違い(アスファルトは多数の凹凸が分布した表面であるのに対し、金属表面は平滑な表面である。)の影響も受けていると考えられる。したがって、識別対象の表面状態の違いによって検出されるS偏光成分及びP偏光成分の値は変わってくる。このことは、実際に使用される環境下での実験結果を示す図14のグラフにおけるアスファルト領域や路上構造物であるマンホール蓋の差分偏光度が、図15に示した実験室実験での結果と相違していることからも理解できる。しかしながら、材質が異なる物体間においては、その表面状態が互いに同じであっても、その材質の違いに起因して物体の反射特性(拡散反射成分と内部散乱成分の強弱、屈折率等)に違いが存在し、その違いは反射光に含まれるS偏光成分とP偏光成分との差に基づいて把握することが可能である。したがって、実環境を考慮して設定された閾値を用いることで、材質が異なる物体間の識別が可能である。   Note that the results of the graph shown in FIG. 15 show the difference in the surface state between the asphalt surface and the metal surface (asphalt is a surface on which many irregularities are distributed, whereas the metal surface is a smooth surface). It is thought that they are also affected. Therefore, the values of the S-polarized component and the P-polarized component that are detected vary depending on the difference in the surface state of the identification target. This is because the differential polarization degree of the manhole cover, which is an asphalt region and a road structure in the graph of FIG. 14 showing the experimental results in an actually used environment, is the result of the laboratory experiment shown in FIG. It can be understood from the difference. However, between objects of different materials, even if the surface states are the same, the reflection characteristics of the objects (diffuse reflection component and internal scattering component strength, refractive index, etc.) differ due to the difference in the material. It is possible to grasp the difference based on the difference between the S-polarized component and the P-polarized component included in the reflected light. Therefore, it is possible to distinguish between objects of different materials by using a threshold value set in consideration of the actual environment.

本実施形態の路面構造物識別処理では、上述したエッジ判別処理により判別されたエッジによって区分される各領域の差分偏光度を識別指標値として用いることで、当該領域が路面構造物であるか否かを判定する。路面構造物識別処理は、上述したとおり、S偏光強度とP偏光強度の差分値を識別指標値として用いても、当該領域が路面構造物であるか否かを判定することは可能である。しかしながら、明るさが足りない場合、識別指標値として算出されるS偏光強度とP偏光強度の差分値が小さい値をとる結果、路面構造物であるか否かの判定が困難になる。これに対し、本実施形態のように、この差分値をS偏光強度とP偏光強度の合計値(モノクロ輝度)で割った値である差分偏光度を用いれば、明るさが足りない場合でも、識別指標値としての差分偏光度は比較的大きな値をとることができ、路面構造物であるか否かの判定が可能となる。   In the road surface structure identification process of the present embodiment, by using the differential polarization degree of each area divided by the edge determined by the edge determination process described above as an identification index value, it is determined whether or not the area is a road surface structure. Determine whether. As described above, the road surface structure identification process can determine whether or not the region is a road surface structure even if the difference value between the S-polarized light intensity and the P-polarized light intensity is used as the identification index value. However, when the brightness is insufficient, the difference value between the S-polarized light intensity and the P-polarized light intensity calculated as the identification index value takes a small value, so that it is difficult to determine whether or not the road surface structure is present. On the other hand, as in this embodiment, if the difference polarization degree that is a value obtained by dividing the difference value by the total value of S polarization intensity and P polarization intensity (monochrome luminance) is used, even if the brightness is insufficient, The degree of differential polarization as the identification index value can take a relatively large value, and it can be determined whether or not the road surface structure.

本実施形態の路面構造物識別処理の流れについて説明すると、まず、上述したエッジ判別処理によって判別されたエッジにより区分される各領域について、その領域の差分偏光度と基準差分偏光度との差分(差分偏光度差分値)を算出する(S6)。そして、この差分値が予め決められている路面構造物用の閾値以下であるか否かを判断する(S7)。この判断において、差分値が路面構造物用閾値以下であると判断した場合には、当該領域を路面構造物であると識別して記憶する(S8)。これを全領域について行うことで(S9)、撮像画像内における路面構造物を表示した領域を把握することができる。   The flow of the road surface structure identification process according to this embodiment will be described. First, for each area divided by the edge determined by the edge determination process described above, the difference between the difference polarization degree of the area and the reference difference polarization degree ( A difference polarization degree difference value) is calculated (S6). And it is judged whether this difference value is below the threshold value for road surface structures determined beforehand (S7). In this determination, when it is determined that the difference value is equal to or less than the road surface structure threshold, the area is identified and stored as a road surface structure (S8). By performing this for all areas (S9), it is possible to grasp the area where the road surface structure is displayed in the captured image.

本実施形態においては、当該領域の物体識別に用いる識別指標値として、その領域の差分偏光度(絶対量)を用いるのではなく、その領域の差分偏光度を基準差分偏光度から差し引いた差分偏光度差分値(相対量)を用いている。これは、撮影環境の違い等の影響で、識別対象領域の差分偏光度の算出値にズレが生じても、同じ影響でズレが生じている基準差分偏光度との相対量を用いることで、その影響を軽減することができるからである。なお、本実施形態では、基準差分偏光度として、路面上の大部分を占めるアスファルトの領域(基準処理領域)における差分偏光度を用いている。また、本実施形態において、路面構造物についての差分偏光度は、実環境下であれば、アスファルトについての差分偏光度よりも、少なくとも0.2以上大きい値をとることが実験的に判明している。よって、路面構造物についての差分偏光度差分値は、最低でも−0.2以下のマイナス値をとる。したがって、本実施形態では、路面構造物用閾値として−0.2を採用し、この閾値以下の範囲に属する差分偏光度差分値をもつ領域を路面構造物であると識別する。   In the present embodiment, instead of using the differential polarization degree (absolute amount) of the area as the identification index value used for object identification of the area, the differential polarization obtained by subtracting the differential polarization degree of the area from the reference differential polarization degree. The degree difference value (relative amount) is used. This is because, even if a difference occurs in the calculated value of the differential polarization degree of the identification target area due to the difference in the shooting environment, etc., by using the relative amount with the reference differential polarization degree where the deviation occurs due to the same effect, This is because the influence can be reduced. In the present embodiment, as the reference differential polarization degree, the differential polarization degree in the asphalt region (reference processing region) occupying most of the road surface is used. Further, in the present embodiment, it has been experimentally found that the differential polarization degree for the road surface structure is at least 0.2 or more larger than the differential polarization degree for asphalt under an actual environment. Yes. Therefore, the differential polarization degree difference value for the road surface structure takes a minus value of −0.2 or less at the minimum. Therefore, in this embodiment, -0.2 is adopted as the road structure threshold value, and an area having a differential polarization degree difference value belonging to a range equal to or smaller than the threshold value is identified as a road surface structure.

ここで、撮像画像の上方部分と下方部分とでは、物体からの反射光の強度に差がある。これは、撮像画像の上方部分は遠くに位置する物体を撮影した部分であるため、近くに位置する物体を撮影した下方部分よりも、反射光の強度は小さいものとなる。したがって、この違いを考慮し、撮像画像の上方部分と下方部分とで、用いる路面構造物用閾値を異ならせるようにしてもよい。
また、近くに位置する物体を撮影した撮像画像の下方部分の方が、上方部分よりも物体識別精度が高いので、処理ラインの処理順序は、画像下方から上方に向かう順序とするのがよい。
Here, there is a difference in the intensity of the reflected light from the object between the upper part and the lower part of the captured image. This is because the upper part of the captured image is a part obtained by photographing an object located far away, and the intensity of reflected light is smaller than the lower part obtained by photographing an object located nearby. Therefore, in consideration of this difference, the road surface structure threshold value to be used may be different between the upper part and the lower part of the captured image.
In addition, since the lower part of the captured image obtained by photographing an object located nearby has higher object identification accuracy than the upper part, the processing order of the processing lines is preferably the order from the lower side to the upper side of the image.

次に、路面構造物特定部17が行う路面構造物の種類特定処理について説明する。
路面構造物特定部17は、まず、上述した路面構造物識別処理により路面構造物であると識別された領域の形状を認識し(S10)、当該領域の形状に近似する形状テンプレートが存在するかどうかを判断する(S11)。この判断において、近似する形状テンプレートが存在すると判断した場合には、当該領域の路面構造物を、その形状テンプレートに関連づけられた種類に特定し、記憶する(S12)。例えば、楕円形状の形状テンプレートに近似する場合にはマンホールの蓋であると特定し、画像横方向に横断する棒状の形状テンプレートに近似する場合には道路連結部であると特定し、複数の路面構造物が自車の進行方向に沿って直線状に並んだ形状の形状テンプレートに記事する場合にはボッツドッツ又はキャッツアイからなる区間線であると特定する。これを全路面構造物について行ったら(S13)、処理を終了する。
Next, the road surface structure type specifying process performed by the road surface structure specifying unit 17 will be described.
First, the road surface structure specifying unit 17 recognizes the shape of the area identified as the road surface structure by the road surface structure identification process described above (S10), and whether there is a shape template that approximates the shape of the area. It is determined whether or not (S11). In this determination, if it is determined that there is an approximate shape template, the road surface structure in the region is specified as a type associated with the shape template and stored (S12). For example, when approximating an oval shape template, it is specified as a manhole cover, and when approximating a bar shape template traversing in the horizontal direction of the image, it is specified as a road connecting portion, and a plurality of road surfaces When an article is posted on a shape template that is linearly arranged along the traveling direction of the vehicle, it is specified as a section line made up of botsdots or cat's eyes. If this is performed for all road surface structures (S13), the process is terminated.

具体的には、路面構造物の領域のエッジ情報と、形状記憶部20に記憶されている形状テンプレートの情報とを用いて、近似曲線を取得し、最小二乗法やハフ変換やモデル方程式などの手法を用いて、形状近似認識を行う。なお、近似曲線を取得する際、信頼性の高い撮像画像の下方部分に位置するエッジ情報ほど形状近似の投票値に大きな重みを持たせるようにすることが望ましい。このようにすれば、信頼性の低い撮像画像の上方部分で誤認識されたエッジ情報が存在しても、信頼性の高い撮像画像の下方部分で正常に認識されたエッジ情報が存在すれば、路面構造物の種類を適切に特定することができる。
また、例えばマンホールの蓋を特定する際には、そのマンホールの蓋よりも大きい物体に係る特徴点をモルフォロジー演算などにより事前に除去するようにしてもよい。これにより、マンホール蓋の特定精度を向上させることができる。
Specifically, using the edge information of the road surface structure region and the shape template information stored in the shape storage unit 20, an approximate curve is obtained, and the least square method, the Hough transform, the model equation, etc. Shape approximation recognition is performed using a technique. Note that when obtaining an approximate curve, it is desirable that the edge information located in the lower portion of the highly reliable captured image is given a higher weight to the voting value for shape approximation. In this way, even if there is edge information that is misrecognized in the upper part of the low-reliability captured image, if there is edge information that is normally recognized in the lower part of the highly reliable captured image, The kind of road surface structure can be specified appropriately.
For example, when a manhole cover is specified, feature points related to an object larger than the manhole cover may be removed in advance by morphological calculation or the like. Thereby, the specific precision of a manhole cover can be improved.

路面構造物の種類の特定精度を高めるために、次のような処理を付加してもよい。
本実施形態では、以上のような路面構造物特定処理(S1〜S13)を、偏光カメラ10にて所定の時間間隔で連続的に撮影して得られる偏光画像データについて行う。上述した路面構造物の種類特定処理(S10〜S13)により路面構造物の種類が特定された領域については、その処理結果が所定のメモリに記憶される。このメモリに記憶される過去の処理結果(例えば、直前に撮像された偏光画像データについての処理結果)を利用し、今回の処理により特定された路面構造物の種類が、その領域に対応する過去の処理結果と同じであれば、今回の処理結果が信頼度の高いものであると判断する。そして、この信頼度を最終的な路面構造物の種類の特定に利用する。今回の処理結果に係る領域に対応する過去の処理結果は、例えば、エッジ情報を利用し、今回の処理結果に係る領域の位置と自車の進行方向とから、対応する過去の処理結果に係る領域の位置を検索して、対応する過去の処理結果を特定する。
なお、ここでは、路面構造物の種類特定処理(S10〜S13)について説明したが、路面構造物識別処理(S6〜S9)についても同様に、その識別精度を高めるために、過去の処理結果を利用してもよい。
In order to increase the specific accuracy of the type of road surface structure, the following processing may be added.
In the present embodiment, the road surface structure specifying process (S1 to S13) as described above is performed on polarized image data obtained by continuously photographing with a polarization camera 10 at a predetermined time interval. With respect to the area where the type of the road surface structure is specified by the above-described road surface structure type specifying process (S10 to S13), the processing result is stored in a predetermined memory. Using the past processing result (for example, the processing result of the polarization image data captured immediately before) stored in this memory, the type of the road surface structure specified by this processing corresponds to the past. If the processing result is the same as this, it is determined that the current processing result is highly reliable. And this reliability is utilized for specification of the kind of final road surface structure. The past processing result corresponding to the region related to the current processing result is related to the corresponding past processing result from the position of the region related to the current processing result and the traveling direction of the own vehicle, for example, using edge information. The position of the area is searched and the corresponding past processing result is specified.
In addition, although the road surface structure type specifying process (S10 to S13) has been described here, in order to improve the identification accuracy of the road surface structure identifying process (S6 to S9) as well, the past processing result is used. May be used.

また、上述したエッジ判別処理の判断(S3)で用いるエッジ閾値や、路面構造物の識別処理の判断(S7)で用いる路面構造物用閾値は、撮影環境の違いに応じて適宜切り替えるようにしてもよい。具体例としては、昼間と夜間などの時間帯の違い 雨天と晴天などの天候の違いに応じて切り替えることが挙げられる。この切り替えは、時間情報やレインセンサや日照センサなどの情報を用いることが実現可能である。   In addition, the edge threshold value used in the determination of the edge determination process (S3) and the road surface structure threshold value used in the determination of the road surface structure identification process (S7) are appropriately switched according to the difference in the photographing environment. Also good. A specific example is switching between time zones such as daytime and nighttime according to the difference in weather such as rainy weather and fine weather. This switching can be realized using time information or information such as a rain sensor or a sunshine sensor.

また、本実施形態の偏光カメラ10をルームミラー等の車内に取り付ける場合、偏光カメラ10で撮像される画像は、フロントガラスの影響を受けるため、フロントガラスの偏光特性も考慮することが望ましい。フロントガラスは、通常、図16に示すように、そのガラス面が偏光カメラ10の光軸に対して所定の角度をもって配置される。一般に、ガラス平板が光路に対して斜めに配置された場合、その透過光の偏光状態は変化する。いわゆるフレネルの透過反射の計算が成立し、P偏光成分よりもS偏光成分の方がガラス面で反射される量が多く、その透過光の減衰率はP偏光成分よりもS偏光成分の方が大きい。具体的には、例えば、図16に示した例では、P偏光成分はガラス面でのフレネル反射によって約8%減衰するのに対して、S偏光成分は約半分にまで減衰する。なお、この例では、フロントガラスでの屈折率が1.5とした。   In addition, when the polarization camera 10 according to the present embodiment is mounted in a vehicle such as a room mirror, an image captured by the polarization camera 10 is affected by the windshield. Therefore, it is desirable to consider the polarization characteristics of the windshield. As shown in FIG. 16, the windshield is usually disposed with a predetermined angle with respect to the optical axis of the polarizing camera 10. Generally, when a glass flat plate is disposed obliquely with respect to the optical path, the polarization state of the transmitted light changes. The calculation of so-called Fresnel transmission reflection is established, and the amount of S-polarized light component reflected by the glass surface is larger than that of P-polarized light component, and the attenuation factor of the transmitted light is higher for S-polarized light component than for P-polarized light component. large. Specifically, for example, in the example shown in FIG. 16, the P-polarized component is attenuated by about 8% by Fresnel reflection on the glass surface, whereas the S-polarized component is attenuated by about half. In this example, the refractive index at the windshield was 1.5.

このように、偏光カメラ10に取り込まれる光の偏光情報には、フロントガラスの影響が含まれているので、これを考慮することが望まれる。例えば、差分偏光度の算出時(S2)に、P偏光強度及びS偏光強度のそれぞれについて、フロントガラスでの減衰成分をキャンセルする演算を行う。上記の例では、S偏光成分を約2倍し、P偏光成分を約1/0.9倍する。別の方法としては、例えば、フロントガラスと偏光カメラ10との間に、P偏光強度及びS偏光強度それぞれの減衰成分をキャンセルする光学素子を配置する。この場合の光学素子としては、上記の例では、S偏光成分を不感帯透過し、P偏光成分を0.5/0.9倍にする光学素子を利用することが可能である。   Thus, since the influence of the windshield is included in the polarization information of the light taken into the polarization camera 10, it is desirable to take this into consideration. For example, at the time of calculating the differential polarization degree (S2), an operation for canceling the attenuation component on the windshield is performed for each of the P polarization intensity and the S polarization intensity. In the above example, the S polarization component is approximately doubled and the P polarization component is approximately 1 / 0.9. As another method, for example, an optical element that cancels attenuation components of P-polarized light intensity and S-polarized light intensity is disposed between the windshield and the polarizing camera 10. As the optical element in this case, in the above example, an optical element that transmits the S-polarized component through the dead band and increases the P-polarized component by 0.5 / 0.9 times can be used.

今後は、軽量化・低コスト化などを狙い、プラスチック製のフロントガラスの利用が想定される。プラスチックはガラスに比べ、内部歪による複屈折を有することが知られている。この場合は、複屈折の影響も考慮する必要が生じてくる。具体的には、例えば、偏光カメラ10で取り込む光の偏光成分に対し、複屈折によるP偏光成分とS偏光成分を考慮して差分偏光度の演算を行う。   In the future, it is expected that plastic windshields will be used to reduce weight and cost. It is known that plastic has birefringence due to internal strain compared to glass. In this case, it is necessary to consider the influence of birefringence. Specifically, for example, with respect to the polarization component of the light captured by the polarization camera 10, the differential polarization degree is calculated in consideration of the P-polarization component and the S-polarization component due to birefringence.

路面構造物特定部17により路面構造物の種類の特定結果は、様々な処理に利用することが可能である。
例えば、路面構造物特定部17の処理結果を、白線識別部14での白線エッジの識別処理に用いることが挙げられる。具体的には、路面構造物特定部17の処理により路面構造物の種類が特定された領域は白線の領域ではないので、この領域を白線識別部14による白線エッジの識別処理の対象から除外する。これにより、マンホール蓋等の路面構造物を白線と誤認識する可能性を少なくでき、白線の認識精度を向上させることができる。なお、ここでは、白線識別部14による白線エッジの識別処理について説明したが、白線以外の物体を撮像画像から識別する処理を行う場合には、一般に、路面構造物特定部17の処理により路面構造物の種類が特定された領域をその識別処理の対象から除外することで、その識別処理の識別精度を向上させることができる。具体例を挙げると、レーダの測距結果とカメラの撮影画像とに基づくセンサフュージョンにより先行車等の障害物を識別するシステムにおいては、マンホールの蓋等の各種路面構造物を障害物として誤認識することを避けることができる。その結果、各種路面構造物障害物として誤認識したことにより速度を急激に低下させてしまうような状態の発生を防止することができる。
The result of specifying the type of the road surface structure by the road surface structure specifying unit 17 can be used for various processes.
For example, the processing result of the road surface structure specifying unit 17 may be used for white line edge identification processing in the white line identification unit 14. Specifically, since the area where the type of the road surface structure is specified by the processing of the road surface structure specifying unit 17 is not a white line area, this area is excluded from the target of the white line edge identification process by the white line identification unit 14. . Thereby, the possibility of erroneously recognizing a road surface structure such as a manhole cover as a white line can be reduced, and the recognition accuracy of the white line can be improved. Here, the white line edge identifying process by the white line identifying unit 14 has been described. However, when performing the process of identifying an object other than a white line from the captured image, the road surface structure specifying unit 17 generally performs the road surface structure identification process. By excluding the region in which the type of the object is specified from the identification processing target, the identification accuracy of the identification processing can be improved. As a specific example, in a system that identifies obstacles such as a preceding vehicle by sensor fusion based on radar ranging results and camera images, various road surface structures such as manhole covers are misrecognized as obstacles. You can avoid doing that. As a result, it is possible to prevent the occurrence of a state in which the speed is rapidly decreased due to erroneous recognition as various road surface structure obstacles.

また、例えば、カーナビゲーションシステムに利用することも挙げられる。具体例としては、路面構造物特定部17の処理結果から特定されるマンホール蓋の位置から、自車とマンホール蓋との間の距離や角度等の自車位置情報を生成し、この自車位置情報を用いて、カーナビゲーションシステムにより算出される自車位置の範囲内において、自車の更なる詳細な位置を特定する。これにより、カーナビゲーションシステムにおける自車位置の特定精度を高めることができる。   Further, for example, it may be used for a car navigation system. As a specific example, the vehicle position information such as the distance and angle between the vehicle and the manhole cover is generated from the position of the manhole cover specified from the processing result of the road surface structure specifying unit 17, and the vehicle position Using the information, a further detailed position of the own vehicle is specified within the range of the own vehicle position calculated by the car navigation system. Thereby, the specific precision of the own vehicle position in a car navigation system can be improved.

また、例えば、路面構造物特定部17の処理結果から、自車に対するマンホール蓋や道路連結部の位置や方向を把握できるので、これを利用して走行支援ECU(Electronic Control Unit)などへ利用することも挙げられる。
特に、例えば、路面構造物特定部17によりボッツドッツ又はキャッツアイからなる区間線の特定結果は、白線識別部14による白線エッジの識別結果と同様の処理に利用することが可能である。具体的には、例えば、CRTや液晶等で構成される車内の情報報知手段である表示部(ディスプレイ)に、モノクロ画像処理部で算出した輝度データを用いて生成されるモノクロ画像(フロントビュー画像)を表示し、その画像中の区間線の情報を、運転者にとって有益な情報として報知するために、運転者が見やすい表示形態で表示する処理が挙げられる。これによれば、例えば、運転者が目視で区間線を認識することが困難な状況下であっても、運転者は表示部のフロントビュー画像を見ることで、自車と区間線との相対位置関係を把握することができ、区間線で区画される走行レーンを維持して走行させることが容易になる。
また、例えば、路面構造物特定部17により認識された区間線の位置情報から、自車と区間線との相対位置関係を把握する処理を行い、自車が区間線で区画される走行レーン上の適正走行位置から外れて走行していないかどうかを判断し、適正走行位置から外れて走行しているときに警報音等を発する処理が挙げられる。あるいは、適正走行位置から外れて走行しているときに、自動ブレーキ機能を実行して、自車の走行速度を落とすような処理も挙げられる。
Further, for example, the position and direction of the manhole cover and the road connecting portion relative to the own vehicle can be grasped from the processing result of the road surface structure specifying unit 17, and this is used for a travel support ECU (Electronic Control Unit) or the like. It can also be mentioned.
In particular, for example, the road line structure specifying unit 17 can use the section line specifying result made up of botsdots or cat's eyes for the same processing as the white line edge identifying result by the white line identifying unit 14. Specifically, for example, a monochrome image (front view image) generated using luminance data calculated by the monochrome image processing unit on a display unit (display) that is an in-vehicle information notification unit configured by a CRT, liquid crystal, or the like. ) And the information on the section line in the image is reported as information useful for the driver, and the display is easy to see for the driver. According to this, for example, even in a situation where it is difficult for the driver to visually recognize the section line, the driver can view the relative position between the vehicle and the section line by looking at the front view image on the display unit. It is possible to grasp the positional relationship, and it is easy to maintain the traveling lane divided by the section line and to travel.
In addition, for example, a process for grasping the relative positional relationship between the own vehicle and the section line from the position information of the section line recognized by the road surface structure specifying unit 17 is performed on the travel lane where the own vehicle is partitioned by the section line. There is a process of determining whether or not the vehicle is traveling away from the proper travel position and generating an alarm sound or the like when traveling outside the proper travel position. Alternatively, there is a process in which the automatic braking function is executed to reduce the traveling speed of the host vehicle when traveling out of the proper traveling position.

図17は、区間線としてボッツドッツが用いられている路面を偏光カメラ10で撮像し、これにより取得した偏光RAW画像データからモノクロ画像処理部13が生成したモノクロ画像(輝度画像)の一例を示す説明図である。
図18は、同偏光RAW画像データから差分偏光度画像処理部15にて生成された差分偏光度画像を示す説明図である。
図17と図18を比較してわかるように、アスファルトとボッツドッツとのコントラストは、図17に示すモノクロ画像(輝度画像)よりも、図18に示す差分偏光度画像の方が高い。したがって、差分偏光度画像を用いれば、モノクロ輝度では判別が困難であったアスファルトの領域とボッツドッツの領域とのエッジを高い精度で判別することができる。
FIG. 17 is a diagram illustrating an example of a monochrome image (luminance image) generated by the monochrome image processing unit 13 from the polarized RAW image data obtained by capturing an image of a road surface using Botsdots as a section line with the polarization camera 10. FIG.
FIG. 18 is an explanatory diagram showing a differential polarization degree image generated by the differential polarization degree image processing unit 15 from the same polarized RAW image data.
As can be seen by comparing FIG. 17 and FIG. 18, the difference polarization degree image shown in FIG. 18 has higher contrast between asphalt and bottsdots than the monochrome image (luminance image) shown in FIG. Therefore, by using the differential polarization degree image, it is possible to discriminate the edge between the asphalt region and the botsdot region, which are difficult to discriminate with monochrome luminance, with high accuracy.

なお、本実施形態では、識別可能な材質として金属を例に挙げて説明したが、他の材質であっても識別可能である。
図19は、実験室において、アスファルト面とスチールに塗料を塗布した塗装面に対し、光源位置を変化させて固定配置されたカメラでP偏光画像とS偏光画像を撮影したときの差分偏光度の変化を示すグラフである。このグラフは、アスファルト面と金属面とを比較した図15に示したグラフと同様の条件である。このグラフからわかるように、アスファルト面と塗装面とでは、差分偏光度に違いがある。そして、塗装面の差分偏光度は、図15に示した金属面の差分偏光度とも異なっている。したがって、塗装面と金属面との間も、差分偏光度の違い(偏光特性の違い)により区別して認識することが可能である。
In this embodiment, the metal is described as an example of the identifiable material. However, other materials can be identified.
FIG. 19 shows the difference in the degree of polarization when a P-polarized image and an S-polarized image are taken with a camera that is fixedly arranged by changing the light source position on the asphalt surface and the coated surface of steel coated with paint. It is a graph which shows a change. This graph has the same conditions as the graph shown in FIG. 15 in which the asphalt surface and the metal surface are compared. As can be seen from this graph, there is a difference in the degree of differential polarization between the asphalt surface and the painted surface. The differential polarization degree of the painted surface is also different from the differential polarization degree of the metal surface shown in FIG. Therefore, the painted surface and the metal surface can also be distinguished and recognized by the difference in the degree of differential polarization (difference in polarization characteristics).

同様に、このような塗装面に限らず、工事中或いは路面の劣化などにより路面上に付着したコールタールのような路面構造物についても、差分偏光度画像を用いると、モノクロ輝度画像に比べてコントラスト高く検出することが可能である。
図20は、コールタールが付着した路面を偏光カメラ10で撮像し、これにより取得した偏光RAW画像データからモノクロ画像処理部13が生成したモノクロ画像(輝度画像)の一例を示す説明図である。
図21は、同偏光RAW画像データから差分偏光度画像処理部15にて生成された差分偏光度画像を示す説明図である。
図20と図21を比較してわかるように、アスファルトとコールタールとのコントラストは、図20に示すモノクロ画像(輝度画像)よりも、図21に示す差分偏光度画像の方が高い。したがって、差分偏光度画像を用いれば、モノクロ輝度では判別が困難であったアスファルトの領域とコールタールの領域とのエッジを高い精度で判別することができる。
Similarly, not only such a painted surface but also a road surface structure such as coal tar attached on the road surface during construction or due to deterioration of the road surface, using a differential polarization degree image, compared to a monochrome luminance image. It is possible to detect with high contrast.
FIG. 20 is an explanatory diagram illustrating an example of a monochrome image (luminance image) generated by the monochrome image processing unit 13 from the polarized RAW image data obtained by capturing an image of the road surface to which coal tar is attached with the polarization camera 10.
FIG. 21 is an explanatory diagram showing a differential polarization degree image generated by the differential polarization degree image processing unit 15 from the same polarized RAW image data.
As can be seen by comparing FIG. 20 and FIG. 21, the contrast between asphalt and coal tar is higher in the differential polarization degree image shown in FIG. 21 than in the monochrome image (luminance image) shown in FIG. Therefore, if the differential polarization degree image is used, the edge between the asphalt area and the coal tar area, which is difficult to determine with monochrome luminance, can be determined with high accuracy.

次に、本実施形態に係る運転者支援システムにおいて立体物を特定する立体物特定処理の流れについて説明する。
図22は、立体物特定処理の流れを示すフローチャートである。
なお、エッジ判別処理までの処理は、上述した路面構造物特定処理と同様であるため、説明を省略する。ただし、エッジ判別処理で用いるエッジ閾値は、上述した路面構造物特定処理とは異なる値を用いる。エッジ判別処理で用いるエッジ閾値の設定方法について、以下説明する。
Next, a flow of a three-dimensional object specifying process for specifying a three-dimensional object in the driver assistance system according to the present embodiment will be described.
FIG. 22 is a flowchart showing the flow of the three-dimensional object specifying process.
Note that the processing up to the edge determination processing is the same as the above-described road surface structure specifying processing, and thus description thereof is omitted. However, the edge threshold value used in the edge determination process uses a value different from the road surface structure specifying process described above. A method for setting the edge threshold used in the edge discrimination process will be described below.

図23は、偏光カメラ10にて取得した偏光RAW画像データからモノクロ画像処理部13にて生成されたモノクロ画像(輝度画像)の一例を示す説明図である。
図24は、同偏光RAW画像データから差分偏光度画像処理部15にて生成された差分偏光度画像を示す説明図である。
図25は、100フレーム分について図23中の白枠3箇所の輝度値分布をとったヒストグラムである。
図26は、100フレーム分について図24中の白枠3箇所の差分偏光度分布をとったヒストグラムである。
図25に示すヒストグラムからわかるように、輝度値については、アスファルト領域の輝度分布と、他車の車両側面領域の輝度分布と、他車の車両後面領域の輝度分布とが、互いに重なり合っている。これに対し、図26に示すヒストグラムからわかるように、差分偏光度については、アスファルト領域の輝度分布と、他車の車両側面領域の輝度分布と、他車の車両後面領域の輝度分布とが、互いに重ならず、区分可能となっている。したがって、これらの領域を区分できる適切な閾値を設定することで、差分偏光度の違いにより、モノクロ輝度では判別が困難であった、アスファルト領域、他車の車両側面領域、他車の車両後面領域のエッジを、高い精度で判別することができる。
FIG. 23 is an explanatory diagram showing an example of a monochrome image (luminance image) generated by the monochrome image processing unit 13 from the polarized RAW image data acquired by the polarization camera 10.
FIG. 24 is an explanatory diagram showing a differential polarization degree image generated by the differential polarization degree image processing unit 15 from the same polarized RAW image data.
FIG. 25 is a histogram of the luminance value distribution of three white frames in FIG. 23 for 100 frames.
FIG. 26 is a histogram of differential polarization degree distributions at three positions in the white frame in FIG. 24 for 100 frames.
As can be seen from the histogram shown in FIG. 25, with respect to the luminance value, the luminance distribution in the asphalt region, the luminance distribution in the vehicle side surface region of the other vehicle, and the luminance distribution in the vehicle rear surface region of the other vehicle overlap each other. On the other hand, as can be seen from the histogram shown in FIG. 26, for the differential polarization degree, the luminance distribution of the asphalt region, the luminance distribution of the vehicle side surface region of the other vehicle, and the luminance distribution of the vehicle rear surface region of the other vehicle, They can be separated without overlapping each other. Therefore, by setting appropriate thresholds that can distinguish these areas, it is difficult to distinguish with monochrome luminance due to differences in the degree of differential polarization, asphalt areas, vehicle side areas of other vehicles, vehicle rear areas of other vehicles Can be discriminated with high accuracy.

次に、立体物識別部18が行う立体物識別処理について説明する。
立体物識別処理を説明するにあたり、まず、差分偏光度差分値から立体物を識別可能である理由について説明する。
物体で反射した反射光は、路面と、立体物の側面(その路面とは異なる方向を向いた外面)とでは、偏光カメラ10に取り込まれる光の入射角が異なるため、P偏光強度とS偏光強度それぞれに違いが生じる。特に、立体物の側面が路面に対して略直立した面であると、立体物の側面からの反射光に含まれるP偏光成分とS偏光成分との間の相対関係は、路面からの反射光に含まれるP偏光成分とS偏光成分との間の相対関係を入れ替えたものに相当する。そして、一般に、反射光に含まれるP偏光成分とS偏光成分との相対関係は、入射面に対して平行な偏光成分であるP偏光成分よりも、入射面に対して垂直な偏光成分であるS偏光成分の方が大きいという関係がある。したがって、路面あるいは路面に平行な面からの反射光を偏光カメラ10で受光した場合にはP偏光強度よりもS偏光成分の方が強く、路面に対して略直立した立体物側面からの反射光を偏光カメラ10で受光した場合にはS偏光強度よりもP偏光成分の方が強い。このような路面と立体物との間の偏光特性の違いにより、偏光カメラ10で受光した反射光中のS偏光成分及びP偏光成分の強さを比較することで、S偏光成分が強ければ路面に平行な面からの反射光であることが把握でき、P偏光成分が強ければ路面に垂直な面からの反射光であることが把握できる。その結果、偏光カメラ10で受光した反射光中に含まれるS偏光成分とP偏光成分の差分値をとることで、その差分値の正負により、路面に平行な面を有する物体なのか、路面とは異なる方向を向いた外面を有する物体すなわち立体物なのかを把握することができる。
Next, the three-dimensional object identification process performed by the three-dimensional object identification unit 18 will be described.
In describing the three-dimensional object identification process, first, the reason why the three-dimensional object can be identified from the differential polarization degree difference value will be described.
The reflected light reflected by the object differs in the incident angle of light taken into the polarization camera 10 between the road surface and the side surface of the three-dimensional object (the outer surface facing the direction different from the road surface). Differences in strength occur. In particular, when the side surface of the three-dimensional object is a surface substantially upright with respect to the road surface, the relative relationship between the P-polarized component and the S-polarized component contained in the reflected light from the side surface of the three-dimensional object is the reflected light from the road surface. Is equivalent to the one in which the relative relationship between the P-polarized component and the S-polarized component included in is replaced. In general, the relative relationship between the P-polarized light component and the S-polarized light component contained in the reflected light is a polarized light component perpendicular to the incident surface rather than the P-polarized light component that is a polarized light component parallel to the incident surface. There is a relationship that the S polarization component is larger. Therefore, when the reflected light from the road surface or a plane parallel to the road surface is received by the polarization camera 10, the S-polarized light component is stronger than the P-polarized light intensity, and the reflected light from the side surface of the three-dimensional object substantially upright with respect to the road surface. Is received by the polarizing camera 10, the P-polarized light component is stronger than the S-polarized light intensity. By comparing the intensity of the S-polarized component and the P-polarized component in the reflected light received by the polarization camera 10 due to the difference in polarization characteristics between the road surface and the three-dimensional object, the road surface is increased if the S-polarized component is strong. It can be understood that the reflected light is from a plane parallel to the road surface. If the P-polarized light component is strong, it can be understood that the reflected light is from a plane perpendicular to the road surface. As a result, by taking the difference value between the S-polarized component and the P-polarized component contained in the reflected light received by the polarization camera 10, depending on whether the difference value is positive or negative, whether the object has a plane parallel to the road surface, Can grasp whether the object has an outer surface facing in a different direction, that is, a three-dimensional object.

したがって、上記路面構造物識別処理と同様、上述したエッジ判別処理により判別されたエッジによって区分される各領域の差分偏光度差分値を識別指標値として用いることで、当該領域が立体物であるか否かを判定することが可能である。しかしながら、例えば図27に示すようにアスファルト領域に日向部分(基準処理領域)と日陰部分とが存在する場合のように、アスファルト領域内に輝度が大きく異なる部分が存在すると、上述したエッジ判別処理において、その日陰部分(輝度が小さい部分)と日向部分(輝度が大きい部分)との境をエッジであると誤認識してしまう。したがって、同じ路面であるにも拘わらず、日陰部分(日陰路面)は日向部分(日向路面)とは異なる物体として区別される。そして、このように日向路面と別物体として区別された日陰路面は、差分偏光度差分値を識別指標値として立体物と区別して認識しようとしても、立体物であると誤認識される可能性があった。   Therefore, similarly to the road surface structure identification process, whether the area is a three-dimensional object by using the difference polarization degree difference value of each area divided by the edge determined by the edge determination process described above as an identification index value. It is possible to determine whether or not. However, for example, as shown in FIG. 27, when there is a part with significantly different luminance in the asphalt area, as in the case where the asphalt area includes a sunny part (reference processing area) and a shaded part, The boundary between the shaded portion (the portion with low luminance) and the sunny portion (the portion with high luminance) is erroneously recognized as an edge. Therefore, although it is the same road surface, the shaded portion (shaded road surface) is distinguished as an object different from the sunny portion (the sunny road surface). The shaded road surface thus distinguished as a separate object from the Hinata road surface may be misrecognized as a three-dimensional object even if it is distinguished from the solid object using the differential polarization degree difference value as an identification index value. there were.

図28は、図27に示した画像中に描かれた処理ライン(図中横方向の伸びる直線)上の各位置における差分偏光度を示すグラフである。
このグラフでは、差分偏光度には日陰路面と側壁との間で相違が見られるため、上述した差分偏光度差分値を識別指標値とすれば、日陰路面と側壁(立体物)とを区別して認識することが可能である。しかしながら、本発明者らの研究により、実環境においては、差分偏光度差分値のみからでは、日陰路面と、この側壁を含む様々な路端障害物(立体物)とを、高い精度で区別して認識することが困難であることが判明した。
FIG. 28 is a graph showing the degree of differential polarization at each position on a processing line (straight line extending in the horizontal direction in the figure) drawn in the image shown in FIG.
In this graph, there is a difference between the shaded road surface and the side wall in the differential polarization degree. Therefore, if the differential polarization degree difference value described above is used as an identification index value, the shaded road surface and the side wall (three-dimensional object) are distinguished. It is possible to recognize. However, according to the study by the present inventors, in the actual environment, the shaded road surface and various roadside obstacles (three-dimensional objects) including this side wall are distinguished with high accuracy only from the differential polarization degree difference value. It turned out to be difficult to recognize.

一方で、輝度を識別指標値として物体を識別する従来方法を用いて、日陰路面と路端障害物(立体物)とを識別しようとしても、その精度は、以下に述べるとおり、差分偏光度差分値を識別指標値として用いる場合よりもずっと低いものとなる。
図29は、図27に示した画像中に描かれた処理ライン(図中横方向の伸びる直線)上の各位置における輝度(モノクロ輝度)を示すグラフである。
このグラフからわかるように、モノクロ輝度には日陰路面と側壁(立体物)との間で相違が見られないため、モノクロ輝度を識別指標値とした場合には、差分偏光度を用いれば識別可能な日陰路面と側壁との間でさえ、識別が困難である。
また、ここでいう輝度は、差分偏光度の表記に合わせて、−1〜+1の範囲内で規格化した値で表現したものである。具体的には、例えばモノクロ輝度の値が1〜256の階調で表現される場合、256階調表示における1(黒)をここでいう輝度では−1とし、256階調表示における256(白)をここでいう輝度では+1と表現する。
On the other hand, using a conventional method for identifying an object with luminance as an identification index value, even if it is attempted to distinguish between a shaded road surface and a roadside obstacle (three-dimensional object), the accuracy is as follows. The value is much lower than when the value is used as the identification index value.
FIG. 29 is a graph showing the luminance (monochrome luminance) at each position on the processing line (straight line extending in the horizontal direction in the drawing) drawn in the image shown in FIG.
As can be seen from this graph, there is no difference between the shaded road surface and the side wall (three-dimensional object) in the monochrome brightness, so if the monochrome brightness is used as the identification index value, it can be identified using the differential polarization degree. Even between a shady road surface and a side wall is difficult to distinguish.
The luminance here is expressed by a value normalized within the range of −1 to +1 in accordance with the notation of the differential polarization degree. Specifically, for example, when a monochrome luminance value is expressed by gradations of 1 to 256, 1 (black) in 256 gradation display is set to −1 in the luminance here, and 256 (white) in 256 gradation display. ) Is expressed as +1 in the luminance here.

図30は、X軸に日向路面の輝度をとり、Y軸に撮像領域内に存在する日向路面以外の各種識別対象物の輝度をとった各種識別対象物の2次元分布図である。
識別対象物は、日向路面(図27中の左側の白枠部分)と同じ路面に存在する日影路面(図27中の右側の白枠部分)と、路端障害物(立体物)の日向部分と日陰部分である。ここでいう路端障害物には、具体的には、粗壁、白壁、ガードレール、壁リフレクタである。図30において、図中黒丸印は、日陰路面のデータであり、それ以外の印はそれぞれ上述した各種路端障害物の日向部分と日陰部分のデータである。
FIG. 30 is a two-dimensional distribution diagram of various identification objects in which the brightness of the sun road surface is taken on the X axis and the brightness of various object objects other than the sun road surface existing in the imaging region is taken on the Y axis.
The objects to be identified are the sunshaded road surface (white frame portion on the right side in FIG. 27) existing on the same road surface as the Hinata road surface (left white frame portion in FIG. 27), and the hinata of the roadside obstacle (three-dimensional object). Part and shade part. Specifically, the roadside obstacles here are rough walls, white walls, guardrails, and wall reflectors. In FIG. 30, black circles in the figure are data on shaded road surfaces, and other marks are data on the sunlit and shaded parts of the various roadside obstacles described above.

図30に示す2次元分布図からわかるように、日向路面の輝度が実環境においてとり得る0.6以下の範囲において、黒丸印で示される日陰路面の分布エリアと、その他の印で示される路端障害物の分布エリアとが互いに重複している。したがって、輝度データのみでは、日陰路面と路端障害物とを区別するための閾値を設定することができず、これらを識別することができない。   As can be seen from the two-dimensional distribution chart shown in FIG. 30, the shaded road surface distribution area indicated by black circles and the roads indicated by other marks are within the range where the brightness of the sun road surface is 0.6 or less that can be taken in the actual environment. The distribution areas of the end obstacles overlap each other. Therefore, the threshold value for distinguishing the shaded road surface from the roadside obstacle cannot be set only by the luminance data, and these cannot be identified.

そこで、本実施形態においては、差分偏光度差分値だけでなく、従来方法の識別指標値として用いられていたモノクロ輝度も、識別指標値として併用することで、日向路面とは異なる輝度をもった日陰路面と、路端障害物(立体物)とを高精度に区別して認識する。
図31は、X軸に日向路面の差分偏光度をとり、Y軸に識別対象物の差分偏光度をとり、Z軸に識別対象物の輝度をとった、各種識別対象物の3次元分布図である。
このような3次元分布図からわかるように、日向路面の輝度が実環境においてとり得る範囲において、黒丸印で示される日陰路面の分布エリアと、その他の印で示される路端障害物の分布エリアとが互いに重複せずに区分できることが確認できる。したがって、これらを区分する境界面を定義する閾値を用いることで、日陰路面と区別して路端障害物を識別することができる。なお、このようなデータの分離には、SVM(Support Vector Machine)のような公知の手法を用いることができる。
Therefore, in the present embodiment, not only the differential polarization degree difference value but also the monochrome luminance used as the identification index value of the conventional method is used as the identification index value, thereby having a luminance different from that of the Hinata road surface. The shaded road surface and roadside obstacles (three-dimensional objects) are distinguished and recognized with high accuracy.
FIG. 31 is a three-dimensional distribution diagram of various identification objects, in which the differential polarization degree of the sun road surface is taken on the X axis, the differential polarization degree of the identification object is taken on the Y axis, and the luminance of the identification object is taken on the Z axis. It is.
As can be seen from such a three-dimensional distribution map, the shaded road surface distribution area indicated by black circles and the roadside obstacle distribution area indicated by other marks are within the range that the brightness of the sun road surface can take in the actual environment. Can be identified without overlapping each other. Therefore, by using a threshold value that defines a boundary surface that divides them, it is possible to identify roadside obstacles in distinction from shaded road surfaces. For such data separation, a known method such as SVM (Support Vector Machine) can be used.

本実施形態の立体物識別処理の流れについて説明すると、まず、上述したエッジ判別処理によって判別されたエッジにより区分される各領域について、その領域の差分偏光度差分値が予め決められている立体物用の閾値以下であるか否かを判断する(S21)。本実施形態において、立体物についての差分偏光度は、図26に示したヒストグラムからわかるように、正の値をとる。また、基準差分偏光度となるアスファルト領域についての差分偏光度は−0.05付近である。よって、本実施形態では、立体物用閾値としてゼロ近傍の正の値(例えば+0.08)を採用し、この閾値以上の範囲に属する差分偏光度差分値をもつ領域を立体物であると識別する。   The flow of the three-dimensional object identification process according to the present embodiment will be described. First, for each area divided by the edge determined by the edge determination process described above, a three-dimensional object in which the difference polarization degree difference value of the area is determined in advance. It is determined whether or not it is equal to or less than the threshold for use (S21). In the present embodiment, the differential polarization degree for a three-dimensional object takes a positive value as can be seen from the histogram shown in FIG. Further, the differential polarization degree for the asphalt region having the reference differential polarization degree is around -0.05. Therefore, in the present embodiment, a positive value near zero (for example, +0.08) is adopted as the threshold for a three-dimensional object, and an area having a differential polarization degree difference value belonging to a range equal to or greater than this threshold is identified as a three-dimensional object. To do.

ただし、この判断により立体物として識別された領域の中には、上述したとおり日陰路面が含まれている可能性がある。そこで、本実施形態では、図31に示した3次元分布図で日陰路面の分布エリアと路端障害物の分布エリアとを区分できる境界面を定義する閾値(日陰路面排除用閾値)を用いて、上記S21において立体物であると誤認識された日陰路面である領域を排除する処理を行う(S22)。その後、日陰路面の領域が取り除かれた残りの領域について、当該領域を立体物であると識別して記憶する(S23)。これを全領域について行うことで(S24)、撮像画像内における立体物を表示した領域を把握することができる。   However, the shaded road surface may be included in the region identified as a three-dimensional object by this determination as described above. Therefore, in this embodiment, a threshold value (shade road surface exclusion threshold value) that defines a boundary surface that can distinguish the distribution area of the shaded road surface and the distribution area of the roadside obstacle in the three-dimensional distribution diagram shown in FIG. 31 is used. Then, a process of eliminating the area that is a shaded road surface that is erroneously recognized as a three-dimensional object in S21 is performed (S22). Thereafter, the remaining area from which the shaded road area is removed is identified and stored as a three-dimensional object (S23). By performing this for all regions (S24), it is possible to grasp the region where the three-dimensional object is displayed in the captured image.

また、撮像画像の上方部分と下方部分とでは、物体からの反射光の強度に差があるので、この違いを考慮し、撮像画像の上方部分と下方部分とで、用いる立体物用閾値や日陰路面排除用閾値を異ならせるようにしてもよい。
また、近くに位置する物体を撮影した撮像画像の下方部分の方が、上方部分よりも物体識別精度が高いので、処理ラインの処理順序は、画像下方から上方に向かう順序とするのがよい。
In addition, since there is a difference in the intensity of reflected light from the object between the upper part and the lower part of the captured image, taking into account this difference, the threshold for three-dimensional objects and the shade used in the upper part and the lower part of the captured image are considered. You may make it vary the threshold value for road surface exclusion.
In addition, since the lower part of the captured image obtained by photographing an object located nearby has higher object identification accuracy than the upper part, the processing order of the processing lines is preferably the order from the lower side to the upper side of the image.

次に、立体物特定部19が行う立体物の種類特定処理について説明する。
立体物特定部19は、まず、上述した立体物識別処理により立体物であると識別された領域の形状を認識し(S25)、当該領域の形状に近似する形状テンプレートが存在するかどうかを判断する(S26)。この判断において、近似する形状テンプレートが存在すると判断した場合には、当該領域の立体物を、その形状テンプレートに関連づけられた種類に特定し、記憶する(S27)。例えば、車形状の形状テンプレートに近似する場合には他の車両であると特定する。これを全立体物について行ったら(S28)、処理を終了する。なお、立体物特定部19における形状近似認識の方法は、上述した路面構造物特定部17の処理方法と同様なので、説明を省略する。
Next, the three-dimensional object type specifying process performed by the three-dimensional object specifying unit 19 will be described.
First, the three-dimensional object specifying unit 19 recognizes the shape of the region identified as a three-dimensional object by the above-described three-dimensional object identification process (S25), and determines whether there is a shape template that approximates the shape of the region. (S26). In this determination, when it is determined that there is an approximate shape template, the three-dimensional object in the region is specified as a type associated with the shape template and stored (S27). For example, in the case of approximating a vehicle shape template, it is specified as another vehicle. If this is performed for all three-dimensional objects (S28), the process is terminated. In addition, since the method of shape approximation recognition in the three-dimensional object specifying unit 19 is the same as the processing method of the road surface structure specifying unit 17 described above, description thereof is omitted.

立体物の種類特定処理や立体物識別処理の精度を高めるために、上述した路面構造物の種類特定の場合と同様、過去の処理結果を利用してもよい。
また、上述したエッジ判別処理の判断(S3)で用いるエッジ閾値、立体物の識別処理の判断(S21,S22)で用いる立体物用閾値や日陰路面排除用閾値は、撮影環境の違いに応じて適宜切り替えるようにしてもよい。具体例としては、昼間と夜間などの時間帯の違い 雨天と晴天などの天候の違いに応じて切り替えることが挙げられる。この切り替えは、時間情報やレインセンサや日照センサなどの情報を用いることが実現可能である。
また、本実施形態の偏光カメラ10をルームミラー等の車内に取り付ける場合、フロントガラスの偏光特性も考慮することが望ましい点も、上述した路面構造物特定処理の場合と同様である。
In order to improve the accuracy of the three-dimensional object type specifying process and the three-dimensional object identifying process, the past processing result may be used as in the case of specifying the type of the road surface structure.
Further, the edge threshold value used in the determination of the edge determination process (S3) described above, the threshold value for solid object used in the determination process of the three-dimensional object (S21, S22), and the threshold value for shading road surface exclusion depend on the difference in the shooting environment. You may make it switch suitably. A specific example is switching between time zones such as daytime and nighttime according to the difference in weather such as rainy weather and fine weather. This switching can be realized using time information or information such as a rain sensor or a sunshine sensor.
In addition, when the polarizing camera 10 of the present embodiment is mounted in a vehicle such as a rearview mirror, it is desirable to consider the polarization characteristics of the windshield as in the road surface structure specifying process described above.

また、本実施形態では、日陰路面排除用閾値は、図31に示した3次元分布図における境界面を定義するものであったが、より高い識別性を得るためのパラメータを追加し、4次元や5次元などの高次元分布図における境界面を定義するものであってもよい。このようなパラメータとしては、例えば、太陽の方位が挙げられる。この場合、太陽の方位情報は、ナビゲーションシステムから太陽方位と車両進行方向に関する情報を抽出することにより得ることができる。太陽の方位情報により、路端障害物(立体物)に対して影が形成される方向が把握できるため、さらに識別性を高めることが可能となる。また、太陽の高度情報を上記パラメータとして追加してもよい。太陽の高度情報も、同じく、ナビゲーションシステムなどを介して走行日時に関する情報を得ることで得ることが可能である。さらに、オートライトに用いられる日照センサなどの情報を追加することも可能である。   In the present embodiment, the shade road surface exclusion threshold defines the boundary surface in the three-dimensional distribution diagram shown in FIG. 31, but a parameter for obtaining higher discrimination is added, and the four-dimensional Alternatively, a boundary surface in a high-dimensional distribution map such as 5 or 5 dimensions may be defined. An example of such a parameter is the direction of the sun. In this case, the sun direction information can be obtained by extracting information about the sun direction and the vehicle traveling direction from the navigation system. Since the direction in which the shadow is formed with respect to the roadside obstacle (three-dimensional object) can be grasped by the sun direction information, it becomes possible to further improve the distinguishability. Also, solar altitude information may be added as the parameter. Similarly, solar altitude information can be obtained by obtaining information related to travel date and time via a navigation system or the like. Further, it is possible to add information such as a sunshine sensor used for autolight.

立体物特定部19により立体物の種類の特定結果は、様々な処理に利用することが可能である。
例えば、立体物特定部19による処理結果から、避けるべき障害物である認識された立体物の接近を、運転者に警告したり、自車の自動ブレーキシステムを制御することにより衝突回避あるいは衝突時の衝撃緩和等を行ったりする。
また、例えば、立体物特定部19の処理結果を、白線識別部14での白線エッジの識別処理に用いることが挙げられる。具体的には、立体物特定部19の処理により立体物の種類が特定された領域は白線の領域ではないので、この領域を白線識別部14による白線エッジの識別処理の対象から除外する。これにより、他の車両等の立体物を白線と誤認識する可能性を少なくでき、白線の認識精度を向上させることができる。なお、ここでは、白線識別部14による白線エッジの識別処理について説明したが、白線以外の物体を撮像画像から識別する処理を行う場合には、一般に、立体物特定部19の処理により立体物の種類が特定された領域をその識別処理の対象から除外することで、その識別処理の識別精度を向上させることができる。
The result of specifying the type of the three-dimensional object by the three-dimensional object specifying unit 19 can be used for various processes.
For example, from the result of processing by the three-dimensional object specifying unit 19, the driver is warned of the approach of a recognized three-dimensional object that is an obstacle to be avoided, or the collision is avoided or controlled by controlling the vehicle's automatic brake system. To reduce the impact.
Further, for example, the processing result of the three-dimensional object specifying unit 19 may be used for white line edge identification processing in the white line identification unit 14. Specifically, since the region in which the type of the three-dimensional object is specified by the processing of the three-dimensional object specifying unit 19 is not a white line region, this region is excluded from the target of white line edge identification processing by the white line identification unit 14. Thereby, the possibility of erroneously recognizing a solid object such as another vehicle as a white line can be reduced, and the recognition accuracy of the white line can be improved. Here, the white line edge identifying process by the white line identifying unit 14 has been described. However, in the case of performing a process of identifying an object other than a white line from a captured image, in general, the processing of the three-dimensional object specifying unit 19 is performed. By excluding the region whose type is specified from the target of the identification process, the identification accuracy of the identification process can be improved.

また、例えば、カーナビゲーションシステムに利用することも挙げられる。具体例としては、立体物特定部19の処理結果から特定される電信柱、街灯、標識等の路外障害物の位置から、自車と路外障害物との間の距離や角度等の自車位置情報を生成し、この自車位置情報を用いて、カーナビゲーションシステムにより算出される自車位置の範囲内において、自車の更なる詳細な位置を特定する。これにより、カーナビゲーションシステムにおける自車位置の特定精度を高めることができる。   Further, for example, it may be used for a car navigation system. As a specific example, the distance, angle, etc. between the vehicle and the off-road obstacle is determined from the position of the off-road obstacle such as a telephone pole, a streetlight, and a sign specified from the processing result of the three-dimensional object specifying unit 19. Vehicle position information is generated, and the vehicle position information is used to specify a further detailed position of the vehicle within the range of the vehicle position calculated by the car navigation system. Thereby, the specific precision of the own vehicle position in a car navigation system can be improved.

また、例えば、立体物特定部19の処理結果から、自車に対する各種立体物の位置や方向を把握できるので、これを利用して走行支援ECU(Electronic Control Unit)などへ利用することも挙げられる。
特に、衝突を回避すべき立体物については、例えば、CRTや液晶等で構成される車内の情報報知手段である表示部(ディスプレイ)に、モノクロ画像処理部で算出した輝度データを用いて生成されるモノクロ画像(フロントビュー画像)を表示し、その画像中の立体物の情報を、運転者にとって有益な情報として報知するために、運転者が見やすい表示形態で表示する処理が挙げられる。これによれば、例えば、運転者が目視で当該立体物を認識することが困難な状況下であっても、運転者は表示部のフロントビュー画像を見ることで、その立体物の存在を確認することができ、衝突回避することが容易となる。
Further, for example, the position and direction of various three-dimensional objects with respect to the own vehicle can be grasped from the processing result of the three-dimensional object specifying unit 19, and this may be used for a travel support ECU (Electronic Control Unit) or the like. .
In particular, a three-dimensional object that should avoid a collision is generated by using, for example, luminance data calculated by a monochrome image processing unit on a display unit (display) that is an in-vehicle information notification unit composed of a CRT, a liquid crystal, or the like. In order to display a monochrome image (front view image) and information of a three-dimensional object in the image as useful information for the driver, there is a process of displaying the information in a display form that is easy for the driver to see. According to this, for example, even in a situation where it is difficult for the driver to visually recognize the three-dimensional object, the driver confirms the presence of the three-dimensional object by looking at the front view image on the display unit. This makes it easy to avoid collisions.

以上、本実施形態に係る立体物識別装置は、撮像領域内に存在し、所定平面(路面)とは異なる方向を向いた外面を有する立体物を識別するものであって、撮像領域内に存在する物体からの反射光に含まれている偏光方向が互いに異なる2つの偏光(P偏光とS偏光)を受光して、それぞれの偏光画像(P偏光画像とS偏光画像)を撮像する撮像手段としての偏光カメラ10と、この偏光カメラ10が撮像したP偏光画像及びS偏光画像をそれぞれ所定の処理領域(一画素単位)に分割し、画素ごとに、P偏光画像とS偏光画像との間における輝度合計値であるモノクロ輝度を算出する輝度算出手段してのモノクロ画像処理部13と、画素ごとに、モノクロ輝度に対するP偏光画像とS偏光画像との間における輝度差分値の比率を示す差分偏光度を算出する差分偏光度算出手段としての差分偏光度画像処理部15と、上記所定平面と同一平面内に予め存在することが想定されている基準平面物体(アスファルト)の存在場所に対応する処理領域のうち輝度が相対的に大きい部分である基準処理領域(日向路面に対応する領域)について差分偏光度画像処理部15が算出した差分偏光度を基準差分偏光度とし、その基準処理領域とは異なる処理領域について差分偏光度画像処理部15が算出した差分偏光度と基準差分偏光度との差分値である差分偏光度差分値を算出する差分偏光度差分値算出手段としての差分偏光度画像処理部15と、モノクロ画像処理部13が算出したモノクロ輝度と差分偏光度画像処理部15が算出した差分偏光度差分値とを識別指標値として用い、撮像領域内における各画素に対応した場所に存在する物体が立体物であるか否かの立体物識別処理を行う立体物識別処理手段としての立体物識別部18とを有する。これにより、日陰路面と立体物との間を高い精度で区別して認識することができる。
また、本実施形態において、立体物識別部18は、アスファルト(路面)の存在場所に対応する処理領域のうち輝度が小さい部分である低輝度処理領域(日陰路面に対応する領域)に対応する場所に存在する日陰路面と立体物とについてそれぞれ定められる複数の数値範囲のいずれに上記識別指標値が属するかを判断する判断処理を行い、当該処理領域に対応した場所に存在する物体を、該判断処理により属すると判断された数値範囲に対応する物体であると識別する処理を行うことにより、上記立体物識別処理を実施する。このような処理であれば、閾値との比較という簡単な処理により立体物識別処理を実現できる。
また、本実施形態において、偏光カメラ10は、移動面である路面上を移動する移動体としての車両(自車)に搭載され、路面に対して斜め上方から当該路面を含む撮像領域を撮像するものであり、同一の物体に対して定められる数値範囲を、P偏光画像及びS偏光画像をそれぞれ上下方向に区分する少なくとも2つ以上の区域ごとにそれぞれ設定し、当該区域に属する処理領域の差分偏光度がその区域に対して設定された数値範囲のいずれに属するかを判断して、立体物識別処理を行う。これにより、P偏光画像及びS偏光画像の上下方向における偏光カメラ10の受光量の違いを考慮した適切な識別が可能となる。
また、本実施形態では、立体物識別部18が過去に行った識別処理の結果を記憶する識別処理結果記憶手段としてのメモリに保存しておき、立体物識別部18は、上記識別指標値とともに、メモリに保存しておいた過去の識別処理の結果も用いて、識別処理を行う。これにより、過去の識別結果と同じ結果が得られたか否かについて識別結果の信頼度を判断することが可能となる。
また、本実施形態における立体物識別装置は、上述したように、当該立体物識別装置による識別結果を利用して移動体である車両(自車)の移動制御を行う移動制御手段しての走行支援ECUを備えた移動体制御装置としての自動ブレーキシステムに適用できる。
また、本実施形態における立体物識別装置は、上述したように、当該立体物識別装置による識別結果を利用して移動体である車両(自車)を運転操作する運転者にとって有益な情報を生成し、生成した情報を当該運転者に報知する情報提供装置にも適用できる。
As described above, the three-dimensional object identification device according to the present embodiment identifies a three-dimensional object that exists in an imaging region and has an outer surface facing a direction different from a predetermined plane (road surface), and exists in the imaging region. As imaging means for receiving two polarized lights (P-polarized light and S-polarized light) having different polarization directions contained in the reflected light from the object to be picked up and capturing respective polarized images (P-polarized image and S-polarized image) The polarization camera 10 and the P-polarized image and the S-polarized image captured by the polarization camera 10 are each divided into predetermined processing areas (one pixel unit), and each pixel is between the P-polarized image and the S-polarized image. A monochrome image processing unit 13 serving as a luminance calculating means for calculating a monochrome luminance that is a luminance total value, and a difference bias indicating a ratio of a luminance difference value between the P-polarized image and the S-polarized image with respect to the monochrome luminance for each pixel. A differential polarization degree image processing unit 15 serving as a differential polarization degree calculation means for calculating a degree, and a process corresponding to a location where a reference plane object (asphalt) existing in the same plane as the predetermined plane is present. The differential polarization degree calculated by the differential polarization degree image processing unit 15 for the reference processing area (area corresponding to the sun road surface) that is a relatively high luminance portion of the area is defined as a reference differential polarization degree. What is the reference processing area? Differential polarization degree image processing as differential polarization degree difference value calculation means for calculating a differential polarization degree difference value that is a difference value between the differential polarization degree calculated by the differential polarization degree image processing unit 15 and a reference differential polarization degree for different processing regions. And the monochrome luminance calculated by the monochrome image processing unit 13 and the differential polarization degree difference value calculated by the differential polarization degree image processing unit 15 as the identification index values, An object existing at a location corresponding to each pixel definitive has a three-dimensional object recognition unit 18 as a three-dimensional object identification processing means for performing three-dimensional object identification process whether a three-dimensional object. Thereby, it can distinguish and recognize between a shade road surface and a solid object with high precision.
Further, in the present embodiment, the three-dimensional object identification unit 18 is a place corresponding to a low-luminance processing area (area corresponding to a shaded road surface) that is a portion having a low luminance among the processing areas corresponding to the location where the asphalt (road surface) exists. A determination process is performed to determine which of a plurality of numerical ranges defined respectively for a shaded road surface and a three-dimensional object existing in the area belongs to, and an object present at a location corresponding to the processing area is determined The three-dimensional object identification process is performed by performing a process of identifying the object corresponding to the numerical range determined to belong to the process. With such a process, the three-dimensional object identification process can be realized by a simple process of comparison with a threshold value.
In the present embodiment, the polarization camera 10 is mounted on a vehicle (own vehicle) as a moving body that moves on a road surface that is a moving surface, and images an imaging region including the road surface obliquely from above the road surface. The numerical range defined for the same object is set for each of at least two or more areas that divide the P-polarized image and the S-polarized image in the vertical direction, and the difference between the processing areas belonging to the area is set. A solid object identification process is performed by determining which of the numerical ranges set for the area the polarization degree belongs to. Accordingly, it is possible to appropriately identify the difference in the amount of light received by the polarization camera 10 in the vertical direction of the P-polarized image and the S-polarized image.
Moreover, in this embodiment, it preserve | saves in the memory as an identification process result storage means which memorize | stores the result of the identification process which the solid-object identification part 18 performed in the past, and the solid-object identification part 18 is added with the said identification index value. The identification processing is performed using the past identification processing result stored in the memory. This makes it possible to determine the reliability of the identification result as to whether the same result as the past identification result has been obtained.
In addition, as described above, the three-dimensional object identification device in the present embodiment travels as a movement control unit that performs movement control of a vehicle (own vehicle) that is a moving body using the identification result of the three-dimensional object identification device. The present invention can be applied to an automatic brake system as a moving body control device including a support ECU.
In addition, as described above, the three-dimensional object identification device according to the present embodiment generates information that is useful for a driver who drives a vehicle (own vehicle) that is a moving body using the identification result of the three-dimensional object identification device. And it is applicable also to the information provision apparatus which alert | reports the produced | generated information to the said driver | operator.

なお、本実施形態に係る運転者支援システムは、そのシステム全体が車両に搭載されているが、必ずしもシステム全体が車両に搭載されている必要はない。したがって、例えば、偏光カメラ10のみを自車に搭載して、残りのシステム構成要素を自車とは別の場所に遠隔配置するようにしてもよい。この場合、車両の走行状態を運転者以外の者が客観的に把握するシステムとすることもできる。   Note that the driver assistance system according to the present embodiment is mounted on the vehicle as a whole, but the entire system does not necessarily have to be mounted on the vehicle. Therefore, for example, only the polarization camera 10 may be mounted on the own vehicle, and the remaining system components may be remotely arranged at a location different from the own vehicle. In this case, a system in which a person other than the driver objectively grasps the traveling state of the vehicle can be provided.

10 偏光カメラ
11 水平偏光画像メモリ
12 垂直偏光画像メモリ
13 モノクロ画像処理部
14 白線識別部
15 差分偏光度画像処理部
16 路面構造物識別部
17 路面構造物特定部
18 立体物識別部
19 立体物特定部
20 形状記憶部
101,111,112 カメラ
102 回転偏光子
113,114,124,133,134,144,152,153 偏光フィルタ
DESCRIPTION OF SYMBOLS 10 Polarization camera 11 Horizontally polarized image memory 12 Vertically polarized image memory 13 Monochrome image processing part 14 White line identification part 15 Differential polarization degree image processing part 16 Road surface structure identification part 17 Road surface structure identification part 18 Three-dimensional object identification part 19 Three-dimensional object identification Unit 20 Shape storage unit 101, 111, 112 Camera 102 Rotating polarizer 113, 114, 124, 133, 134, 144, 152, 153 Polarization filter

特開2009−59260号公報JP 2009-59260 A

Claims (6)

撮像領域内に存在し、所定平面とは異なる方向を向いた外面を有する立体物を識別する立体物識別装置において、
撮像領域内に存在する物体からの反射光に含まれている偏光方向が互いに異なる2つの偏光を受光して、それぞれの偏光画像を撮像する撮像手段と、
該撮像手段が撮像した2つの偏光画像をそれぞれ所定の処理領域に分割し、処理領域ごとに、該2つの偏光画像間における輝度合計値を算出する輝度算出手段と、
該処理領域ごとに、該輝度合計値に対する該2つの偏光画像間における輝度差分値の比率を示す差分偏光度を算出する差分偏光度算出手段と、
上記所定平面と同一平面内に予め存在することが想定されている基準平面物体の存在場所に対応する処理領域のうち輝度が相対的に大きい部分である基準処理領域について該差分偏光度算出手段が算出した差分偏光度を基準差分偏光度とし、該基準処理領域とは異なる処理領域について該差分偏光度算出手段が算出した差分偏光度と該基準差分偏光度との差分値である差分偏光度差分値を算出する差分偏光度差分値算出手段と、
該輝度算出手段が算出した輝度合計値と該差分偏光度差分値算出手段が算出した差分偏光度差分値とを識別指標値として用い、上記撮像領域内における各処理領域に対応した場所に存在する物体が上記立体物であるか否かの立体物識別処理を行う立体物識別処理手段とを有することを特徴とする立体物識別装置。
In a three-dimensional object identification device for identifying a three-dimensional object that exists in an imaging region and has an outer surface facing a direction different from a predetermined plane,
Imaging means for receiving two polarized light beams having different polarization directions included in reflected light from an object existing in the imaging region and capturing respective polarized images;
A luminance calculating unit that divides two polarized images captured by the imaging unit into predetermined processing regions, and calculates a total luminance value between the two polarized images for each processing region;
Differential polarization degree calculating means for calculating a differential polarization degree indicating a ratio of a luminance difference value between the two polarized images with respect to the total luminance value for each processing region;
The differential polarization degree calculation means for the reference processing region that is a portion having a relatively high luminance among the processing regions corresponding to the location where the reference plane object is assumed to exist in advance in the same plane as the predetermined plane. The calculated difference polarization degree is set as a reference difference polarization degree, and a difference polarization degree difference which is a difference value between the difference polarization degree calculated by the difference polarization degree calculation unit and the reference difference polarization degree for a processing region different from the reference processing region. Differential polarization degree difference value calculating means for calculating a value;
The luminance total value calculated by the luminance calculation means and the differential polarization degree difference value calculated by the differential polarization degree difference value calculation means are used as identification index values and are present at locations corresponding to the respective processing areas in the imaging area. A three-dimensional object identification device comprising: a three-dimensional object identification processing unit that performs a three-dimensional object identification process for determining whether or not an object is the above-described three-dimensional object.
請求項の立体物識別装置において、
上記立体物識別処理手段は、上記基準平面物体の存在場所に対応する処理領域のうち輝度が小さい部分である低輝度処理領域に対応する場所に存在する該基準平面物体の低輝度部分と上記立体物とについてそれぞれ定められる複数の数値範囲のいずれに上記識別指標値が属するかを判断する判断処理を行い、当該処理領域に対応した場所に存在する物体を、該判断処理により属すると判断された数値範囲に対応する物体であると識別する処理を行うことにより、上記立体物識別処理を実施することを特徴とする立体物識別装置。
The three-dimensional object identification device according to claim 1 ,
The three-dimensional object identification processing means includes a low-luminance portion of the reference plane object existing in a location corresponding to a low-luminance processing region that is a portion having a low luminance in a processing region corresponding to the location of the reference plane object, and the three-dimensional object. Judgment processing is performed to determine which of the plurality of numerical ranges defined for each object belongs to the identification index value, and an object existing at a location corresponding to the processing area is determined to belong to the determination processing A three-dimensional object identification device, wherein the three-dimensional object identification process is performed by performing a process of identifying an object corresponding to a numerical range.
請求項の立体物識別装置において、
上記撮像手段は、移動面上を移動する移動体に搭載され、該移動面に対して斜め上方から該移動面を含む撮像領域を撮像するものであり、
上記判断処理では、同一の物体に対して定められる数値範囲を、上記2つの偏光画像をそれぞれ上下方向に区分する少なくとも2つ以上の区域ごとにそれぞれ設定し、当該区域に属する処理領域の識別指標値が該区域に対して設定された数値範囲のいずれに属するかを判断することを特徴とする立体物識別装置。
The three-dimensional object identification device according to claim 2 ,
The imaging means is mounted on a moving body that moves on a moving surface, and picks up an imaging region including the moving surface obliquely from above the moving surface,
In the determination process, a numerical range defined for the same object is set for each of at least two or more sections that respectively divide the two polarized images in the vertical direction, and an identification index of a processing region belonging to the section. A three-dimensional object identification device, wherein a value belongs to which of a numerical range set for the area.
請求項乃至のいずれか1項に記載の立体物識別装置において、
上記立体物識別処理手段が過去に行った上記立体物識別処理の結果を記憶する識別処理結果記憶手段を有し、
上記立体物識別処理手段は、上記識別指標値とともに、上記識別処理結果記憶手段に記憶された過去の立体物識別処理の結果も用いて、上記立体物識別処理を行うことを特徴とする立体物識別装置。
The three-dimensional object identification device according to any one of claims 1 to 3 ,
The solid object identification processing means has identification processing result storage means for storing the result of the solid object identification processing performed in the past,
The three-dimensional object identification processing unit performs the three-dimensional object identification process using the identification index value and the result of the past three-dimensional object identification process stored in the identification process result storage unit. Identification device.
移動体の移動制御を行う移動制御手段と、
該移動体の周囲を撮像対象として撮像し、該撮像対象内に存在する立体物を識別する立体物識別手段とを有し、
上記移動制御手段は、上記立体物識別手段による識別結果を用いて上記移動制御を行う移動体制御装置において、
上記立体物識別手段として、請求項1乃至のいずれか1項に記載の立体物識別装置を用いたことを特徴とする移動体制御装置。
A movement control means for performing movement control of the moving body;
A solid object identifying means for imaging the periphery of the moving object as an imaging target, and identifying a three-dimensional object existing in the imaging target;
In the moving body control device that performs the movement control using the identification result by the three-dimensional object identification unit,
A mobile object control device using the three-dimensional object identification device according to any one of claims 1 to 4 as the three-dimensional object identification means.
運転者による運転操作に従って移動する移動体の周囲を撮像対象として撮像し、該撮像対象内に存在する立体物を識別する立体物識別手段と、
上記立体物識別手段による識別結果を用いて該運転者にとって有益な情報を生成する有益情報生成手段と、
該有益情報生成手段が生成した情報を該運転者に報知する情報報知手段とを有する情報提供装置において、
上記立体物識別手段として、請求項1乃至4のいずれか1項に記載の立体物識別装置を用いたことを特徴とする情報提供装置。
Three-dimensional object identification means for imaging a moving object moving according to a driving operation by a driver as an imaging target, and identifying a three-dimensional object existing in the imaging target;
Beneficial information generating means for generating information useful for the driver using the identification result by the three-dimensional object identifying means;
In an information providing apparatus having information notifying means for notifying the driver of information generated by the useful information generating means,
An information providing apparatus using the three-dimensional object identification device according to any one of claims 1 to 4 as the three-dimensional object identification means.
JP2010243989A 2009-12-25 2010-10-29 Three-dimensional object identification device, and mobile object control device and information providing device provided with the same Expired - Fee Related JP5686281B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2010243989A JP5686281B2 (en) 2009-12-25 2010-10-29 Three-dimensional object identification device, and mobile object control device and information providing device provided with the same
EP10839429.7A EP2517175A4 (en) 2009-12-25 2010-12-15 Object identifying apparatus, moving body control apparatus, and information providing apparatus
PCT/JP2010/073069 WO2011078199A1 (en) 2009-12-25 2010-12-15 Object identifying apparatus, moving body control apparatus, and information providing apparatus
KR1020127016422A KR101404924B1 (en) 2009-12-25 2010-12-15 Object identifying apparatus, moving body control apparatus, and information providing apparatus
CN201080058590.3A CN102782720B (en) 2009-12-25 2010-12-15 Object recognition equipment, mobile agent control device and information provider unit
BR112012017199A BR112012017199A2 (en) 2009-12-25 2010-12-15 object identification apparatus, moving body monitoring apparatus and apparatus for providing information
US13/516,754 US9317754B2 (en) 2009-12-25 2010-12-15 Object identifying apparatus, moving body control apparatus, and information providing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009295963 2009-12-25
JP2009295963 2009-12-25
JP2010243989A JP5686281B2 (en) 2009-12-25 2010-10-29 Three-dimensional object identification device, and mobile object control device and information providing device provided with the same

Publications (2)

Publication Number Publication Date
JP2011150688A JP2011150688A (en) 2011-08-04
JP5686281B2 true JP5686281B2 (en) 2015-03-18

Family

ID=44537567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010243989A Expired - Fee Related JP5686281B2 (en) 2009-12-25 2010-10-29 Three-dimensional object identification device, and mobile object control device and information providing device provided with the same

Country Status (1)

Country Link
JP (1) JP5686281B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2439716B1 (en) 2010-09-16 2013-11-13 Ricoh Company, Ltd. Object identification device, moving object controlling apparatus having object identification device and information presenting apparatus having object identification device
JP5867807B2 (en) * 2010-12-08 2016-02-24 株式会社リコー Vehicle identification device
DE102011087894A1 (en) * 2011-12-07 2013-06-13 Robert Bosch Gmbh Method and vehicle assistance system for active warning and / or navigation aid for avoiding a collision of a vehicle body part and / or a vehicle wheel with an object
WO2013103725A1 (en) * 2012-01-03 2013-07-11 Ascentia Imaging, Inc. Coded localization systems, methods and apparatus
WO2013129095A1 (en) * 2012-03-02 2013-09-06 日産自動車株式会社 Three-dimensional object detection device and three-dimensional object detection method
JP6340795B2 (en) * 2013-12-27 2018-06-13 株式会社リコー Image processing apparatus, image processing system, image processing method, image processing program, and moving body control apparatus
US10725216B2 (en) 2015-04-08 2020-07-28 Maxell, Ltd. Onboard camera
JP6773540B2 (en) * 2016-12-07 2020-10-21 クラリオン株式会社 In-vehicle image processing device
JP7101250B2 (en) * 2018-09-04 2022-07-14 株式会社ソニー・インタラクティブエンタテインメント Information processing device and playfield deviation detection method
EP3869452A4 (en) * 2018-10-15 2021-12-08 Panasonic Intellectual Property Management Co., Ltd. Object recognition method, vehicle control method, information display method, and object recognition device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3358099B2 (en) * 1994-03-25 2002-12-16 オムロン株式会社 Optical sensor device
JPH08138036A (en) * 1994-11-11 1996-05-31 Nissan Motor Co Ltd Preceding vehicle recognition device
JP5176289B2 (en) * 2006-06-05 2013-04-03 三菱電機株式会社 Infrared target selection device
JP2009025198A (en) * 2007-07-20 2009-02-05 Denso It Laboratory Inc Apparatus and method for detecting road surface condition
JP5315798B2 (en) * 2008-06-05 2013-10-16 日産自動車株式会社 Vehicle driving support apparatus and vehicle driving support method

Also Published As

Publication number Publication date
JP2011150688A (en) 2011-08-04

Similar Documents

Publication Publication Date Title
JP5686281B2 (en) Three-dimensional object identification device, and mobile object control device and information providing device provided with the same
KR101404924B1 (en) Object identifying apparatus, moving body control apparatus, and information providing apparatus
JP5696927B2 (en) Object identification device, and moving body control device and information providing device provided with the same
JP5761601B2 (en) Object identification device
JP5867807B2 (en) Vehicle identification device
JP5967463B2 (en) Object identification device, and moving body control device and information providing device provided with the same
JP2011150687A (en) Three-dimensional object identifying apparatus, moving body control apparatus equipped with the same, and information providing apparatus
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
KR100936558B1 (en) Perimeter monitoring apparatus and image display method for vehicle
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
CN102668540A (en) Imaging device, on-vehicle imaging system, road surface appearance detection method, and object detection device
EP2928178B1 (en) On-board control device
US10933798B2 (en) Vehicle lighting control system with fog detection
JP2014006885A (en) Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP5077088B2 (en) Image processing apparatus and image processing method
JP5434277B2 (en) Driving support device and driving support method
JP2014016981A (en) Movement surface recognition device, movement surface recognition method, and movement surface recognition program
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP4572826B2 (en) Road marking line detection device
CN114084129A (en) Fusion-based vehicle automatic driving control method and system
CN211032395U (en) Autonomous vehicle
JP6980887B1 (en) Mobile detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140829

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150108

R151 Written notification of patent or utility model registration

Ref document number: 5686281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees