JP2011150686A - Object identifying apparatus, moving body control apparatus equipped with the same, and information providing apparatus - Google Patents

Object identifying apparatus, moving body control apparatus equipped with the same, and information providing apparatus Download PDF

Info

Publication number
JP2011150686A
JP2011150686A JP2010243925A JP2010243925A JP2011150686A JP 2011150686 A JP2011150686 A JP 2011150686A JP 2010243925 A JP2010243925 A JP 2010243925A JP 2010243925 A JP2010243925 A JP 2010243925A JP 2011150686 A JP2011150686 A JP 2011150686A
Authority
JP
Japan
Prior art keywords
identification
processing
polarization
image
polarized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010243925A
Other languages
Japanese (ja)
Other versions
JP5696927B2 (en
Inventor
Hideaki Hirai
秀明 平井
Shin Aoki
青木  伸
Masanori Kobayashi
正典 小林
Yuki Ri
雪 李
Ryosuke Kasahara
亮介 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2010243925A priority Critical patent/JP5696927B2/en
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to KR1020127016422A priority patent/KR101404924B1/en
Priority to PCT/JP2010/073069 priority patent/WO2011078199A1/en
Priority to US13/516,754 priority patent/US9317754B2/en
Priority to BR112012017199A priority patent/BR112012017199A2/en
Priority to CN201080058590.3A priority patent/CN102782720B/en
Priority to EP10839429.7A priority patent/EP2517175A4/en
Publication of JP2011150686A publication Critical patent/JP2011150686A/en
Application granted granted Critical
Publication of JP5696927B2 publication Critical patent/JP5696927B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To increase the types of the property of an object which can be used for the identification of the object by using an image pickup means, and to increase the number of the classifications of the object which can be finally specified. <P>SOLUTION: An object identifying apparatus which identifies an object existing in an image pickup area is provided with: a polarizing camera 10 which receives two polarized lights (P polarized light and S polarized light) having different polarization directions included in the rays of light reflected from the object, and captures two polarization images (P polarization image and S polarization image); a differential polarization degree image processing part 15 which calculates a differential polarization degree as the rate of a luminance differential value between the P polarization image and the S polarization image to a luminance total value for every pixel; and a road surface structure identification part 16 and a three-dimensional object identification part 18 for performing the identification processing of the object by using the differential polarization degree. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像領域内に存在する物体を識別する物体識別装置、並びに、この物体識別装置の識別結果を利用して、車両、船舶、航空機、あるいは、産業用ロボットなどの移動体の移動制御を行う移動体制御装置、及び、移動体の運転者に有益な情報を提供する情報提供装置に関するものである。   The present invention relates to an object identification device for identifying an object existing in an imaging region, and movement control of a moving body such as a vehicle, a ship, an aircraft, or an industrial robot using the identification result of the object identification device. The present invention relates to a mobile body control device that performs the above and an information providing device that provides useful information to the driver of the mobile body.

この種の物体識別装置としては、例えば、車両の運転者(ドライバー)の運転負荷を軽減させるための、ACC(Adaptive Cruise Control)等の運転者支援システムに利用されるものが知られている。このような車両走行支援システムにおいては、自車が障害物等に衝突することを回避したり衝突時の衝撃を軽減したりするための自動ブレーキ機能や警報機能、先行車との車間距離を維持するための自車速度調整機能、自車が走行している走行レーンからの逸脱防止を支援する機能などの様々な機能を実現するために、自車の周囲に存在する障害物、先行車、車線などの物体を適切に区別して認識する(識別する)ことが必要となる。そのため、従来から様々な物体識別装置が提案されている。   As this type of object identification device, for example, a device used in a driver support system such as ACC (Adaptive Cruise Control) for reducing the driving load of a driver (driver) of a vehicle is known. In such a vehicle driving support system, an automatic brake function and an alarm function for avoiding the collision of the own vehicle with an obstacle or reducing the impact at the time of the collision, and a distance between the preceding vehicle are maintained. In order to realize various functions such as a function for adjusting the speed of the own vehicle, a function for supporting the prevention of deviation from the traveling lane in which the host vehicle is traveling, obstacles existing around the host vehicle, preceding vehicles, It is necessary to appropriately distinguish and recognize (identify) an object such as a lane. For this reason, various object identification devices have been proposed.

特許文献1には、撮影により得られた道路画像(撮像画像)から画像内のラインを検出することにより車両の走行レーンを区画する車線(白線)に対する自車の相対変位を検出するために、車線(物体)を識別するための物体識別装置が開示されている。この物体識別装置では、雨天により道路上に水たまりが存在する場合、太陽光等がこの水たまりで鏡面反射して、道路上の車線(白線)と同程度の輝度で撮影されることにより、水たまり部分を車線(白線)と誤認識してしまうという問題を解決するものである。具体的には、白線識別処理を行う前に道路画像から水たまり部分を取り除くため、撮影した道路画像から鏡面反射成分のみを除去することにより水たまり部分を取り除き、残りの散乱光成分から白線を認識する。鏡面反射成分のみを除去する方法としては、鏡面反射の水平偏光成分はブリュースター角でほぼ0となること、及び、散乱光成分は垂直偏光成分と水平偏光成分がほぼ等量含まれていることを利用して、次のように行っている。すなわち、撮影した道路画像中の垂直偏光成分と水平偏光成分との差分を算出し、その差分値に対し、水平偏光成分中に含まれる入射角に応じた鏡面反射成分を除去するための補正係数を乗じることで、鏡面反射成分を算出する。そして、算出した鏡面反射成分を水平偏光成分から差し引くことで、道路画像から鏡面反射成分のみを除去した錯乱光成分の画像を得る。   In patent document 1, in order to detect the relative displacement of the own vehicle with respect to the lane (white line) which divides the driving lane of the vehicle by detecting a line in the image from a road image (captured image) obtained by photographing, An object identification device for identifying a lane (object) is disclosed. In this object identification device, when there is a puddle on the road due to rainy weather, sunlight is specularly reflected by this puddle, and the puddle is photographed with the same brightness as the lane (white line) on the road. This is a solution to the problem of misrecognizing traffic as a lane (white line). Specifically, in order to remove the puddle portion from the road image before performing the white line identification processing, the puddle portion is removed by removing only the specular reflection component from the photographed road image, and the white line is recognized from the remaining scattered light component. . As a method of removing only the specular reflection component, the horizontal polarization component of the specular reflection is almost 0 at the Brewster angle, and the scattered light component includes substantially equal amounts of the vertical polarization component and the horizontal polarization component. Is used as follows. That is, the correction coefficient for calculating the difference between the vertical polarization component and the horizontal polarization component in the captured road image and removing the specular reflection component corresponding to the incident angle included in the horizontal polarization component with respect to the difference value The specular reflection component is calculated by multiplying by. Then, by subtracting the calculated specular reflection component from the horizontal polarization component, an image of the confusion light component obtained by removing only the specular reflection component from the road image is obtained.

撮像領域内に存在する物体を識別する従来の物体識別装置を利用して最終的にその物体が何なのかの特定が可能な物体の種別数は、いまだ十分であるとはいえない。これは、従来の物体識別装置で物体の識別に利用している物体の性質の種類が限られているためである。すなわち、物体の識別に利用される物体の性質の種類が増えれば、物体の識別区分を細分化できる結果、その物体が何なのかを特定する精度が高まり、特定できる物体の種別数を増やすことができる。
例えば、従来の物体識別装置の中には、撮影領域内に存在する物体からの反射光の強さ(受光量)の違い、すなわち、撮像画像中の輝度の違いによって、道路上の白線(物体)を識別するものがある。この物体識別装置では、反射する光の強さが異なるという性質を利用して道路上の白線を他の物体と識別しているが、この性質だけを利用して物体の識別を行う場合には、上記特許文献1に説明されているように、反射する光の強さが白線と同程度である物体(水たまり等)を白線と区別して認識することができないことがある。これに対し、上記特許文献1に記載の物体識別装置のように、鏡面反射するという物体の性質も利用して識別すれば、反射する光の強さが同程度の物体である白線と水たまりとの間の識別も可能になる。
また、例えば、従来の物体識別装置の中には、撮像画像中における物体の形状という性質を利用し、撮像画像から把握した物体の形状を、最終的に特定すべき対象の物体の形状テンプレートに照らし合わせて、その物体を識別するものもある。この物体識別装置においても、輝度あるいは鏡面反射などの別の性質も併用し、物体の識別に利用する物体の性質の種類を増やせば、物体の特定精度が高まり、特定できる物体の種別数を増やすことができる。
The number of types of objects that can finally identify what the object is using a conventional object identification device that identifies an object existing in the imaging region is still not sufficient. This is because the types of object properties used for object identification in the conventional object identification device are limited. In other words, if the types of object properties used to identify an object increase, the classification of the object can be subdivided. As a result, the accuracy of identifying what the object is is increased and the number of object types that can be identified is increased. Can do.
For example, some conventional object identification devices have white lines (objects) on the road due to differences in the intensity of reflected light (amount of received light) from objects existing in the shooting area, that is, differences in brightness in the captured image. ) To identify. In this object identification device, the white line on the road is identified from other objects using the property that the intensity of the reflected light is different, but when identifying an object using only this property, As described in Patent Document 1, an object (such as a puddle) whose reflected light intensity is comparable to that of the white line may not be recognized separately from the white line. On the other hand, as in the object identification device described in the above-mentioned Patent Document 1, if identification is performed by using the property of an object that is specularly reflected, a white line and a puddle that are objects of the same intensity are reflected. Can also be identified.
Further, for example, in the conventional object identification device, the shape of the object grasped from the captured image is used as the shape template of the target object to be finally identified by utilizing the property of the shape of the object in the captured image. Some of them identify the object in light of it. This object identification device also uses other properties such as luminance or specular reflection, and increases the types of object properties used for object identification, so that the accuracy of object identification increases and the number of types of objects that can be identified increases. be able to.

このように、物体の識別に利用される物体の性質の種類が限られていたために、最終的に特定できる物体の種別数が十分でないという問題は、運転者支援システムに用いられる物体識別装置に限らず、ロボット制御などに用いられる物体識別装置など、あらゆる物体識別装置においても同様に生じる問題である。
なお、この問題を解決するために、物体の識別に利用する物体の性質の種類を増やすべく、新たな性質を検出するための検出機器を新たに用意することは、コストが高騰するため好ましくない。よって、従来の物体識別装置において物体からの反射光強度(輝度)を検出するために一般に用いられている検出機器である撮像手段を用いて、新たな性質を検出することができれば、コストの観点から有益である。
As described above, since the types of object properties used for object identification are limited, the problem that the number of object types that can be finally identified is not sufficient is an object identification device used in a driver assistance system. The problem occurs not only in any object identification apparatus such as an object identification apparatus used for robot control.
In order to solve this problem, it is not preferable to newly prepare a detection device for detecting a new property in order to increase the types of the property of the object used for identifying the object because the cost increases. . Therefore, if a new property can be detected by using an imaging unit that is a detection device generally used for detecting the intensity (luminance) of reflected light from an object in a conventional object identification device, a cost viewpoint can be obtained. Is beneficial from.

本発明は、上記問題に鑑みなされたものであり、その目的とするところは、撮像手段を用いて物体の識別に利用できる物体の性質の種類を増やし、最終的に特定可能な物体の種別数を増やすことが可能な物体識別装置、並びに、これを備えた移動体制御装置及び情報提供装置を提供することである。   The present invention has been made in view of the above problems, and the object of the present invention is to increase the number of types of object properties that can be used for object identification using an imaging means, and finally the number of types of objects that can be specified. Object identification apparatus capable of increasing the number of objects, and a moving body control apparatus and an information providing apparatus provided with the object identification apparatus.

上記目的を達成するために、請求項1の発明は、撮像領域内に存在する物体を識別する物体識別装置において、撮像領域内に存在する物体からの反射光に含まれている偏光方向が互いに異なる2つの偏光を受光して、それぞれの偏光画像を撮像する撮像手段と、該撮像手段が撮像した2つの偏光画像を用いて上記撮像領域内における各処理領域に対応した場所に存在する物体の識別処理を行う物体識別処理手段とを有することを特徴とするものである。
また、請求項2の発明は、撮像領域内に存在する物体を識別する物体識別装置において、撮像領域内に存在する物体からの反射光に含まれている偏光方向が互いに異なる2つの偏光を受光して、それぞれの偏光画像を撮像する撮像手段と、該撮像手段が撮像した2つの偏光画像をそれぞれ所定の処理領域に分割し、処理領域ごとに該2つの偏光画像間における輝度差分値を算出する輝度差分値算出手段と、該輝度差分値算出手段が算出した輝度差分値から得られる識別指標値を用いて、上記撮像領域内における各処理領域に対応した場所に存在する物体の識別処理を行う物体識別処理手段とを有することを特徴とするものである。
また、請求項3の発明は、請求項2の物体識別装置において、上記物体識別処理手段は、互いに異なる複数の物体ごとにそれぞれ定められる複数の数値範囲のいずれに上記識別指標値が属するかを判断する判断処理を行い、当該処理領域に対応した場所に存在する物体を、該判断処理により属すると判断された数値範囲に対応する物体であると識別する処理を行うことにより、上記識別処理を実施することを特徴とするものである。
また、請求項4の発明は、請求項3の物体識別装置において、上記撮像手段は、移動面上を移動する移動体に搭載され、該移動面に対して斜め上方から該移動面を含む撮像領域を撮像するものであり、上記判断処理では、同一の物体に対して定められる数値範囲を、上記2つの偏光画像をそれぞれ上下方向に区分する少なくとも2つ以上の区域ごとにそれぞれ設定し、当該区域に属する処理領域の識別指標値が該区域に対して設定された数値範囲のいずれに属するかを判断することを特徴とするものである。
また、請求項5の発明は、請求項2乃至4のいずれか1項に記載の物体識別装置において、上記識別処理には、上記撮像領域内における各処理領域に対応した場所に存在する物体の材質を識別する材質識別処理が含まれることを特徴とするものである。
また、請求項6の発明は、請求項5の物体識別装置において、上記材質識別処理により識別する物体の材質には、金属が含まれることを特徴とするものである。
また、請求項7の発明は、請求項2乃至6のいずれか1項に記載の物体識別装置において、上記撮像手段は、移動面である路面上を移動する移動体である車両に搭載され、該路面を含む撮像領域を撮像するものであり、上記物体識別処理手段は、上記路面と略同一平面上に外面が露出している物体の識別処理を行うことを特徴とするものである。
また、請求項8の発明は、請求項2乃至7のいずれか1項に記載の物体識別装置において、上記物体識別処理手段は、予め存在することが想定されている基準物体の存在場所に対応する基準処理領域について上記輝度差分値算出手段が算出した輝度差分値から得られる識別指標値を基準指標値とし、該基準処理領域とは異なる処理領域について該輝度差分値算出手段が算出した輝度差分値から得られる識別指標値の該基準指標値に対する相対値を算出し、該相対値に基づいて該処理領域に対応した場所に存在する物体を識別する処理を行うことにより、上記識別処理を実施することを特徴とするものである。
また、請求項9の発明は、請求項2乃至8のいずれか1項に記載の物体識別装置において、上記識別指標値として、上記輝度差分値を算出する際に用いる2つの偏光画像間における輝度合計値に対する該輝度差分値の比率を示す差分偏光度を用いることを特徴とするものである。
また、請求項10の発明は、請求項2乃至9のいずれか1項に記載の物体識別装置において、上記物体識別処理手段が過去に行った上記識別処理の結果を記憶する識別処理結果記憶手段を有し、上記物体識別処理手段は、上記識別指標値とともに、上記識別処理結果記憶手段に記憶された過去の識別処理の結果も用いて、上記識別処理を行うことを特徴とするものである。
また、請求項11の発明は、請求項2乃至10のいずれか1項に記載の物体識別装置において、所定の特定物体を上記撮像手段により撮像したときの形状を示す形状情報を記憶する形状情報記憶手段を有し、上記物体識別処理手段は、上記識別処理により同じ物体であると識別された互いに近接する複数の処理領域により示される形状が上記形状情報記憶手段に記憶されている形状情報の形状に近似しているかどうかを判断し、近似していると判断したときには、該複数の処理領域に対応した場所に存在する物体を上記特定物体であると特定する物体特定処理を行うことを特徴とするものである。
また、請求項12の発明は、移動体の移動制御を行う移動制御手段と、該移動体の周囲を撮像対象として撮像し、該撮像対象内に存在する物体を識別する物体識別手段とを有し、上記移動制御手段は、上記物体識別手段による識別結果を用いて上記移動制御を行う移動体制御装置において、上記物体識別手段として、請求項1乃至11のいずれか1項に記載の物体識別装置を用いたことを特徴とするものである。
また、請求項13の発明は、運転者による運転操作に従って移動する移動体の周囲を撮像対象として撮像し、該撮像対象内に存在する物体を識別する物体識別手段と、上記物体識別手段による識別結果を用いて該運転者にとって有益な情報を生成する有益情報生成手段と、該有益情報生成手段が生成した情報を該運転者に報知する情報報知手段とを有する情報提供装置において、上記物体識別手段として、請求項1乃至11のいずれか1項に記載の物体識別装置を用いたことを特徴とするものである。
In order to achieve the above object, according to a first aspect of the present invention, there is provided an object identification device for identifying an object existing in an imaging region, wherein the polarization directions included in the reflected light from the object existing in the imaging region are mutually different. An imaging unit that receives two different polarized lights and captures each polarized image, and an object existing at a location corresponding to each processing region in the imaging region using the two polarized images captured by the imaging unit. And an object identification processing means for performing identification processing.
According to a second aspect of the present invention, in the object identification device for identifying an object existing in the imaging region, two polarized lights having different polarization directions included in the reflected light from the object existing in the imaging region are received. Then, an imaging unit that captures each polarization image, and the two polarization images captured by the imaging unit are each divided into predetermined processing areas, and a luminance difference value between the two polarization images is calculated for each processing area Using the luminance difference value calculating means and the identification index value obtained from the luminance difference value calculated by the luminance difference value calculating means, the identification processing of the object existing at a location corresponding to each processing area in the imaging area is performed. And an object identification processing means for performing.
According to a third aspect of the present invention, in the object identification device of the second aspect, the object identification processing means determines which of a plurality of numerical ranges respectively determined for a plurality of different objects the identification index value belongs to. The identification process is performed by performing a determination process to determine that an object existing at a location corresponding to the processing area is an object corresponding to the numerical range determined to belong to the determination process. It is characterized by carrying out.
According to a fourth aspect of the present invention, in the object identification device according to the third aspect, the imaging means is mounted on a moving body that moves on a moving surface, and includes the moving surface obliquely from above the moving surface. In the above determination process, a numerical range determined for the same object is set for each of at least two or more areas that divide the two polarized images in the vertical direction. It is characterized by determining which of the numerical ranges set for the area the identification index value of the processing area belonging to the area belongs.
According to a fifth aspect of the present invention, in the object identification device according to any one of the second to fourth aspects, the identification processing includes an object existing at a location corresponding to each processing region in the imaging region. A material identification process for identifying the material is included.
According to a sixth aspect of the present invention, in the object identification device according to the fifth aspect, the material of the object identified by the material identification process includes a metal.
The invention of claim 7 is the object identification apparatus according to any one of claims 2 to 6, wherein the imaging means is mounted on a vehicle that is a moving body that moves on a road surface that is a moving surface. The imaging region including the road surface is imaged, and the object identification processing means performs identification processing of an object whose outer surface is exposed on substantially the same plane as the road surface.
The invention according to claim 8 is the object identification device according to any one of claims 2 to 7, wherein the object identification processing means corresponds to a location where a reference object is assumed to exist in advance. A luminance difference value calculated by the luminance difference value calculating unit for a processing region different from the reference processing region, using an identification index value obtained from the luminance difference value calculated by the luminance difference value calculating unit for the reference processing region The identification processing is performed by calculating a relative value of the identification index value obtained from the value with respect to the reference index value and identifying an object existing at a location corresponding to the processing area based on the relative value. It is characterized by doing.
The invention according to claim 9 is the object identification device according to any one of claims 2 to 8, wherein the luminance between two polarized images used when the luminance difference value is calculated as the identification index value. A differential polarization degree indicating a ratio of the luminance difference value to the total value is used.
The invention according to claim 10 is the identification processing result storage means for storing the result of the identification processing performed in the past by the object identification processing means in the object identification device according to any one of claims 2 to 9. And the object identification processing means performs the identification processing using the identification index value and the result of past identification processing stored in the identification processing result storage means. .
Further, the invention of claim 11 is the object identification device according to any one of claims 2 to 10, wherein shape information for storing shape information indicating a shape when a predetermined specific object is imaged by the imaging means is stored. The object identification processing means includes a shape information stored in the shape information storage means in a shape indicated by a plurality of processing regions adjacent to each other identified as the same object by the identification processing. It is determined whether or not the shape is approximated, and when it is determined that the shape is approximated, an object specifying process for specifying an object existing at a location corresponding to the plurality of processing regions as the specific object is performed. It is what.
Further, the invention of claim 12 includes a movement control means for controlling the movement of the moving body, and an object identification means for picking up an image around the moving body as an imaging target and for identifying an object existing in the imaging target. The object identification according to any one of claims 1 to 11, wherein the movement control means, as the object identification means, is a moving body control device that performs the movement control using a result of identification by the object identification means. It is characterized by using an apparatus.
According to a thirteenth aspect of the present invention, an object is identified as an object to be imaged around a moving body that moves in accordance with a driving operation by the driver, and an object that exists in the object is identified by the object identifying means. In the information providing apparatus, comprising: information providing means for generating useful information for the driver using the result; and information notifying means for notifying the driver of information generated by the useful information generating means. As a means, the object identification device according to any one of claims 1 to 11 is used.

本発明においては、撮像手段が撮像した2つの偏光画像について、例えば、所定の処理領域ごとに、これらの偏光画像間における輝度差分値を算出し、その輝度差分値から得られる識別指標値を用いて、各処理領域に対応した場所に存在する物体の識別処理を行う。自然光や照明が照らされている同一場所からの反射光には、通常、偏光方向が互いに異なる複数の偏光が含まれている。これらの偏光は、その場所に照射される光の強度や入射角が同じでも、その場所に存在する物体の偏光特性が異なれば、その偏光方向ごとに強度が変わってくるという性格がある。本発明者らは、この偏光の性格に着目し、鋭意研究の結果、物体の偏光特性の違いから物体を識別できることを見出した。例えば、物体の偏光特性の違いが、偏光方向が互いに異なる2つの偏光を受光して得られる2つの偏光画像間の輝度差分値に強く反映されることを利用して、物体を識別できることを見出した。したがって、2つの偏光画像間の輝度差分値から得られる識別指標値(当該輝度差分値そのものを含む。)を用いることで、偏光特性が互いに異なる物体を高い精度で識別することができる。   In the present invention, for two polarized images captured by the imaging means, for example, a luminance difference value between these polarized images is calculated for each predetermined processing region, and an identification index value obtained from the luminance difference value is used. Thus, an object existing at a location corresponding to each processing area is identified. The reflected light from the same place where natural light or illumination is illuminated usually includes a plurality of polarized lights having different polarization directions. Even if the intensity | strength and incident angle of the light irradiated to the place are the same, if the polarization characteristics of the object which exists in the place differ, the intensity | strength will change for every polarization direction. The present inventors paid attention to the nature of this polarized light and, as a result of intensive studies, found that the object can be identified from the difference in the polarization characteristics of the object. For example, it is found that an object can be identified by utilizing that the difference in polarization characteristics of an object is strongly reflected in a luminance difference value between two polarized images obtained by receiving two polarized light beams having different polarization directions. It was. Therefore, by using an identification index value (including the luminance difference value itself) obtained from the luminance difference value between the two polarized images, it is possible to identify objects having different polarization characteristics with high accuracy.

以上、本発明によれば、撮像手段を用いて物体の偏光特性という新しい性質を利用した物体の識別を行うことができるので、物体の識別に利用できる物体の性質の種類が増え、最終的に特定可能な物体の種別数を増やすことが可能となるという優れた効果が得られる。   As described above, according to the present invention, it is possible to identify an object using a new property called the polarization property of an object using an imaging unit. An excellent effect is obtained that the number of types of objects that can be specified can be increased.

実施形態に係る運転者支援システムの機能ブロック図である。It is a functional block diagram of the driver assistance system concerning an embodiment. 同運転者支援システムに利用可能な偏光カメラの一構成例を示す説明図である。It is explanatory drawing which shows one structural example of the polarization camera which can be utilized for the driver | operator assistance system. 同運転者支援システムに利用可能な偏光カメラの他の構成例を示す説明図である。It is explanatory drawing which shows the other structural example of the polarization camera which can be utilized for the driver | operator assistance system. 同運転者支援システムに利用可能な偏光カメラの更に他の構成例を示す説明図である。It is explanatory drawing which shows the further another structural example of the polarization camera which can be used for the driver | operator assistance system. 同運転者支援システムに利用可能な偏光カメラの更に他の構成例を示す説明図である。It is explanatory drawing which shows the further another structural example of the polarization camera which can be used for the driver | operator assistance system. 同運転者支援システムに利用可能な偏光カメラの更に他の構成例を示す説明図である。It is explanatory drawing which shows the further another structural example of the polarization camera which can be used for the driver | operator assistance system. 同運転者支援システムに利用可能な偏光カメラの更に他の構成例を示す説明図である。It is explanatory drawing which shows the further another structural example of the polarization camera which can be used for the driver | operator assistance system. (a)は識別対象となり得るボッツドッツの上面図であり、(b)は同ボッツドッツの側面図である。(A) is a top view of the botsdots that can be identified, and (b) is a side view of the botsdots. (a)は識別対象となり得るキャッツアイの上面図であり、(b)は同キャッツアイの斜視図である。(A) is a top view of a cat's eye that can be an identification target, and (b) is a perspective view of the cat's eye. 実施形態における路面構造物特定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the road surface structure specific process in embodiment. 偏光カメラにて取得した偏光RAW画像データからモノクロ画像処理部にて生成されたモノクロ画像(輝度画像)の一例を示す説明図である。It is explanatory drawing which shows an example of the monochrome image (luminance image) produced | generated in the monochrome image process part from the polarization RAW image data acquired with the polarization camera. 同偏光RAW画像データから差分偏光度画像処理部にて生成された差分偏光度画像を示す説明図である。It is explanatory drawing which shows the difference polarization degree image produced | generated in the difference polarization degree image process part from the same polarization RAW image data. 図11中の白色破線矢印に沿って得られる輝度値をプロットしたグラフである。It is the graph which plotted the luminance value obtained along the white broken line arrow in FIG. 図12中の白色破線矢印に沿って得られる差分偏光度をプロットしたグラフである。It is the graph which plotted the differential polarization degree obtained along the white broken-line arrow in FIG. 実験室において、アスファルト面と金属表面に対し、光源位置を変化させて固定配置されたカメラでP偏光画像とS偏光画像を撮影したときの差分偏光度の変化の一例を示すグラフである。It is a graph which shows an example of a change of a differential polarization | polarized-light degree when a P polarization | polarized-light image and a S-polarized image are image | photographed with the camera which changed and fixedly arranged the light source position with respect to an asphalt surface and a metal surface in a laboratory. フロントガラスの影響を説明するための説明図である。It is explanatory drawing for demonstrating the influence of a windshield. 区間線としてボッツドッツが用いられている路面を偏光カメラで撮像し、これにより取得した偏光RAW画像データからモノクロ画像処理部が生成したモノクロ画像(輝度画像)の一例を示す説明図である。It is explanatory drawing which shows an example of the monochrome image (luminance image) which the monochrome image processing part produced | generated from the polarized RAW image data which imaged the road surface in which the botsdots are used as a section line with the polarization camera, and was acquired by this. 同偏光RAW画像データから差分偏光度画像処理部にて生成された差分偏光度画像を示す説明図である。It is explanatory drawing which shows the difference polarization degree image produced | generated in the difference polarization degree image process part from the same polarization RAW image data. 実験室において、アスファルト面とスチールに塗料を塗布した塗装面に対し、光源位置を変化させて固定配置されたカメラでP偏光画像とS偏光画像を撮影したときの差分偏光度の変化を示すグラフである。A graph showing the change in the degree of differential polarization when a P-polarized image and an S-polarized image are photographed with a camera that is fixedly arranged by changing the light source position on an asphalt surface and a coated surface obtained by applying paint to steel in a laboratory. It is. コールタールが付着した路面を偏光カメラで撮像し、これにより取得した偏光RAW画像データからモノクロ画像処理部13が生成したモノクロ画像(輝度画像)の一例を示す説明図である。It is explanatory drawing which shows an example of the monochrome image (luminance image) which the monochrome image process part 13 produced | generated from the polarized RAW image data which imaged the road surface to which coal tar adhered with the polarization camera, and was acquired by this. 同偏光RAW画像データから差分偏光度画像処理部にて生成された差分偏光度画像を示す説明図である。It is explanatory drawing which shows the difference polarization degree image produced | generated in the difference polarization degree image process part from the same polarization RAW image data. 実施形態における立体物特定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the solid object specific process in embodiment. 偏光カメラにて取得した偏光RAW画像データからモノクロ画像処理部にて生成されたモノクロ画像(輝度画像)の一例を示す説明図である。It is explanatory drawing which shows an example of the monochrome image (luminance image) produced | generated in the monochrome image process part from the polarization RAW image data acquired with the polarization camera. 同偏光RAW画像データから差分偏光度画像処理部にて生成された差分偏光度画像を示す説明図である。It is explanatory drawing which shows the difference polarization degree image produced | generated in the difference polarization degree image process part from the same polarization RAW image data. 100フレーム分について図23中の白枠3箇所の輝度値分布をとったヒストグラムである。24 is a histogram of luminance value distributions at three white frames in FIG. 23 for 100 frames. 100フレーム分について図24中の白枠3箇所の差分偏光度分布をとったヒストグラムである。FIG. 25 is a histogram obtained by taking differential polarization degree distributions at three positions in a white frame in FIG. 24 for 100 frames.

以下、本発明を、移動体制御装置及び情報提供装置としての運転者支援システムに適用した一実施形態について説明する。
図1は、本実施形態に係る運転者支援システムの機能ブロック図である。
図示しない車両に搭載された撮像手段としての偏光カメラ10により、移動体である車両が走行する路面(移動面)を含む自車周囲の風景を撮影し、画素ごとの垂直偏光強度(以下、単に「S偏光強度」という。)及び水平偏光強度(以下、単に「P偏光強度」という。)を含んだ偏光RAW画像データを取得する。偏光RAW画像データに含まれるP偏光強度データから得られる水平偏光画像データは水平偏光画像メモリ11に、偏光RAW画像データに含まれるS偏光強度データから得られる垂直偏光画像データは垂直偏光画像メモリ12にそれぞれ格納される。これらの画像データは、それぞれ、輝度算出手段としてのモノクロ画像処理部13と、輝度差分値算出手段としての差分偏光度画像処理部15に送信される。
Hereinafter, an embodiment in which the present invention is applied to a driver support system as a mobile control device and an information providing device will be described.
FIG. 1 is a functional block diagram of the driver assistance system according to the present embodiment.
A landscape around the vehicle including a road surface (moving surface) on which a moving vehicle travels is photographed by a polarization camera 10 as an imaging means mounted on a vehicle (not shown). Polarized RAW image data including “S-polarized light intensity” and horizontal polarized light intensity (hereinafter simply referred to as “P-polarized light intensity”) is acquired. The horizontally polarized image data obtained from the P polarized light intensity data included in the polarized RAW image data is stored in the horizontally polarized image memory 11, and the vertically polarized image data obtained from the S polarized light intensity data included in the polarized RAW image data is displayed in the vertically polarized image memory 12. Respectively. These image data are respectively transmitted to the monochrome image processing unit 13 as a luminance calculating unit and the differential polarization degree image processing unit 15 as a luminance difference value calculating unit.

偏光カメラ10は、受光素子であるCCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)等の撮像素子により、例えばメガピクセルサイズの画素を有する周囲画像を撮像するものである。偏光カメラ10は、リアルタイムに近い短い時間間隔で周囲画像を連続的に取得するのが好ましい。偏光カメラ10は、例えばルームミラーに取り付けられ、車両前方の風景(路面を含むフロントビュー)を撮像するものであってもよいし、例えばサイドミラーに取り付けられ、車両側方の風景を撮像するものであってもよいし、例えばバックドアに取り付けられ、車両後方の風景を撮像するものであってもよい。本実施形態では、ルームミラーに取り付けられて車両前方の風景(路面を含むフロントビュー)を撮像する場合を例に挙げて説明する。   The polarization camera 10 captures a surrounding image having pixels of, for example, a megapixel size by an image sensor such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) that is a light receiving element. It is preferable that the polarization camera 10 continuously acquires surrounding images at short time intervals close to real time. The polarization camera 10 may be attached to a room mirror, for example, to capture a landscape in front of the vehicle (a front view including a road surface), or attached to a side mirror, for example, to capture a landscape on the side of the vehicle. For example, it may be attached to a back door and may take an image of a landscape behind the vehicle. In the present embodiment, an example will be described in which a landscape (a front view including a road surface) in front of a vehicle is imaged by being attached to a rearview mirror.

図2は、偏光カメラ10の一構成例を示す説明図である。
この偏光カメラ10Aは、図2に示すように、CCD等の撮像素子を備えた1台のカメラ101の前面に、回転駆動する回転偏光子102を配置したものである。この偏光カメラ10Aは、回転偏光子102の回転角に応じて通過する光の偏光方向が変化する。よって、カメラ101は、回転偏光子102を回転駆動させながら撮像することで、P偏光画像とS偏光画像とを交互に撮像することができる。
FIG. 2 is an explanatory diagram illustrating a configuration example of the polarization camera 10.
As shown in FIG. 2, the polarization camera 10 </ b> A has a rotating polarizer 102 that is rotationally driven on the front surface of one camera 101 that includes an image pickup device such as a CCD. In this polarization camera 10 </ b> A, the polarization direction of light passing therethrough changes according to the rotation angle of the rotating polarizer 102. Therefore, the camera 101 can capture the P-polarized image and the S-polarized image alternately by imaging while rotating the rotating polarizer 102.

図3は、偏光カメラ10の他の構成例を示す説明図である。
この偏光カメラ10Bは、図3のように、CCD等の撮像素子を備えた2台のカメラ111,112を用い、それぞれの前面に、S偏光を透過するS偏光フィルタ113とP偏光を透過するP偏光フィルタ114とを配置したものである。図2に示した偏光カメラ10Aでは、1台のカメラ101でP偏光画像とS偏光画像とを交互に撮像するため、P偏光画像とS偏光画像とを同時に撮影することができなかったが、図3に示した偏光カメラ10Bでは、P偏光画像とS偏光画像とを同時に撮影することができる。
FIG. 3 is an explanatory diagram illustrating another configuration example of the polarization camera 10.
As shown in FIG. 3, the polarization camera 10B uses two cameras 111 and 112 each having an image sensor such as a CCD, and transmits an S-polarized light filter 113 that transmits S-polarized light and a P-polarized light to the respective front surfaces. A P-polarization filter 114 is disposed. In the polarization camera 10A shown in FIG. 2, since one camera 101 alternately captures P-polarized images and S-polarized images, the P-polarized image and S-polarized image could not be captured simultaneously. With the polarization camera 10B shown in FIG. 3, a P-polarized image and an S-polarized image can be taken simultaneously.

図4は、偏光カメラ10の更に他の構成例を示す説明図である。
この偏光カメラ10Cは、図4に示すように、撮像素子がP偏光画像とS偏光画像とについて個別に設けられている点では、図3に示した偏光カメラ10Bと同様であるが、各撮像素子が図3に示した偏光カメラ10Bの場合よりも近接配置されている点で大きく異なる。この偏光カメラ10Cによれば、図3に示した偏光カメラ10Bよりも小型化できる。図4に示す偏光カメラ10Cは、レンズアレイ122と、遮光スペーサ123と、偏光フィルタ124と、スペーサ125と、固体撮像ユニット126とが積層されて形成されている。レンズアレイ122は、2つの撮像レンズ122a,122bを有する。この2つの撮像レンズ122a,122bは、互いに独立した同一形状の例えば非球面レンズ等からなる単レンズで形成され、それぞれの光軸121a,121bが互いに平行となるように、かつ、同一平面上に配置している。遮光スペーサ123は、2つの開口部123a,123bを有し、レンズアレイ122に対して被写体側とは反対側に設けられている。2つの開口部123a,123bは、光軸121a,121bをそれぞれ中心として所定の大きさで貫通され、内壁面には黒塗りや粗面やつや消しなどにより光の反射防止処理がされている。偏光フィルタ124は、偏光面が90度異なる2つの偏光子領域124a,124bを有する領域分割型の偏光子フィルタであり、遮光スペーサ123に対してレンズアレイ122とは反対側に設けられている。この偏光子領域124a,124bは、不特定の方向に電磁界が振動する無偏光を、偏光面に沿った方向の振動成分(偏光成分)だけを透過させて直線偏光にする。なお、金属の微細凹凸形状で形成されたワイヤグリッド方式や、オートクローニング型のフォトニック結晶方式を用いることで、境界部が明瞭な領域分割型の偏光子フィルタを得ることができる。スペーサ125は、偏光フィルタ124の偏光子領域偏光a,偏光bに対応する領域が貫通した開口部125aを有する矩形枠状に形成され、偏光フィルタ124に対して遮光スペース123とは反対側に設けられている。固体撮像ユニット126は、基板127上に搭載された2つの固体撮像素子126a,126bを有し、スペーサ125に対して偏光フィルタ124とは反対側に設けられている。本実施形態では、モノクロのセンシングを行うため、これらの固体撮像素子126a,126bはカラーフィルタを備えていない。ただし、カラー画像のセンシングを行う場合には、カラーフィルタを配置する。
FIG. 4 is an explanatory diagram showing still another configuration example of the polarization camera 10.
As shown in FIG. 4, the polarization camera 10C is similar to the polarization camera 10B shown in FIG. 3 in that the imaging elements are individually provided for the P-polarized image and the S-polarized image. The elements are greatly different in that they are arranged closer than in the polarization camera 10B shown in FIG. According to this polarization camera 10C, it can be made smaller than the polarization camera 10B shown in FIG. The polarization camera 10C shown in FIG. 4 is formed by laminating a lens array 122, a light shielding spacer 123, a polarization filter 124, a spacer 125, and a solid-state imaging unit 126. The lens array 122 has two imaging lenses 122a and 122b. The two imaging lenses 122a and 122b are formed of a single lens made of, for example, an aspheric lens having the same shape independent from each other, and the optical axes 121a and 121b are parallel to each other and on the same plane. It is arranged. The light shielding spacer 123 has two openings 123a and 123b, and is provided on the side opposite to the subject side with respect to the lens array 122. The two openings 123a and 123b are penetrated with a predetermined size centering on the optical axes 121a and 121b, respectively, and the inner wall surface is subjected to light reflection prevention processing by blackening, roughening or matting. The polarizing filter 124 is a region-dividing type polarizer filter having two polarizer regions 124 a and 124 b whose polarization planes are different by 90 degrees, and is provided on the side opposite to the lens array 122 with respect to the light shielding spacer 123. The polarizer regions 124a and 124b transmit non-polarized light whose electromagnetic field vibrates in an unspecified direction to linearly polarized light by transmitting only the vibration component (polarized component) in the direction along the polarization plane. Note that a region-divided polarizer filter with a clear boundary can be obtained by using a wire grid method formed with a metal fine concavo-convex shape or an auto-cloning photonic crystal method. The spacer 125 is formed in a rectangular frame shape having an opening 125 a through which regions corresponding to the polarizer regions polarized light a and polarized light b of the polarizing filter 124 pass, and is provided on the side opposite to the light shielding space 123 with respect to the polarizing filter 124. It has been. The solid-state image pickup unit 126 has two solid-state image pickup devices 126 a and 126 b mounted on a substrate 127, and is provided on the side opposite to the polarization filter 124 with respect to the spacer 125. In the present embodiment, in order to perform monochrome sensing, these solid-state imaging devices 126a and 126b do not include a color filter. However, a color filter is arranged when sensing a color image.

図5は、偏光カメラ10の更に他の構成例を示す説明図である。
この偏光カメラ10Dは、図5に示すように、1:1の透過性を備えるハーフミラー131と、反射ミラー132と、S偏光フィルタ133と、P偏光フィルタ134と、S偏光フィルタ133を介してS偏光を受光するS偏光用CCD135と、P偏光フィルタ134を介してP偏光を受光するP偏光用CCD136とを有する。図3や図4に示した偏光カメラ10B,10Cでは、S偏光画像とP偏光画像の同時撮影は可能であるものの、視差が生じてしまう。これに対し、図5に示した偏光カメラ10Dでは、図示しない同一の撮像光学系(レンズ)を介して受光される同じ光を使ってS偏光画像とP偏光画像を同時撮影するため、視差が生じない。よって、視差ずれ補正などの処理が不要となる。
なお、ハーフミラー131に代えて、P偏光を反射し、かつ、S偏光を透過するプリズム等の偏光ビームスプリッタを用いてもよい。このような偏光ビームスプリッタを用いることで、S偏光フィルタ133やP偏光フィルタ134を省略することが可能となり、光学系の簡素化が図られるとともに、光利用効率も向上できる。
FIG. 5 is an explanatory diagram showing still another configuration example of the polarization camera 10.
As illustrated in FIG. 5, the polarization camera 10 </ b> D includes a half mirror 131 having 1: 1 transparency, a reflection mirror 132, an S polarization filter 133, a P polarization filter 134, and an S polarization filter 133. It has an S-polarized CCD 135 that receives S-polarized light and a P-polarized CCD 136 that receives P-polarized light via a P-polarized filter 134. In the polarization cameras 10B and 10C shown in FIGS. 3 and 4, although S-polarized images and P-polarized images can be captured simultaneously, parallax occurs. On the other hand, in the polarization camera 10D shown in FIG. 5, since the S-polarized image and the P-polarized image are simultaneously captured using the same light received through the same imaging optical system (lens) (not shown), the parallax is reduced. Does not occur. Therefore, processing such as parallax deviation correction is not necessary.
Instead of the half mirror 131, a polarizing beam splitter such as a prism that reflects P-polarized light and transmits S-polarized light may be used. By using such a polarization beam splitter, the S-polarization filter 133 and the P-polarization filter 134 can be omitted, the optical system can be simplified, and the light utilization efficiency can be improved.

図6は、偏光カメラ10の更に他の構成例を示す説明図である。
この偏光カメラ10Eは、図6に示すように、撮像レンズ142aの光軸141に沿ってカメラ構成要素が積層されたユニットである点では、図4に示した偏光カメラ10Cと同様であるが、S偏光画像とP偏光画像を単一の撮像レンズ(撮像レンズは光軸に複数枚積層配置してもよい。)142で撮像する点で異なっている。この偏光カメラ10Eによれば、図5に示した偏光カメラ10Dと同様に、S偏光画像とP偏光画像との間で視差が生じない。しかも、図5に示した偏光カメラ10Dよりも小型化できる。なお、図6に示した偏光カメラ10Eの偏光フィルタ144は、偏光面が90度異なる2種類の偏光子領域144a,144bが2つずつ設けられた領域分割型の偏光子フィルタとなっており、これに伴い、4つの固体撮像素子146a,146b,146c,146dが設けられている。
FIG. 6 is an explanatory diagram showing still another configuration example of the polarization camera 10.
This polarization camera 10E is the same as the polarization camera 10C shown in FIG. 4 in that it is a unit in which camera components are stacked along the optical axis 141 of the imaging lens 142a as shown in FIG. The difference is that an S-polarized image and a P-polarized image are captured by a single imaging lens 142 (a plurality of imaging lenses may be stacked on the optical axis) 142. According to this polarization camera 10E, no parallax occurs between the S-polarized image and the P-polarized image, as in the polarization camera 10D shown in FIG. Moreover, it can be made smaller than the polarizing camera 10D shown in FIG. The polarization filter 144 of the polarization camera 10E shown in FIG. 6 is a region-dividing polarizer filter in which two types of polarizer regions 144a and 144b having different polarization planes of 90 degrees are provided. Accordingly, four solid-state image sensors 146a, 146b, 146c, 146d are provided.

図7は、偏光カメラ10の更に他の構成例を示す説明図である。
この偏光カメラ10Fは、図7に示すように、領域分割型のフィルタを採用したものである。図7において、縦横に並ぶ正方形が各受光素子の受光部151を示し、縦線で示す領域がS偏光フィルタ152の領域を示し、横線で示す領域がP偏光フィルタ153の領域を示す。この偏光カメラ10Fは、受光素子の画素に1:1で対応させたものではなく、各フィルタ152,153の領域は、横方向に受光素子一個分の幅を持ち、領域の境界線の傾きは2、つまり横方向に1画素分進む間に縦方向に2画素分変化する角度を持つ斜めの帯の形状をとる。このような特殊なフィルタ配置パターンと信号処理を組み合わせることによって、撮像素子配列と領域分割フィルタを接合する際の位置合せの精度が十分でなくとも、画面全体で各フィルタ透過画像を再現することを可能とし、S偏光画像及びP偏光画像を撮像できる低コストな偏光カメラを実現できる。
FIG. 7 is an explanatory diagram showing still another configuration example of the polarization camera 10.
As shown in FIG. 7, the polarization camera 10F employs a region division type filter. In FIG. 7, squares arranged vertically and horizontally indicate the light receiving portions 151 of the respective light receiving elements, a region indicated by a vertical line indicates a region of the S polarization filter 152, and a region indicated by a horizontal line indicates the region of the P polarization filter 153. This polarization camera 10F is not made to correspond to the pixels of the light receiving element 1: 1, but the area of each filter 152, 153 has a width corresponding to one light receiving element in the horizontal direction, and the inclination of the boundary line of the area is 2. That is, it takes the shape of an oblique band having an angle that changes by two pixels in the vertical direction while proceeding by one pixel in the horizontal direction. By combining such a special filter arrangement pattern and signal processing, it is possible to reproduce each filter transmission image on the entire screen even if the alignment accuracy when joining the image sensor array and the area division filter is not sufficient. It is possible to realize a low-cost polarization camera that can capture an S-polarized image and a P-polarized image.

モノクロ画像処理部13は、水平偏光画像メモリ11及び垂直偏光画像メモリ12内のP偏光強度データ及びS偏光強度データから、画素ごとのモノクロ輝度(当該画素のP偏光強度+S偏光強度)を算出する。このモノクロ輝度データを用いてモノクロ画像が生成できる。モノクロ画像処理部13が算出したモノクロ輝度データは、ライン検出手段としての白線識別部14に出力される。
差分偏光度画像処理部15は、水平偏光画像メモリ11及び垂直偏光画像メモリ12内のP偏光強度データ及びS偏光強度データから、画素ごとに差分偏光度(識別指標値)を算出する。この差分偏光度を用いて差分偏光度画像が生成できる。差分偏光度は、下記の式(1)に示す計算式から求められる。すなわち、差分偏光度は、P偏光強度とS偏光強度との合計値(輝度合計値)に対するP偏光強度とS偏光強度との差分値(輝度差分値)の比率である。また、差分偏光度は、輝度合計値に対するP偏向強度の比率(P偏光比)と、輝度合計値に対するS偏向強度の比率(S偏光比)との差分値であると言い換えることもできる。なお、本実施形態では、P偏光強度からS偏光強度を差し引く場合について説明するが、S偏光強度からP偏光強度を差し引くようにしてもよい。差分偏光度画像処理部15が算出した差分偏光度のデータは、物体識別処理手段としての路面構造物識別部16及び立体物識別部18に出力される。
差分偏光度=(P偏光強度−S偏光強度)/(P偏光強度+S偏光強度) ・・(1)
The monochrome image processing unit 13 calculates the monochrome luminance (P polarization intensity + S polarization intensity of the pixel) for each pixel from the P polarization intensity data and the S polarization intensity data in the horizontal polarization image memory 11 and the vertical polarization image memory 12. . A monochrome image can be generated using the monochrome luminance data. The monochrome luminance data calculated by the monochrome image processing unit 13 is output to a white line identification unit 14 as a line detection unit.
The differential polarization degree image processing unit 15 calculates the differential polarization degree (identification index value) for each pixel from the P polarization intensity data and the S polarization intensity data in the horizontal polarization image memory 11 and the vertical polarization image memory 12. A differential polarization degree image can be generated using the differential polarization degree. The differential polarization degree is obtained from the calculation formula shown in the following formula (1). That is, the differential polarization degree is the ratio of the difference value (luminance difference value) between the P polarization intensity and the S polarization intensity to the total value (luminance total value) of the P polarization intensity and the S polarization intensity. The differential polarization degree can be paraphrased as a difference value between the ratio of the P deflection intensity to the total luminance value (P polarization ratio) and the ratio of the S deflection intensity to the total luminance value (S polarization ratio). In this embodiment, the case where the S polarization intensity is subtracted from the P polarization intensity will be described. However, the P polarization intensity may be subtracted from the S polarization intensity. The differential polarization degree data calculated by the differential polarization degree image processing unit 15 is output to the road surface structure identification unit 16 and the three-dimensional object identification unit 18 as object identification processing means.
Differential polarization degree = (P polarization intensity−S polarization intensity) / (P polarization intensity + S polarization intensity) (1)

白線識別部14は、モノクロ画像処理部13により算出されたモノクロ輝度データに基づき、以下の方法により走行路面上の白線を識別するものである。なお、ここでいう白線には、黄色線等の任意の色の線、実線、破線、点線、二重線等の道路を区画するあらゆる線を含んでよい。
通常の道路の車線(区画線)は、運転者が視認しやすいように、アスファルト等の黒い部分に対し、コントラストの高い色(白等)で形成されている。したがって、このような車線(ここでは白線とする。)の輝度は、その他の場所に存在するアスファルト等の物体よりも十分に大きい。よって、モノクロ輝度データが所定の閾値以上の部分を白線と判定することができる。なお、本実施形態で用いるモノクロ輝度データは、上述した偏光カメラ10により得たP偏光強度とS偏光強度の合計値を用いている。
The white line identification unit 14 identifies a white line on the traveling road surface by the following method based on the monochrome luminance data calculated by the monochrome image processing unit 13. The white line referred to here may include any line that divides the road, such as a line of an arbitrary color such as a yellow line, a solid line, a broken line, a dotted line, and a double line.
A normal road lane (division line) is formed in a high-contrast color (white or the like) with respect to a black portion such as asphalt so that the driver can easily see. Therefore, the luminance of such a lane (here, a white line) is sufficiently higher than that of an object such as asphalt existing elsewhere. Therefore, it is possible to determine a portion where the monochrome luminance data is equal to or greater than the predetermined threshold as a white line. Note that the monochrome luminance data used in the present embodiment uses the total value of the P-polarized light intensity and the S-polarized light intensity obtained by the polarization camera 10 described above.

本実施形態における白線識別処理の流れとしては、まず、上述した偏光カメラ10により得た各画素のP偏光強度とS偏光強度の合計値を、モノクロ画像処理部13にて各画素のモノクロ輝度として算出する。白線識別部14は、このモノクロ輝度により得られるモノクロ画像に対し、複数の処理ラインを設定する。本実施形態の処理ラインは、差分偏光度画像内の横1列に並んだ画素列ごとに設定される。処理ラインの方向は、必ずしも横方向である必要はなく、縦方向又は斜め方向であってもよい。また、各処理ラインの画素数は、互いに同じであっても異なってもよい。また、処理ラインは、必ずしも、差分偏光度画像内の全画素に対して設定される必要はなく、差分偏光度画像内の適切に選択された一部の画素について設定するようにしてもよい。また、後述するように、処理ラインではなく、処理ブロック(縦横それぞれ2画素以上からなるブロック)単位で行ってもよい。白線識別部14は、各処理ラインについて、隣接する2つの画素間におけるモノクロ輝度の差を算出し、その算出結果が所定の白線エッジ閾値以上であるか否かを判断する。この判断で白線エッジ閾値以上であると判断された場合、その判断に係る2つの隣接画素間を白線エッジとして記憶する。これを全処理ラインについて行うことで、モノクロ画像内における白線エッジを抽出することができる。   As a flow of white line identification processing in the present embodiment, first, the monochrome image processing unit 13 uses the total value of the P-polarized light intensity and S-polarized light intensity of each pixel obtained by the polarization camera 10 as the monochrome luminance of each pixel. calculate. The white line identification unit 14 sets a plurality of processing lines for the monochrome image obtained by the monochrome luminance. The processing line of this embodiment is set for each pixel column arranged in one horizontal row in the differential polarization degree image. The direction of the processing line is not necessarily the horizontal direction, and may be the vertical direction or the oblique direction. In addition, the number of pixels in each processing line may be the same or different. Further, the processing line is not necessarily set for all the pixels in the differential polarization degree image, and may be set for a part of appropriately selected pixels in the differential polarization degree image. Further, as will be described later, the processing may be performed in units of processing blocks (blocks each consisting of two or more pixels in the vertical and horizontal directions) instead of the processing line. The white line identification unit 14 calculates a monochrome luminance difference between two adjacent pixels for each processing line, and determines whether the calculation result is equal to or greater than a predetermined white line edge threshold. If it is determined by this determination that the threshold is equal to or greater than the white line edge threshold value, the two adjacent pixels related to the determination are stored as a white line edge. By performing this for all the processing lines, it is possible to extract the white line edge in the monochrome image.

白線識別部14により白線エッジを識別した結果は、様々な処理に利用することが可能である。
例えば、CRTや液晶等で構成される車内の情報報知手段である表示部(ディスプレイ)に、モノクロ画像処理部で算出した輝度データを用いて生成されるモノクロ画像(フロントビュー画像)を表示し、その画像中の白線部分の情報を、運転者にとって有益な情報として報知するために、運転者が見やすい表示形態で表示する処理が挙げられる。これによれば、例えば、運転者が目視で白線を認識することが困難な状況下であっても、運転者は表示部のフロントビュー画像を見ることで、自車と白線との相対位置関係を把握することができ、白線で区画される走行レーンを維持して走行させることが容易になる。
また、例えば、白線識別部14により認識された白線の位置情報から、自車と白線との相対位置関係を把握する処理を行い、自車が白線で区画される走行レーン上の適正走行位置から外れて走行していないかどうかを判断し、適正走行位置から外れて走行しているときに警報音等を発する処理が挙げられる。あるいは、適正走行位置から外れて走行しているときに、自動ブレーキ機能を実行して、自車の走行速度を落とすような処理も挙げられる。
The result of identifying the white line edge by the white line identifying unit 14 can be used for various processes.
For example, a monochrome image (front view image) generated by using the luminance data calculated by the monochrome image processing unit is displayed on a display unit (display) which is an in-vehicle information notification unit composed of a CRT, a liquid crystal or the like, In order to notify the information of the white line portion in the image as information useful for the driver, there is a process of displaying the information in a display form that is easy for the driver to see. According to this, for example, even in a situation where it is difficult for the driver to visually recognize the white line, the driver can see the front view image of the display unit, and thereby the relative positional relationship between the vehicle and the white line. It is easy to keep track of the driving lanes demarcated by the white line.
In addition, for example, from the position information of the white line recognized by the white line identification unit 14, a process of grasping the relative positional relationship between the own vehicle and the white line is performed, and the own vehicle is determined from the appropriate travel position on the travel lane partitioned by the white line. A process for determining whether or not the vehicle is running off and generating an alarm sound or the like when the vehicle is running out of the proper running position can be given. Alternatively, there is a process in which the automatic braking function is executed to reduce the traveling speed of the host vehicle when traveling out of the proper traveling position.

路面構造物識別部16は、差分偏光度画像処理部15により算出された差分偏光度に基づき、後述する方法にて走行路面上に存在する構造物(以下。「路面構造物」という。)を識別するものである。路面構造物識別部16は、その認識結果を路面構造物特定部17と白線識別部14に出力する。路面構造物としては、マンホールの蓋、高速道路や陸橋などの道路に存在する道路連結部などの金属物、走行レーンを区分する区間線を形成するボッツドッツやキャッツアイなどの金属物と反射板等から構成される複合物が挙げられる。また、ここではコールタールのような意図的に作られたものではない路面の一部を覆う異物も含むものとする。路面構造物識別部16では、外面が路面と略同一面内に位置する平面物体を路面構造物として識別するが、その路面構造物が、マンホールの蓋なのか、道路連結部なのか、ボッツドッツやキャッツアイなのかについては、路面構造物特定部17で特定する。   Based on the differential polarization degree calculated by the differential polarization degree image processing unit 15, the road surface structure identification unit 16 refers to a structure (hereinafter referred to as “road surface structure”) present on the traveling road surface by a method described later. To identify. The road surface structure identifying unit 16 outputs the recognition result to the road surface structure identifying unit 17 and the white line identifying unit 14. Road surface structures include manhole covers, metal objects such as road connections on roads such as highways and overpasses, metal objects such as bots dots and cats eyes that form section lines that divide traveling lanes, reflectors, etc. A composite composed of: In addition, here, it is assumed to include a foreign substance that covers a part of the road surface that is not intentionally made, such as coal tar. The road surface structure identification unit 16 identifies a planar object whose outer surface is located substantially in the same plane as the road surface as a road surface structure. Whether the road surface structure is a manhole cover, a road connection unit, The road surface structure specifying unit 17 specifies whether it is a cat's eye.

なお、路面構造物識別部16は、上述した白線識別部14による白線エッジの識別結果に基づいて差分偏光度画像から白線を除去し、白線が除去された差分偏光度画像に対して路面構造物識別処理を行ってもよい。この場合、白線を含むノイズを適切に除去して、路面構造物の識別精度を高めることができる。   The road surface structure identification unit 16 removes the white line from the differential polarization degree image based on the white line edge identification result by the white line identification unit 14 described above, and the road surface structure object with respect to the differential polarization degree image from which the white line has been removed. An identification process may be performed. In this case, noise including a white line can be appropriately removed, and the road surface structure identification accuracy can be improved.

ここでいうマンホールの蓋とは、マンホールの開口部に嵌められた金属板を指し、一般には強固かつ重量のある鋳鉄製のものである。
また、ボッツドッツBは、主として北米で区間線として用いられる例えばセラミック製のものである。ボッツドッツBは、図8(b)に示すように直径100mm程度の円形ドーム状の物体を路面に埋め込んだものであり、これを図8(a)に示すように路上の走行レーンに沿って多数配置することで、区間線として用いられる。
また、キャッツアイCは、区間線として用いられるもので、図9(b)に示すように、略矩形状の本体内部に、入射光を同一の方向に反射する特性を有する反射体Dが取り付けられたものである。キャッツアイCは、図8(a)に示すように、路上の走行レーンに沿って多数配置されることで、区間線として用いられる。
なお、ボッツドッツ及びキャッツアイは、いずれも路面から僅かに突出した状態で配設される。
The manhole cover here refers to a metal plate fitted in the opening of the manhole, and is generally made of cast iron that is strong and heavy.
Botsdots B is made of ceramic, for example, which is mainly used as a section line in North America. As shown in FIG. 8 (b), the botsdots B is obtained by embedding a circular dome-shaped object having a diameter of about 100 mm in the road surface. As shown in FIG. By arranging, it is used as a section line.
The cat's eye C is used as a section line. As shown in FIG. 9B, a reflector D having a characteristic of reflecting incident light in the same direction is attached inside a substantially rectangular body. It is what was done. As shown in FIG. 8A, the cat's eyes C are used as section lines by being arranged in large numbers along the traveling lane on the road.
Both the botsdots and the cat's eyes are arranged in a state of slightly protruding from the road surface.

立体物識別部18は、差分偏光度画像処理部15により算出された差分偏光度に基づき、後述する方法にて偏光カメラ10の撮像領域内に存在する立体物を識別するものである。このような立体物としては、走行路面上を走行する他の車両、走行路面の路端近傍に存在するガードレール、電信柱、街灯、標識、路端の段差部等の路外障害物、走行路面上又は路肩に居る人、動物、自転車等の衝突回避物など、走行路面とは異なる方向を向いた外面を有するあらゆる立体物が含まれる。立体物識別部18は、その認識結果を立体物特定部19に出力する。立体物識別部18では、このような立体物を、路面、及び、外面が路面と略同一面内に存在する平面物体と区別して認識するが、その立体物が、他の車両なのか、路外障害物なのか、衝突回避物なのかについては、立体物特定部19で特定する。   The three-dimensional object identification unit 18 identifies a three-dimensional object existing in the imaging region of the polarization camera 10 based on the differential polarization degree calculated by the differential polarization degree image processing unit 15 by a method described later. Such three-dimensional objects include other vehicles traveling on the road surface, guardrails, telephone poles, street lamps, signs, roadside steps, and other obstacles existing near the road edge of the road surface. Any solid object having an outer surface facing in a direction different from the traveling road surface, such as a collision avoidance object such as a person on an upper or shoulder road, an animal, or a bicycle, is included. The three-dimensional object identification unit 18 outputs the recognition result to the three-dimensional object identification unit 19. The three-dimensional object identification unit 18 recognizes such a three-dimensional object by distinguishing it from a road object and a plane object having an outer surface substantially in the same plane as the road surface. The three-dimensional object specifying unit 19 specifies whether the object is an external obstacle or a collision avoidance object.

形状情報記憶手段としての形状記憶部20には、路面構造物特定部17及び立体物特定部19で用いる形状情報としての各種形状テンプレートのデータが記憶されている。形状記憶部20に記憶される形状テンプレートは、路面構造物特定部17及び立体物特定部19で特定する対象物(特定物体)を、偏光カメラ10により撮像したときの形状(撮像画像中における特定物体の形状)を示すものである。例えば、マンホールの蓋(円形)の形状テンプレートは、偏光カメラ10が路面上のマンホール蓋を斜め上方から撮影するため、楕円形状を示すものとなる。なお、形状テンプレートは、サイズ情報が含まれていてもよい。本実施形態において、路面構造物特定部17で用いることが可能な形状テンプレートとしては、例えば、マンホールの蓋を特定するための形状テンプレート、ボッツドッツ又はキャッツアイからなる区間線を特定するための形状テンプレート、高速道路や陸橋などの道路に存在する道路連結部を特定するための形状テンプレートが挙げられる。また、立体物特定部19で用いることが可能な形状テンプレートとしては、例えば、他の車両を特定するための形状テンプレート、電信柱や街灯を特定するための形状テンプレート、路端の段差部を特定するための形状テンプレートが挙げられる。もちろん、ここに例示した以外のものでも、その形状から物体の特定が可能な物体であれば、その物体を特定するためのテンプレートを用意してもよい。   Data of various shape templates as shape information used in the road surface structure specifying unit 17 and the three-dimensional object specifying unit 19 are stored in the shape storage unit 20 as the shape information storage unit. The shape template stored in the shape storage unit 20 is a shape (specification in a picked-up image) when an object (specific object) specified by the road surface structure specifying unit 17 and the three-dimensional object specifying unit 19 is imaged by the polarization camera 10. The shape of the object). For example, the shape template of the manhole cover (circular) shows an elliptical shape because the polarizing camera 10 photographs the manhole cover on the road surface from obliquely above. The shape template may include size information. In this embodiment, as a shape template that can be used in the road surface structure specifying unit 17, for example, a shape template for specifying a manhole cover, a shape template for specifying a section line made up of botsdots or cat's eyes And a shape template for identifying a road connecting portion existing on a road such as an expressway or a crossover. In addition, as a shape template that can be used by the three-dimensional object specifying unit 19, for example, a shape template for specifying another vehicle, a shape template for specifying a telephone pole or a streetlight, and a stepped portion on a road edge are specified. The shape template for doing is mentioned. Of course, a template for identifying an object other than those exemplified here may be prepared as long as the object can be identified from its shape.

路面構造物特定部17は、路面構造物識別部16の識別結果に基づき、路面構造物として識別された画像領域の形状を、形状記憶部20に記憶されている形状テンプレートと照らし合わせ、その路面構造物が、マンホールの蓋なのか、道路連結部なのか、ボッツドッツ又はキャッツアイからなる区間線なのか、それともこれら以外の路面構造物なのかを、後述する方法にて特定する。   The road surface structure specifying unit 17 compares the shape of the image area identified as the road surface structure with the shape template stored in the shape storage unit 20 based on the identification result of the road surface structure identification unit 16, and the road surface Whether the structure is a manhole cover, a road connecting portion, a section line made up of botts or cats eyes, or a road surface structure other than these is specified by a method described later.

立体物特定部19は、立体物識別部18の識別結果に基づき、立体物として識別された画像領域の形状を、形状記憶部20に記憶されている形状テンプレートと照らし合わせ、その立体物が、他の車両なのか、路外障害物なのか、衝突回避物なのか、それともこれら以外の立体物なのかを、後述する方法にて特定する。   The three-dimensional object specifying unit 19 compares the shape of the image area identified as the three-dimensional object with the shape template stored in the shape storage unit 20 based on the identification result of the three-dimensional object identification unit 18, and the three-dimensional object is Whether it is another vehicle, an off-road obstacle, a collision avoidance object, or a three-dimensional object other than these is specified by a method described later.

次に、本実施形態に係る運転者支援システムにおいて路面構造物を特定する路面構造物特定処理の流れについて説明する。
図10は、路面構造物特定処理の流れを示すフローチャートである。
偏光カメラ10により偏光RAW画像データを取得したら、その偏光RAW画像データに含まれるP偏光強度データから得られる水平偏光画像データを水平偏光画像メモリ11に格納するとともに、その偏光RAW画像データに含まれるS偏光強度データから得られる垂直偏光画像データを垂直偏光画像メモリ12に格納する(S1)。その後、差分偏光度画像処理部15は、水平偏光画像メモリ11及び垂直偏光画像メモリ12内のP偏光強度データ及びS偏光強度データから、画素ごとに、上記式(1)に示す計算式より、差分偏光度(識別指標値)を算出する(S2)。この算出結果から得られる差分偏光度画像のデータは、差分偏光度画像処理部15内の図示しない画像メモリに格納される。
Next, the flow of the road surface structure specifying process for specifying the road surface structure in the driver assistance system according to the present embodiment will be described.
FIG. 10 is a flowchart showing the flow of the road surface structure specifying process.
When polarized RAW image data is acquired by the polarization camera 10, the horizontally polarized image data obtained from the P polarization intensity data included in the polarized RAW image data is stored in the horizontally polarized image memory 11 and included in the polarized RAW image data. The vertically polarized image data obtained from the S polarization intensity data is stored in the vertically polarized image memory 12 (S1). Thereafter, the differential polarization degree image processing unit 15 calculates, from the P-polarization intensity data and the S-polarization intensity data in the horizontal polarization image memory 11 and the vertical polarization image memory 12, for each pixel, from the calculation formula shown in the above formula (1). A differential polarization degree (identification index value) is calculated (S2). Data of the differential polarization degree image obtained from the calculation result is stored in an image memory (not shown) in the differential polarization degree image processing unit 15.

次に、エッジ判別処理について説明する。
差分偏光度画像を得た差分偏光度画像処理部15は、その差分偏光度画像に対して複数の処理ラインを設定する。本実施形態の処理ラインは、差分偏光度画像内の横1列に並んだ画素列ごとに設定される。処理ラインの方向は、必ずしも横方向である必要はなく、縦方向又は斜め方向であってもよい。また、各処理ラインの画素数は、互いに同じであっても異なってもよい。また、処理ラインは、必ずしも、差分偏光度画像内の全画素に対して設定される必要はなく、差分偏光度画像内の適切に選択された一部の画素について設定するようにしてもよい。
Next, the edge determination process will be described.
The differential polarization degree image processing unit 15 that has obtained the differential polarization degree image sets a plurality of processing lines for the differential polarization degree image. The processing line of this embodiment is set for each pixel column arranged in one horizontal row in the differential polarization degree image. The direction of the processing line is not necessarily the horizontal direction, and may be the vertical direction or the oblique direction. In addition, the number of pixels in each processing line may be the same or different. Further, the processing line is not necessarily set for all the pixels in the differential polarization degree image, and may be set for a part of appropriately selected pixels in the differential polarization degree image.

また、処理ラインではなく、処理ブロック(縦横それぞれ2画素以上からなるブロック)単位で行ってもよい。この場合、例えば、後述するエッジ判別処理において、差分偏光度画像に対して複数の処理ブロックを設定し、処理ブロックごとに、差分偏光度のばらつき度合い(散らばり度合い)を示す標準偏差を算出し、算出した標準偏差が基準偏差閾値以上である場合にその処理ブロック内にエッジが存在すると判定することができる。なお、処理ブロックは、矩形の区域で設定されてもよいし、他の形状の区域で設定されてもよい。処理ブロックの大きさは、例えば10×10画素程度であってよい。なお、各処理ブロックは、同じサイズであっても、異なるサイズであってもよい。また、標準偏差に代えて、分散や平均偏差等の統計量が用いられてもよい。   Further, the processing may be performed in units of processing blocks (blocks each composed of two or more pixels in the vertical and horizontal directions) instead of the processing line. In this case, for example, in an edge determination process described later, a plurality of processing blocks are set for the differential polarization degree image, and a standard deviation indicating a variation degree (scattering degree) of the differential polarization degree is calculated for each processing block. When the calculated standard deviation is equal to or greater than the reference deviation threshold, it can be determined that an edge exists in the processing block. Note that the processing block may be set in a rectangular area, or may be set in an area having another shape. The size of the processing block may be about 10 × 10 pixels, for example. Each processing block may be the same size or a different size. Further, instead of the standard deviation, a statistic such as variance or average deviation may be used.

差分偏光度画像処理部15は、各処理ラインについて、隣接する2つの画素間における差分偏光度の差を算出し、その算出結果が所定のエッジ閾値以上であるか否かを判断する(S3)。この判断でエッジ閾値以上であると判断された場合、その判断に係る2つの隣接画素間をエッジとして記憶する(S4)。これを全処理ラインについて行うことで(S5)、差分偏光度画像内における互いに異なる物体の境界線を特定することができる。   The differential polarization degree image processing unit 15 calculates the difference in differential polarization degree between two adjacent pixels for each processing line, and determines whether or not the calculation result is equal to or greater than a predetermined edge threshold (S3). . If it is determined in this determination that the threshold value is equal to or greater than the edge threshold, the interval between two adjacent pixels related to the determination is stored as an edge (S4). By performing this for all the processing lines (S5), it is possible to specify the boundary lines of different objects in the differential polarization degree image.

ここで、従来のエッジ判別処理では、各処理ラインについて、隣接する各画素のモノクロ輝度の差を算出し、その算出結果が所定のエッジ閾値以上であるか否かを判断する場合が多い。しかしながら、この従来のエッジ判別処理では、例えばマンホールの蓋とアスファルトのようにカメラで受光される反射光の強度(モノクロ輝度)が同程度の異種物体間については、そのエッジを判別することができなかった。これに対し、本実施形態におけるエッジ判別処理では、モノクロ輝度ではなく差分偏光度を用いてエッジ判別を行うため、反射光の強度が同程度の異種物体間のエッジを高精度に判別することができる。以下、この点について説明する。   Here, in the conventional edge determination processing, for each processing line, a difference in monochrome luminance between adjacent pixels is calculated, and it is often determined whether or not the calculation result is equal to or greater than a predetermined edge threshold value. However, in this conventional edge discrimination process, for example, the edge can be discriminated between dissimilar objects with similar intensities of reflected light (monochrome luminance) received by the camera, such as manhole covers and asphalt. There wasn't. On the other hand, in the edge discrimination processing in the present embodiment, the edge discrimination is performed using the differential polarization degree instead of the monochrome luminance, so that it is possible to accurately discriminate edges between different kinds of objects having the same reflected light intensity. it can. Hereinafter, this point will be described.

図11は、偏光カメラ10にて取得した偏光RAW画像データからモノクロ画像処理部13にて生成されたモノクロ画像(輝度画像)の一例を示す説明図である。
図12は、同偏光RAW画像データから差分偏光度画像処理部15にて生成された差分偏光度画像を示す説明図である。
図13は、図11中の白色破線矢印に沿って得られる輝度値をプロットしたグラフである。
図14は、図12中の白色破線矢印に沿って得られる差分偏光度をプロットしたグラフである。
FIG. 11 is an explanatory diagram showing an example of a monochrome image (luminance image) generated by the monochrome image processing unit 13 from the polarized RAW image data acquired by the polarization camera 10.
FIG. 12 is an explanatory diagram showing a differential polarization degree image generated by the differential polarization degree image processing unit 15 from the same polarized RAW image data.
FIG. 13 is a graph in which the luminance values obtained along the white dashed arrows in FIG. 11 are plotted.
FIG. 14 is a graph in which the degree of differential polarization obtained along the white dashed arrow in FIG. 12 is plotted.

図13に示すグラフからわかるように、輝度値については、アスファルトの領域もマンホール蓋の領域もほぼ同じ値(−0.4以上−0.5以下の範囲)を示し、これらの領域間において輝度値に変化が見られない。これに対し、図14に示すグラフからわかるように、差分偏光度については、アスファルトの領域では約ゼロであるのに対し、マンホール蓋の領域では約−0.3であり、これらの領域間で差分偏光度に大きな変化が見られる。したがって、0〜−0.3の間の適切な閾値(例えば−0.2)を設定することで、差分偏光度の違いにより、モノクロ輝度では判別が困難であったアスファルトの領域とマンホール蓋の領域とのエッジを高い精度で判別することができる。
なお、本実施形態における物体識別において、差分偏光度ではなく、相対的差分偏光度を用いている理由については後述する。
As can be seen from the graph shown in FIG. 13, as for the luminance value, both the asphalt area and the manhole cover area show almost the same value (range of −0.4 or more and −0.5 or less). No change in value. On the other hand, as can be seen from the graph shown in FIG. 14, the degree of differential polarization is about zero in the asphalt area, and is about −0.3 in the manhole cover area. A large change is seen in the differential polarization degree. Therefore, by setting an appropriate threshold value (for example, -0.2) between 0 and -0.3, the asphalt area and the manhole cover, which are difficult to discriminate with monochrome luminance due to the difference in the degree of differential polarization, are set. The edge with the region can be discriminated with high accuracy.
The reason why the relative differential polarization degree is used instead of the differential polarization degree in the object identification in the present embodiment will be described later.

次に、路面構造物識別部16が行う路面構造物識別処理について説明する。
路面構造物識別処理を説明するにあたり、まず、差分偏光度から路面構造物を識別可能である理由について説明する。
物体で反射した反射光には、いわゆる「てかり」である鏡面反射成分、物体表面の微細な凹凸構造であるマットな反射成分である拡散反射成分、物体内部で散乱して出てきた内部散乱成分が含まれている。反射光の強度は、これら3つの成分の和として表現される。なお、鏡面反射成分は、拡散反射成分の一部という考え方もできる。拡散反射成分と内部散乱成分は、物体を照射する光源がいずれの方向に存在しても観測されるが(すなわち、入射角の依存性が低い。)、鏡面反射成分は、反射光の受光部に対してほぼ正反射方向に光源が存在する場合にのみ観測される入射角依存性の強い成分である。これは、偏光特性に関しても成り立つ。拡散反射成分と内部散乱成分は、上述したように、物体を照射する光源がいずれの方向に存在しても観測されるのであるが、その偏光特性は互いに異なっている。具体的には、拡散反射成分は、物体表面を微小領域に分け、それぞれの領域ではフレネルの反射特性を満足するものと想定できるため、無偏光の光が入射した場合にはS偏光成分がP偏光成分に比べて大きいという偏光特性がある。これに対し、内部散乱成分は、物体内部で散乱されて出てきた成分であるため、無偏光の光が入射した場合は、物体へ入射した光の偏光成分に影響されにくく、物体内部から外部に出てくる際にP偏光成分が強くなるという偏光特性がある。
Next, the road surface structure identification process performed by the road surface structure identification unit 16 will be described.
In describing the road surface structure identification process, first, the reason why the road surface structure can be identified from the differential polarization degree will be described.
Reflected light reflected from an object includes a specular reflection component that is a so-called “light”, a diffuse reflection component that is a matte reflection component that is a fine uneven structure on the surface of the object, and internal scattering that is scattered inside the object. Contains ingredients. The intensity of the reflected light is expressed as the sum of these three components. The specular reflection component can also be considered as a part of the diffuse reflection component. Although the diffuse reflection component and the internal scattering component are observed regardless of the direction of the light source that irradiates the object (that is, the dependency on the incident angle is low), the specular reflection component is the light receiving unit for the reflected light. On the other hand, it is a component having a strong incident angle dependency that is observed only when a light source is present in a substantially regular reflection direction. This is also true for polarization characteristics. As described above, the diffuse reflection component and the internal scattering component are observed regardless of the direction of the light source that irradiates the object, but their polarization characteristics are different from each other. Specifically, the diffuse reflection component can be assumed to divide the object surface into minute regions and satisfy the Fresnel reflection characteristics in each region. Therefore, when non-polarized light is incident, the S-polarized component is P There is a polarization property that is larger than the polarization component. On the other hand, the internal scattering component is a component that is scattered inside the object, so when non-polarized light is incident, it is less affected by the polarization component of the light incident on the object, There is a polarization characteristic that the P-polarized light component becomes stronger when it comes out.

そして、本実施形態のように、自車からのフロントビューを撮影する際にその撮影領域内に存在し得る物体(アスファルトやマンホールの蓋等)は、そのほとんどが表面に少なからず凹凸がある物体であるため、鏡面反射成分は少ないものと考えることができる。その結果、本実施形態では、偏光カメラ10の撮像領域内に存在する物体からの反射光は、拡散反射成分及び内部散乱成分が支配的であると考えることができる。この結果、反射光中のS偏光成分及びP偏光成分の強さを比較することにより、S偏光成分が強ければ反射光には拡散反射成分が多く含まれていることが把握でき、P偏光成分が強ければ反射光には内部散乱成分が多く含まれていることが把握できる。   And, as in this embodiment, most of the objects (such as asphalt and manhole cover) that can exist in the shooting area when shooting the front view from the host vehicle are not a little uneven on the surface. Therefore, it can be considered that the specular reflection component is small. As a result, in the present embodiment, it can be considered that the diffuse reflection component and the internal scattering component are dominant in the reflected light from the object existing in the imaging region of the polarization camera 10. As a result, by comparing the intensity of the S-polarized component and the P-polarized component in the reflected light, it can be understood that if the S-polarized component is strong, the reflected light contains a large amount of diffusely reflected component. If is strong, it can be understood that the reflected light contains many internal scattering components.

図15は、実験室において、アスファルト面と金属表面(平滑な面)に対し、光源位置を変化させて固定配置されたカメラでP偏光画像とS偏光画像を撮影したときの差分偏光度の変化の一例を示すグラフである。
このグラフは、横軸に入射角度(光源位置)をとり、縦軸に差分偏光度をとったものである。カメラ仰角は水平から10度傾けた状態である。この差分偏光度は、各入射角度の撮影画像についての略中央部の輝度情報から算出したものである。このブラフにおける差分偏光度は、P偏光成分(Rp)とS偏光成分(Rs)の合計値に対する、P偏光成分からS偏光成分を差し引いた値の比率である。よって、S偏光成分よりもP偏光成分の方が強い場合には、差分偏光度は正の値をとり、P偏光成分よりもS偏光成分の方が強い場合には、差分偏光度は負の値をとることになる。
FIG. 15 shows a change in the degree of differential polarization when a P-polarized image and an S-polarized image are taken with a camera that is fixedly arranged by changing the light source position with respect to an asphalt surface and a metal surface (smooth surface) in the laboratory. It is a graph which shows an example.
In this graph, the horizontal axis represents the incident angle (light source position), and the vertical axis represents the differential polarization degree. The camera elevation angle is tilted 10 degrees from the horizontal. This differential polarization degree is calculated from luminance information at a substantially central portion of the captured image at each incident angle. The difference polarization degree in this bluff is a ratio of a value obtained by subtracting the S polarization component from the P polarization component with respect to the total value of the P polarization component (Rp) and the S polarization component (Rs). Therefore, when the P polarization component is stronger than the S polarization component, the differential polarization degree takes a positive value, and when the S polarization component is stronger than the P polarization component, the differential polarization degree is negative. Will take the value.

図15に示すグラフからわかるように、アスファルト面については、入射角のほぼ全域にわたって、差分偏光度が負の値をとっている。すなわち、P偏光成分よりもS偏光成分の方が強いことを示している。これは、アスファルト面からの反射光は拡散反射成分が支配的であるためである。一方、金属面については、入射角が30°を超えた領域全体にわたって、差分偏光度が正の値をとっている。すなわち、S偏光成分よりもP偏光成分の方が強いことを示している。これは、金属面からの反射光は内部散乱成分が支配的であるためである。   As can be seen from the graph shown in FIG. 15, regarding the asphalt surface, the differential polarization degree takes a negative value over almost the entire incident angle. That is, the S polarization component is stronger than the P polarization component. This is because the diffuse reflection component is dominant in the reflected light from the asphalt surface. On the other hand, regarding the metal surface, the differential polarization degree has a positive value over the entire region where the incident angle exceeds 30 °. That is, the P-polarized component is stronger than the S-polarized component. This is because the internal scattering component is dominant in the reflected light from the metal surface.

以上のように、反射光に含まれるS偏光成分とP偏光成分の差をとることで、その物体の反射特性について、拡散反射成分が強いのか、それとも内部散乱成分が強いのかを把握することができる。よって、拡散反射成分が強いアスファルトと内部散乱成分が強い路面構造物のように、互いに反射特性が異なる物体を、反射光に含まれるS偏光成分とP偏光成分の差に基づいて識別することができる。
また、一般に、材質が異なると屈折率も異なるため、この影響もS偏光成分とP偏光成分の差に現れる。よって、材質が異なる物体を、反射光に含まれるS偏光成分とP偏光成分の差に基づいて識別することができる。
As described above, by taking the difference between the S-polarized component and the P-polarized component included in the reflected light, it is possible to grasp whether the diffuse reflection component or the internal scattering component is strong in the reflection characteristics of the object. it can. Therefore, an object having different reflection characteristics, such as an asphalt having a strong diffuse reflection component and a road surface structure having a strong internal scattering component, can be identified based on the difference between the S polarization component and the P polarization component included in the reflected light. it can.
In general, since the refractive index is different for different materials, this effect also appears in the difference between the S-polarized component and the P-polarized component. Therefore, objects with different materials can be identified based on the difference between the S-polarized component and the P-polarized component included in the reflected light.

なお、図15に示したグラフの結果は、アスファルト面と金属表面との表面状態の違い(アスファルトは多数の凹凸が分布した表面であるのに対し、金属表面は平滑な表面である。)の影響も受けていると考えられる。したがって、識別対象の表面状態の違いによって検出されるS偏光成分及びP偏光成分の値は変わってくる。このことは、実際に使用される環境下での実験結果を示す図14のグラフにおけるアスファルト領域や路上構造物(路上金属物)であるマンホール蓋の差分偏光度が、図15に示した実験室実験での結果と相違していることからも理解できる。しかしながら、材質が異なる物体間においては、その表面状態が互いに同じであっても、その材質の違いに起因して物体の反射特性(拡散反射成分と内部散乱成分の強弱、屈折率等)に違いが存在し、その違いは反射光に含まれるS偏光成分とP偏光成分との差に基づいて把握することが可能である。したがって、実環境を考慮して設定された閾値を用いることで、材質が異なる物体間の識別が可能である。   Note that the results of the graph shown in FIG. 15 show the difference in the surface state between the asphalt surface and the metal surface (asphalt is a surface on which many irregularities are distributed, whereas the metal surface is a smooth surface). It is thought that they are also affected. Therefore, the values of the S-polarized component and the P-polarized component that are detected vary depending on the difference in the surface state of the identification target. This is because the differential polarization degree of the manhole cover, which is an asphalt area or a road structure (a metal object on the road) in the graph of FIG. 14 showing the experimental results in an actually used environment, is the laboratory shown in FIG. It can be understood from the difference from the experimental results. However, between objects of different materials, even if the surface states are the same, the reflection characteristics of the objects (diffuse reflection component and internal scattering component strength, refractive index, etc.) differ due to the difference in the material. It is possible to grasp the difference based on the difference between the S-polarized component and the P-polarized component included in the reflected light. Therefore, it is possible to distinguish between objects of different materials by using a threshold value set in consideration of the actual environment.

本実施形態の路面構造物識別処理では、上述したエッジ判別処理により判別されたエッジによって区分される各領域の差分偏光度を識別指標値として用いることで、当該領域が路面構造物であるか否かを判定する。路面構造物識別処理は、上述したとおり、S偏光強度とP偏光強度の差分値を識別指標値として用いても、当該領域が路面構造物であるか否かを判定することは可能である。しかしながら、明るさが足りない場合、識別指標値として算出されるS偏光強度とP偏光強度の差分値が小さい値をとる結果、路面構造物であるか否かの判定が困難になる。これに対し、本実施形態のように、この差分値をS偏光強度とP偏光強度の合計値(モノクロ輝度)で割った値である差分偏光度を用いれば、明るさが足りない場合でも、識別指標値としての差分偏光度は比較的大きな値をとることができ、路面構造物であるか否かの判定が可能となる。   In the road surface structure identification process of the present embodiment, by using the differential polarization degree of each area divided by the edge determined by the edge determination process described above as an identification index value, it is determined whether or not the area is a road surface structure. Determine whether. As described above, the road surface structure identification process can determine whether or not the region is a road surface structure even if the difference value between the S-polarized light intensity and the P-polarized light intensity is used as the identification index value. However, when the brightness is insufficient, the difference value between the S-polarized light intensity and the P-polarized light intensity calculated as the identification index value takes a small value, so that it is difficult to determine whether or not the road surface structure is present. On the other hand, as in this embodiment, if the difference polarization degree that is a value obtained by dividing the difference value by the total value of S polarization intensity and P polarization intensity (monochrome luminance) is used, even if the brightness is insufficient, The degree of differential polarization as the identification index value can take a relatively large value, and it can be determined whether or not the road surface structure.

本実施形態の路面構造物識別処理の流れについて説明すると、まず、上述したエッジ判別処理によって判別されたエッジにより区分される各領域について、その領域の差分偏光度と基準差分偏光度との差分を算出する(S6)。そして、この差分値が予め決められている路面構造物用の閾値以下であるか否かを判断する(S7)。この判断において、差分値が路面構造物用閾値以下であると判断した場合には、当該領域を路面構造物であると識別して記憶する(S8)。これを全領域について行うことで(S9)、撮像画像内における路面構造物を表示した領域を把握することができる。   The flow of the road surface structure identification process of the present embodiment will be described. First, for each area divided by the edge determined by the edge determination process described above, the difference between the difference polarization degree of the area and the reference difference polarization degree is calculated. Calculate (S6). And it is judged whether this difference value is below the threshold value for road surface structures determined beforehand (S7). In this determination, when it is determined that the difference value is equal to or less than the road surface structure threshold, the area is identified and stored as a road surface structure (S8). By performing this for all areas (S9), it is possible to grasp the area where the road surface structure is displayed in the captured image.

本実施形態においては、当該領域の物体識別に用いる識別指標値として、その領域の差分偏光度(絶対量)を用いるのではなく、その領域の差分偏光度を基準差分偏光度から差し引いた相対的差分偏光度(相対量)を用いている。これは、撮影環境の違い等の影響で、識別対象領域の差分偏光度の算出値にズレが生じても、同じ影響でズレが生じている基準差分偏光度との相対量を用いることで、その影響を軽減することができるからである。なお、本実施形態では、基準差分偏光度として、路面上の大部分を占めるアスファルトの領域における差分偏光度を用いている。また、本実施形態において、路面構造物についての差分偏光度は、実環境下であれば、アスファルトについての差分偏光度よりも、少なくとも0.2以上大きい値をとることが実験的に判明している。よって、路面構造物についての相対的差分偏光度は、最低でも−0.2以下のマイナス値をとる。したがって、本実施形態では、路面構造物用閾値として−0.2を採用し、この閾値以下の範囲に属する相対的差分偏光度をもつ領域を路面構造物であると識別する。   In the present embodiment, the differential polarization degree (absolute amount) of the area is not used as the identification index value used for object identification of the area, but the relative polarization degree of the area is subtracted from the reference differential polarization degree. The differential polarization degree (relative amount) is used. This is because, even if a difference occurs in the calculated value of the differential polarization degree of the identification target area due to the difference in the shooting environment, etc., by using the relative amount with the reference differential polarization degree where the deviation occurs due to the same effect, This is because the influence can be reduced. In the present embodiment, the differential polarization degree in the asphalt region occupying most of the road surface is used as the reference differential polarization degree. Further, in the present embodiment, it has been experimentally found that the differential polarization degree for the road surface structure is at least 0.2 or more larger than the differential polarization degree for asphalt under an actual environment. Yes. Therefore, the relative differential polarization degree with respect to the road surface structure takes a negative value of −0.2 or less. Therefore, in the present embodiment, −0.2 is adopted as the road surface structure threshold value, and a region having a relative differential polarization degree belonging to a range equal to or smaller than the threshold value is identified as a road surface structure.

ここで、撮像画像の上方部分と下方部分とでは、物体からの反射光の強度に差がある。これは、撮像画像の上方部分は遠くに位置する物体を撮影した部分であるため、近くに位置する物体を撮影した下方部分よりも、反射光の強度は小さいものとなる。したがって、この違いを考慮し、撮像画像の上方部分と下方部分とで、用いる路面構造物用閾値を異ならせるようにしてもよい。
また、近くに位置する物体を撮影した撮像画像の下方部分の方が、上方部分よりも物体識別精度が高いので、処理ラインの処理順序は、画像下方から上方に向かう順序とするのがよい。
Here, there is a difference in the intensity of the reflected light from the object between the upper part and the lower part of the captured image. This is because the upper part of the captured image is a part obtained by photographing an object located far away, and the intensity of reflected light is smaller than the lower part obtained by photographing an object located nearby. Therefore, in consideration of this difference, the road surface structure threshold value to be used may be different between the upper part and the lower part of the captured image.
In addition, since the lower part of the captured image obtained by photographing an object located nearby has higher object identification accuracy than the upper part, the processing order of the processing lines is preferably the order from the lower side to the upper side of the image.

次に、路面構造物特定部17が行う路面構造物の種類特定処理について説明する。
路面構造物特定部17は、まず、上述した路面構造物識別処理により路面構造物であると識別された領域の形状を認識し(S10)、当該領域の形状に近似する形状テンプレートが存在するかどうかを判断する(S11)。この判断において、近似する形状テンプレートが存在すると判断した場合には、当該領域の路面構造物を、その形状テンプレートに関連づけられた種類に特定し、記憶する(S12)。例えば、楕円形状の形状テンプレートに近似する場合にはマンホールの蓋であると特定し、画像横方向に横断する棒状の形状テンプレートに近似する場合には道路連結部であると特定し、複数の路面構造物が自車の進行方向に沿って直線状に並んだ形状の形状テンプレートに記事する場合にはボッツドッツ又はキャッツアイからなる区間線であると特定する。これを全路面構造物について行ったら(S13)、処理を終了する。
Next, the road surface structure type specifying process performed by the road surface structure specifying unit 17 will be described.
First, the road surface structure specifying unit 17 recognizes the shape of the area identified as the road surface structure by the road surface structure identification process described above (S10), and whether there is a shape template that approximates the shape of the area. It is determined whether or not (S11). In this determination, if it is determined that there is an approximate shape template, the road surface structure in the region is specified as a type associated with the shape template and stored (S12). For example, when approximating an oval shape template, it is specified as a manhole cover, and when approximating a bar shape template traversing in the horizontal direction of the image, it is specified as a road connecting portion, and a plurality of road surfaces When an article is posted on a shape template that is linearly arranged along the traveling direction of the vehicle, it is specified as a section line made up of botsdots or cat's eyes. If this is performed for all road surface structures (S13), the process is terminated.

具体的には、路面構造物の領域のエッジ情報と、形状記憶部20に記憶されている形状テンプレートの情報とを用いて、近似曲線を取得し、最小二乗法やハフ変換やモデル方程式などの手法を用いて、形状近似認識を行う。なお、近似曲線を取得する際、信頼性の高い撮像画像の下方部分に位置するエッジ情報ほど形状近似の投票値に大きな重みを持たせるようにすることが望ましい。このようにすれば、信頼性の低い撮像画像の上方部分で誤認識されたエッジ情報が存在しても、信頼性の高い撮像画像の下方部分で正常に認識されたエッジ情報が存在すれば、路面構造物の種類を適切に特定することができる。
また、例えばマンホールの蓋を特定する際には、そのマンホールの蓋よりも大きい物体に係る特徴点をモルフォロジー演算などにより事前に除去するようにしてもよい。これにより、マンホール蓋の特定精度を向上させることができる。
Specifically, using the edge information of the road surface structure region and the shape template information stored in the shape storage unit 20, an approximate curve is obtained, and the least square method, the Hough transform, the model equation, etc. Shape approximation recognition is performed using a technique. Note that when obtaining an approximate curve, it is desirable that the edge information located in the lower portion of the highly reliable captured image is given a higher weight to the voting value for shape approximation. In this way, even if there is edge information that is misrecognized in the upper part of the low-reliability captured image, if there is edge information that is normally recognized in the lower part of the highly reliable captured image, The kind of road surface structure can be specified appropriately.
For example, when a manhole cover is specified, feature points related to an object larger than the manhole cover may be removed in advance by morphological calculation or the like. Thereby, the specific precision of a manhole cover can be improved.

路面構造物の種類の特定精度を高めるために、次のような処理を付加してもよい。
本実施形態では、以上のような路面構造物特定処理(S1〜S13)を、偏光カメラ10にて所定の時間間隔で連続的に撮影して得られる偏光画像データについて行う。上述した路面構造物の種類特定処理(S10〜S13)により路面構造物の種類が特定された領域については、その処理結果が所定のメモリに記憶される。このメモリに記憶される過去の処理結果(例えば、直前に撮像された偏光画像データについての処理結果)を利用し、今回の処理により特定された路面構造物の種類が、その領域に対応する過去の処理結果と同じであれば、今回の処理結果が信頼度の高いものであると判断する。そして、この信頼度を最終的な路面構造物の種類の特定に利用する。今回の処理結果に係る領域に対応する過去の処理結果は、例えば、エッジ情報を利用し、今回の処理結果に係る領域の位置と自車の進行方向とから、対応する過去の処理結果に係る領域の位置を検索して、対応する過去の処理結果を特定する。
なお、ここでは、路面構造物の種類特定処理(S10〜S13)について説明したが、路面構造物識別処理(S6〜S9)についても同様に、その識別精度を高めるために、過去の処理結果を利用してもよい。
In order to increase the specific accuracy of the type of road surface structure, the following processing may be added.
In the present embodiment, the road surface structure specifying process (S1 to S13) as described above is performed on polarized image data obtained by continuously photographing with a polarization camera 10 at a predetermined time interval. With respect to the area where the type of the road surface structure is specified by the above-described road surface structure type specifying process (S10 to S13), the processing result is stored in a predetermined memory. Using the past processing result (for example, the processing result of the polarization image data captured immediately before) stored in this memory, the type of the road surface structure specified by this processing corresponds to the past. If the processing result is the same as this, it is determined that the current processing result is highly reliable. And this reliability is utilized for specification of the kind of final road surface structure. The past processing result corresponding to the region related to the current processing result is related to the corresponding past processing result from the position of the region related to the current processing result and the traveling direction of the own vehicle, for example, using edge information. The position of the area is searched and the corresponding past processing result is specified.
In addition, although the road surface structure type specifying process (S10 to S13) has been described here, in order to improve the identification accuracy of the road surface structure identifying process (S6 to S9) as well, the past processing result is used. May be used.

また、上述したエッジ判別処理の判断(S3)で用いるエッジ閾値や、路面構造物の識別処理の判断(S7)で用いる路面構造物用閾値は、撮影環境の違いに応じて適宜切り替えるようにしてもよい。具体例としては、昼間と夜間などの時間帯の違い 雨天と晴天などの天候の違いに応じて切り替えることが挙げられる。この切り替えは、時間情報やレインセンサや日照センサなどの情報を用いることが実現可能である。   In addition, the edge threshold value used in the determination of the edge determination process (S3) and the road surface structure threshold value used in the determination of the road surface structure identification process (S7) are appropriately switched according to the difference in the photographing environment. Also good. A specific example is switching between time zones such as daytime and nighttime according to the difference in weather such as rainy weather and fine weather. This switching can be realized using time information or information such as a rain sensor or a sunshine sensor.

また、本実施形態の偏光カメラ10をルームミラー等の車内に取り付ける場合、偏光カメラ10で撮像される画像は、フロントガラスの影響を受けるため、フロントガラスの偏光特性も考慮することが望ましい。フロントガラスは、通常、図16に示すように、そのガラス面が偏光カメラ10の光軸に対して所定の角度をもって配置される。一般に、ガラス平板が光路に対して斜めに配置された場合、その透過光の偏光状態は変化する。いわゆるフレネルの透過反射の計算が成立し、P偏光成分よりもS偏光成分の方がガラス面で反射される量が多く、その透過光の減衰率はP偏光成分よりもS偏光成分の方が大きい。具体的には、例えば、図16に示した例では、P偏光成分はガラス面でのフレネル反射によって約8%減衰するのに対して、S偏光成分は約半分にまで減衰する。なお、この例では、フロントガラスでの屈折率が1.5とした。   In addition, when the polarization camera 10 according to the present embodiment is mounted in a vehicle such as a room mirror, an image captured by the polarization camera 10 is affected by the windshield. Therefore, it is desirable to consider the polarization characteristics of the windshield. As shown in FIG. 16, the windshield is usually disposed with a predetermined angle with respect to the optical axis of the polarizing camera 10. Generally, when a glass flat plate is disposed obliquely with respect to the optical path, the polarization state of the transmitted light changes. The calculation of so-called Fresnel transmission reflection is established, and the amount of S-polarized light component reflected by the glass surface is larger than that of P-polarized light component, and the attenuation factor of the transmitted light is higher for S-polarized light component than for P-polarized light component. large. Specifically, for example, in the example shown in FIG. 16, the P-polarized component is attenuated by about 8% by Fresnel reflection on the glass surface, whereas the S-polarized component is attenuated by about half. In this example, the refractive index at the windshield was 1.5.

このように、偏光カメラ10に取り込まれる光の偏光情報には、フロントガラスの影響が含まれているので、これを考慮することが望まれる。例えば、差分偏光度の算出時(S2)に、P偏光強度及びS偏光強度のそれぞれについて、フロントガラスでの減衰成分をキャンセルする演算を行う。上記の例では、S偏光成分を約2倍し、P偏光成分を約1/0.9倍する。別の方法としては、例えば、フロントガラスと偏光カメラ10との間に、P偏光強度及びS偏光強度それぞれの減衰成分をキャンセルする光学素子を配置する。この場合の光学素子としては、上記の例では、S偏光成分を不感帯透過し、P偏光成分を0.5/0.9倍にする光学素子を利用することが可能である。   Thus, since the influence of the windshield is included in the polarization information of the light taken into the polarization camera 10, it is desirable to take this into consideration. For example, at the time of calculating the differential polarization degree (S2), an operation for canceling the attenuation component on the windshield is performed for each of the P polarization intensity and the S polarization intensity. In the above example, the S polarization component is approximately doubled and the P polarization component is approximately 1 / 0.9. As another method, for example, an optical element that cancels attenuation components of P-polarized light intensity and S-polarized light intensity is disposed between the windshield and the polarizing camera 10. As the optical element in this case, in the above example, an optical element that transmits the S-polarized component through the dead band and increases the P-polarized component by 0.5 / 0.9 times can be used.

今後は、軽量化・低コスト化などを狙い、プラスチック製のフロントガラスの利用が想定される。プラスチックはガラスに比べ、内部歪による複屈折を有することが知られている。この場合は、複屈折の影響も考慮する必要が生じてくる。具体的には、例えば、偏光カメラ10で取り込む光の偏光成分に対し、複屈折によるP偏光成分とS偏光成分を考慮して差分偏光度の演算を行う。   In the future, it is expected that plastic windshields will be used to reduce weight and cost. It is known that plastic has birefringence due to internal strain compared to glass. In this case, the influence of birefringence needs to be considered. Specifically, for example, with respect to the polarization component of the light captured by the polarization camera 10, the differential polarization degree is calculated in consideration of the P-polarization component and the S-polarization component due to birefringence.

路面構造物特定部17により路面構造物の種類の特定結果は、様々な処理に利用することが可能である。
例えば、路面構造物特定部17の処理結果を、白線識別部14での白線エッジの識別処理に用いることが挙げられる。具体的には、路面構造物特定部17の処理により路面構造物の種類が特定された領域は白線の領域ではないので、この領域を白線識別部14による白線エッジの識別処理の対象から除外する。これにより、マンホール蓋等の路面構造物を白線と誤認識する可能性を少なくでき、白線の認識精度を向上させることができる。なお、ここでは、白線識別部14による白線エッジの識別処理について説明したが、白線以外の物体を撮像画像から識別する処理を行う場合には、一般に、路面構造物特定部17の処理により路面構造物の種類が特定された領域をその識別処理の対象から除外することで、その識別処理の識別精度を向上させることができる。具体例を挙げると、レーダの測距結果とカメラの撮影画像とに基づくセンサフュージョンにより先行車等の障害物を識別するシステムにおいては、マンホールの蓋等の各種路面構造物を障害物として誤認識することを避けることができる。その結果、各種路面構造物障害物として誤認識したことにより速度を急激に低下させてしまうような状態の発生を防止することができる。
The result of specifying the type of the road surface structure by the road surface structure specifying unit 17 can be used for various processes.
For example, the processing result of the road surface structure specifying unit 17 may be used for white line edge identification processing in the white line identification unit 14. Specifically, since the area where the type of the road surface structure is specified by the processing of the road surface structure specifying unit 17 is not a white line area, this area is excluded from the target of the white line edge identification process by the white line identification unit 14. . Thereby, the possibility of erroneously recognizing a road surface structure such as a manhole cover as a white line can be reduced, and the recognition accuracy of the white line can be improved. Here, the white line edge identifying process by the white line identifying unit 14 has been described. However, when performing the process of identifying an object other than a white line from the captured image, the road surface structure specifying unit 17 generally performs the road surface structure identification process. By excluding the region in which the type of the object is specified from the identification processing target, the identification accuracy of the identification processing can be improved. As a specific example, in a system that identifies obstacles such as a preceding vehicle by sensor fusion based on radar ranging results and camera images, various road surface structures such as manhole covers are misrecognized as obstacles. You can avoid doing that. As a result, it is possible to prevent the occurrence of a state in which the speed is rapidly decreased due to erroneous recognition as various road surface structure obstacles.

また、例えば、カーナビゲーションシステムに利用することも挙げられる。具体例としては、路面構造物特定部17の処理結果から特定されるマンホール蓋の位置から、自車とマンホール蓋との間の距離や角度等の自車位置情報を生成し、この自車位置情報を用いて、カーナビゲーションシステムにより算出される自車位置の範囲内において、自車の更なる詳細な位置を特定する。これにより、カーナビゲーションシステムにおける自車位置の特定精度を高めることができる。   Further, for example, it may be used for a car navigation system. As a specific example, the vehicle position information such as the distance and angle between the vehicle and the manhole cover is generated from the position of the manhole cover specified from the processing result of the road surface structure specifying unit 17, and the vehicle position Using the information, a further detailed position of the own vehicle is specified within the range of the own vehicle position calculated by the car navigation system. Thereby, the specific precision of the own vehicle position in a car navigation system can be improved.

また、例えば、路面構造物特定部17の処理結果から、自車に対するマンホール蓋や道路連結部の位置や方向を把握できるので、これを利用して走行支援ECU(Electronic Control Unit)などへ利用することも挙げられる。
特に、例えば、路面構造物特定部17によりボッツドッツ又はキャッツアイからなる区間線の特定結果は、白線識別部14による白線エッジの識別結果と同様の処理に利用することが可能である。具体的には、例えば、CRTや液晶等で構成される車内の情報報知手段である表示部(ディスプレイ)に、モノクロ画像処理部で算出した輝度データを用いて生成されるモノクロ画像(フロントビュー画像)を表示し、その画像中の区間線の情報を、運転者にとって有益な情報として報知するために、運転者が見やすい表示形態で表示する処理が挙げられる。これによれば、例えば、運転者が目視で区間線を認識することが困難な状況下であっても、運転者は表示部のフロントビュー画像を見ることで、自車と区間線との相対位置関係を把握することができ、区間線で区画される走行レーンを維持して走行させることが容易になる。
また、例えば、路面構造物特定部17により認識された区間線の位置情報から、自車と区間線との相対位置関係を把握する処理を行い、自車が区間線で区画される走行レーン上の適正走行位置から外れて走行していないかどうかを判断し、適正走行位置から外れて走行しているときに警報音等を発する処理が挙げられる。あるいは、適正走行位置から外れて走行しているときに、自動ブレーキ機能を実行して、自車の走行速度を落とすような処理も挙げられる。
Further, for example, the position and direction of the manhole cover and the road connecting portion relative to the own vehicle can be grasped from the processing result of the road surface structure specifying unit 17, and this is used for a travel support ECU (Electronic Control Unit) or the like. It can also be mentioned.
In particular, for example, the road line structure specifying unit 17 can use the section line specifying result made up of botsdots or cat's eyes for the same processing as the white line edge identifying result by the white line identifying unit 14. Specifically, for example, a monochrome image (front view image) generated using luminance data calculated by the monochrome image processing unit on a display unit (display) that is an in-vehicle information notification unit configured by a CRT, liquid crystal, or the like. ) And the information on the section line in the image is reported as information useful for the driver, and the display is easy to see for the driver. According to this, for example, even in a situation where it is difficult for the driver to visually recognize the section line, the driver can view the relative position between the vehicle and the section line by looking at the front view image on the display unit. It is possible to grasp the positional relationship, and it is easy to maintain the traveling lane divided by the section line and to travel.
In addition, for example, a process for grasping the relative positional relationship between the own vehicle and the section line from the position information of the section line recognized by the road surface structure specifying unit 17 is performed on the travel lane where the own vehicle is partitioned by the section line. There is a process of determining whether or not the vehicle is traveling away from the proper travel position and generating an alarm sound or the like when traveling outside the proper travel position. Alternatively, there is a process in which the automatic braking function is executed to reduce the traveling speed of the host vehicle when traveling out of the proper traveling position.

図17は、区間線としてボッツドッツが用いられている路面を偏光カメラ10で撮像し、これにより取得した偏光RAW画像データからモノクロ画像処理部13が生成したモノクロ画像(輝度画像)の一例を示す説明図である。
図18は、同偏光RAW画像データから差分偏光度画像処理部15にて生成された差分偏光度画像を示す説明図である。
図17と図18を比較してわかるように、アスファルトとボッツドッツとのコントラストは、図17に示すモノクロ画像(輝度画像)よりも、図18に示す差分偏光度画像の方が高い。したがって、差分偏光度画像を用いれば、モノクロ輝度では判別が困難であったアスファルトの領域とボッツドッツの領域とのエッジを高い精度で判別することができる。
FIG. 17 is a diagram illustrating an example of a monochrome image (luminance image) generated by the monochrome image processing unit 13 from the polarized RAW image data obtained by capturing an image of a road surface using Botsdots as a section line with the polarization camera 10. FIG.
FIG. 18 is an explanatory diagram showing a differential polarization degree image generated by the differential polarization degree image processing unit 15 from the same polarized RAW image data.
As can be seen by comparing FIG. 17 and FIG. 18, the difference polarization degree image shown in FIG. 18 has higher contrast between asphalt and bottsdots than the monochrome image (luminance image) shown in FIG. Therefore, by using the differential polarization degree image, it is possible to discriminate the edge between the asphalt region and the botsdot region, which are difficult to discriminate with monochrome luminance, with high accuracy.

なお、本実施形態では、識別可能な材質として主に金属を例に挙げて説明したが、他の材質であっても識別可能である。
図19は、実験室において、アスファルト面とスチールに塗料を塗布した塗装面に対し、光源位置を変化させて固定配置されたカメラでP偏光画像とS偏光画像を撮影したときの差分偏光度の変化を示すグラフである。このグラフは、アスファルト面と金属面とを比較した図15に示したグラフと同様の条件である。このグラフからわかるように、アスファルト面と塗装面とでは、差分偏光度に違いがある。そして、塗装面の差分偏光度は、図15に示した金属面の差分偏光度とも異なっている。したがって、塗装面と金属面との間も、差分偏光度の違い(偏光特性の違い)により区別して認識することが可能である。
In the present embodiment, description has been made mainly using metal as an example of an identifiable material. However, even other materials can be identified.
FIG. 19 shows the difference in the degree of polarization when a P-polarized image and an S-polarized image are taken with a camera that is fixedly arranged by changing the light source position on the asphalt surface and the coated surface of steel coated with paint. It is a graph which shows a change. This graph has the same conditions as the graph shown in FIG. 15 in which the asphalt surface and the metal surface are compared. As can be seen from this graph, there is a difference in the degree of differential polarization between the asphalt surface and the painted surface. The differential polarization degree of the painted surface is also different from the differential polarization degree of the metal surface shown in FIG. Therefore, the painted surface and the metal surface can also be distinguished and recognized by the difference in the degree of differential polarization (difference in polarization characteristics).

同様に、このような塗装面に限らず、工事中或いは路面の劣化などにより路面上に付着したコールタールのような路面構造物についても、差分偏光度画像を用いると、モノクロ輝度画像に比べてコントラスト高く検出することが可能である。
図20は、コールタールが付着した路面を偏光カメラ10で撮像し、これにより取得した偏光RAW画像データからモノクロ画像処理部13が生成したモノクロ画像(輝度画像)の一例を示す説明図である。
図21は、同偏光RAW画像データから差分偏光度画像処理部15にて生成された差分偏光度画像を示す説明図である。
図20と図21を比較してわかるように、アスファルトとコールタールとのコントラストは、図20に示すモノクロ画像(輝度画像)よりも、図21に示す差分偏光度画像の方が高い。したがって、差分偏光度画像を用いれば、モノクロ輝度では判別が困難であったアスファルトの領域とコールタールの領域とのエッジを高い精度で判別することができる。
Similarly, not only such a painted surface but also a road surface structure such as coal tar attached on the road surface during construction or due to deterioration of the road surface, using a differential polarization degree image, compared to a monochrome luminance image. It is possible to detect with high contrast.
FIG. 20 is an explanatory diagram illustrating an example of a monochrome image (luminance image) generated by the monochrome image processing unit 13 from the polarized RAW image data obtained by capturing an image of the road surface to which coal tar is attached with the polarization camera 10.
FIG. 21 is an explanatory diagram showing a differential polarization degree image generated by the differential polarization degree image processing unit 15 from the same polarized RAW image data.
As can be seen by comparing FIG. 20 and FIG. 21, the contrast between asphalt and coal tar is higher in the differential polarization degree image shown in FIG. 21 than in the monochrome image (luminance image) shown in FIG. Therefore, if the differential polarization degree image is used, the edge between the asphalt area and the coal tar area, which is difficult to determine with monochrome luminance, can be determined with high accuracy.

次に、本実施形態に係る運転者支援システムにおいて立体物を特定する立体物特定処理の流れについて説明する。
図22は、立体物特定処理の流れを示すフローチャートである。
なお、エッジ判別処理までの処理は、上述した路面構造物特定処理と同様であるため、説明を省略する。ただし、エッジ判別処理で用いるエッジ閾値は、上述した路面構造物特定処理とは異なる値を用いる。エッジ判別処理で用いるエッジ閾値の設定方法について、以下説明する。
Next, a flow of a three-dimensional object specifying process for specifying a three-dimensional object in the driver assistance system according to the present embodiment will be described.
FIG. 22 is a flowchart showing the flow of the three-dimensional object specifying process.
Note that the processing up to the edge determination processing is the same as the above-described road surface structure specifying processing, and thus description thereof is omitted. However, the edge threshold value used in the edge determination process uses a value different from the road surface structure specifying process described above. A method for setting the edge threshold used in the edge discrimination process will be described below.

図23は、偏光カメラ10にて取得した偏光RAW画像データからモノクロ画像処理部13にて生成されたモノクロ画像(輝度画像)の一例を示す説明図である。
図24は、同偏光RAW画像データから差分偏光度画像処理部15にて生成された差分偏光度画像を示す説明図である。
図25は、100フレーム分について図23中の白枠3箇所の輝度値分布をとったヒストグラムである。
図26は、100フレーム分について図24中の白枠3箇所の差分偏光度分布をとったヒストグラムである。
図25に示すヒストグラムからわかるように、輝度値については、アスファルト領域の輝度分布と、他車の車両側面領域の輝度分布と、他車の車両後面領域の輝度分布とが、互いに重なり合っている。これに対し、図26に示すヒストグラムからわかるように、差分偏光度については、アスファルト領域の輝度分布と、他車の車両側面領域の輝度分布と、他車の車両後面領域の輝度分布とが、互いに重ならず、区分可能となっている。したがって、これらの領域を区分できる適切な閾値を設定することで、差分偏光度の違いにより、モノクロ輝度では判別が困難であった、アスファルト領域、他車の車両側面領域、他車の車両後面領域のエッジを、高い精度で判別することができる。
FIG. 23 is an explanatory diagram showing an example of a monochrome image (luminance image) generated by the monochrome image processing unit 13 from the polarized RAW image data acquired by the polarization camera 10.
FIG. 24 is an explanatory diagram showing a differential polarization degree image generated by the differential polarization degree image processing unit 15 from the same polarized RAW image data.
FIG. 25 is a histogram of the luminance value distribution of three white frames in FIG. 23 for 100 frames.
FIG. 26 is a histogram of differential polarization degree distributions at three positions in the white frame in FIG. 24 for 100 frames.
As can be seen from the histogram shown in FIG. 25, with respect to the luminance value, the luminance distribution in the asphalt region, the luminance distribution in the vehicle side surface region of the other vehicle, and the luminance distribution in the vehicle rear surface region of the other vehicle overlap each other. On the other hand, as can be seen from the histogram shown in FIG. 26, for the differential polarization degree, the luminance distribution of the asphalt region, the luminance distribution of the vehicle side surface region of the other vehicle, and the luminance distribution of the vehicle rear surface region of the other vehicle, They can be separated without overlapping each other. Therefore, by setting appropriate thresholds that can distinguish these areas, it is difficult to distinguish with monochrome luminance due to differences in the degree of differential polarization, asphalt areas, vehicle side areas of other vehicles, vehicle rear areas of other vehicles Can be discriminated with high accuracy.

次に、立体物識別部18が行う立体物識別処理について説明する。
立体物識別処理を説明するにあたり、まず、差分偏光度から立体物を識別可能である理由について説明する。
物体で反射した反射光は、路面と、立体物の側面(その路面とは異なる方向を向いた外面)とでは、偏光カメラ10に取り込まれる光の入射角が異なるため、P偏光強度とS偏光強度それぞれに違いが生じる。特に、立体物の側面が路面に対して略直立した面であると、立体物の側面からの反射光に含まれるP偏光成分とS偏光成分との間の相対関係は、路面からの反射光に含まれるP偏光成分とS偏光成分との間の相対関係を入れ替えたものに相当する。そして、一般に、反射光に含まれるP偏光成分とS偏光成分との相対関係は、入射面に対して平行な偏光成分であるP偏光成分よりも、入射面に対して垂直な偏光成分であるS偏光成分の方が大きいという関係がある。したがって、路面あるいは路面に平行な面からの反射光を偏光カメラ10で受光した場合にはP偏光強度よりもS偏光成分の方が強く、路面に対して略直立した立体物側面からの反射光を偏光カメラ10で受光した場合にはS偏光強度よりもP偏光成分の方が強い。このような路面と立体物との間の偏光特性の違いにより、偏光カメラ10で受光した反射光中のS偏光成分及びP偏光成分の強さを比較することで、S偏光成分が強ければ路面に平行な面からの反射光であることが把握でき、P偏光成分が強ければ路面に垂直な面からの反射光であることが把握できる。その結果、偏光カメラ10で受光した反射光中に含まれるS偏光成分とP偏光成分の差分値をとることで、その差分値の正負により、路面に平行な面を有する物体なのか、路面とは異なる方向を向いた外面を有する物体すなわち立体物なのかを把握することができる。
Next, the three-dimensional object identification process performed by the three-dimensional object identification unit 18 will be described.
In describing the three-dimensional object identification process, first, the reason why the three-dimensional object can be identified from the differential polarization degree will be described.
The reflected light reflected by the object differs in the incident angle of light taken into the polarization camera 10 between the road surface and the side surface of the three-dimensional object (the outer surface facing the direction different from the road surface). Differences in strength occur. In particular, when the side surface of the three-dimensional object is a surface substantially upright with respect to the road surface, the relative relationship between the P-polarized component and the S-polarized component contained in the reflected light from the side surface of the three-dimensional object is the reflected light from the road surface. Is equivalent to the one in which the relative relationship between the P-polarized component and the S-polarized component included in is replaced. In general, the relative relationship between the P-polarized light component and the S-polarized light component contained in the reflected light is a polarized light component perpendicular to the incident surface rather than the P-polarized light component that is a polarized light component parallel to the incident surface. There is a relationship that the S polarization component is larger. Therefore, when the reflected light from the road surface or a plane parallel to the road surface is received by the polarization camera 10, the S-polarized light component is stronger than the P-polarized light intensity, and the reflected light from the side surface of the three-dimensional object substantially upright with respect to the road surface. Is received by the polarizing camera 10, the P-polarized light component is stronger than the S-polarized light intensity. By comparing the intensity of the S-polarized component and the P-polarized component in the reflected light received by the polarization camera 10 due to the difference in polarization characteristics between the road surface and the three-dimensional object, the road surface is increased if the S-polarized component is strong. It can be understood that the reflected light is from a plane parallel to the road surface. If the P-polarized light component is strong, it can be understood that the reflected light is from a plane perpendicular to the road surface. As a result, by taking the difference value between the S-polarized component and the P-polarized component contained in the reflected light received by the polarization camera 10, depending on whether the difference value is positive or negative, whether the object has a plane parallel to the road surface, Can grasp whether the object has an outer surface facing in a different direction, that is, a three-dimensional object.

本実施形態の立体物識別処理では、上述したエッジ判別処理により判別されたエッジによって区分される各領域の差分偏光度を識別指標値として用いることで、当該領域が立体物であるか否かを判定する。立体物識別処理は、上述したとおり、S偏光強度とP偏光強度の差分値を識別指標値として用いても、当該領域が立体物であるか否かを判定することは可能である。しかしながら、明るさが足りない場合、識別指標値として算出されるS偏光強度とP偏光強度の差分値が小さい値をとる結果、立体物であるか否かの判定が困難になる。これに対し、本実施形態のように、この差分値をS偏光強度とP偏光強度の合計値(モノクロ輝度)で割った値である差分偏光度を用いれば、明るさが足りない場合でも、識別指標値としての差分偏光度は比較的大きな値をとることができ、立体物であるか否かの判定が可能となる。   In the three-dimensional object identification process according to the present embodiment, whether or not the area is a three-dimensional object is determined by using the differential polarization degree of each area divided by the edge determined by the edge determination process described above as an identification index value. judge. As described above, the three-dimensional object identification process can determine whether or not the region is a three-dimensional object even if the difference value between the S-polarized light intensity and the P-polarized light intensity is used as the identification index value. However, when the brightness is insufficient, the difference between the S-polarized light intensity and the P-polarized light intensity calculated as the identification index value takes a small value, so that it is difficult to determine whether the object is a three-dimensional object. On the other hand, as in this embodiment, if the difference polarization degree that is a value obtained by dividing the difference value by the total value of S polarization intensity and P polarization intensity (monochrome luminance) is used, even if the brightness is insufficient, The degree of differential polarization as the identification index value can take a relatively large value, and it can be determined whether or not the object is a three-dimensional object.

本実施形態の立体物識別処理の流れについて説明すると、上述したエッジ判別処理によって判別されたエッジにより区分される各領域について、その領域の差分偏光度が予め決められている立体物用の閾値以下であるか否かを判断する(S21)。本実施形態において、立体物についての差分偏光度は、図26に示したヒストグラムからわかるように、正の値をとる。よって、本実施形態では、立体物用閾値としてゼロ近傍の正の値(例えば+0.05)を採用し、この閾値以上の範囲に属する差分偏光度をもつ領域を立体物であると識別する。なお、上述した路面構造物識別処理のように、相対的差分偏光度を用いても同様の処理が可能である。この判断において、差分偏光度が立体物用閾値以下であると判断した場合には、当該領域を立体物であると識別して記憶する(S22)。これを全領域について行うことで(S23)、撮像画像内における立体物を表示した領域を把握することができる。   The flow of the three-dimensional object identification process according to the present embodiment will be described. For each area divided by the edge determined by the edge determination process described above, the differential polarization degree of the area is equal to or less than a predetermined threshold for a three-dimensional object. It is determined whether or not (S21). In the present embodiment, the differential polarization degree for a three-dimensional object takes a positive value as can be seen from the histogram shown in FIG. Therefore, in the present embodiment, a positive value near zero (for example, +0.05) is adopted as the threshold for a three-dimensional object, and an area having a differential polarization degree belonging to a range equal to or greater than this threshold is identified as a three-dimensional object. In addition, the same process is possible even if it uses relative difference polarization degree like the road surface structure identification process mentioned above. In this determination, when it is determined that the differential polarization degree is equal to or less than the threshold for the three-dimensional object, the region is identified and stored as a three-dimensional object (S22). By performing this for all areas (S23), it is possible to grasp the area where the three-dimensional object is displayed in the captured image.

また、撮像画像の上方部分と下方部分とでは、物体からの反射光の強度に差があるので、この違いを考慮し、撮像画像の上方部分と下方部分とで、用いる立体物用閾値を異ならせるようにしてもよい。
また、近くに位置する物体を撮影した撮像画像の下方部分の方が、上方部分よりも物体識別精度が高いので、処理ラインの処理順序は、画像下方から上方に向かう順序とするのがよい。
Also, since there is a difference in the intensity of reflected light from the object between the upper part and the lower part of the captured image, the threshold for solid objects to be used is different between the upper part and the lower part of the captured image in consideration of this difference. You may make it let.
In addition, since the lower part of the captured image obtained by photographing an object located nearby has higher object identification accuracy than the upper part, the processing order of the processing lines is preferably the order from the lower side to the upper side of the image.

次に、立体物特定部19が行う立体物の種類特定処理について説明する。
立体物特定部19は、まず、上述した立体物識別処理により立体物であると識別された領域の形状を認識し(S24)、当該領域の形状に近似する形状テンプレートが存在するかどうかを判断する(S25)。この判断において、近似する形状テンプレートが存在すると判断した場合には、当該領域の立体物を、その形状テンプレートに関連づけられた種類に特定し、記憶する(S26)。例えば、車形状の形状テンプレートに近似する場合には他の車両であると特定する。これを全立体物について行ったら(S27)、処理を終了する。なお、立体物特定部19における形状近似認識の方法は、上述した路面構造物特定部17の処理方法と同様なので、説明を省略する。
Next, the three-dimensional object type specifying process performed by the three-dimensional object specifying unit 19 will be described.
First, the three-dimensional object specifying unit 19 recognizes the shape of the area identified as a three-dimensional object by the above-described three-dimensional object identification process (S24), and determines whether there is a shape template that approximates the shape of the area. (S25). In this determination, when it is determined that there is an approximate shape template, the three-dimensional object in the region is specified as a type associated with the shape template and stored (S26). For example, in the case of approximating a vehicle shape template, it is specified as another vehicle. If this is performed for all three-dimensional objects (S27), the process ends. In addition, since the method of shape approximation recognition in the three-dimensional object specifying unit 19 is the same as the processing method of the road surface structure specifying unit 17 described above, description thereof is omitted.

立体物の種類特定処理や立体物識別処理の精度を高めるために、上述した路面構造物の種類特定の場合と同様、過去の処理結果を利用してもよい。
また、上述したエッジ判別処理の判断(S3)で用いるエッジ閾値や、立体物の識別処理の判断(S21)で用いる立体物用閾値は、撮影環境の違いに応じて適宜切り替えるようにしてもよい。具体例としては、昼間と夜間などの時間帯の違い 雨天と晴天などの天候の違いに応じて切り替えることが挙げられる。この切り替えは、時間情報やレインセンサや日照センサなどの情報を用いることが実現可能である。
また、本実施形態の偏光カメラ10をルームミラー等の車内に取り付ける場合、フロントガラスの偏光特性も考慮することが望ましい点も、上述した路面構造物特定処理の場合と同様である。
In order to improve the accuracy of the three-dimensional object type specifying process and the three-dimensional object identifying process, the past processing result may be used as in the case of specifying the type of the road surface structure.
Further, the edge threshold value used in the determination of the edge determination process (S3) and the threshold value for the three-dimensional object used in the determination process of the three-dimensional object (S21) may be switched as appropriate according to the difference in the shooting environment. . A specific example is switching between time zones such as daytime and nighttime according to the difference in weather such as rainy weather and fine weather. This switching can be realized using time information or information such as a rain sensor or a sunshine sensor.
In addition, when the polarizing camera 10 of the present embodiment is mounted in a vehicle such as a rearview mirror, it is desirable to consider the polarization characteristics of the windshield as in the road surface structure specifying process described above.

立体物特定部19により立体物の種類の特定結果は、様々な処理に利用することが可能である。
例えば、立体物特定部19による処理結果から、避けるべき障害物である認識された立体物の接近を、運転者に警告したり、自車の自動ブレーキシステムを制御することにより衝突回避あるいは衝突時の衝撃緩和等を行ったりする。
また、例えば、立体物特定部19の処理結果を、白線識別部14での白線エッジの識別処理に用いることが挙げられる。具体的には、立体物特定部19の処理により立体物の種類が特定された領域は白線の領域ではないので、この領域を白線識別部14による白線エッジの識別処理の対象から除外する。これにより、他の車両等の立体物を白線と誤認識する可能性を少なくでき、白線の認識精度を向上させることができる。なお、ここでは、白線識別部14による白線エッジの識別処理について説明したが、白線以外の物体を撮像画像から識別する処理を行う場合には、一般に、立体物特定部19の処理により立体物の種類が特定された領域をその識別処理の対象から除外することで、その識別処理の識別精度を向上させることができる。
The result of specifying the type of the three-dimensional object by the three-dimensional object specifying unit 19 can be used for various processes.
For example, from the result of processing by the three-dimensional object specifying unit 19, the driver is warned of the approach of a recognized three-dimensional object that is an obstacle to be avoided, or the collision is avoided or controlled by controlling the vehicle's automatic brake system. To reduce the impact.
Further, for example, the processing result of the three-dimensional object specifying unit 19 may be used for white line edge identification processing in the white line identification unit 14. Specifically, since the region in which the type of the three-dimensional object is specified by the processing of the three-dimensional object specifying unit 19 is not a white line region, this region is excluded from the target of white line edge identification processing by the white line identification unit 14. Thereby, the possibility of erroneously recognizing a solid object such as another vehicle as a white line can be reduced, and the recognition accuracy of the white line can be improved. Here, the white line edge identifying process by the white line identifying unit 14 has been described. However, in the case of performing a process of identifying an object other than a white line from a captured image, in general, the processing of the three-dimensional object specifying unit 19 is performed. By excluding the region whose type is specified from the target of the identification process, the identification accuracy of the identification process can be improved.

また、例えば、カーナビゲーションシステムに利用することも挙げられる。具体例としては、立体物特定部19の処理結果から特定される電信柱、街灯、標識等の路外障害物の位置から、自車と路外障害物との間の距離や角度等の自車位置情報を生成し、この自車位置情報を用いて、カーナビゲーションシステムにより算出される自車位置の範囲内において、自車の更なる詳細な位置を特定する。これにより、カーナビゲーションシステムにおける自車位置の特定精度を高めることができる。   Further, for example, it may be used for a car navigation system. As a specific example, the distance, angle, etc. between the vehicle and the off-road obstacle is determined from the position of the off-road obstacle such as a telephone pole, a streetlight, and a sign specified from the processing result of the three-dimensional object specifying unit 19. Vehicle position information is generated, and the vehicle position information is used to specify a further detailed position of the vehicle within the range of the vehicle position calculated by the car navigation system. Thereby, the specific precision of the own vehicle position in a car navigation system can be improved.

また、例えば、立体物特定部19の処理結果から、自車に対する各種立体物の位置や方向を把握できるので、これを利用して走行支援ECU(Electronic Control Unit)などへ利用することも挙げられる。
特に、衝突を回避すべき立体物については、例えば、CRTや液晶等で構成される車内の情報報知手段である表示部(ディスプレイ)に、モノクロ画像処理部で算出した輝度データを用いて生成されるモノクロ画像(フロントビュー画像)を表示し、その画像中の立体物の情報を、運転者にとって有益な情報として報知するために、運転者が見やすい表示形態で表示する処理が挙げられる。これによれば、例えば、運転者が目視で当該立体物を認識することが困難な状況下であっても、運転者は表示部のフロントビュー画像を見ることで、その立体物の存在を確認することができ、衝突回避することが容易となる。
Further, for example, the position and direction of various three-dimensional objects with respect to the own vehicle can be grasped from the processing result of the three-dimensional object specifying unit 19, and this may be used for a travel support ECU (Electronic Control Unit) or the like. .
In particular, a three-dimensional object that should avoid a collision is generated by using, for example, luminance data calculated by a monochrome image processing unit on a display unit (display) that is an in-vehicle information notification unit composed of a CRT, a liquid crystal, or the like. In order to display a monochrome image (front view image) and information of a three-dimensional object in the image as useful information for the driver, there is a process of displaying the information in a display form that is easy for the driver to see. According to this, for example, even in a situation where it is difficult for the driver to visually recognize the three-dimensional object, the driver confirms the presence of the three-dimensional object by looking at the front view image on the display unit. This makes it easy to avoid collisions.

以上、本実施形態に係る物体識別装置は、撮像領域内に存在する物体からの反射光に含まれている偏光方向が互いに異なる2つの偏光(P偏光とS偏光)を受光して、それぞれの偏光画像(P偏光画像とS偏光画像)を撮像する撮像手段としての偏光カメラ10と、この偏光カメラ10が撮像したP偏光画像及びS偏光画像をそれぞれ所定の処理領域(一画素単位)に分割し、画素ごとにP偏光画像とS偏光画像との間における輝度差分値を算出する輝度差分値算出手段としての差分偏光度画像処理部15と、この差分偏光度画像処理部15が算出した輝度差分値から得られる識別指標値である差分偏光度を用いて、撮像領域内における各画素に対応した場所に存在する物体の識別処理を行う物体識別処理手段としての路面構造物識別部16及び立体物識別部18とを有する。これにより、モノクロ輝度の差を用いる場合には識別できなかった路面と路面構造物との間あるいは路面と立体物との間を区別して認識することができる。
また、本実施形態において、路面構造物識別部16及び立体物識別部18は、互いに異なる複数の物体ごとにそれぞれ定められる複数の数値範囲のいずれに差分偏光度が属するかを判断する判断処理を行い、当該処理領域に対応した場所に存在する物体を、該判断処理により属すると判断された数値範囲に対応する物体であると識別する処理を行うことにより、上記識別処理を実施する。このような処理であれば、閾値との比較という簡単な処理により識別処理を実現できる。
また、本実施形態において、偏光カメラ10は、移動面である路面上を移動する移動体としての車両(自車)に搭載され、路面に対して斜め上方から当該路面を含む撮像領域を撮像するものであり、同一の物体に対して定められる数値範囲を、P偏光画像及びS偏光画像をそれぞれ上下方向に区分する少なくとも2つ以上の区域ごとにそれぞれ設定し、当該区域に属する処理領域の差分偏光度がその区域に対して設定された数値範囲のいずれに属するかを判断して、識別処理を行う。これにより、P偏光画像及びS偏光画像の上下方向における偏光カメラ10の受光量の違いを考慮した適切な識別が可能となる。
また、本実施形態では、路面構造物識別部16において、撮像領域内における各処理領域に対応した場所に存在する物体の材質(金属)を識別する材質識別処理を行う。モノクロ輝度の差を用いる場合には識別できなかった同一平面内に存在する互いに異なる材質の物体を、その偏光特性の違いにより適切に識別することができる。
また、本実施形態においては、偏光カメラ10が、移動面である路面上を移動する移動体である車両に搭載され、該路面を含む撮像領域を撮像するものであり、路面と略同一平面上に外面が露出している物体(路面構造物)の識別処理を行う。よって、マンホール蓋、道路連結部、ボッツドッツ又はキャッツアイからなる区間線などの路面構造物を識別することができる。
また、本実施形態において、路面構造物識別部16は、予め存在することが想定されている基準物体としてのアスファルトの存在場所に対応する基準処理領域について差分偏光度画像処理部15が算出する差分偏光度を基準指標値とし、この基準処理領域とは異なる処理領域について差分偏光度画像処理部15が算出した差分偏光度の当該基準指標値に対する相対値(相対的差分偏光度)を算出し、この相対的差分偏光度に基づいて当該処理領域に対応した場所に存在する物体を識別する処理を行う。これにより、撮影環境の違い等の影響で識別対象領域の差分偏光度の算出値にズレが生じても、同じ影響でズレが生じている基準差分偏光度との相対量を用いることで、その影響を軽減することができる。
また、本実施形態では、識別指標値として、輝度合計値(P偏光強度+S偏光強度)に対する輝度差分値(P偏光強度−S偏光強度)の比率を示す差分偏光度を用いているので、明るさが足りない場合でも、精度の高い認識が可能となる。
また、本実施形態では、路面構造物識別部16及び立体物識別部18が過去に行った識別処理の結果を記憶する識別処理結果記憶手段としてのメモリに保存しておき、路面構造物識別部16及び立体物識別部18は、差分偏光度とともに、メモリに保存しておいた過去の識別処理の結果も用いて、識別処理を行う。これにより、過去の識別結果と同じ結果が得られたか否かについて識別結果の信頼度を判断することが可能となる。
また、本実施形態では、所定の特定物体を偏光カメラ10により撮像したときの形状を示す形状情報である形状テンプレートを記憶する形状情報記憶手段としての形状記憶部20を有し、物体識別処理手段としての路面構造物特定部17及び立体物特定部19は、路面構造物識別部16及び立体物識別部18の識別処理により同じ物体(路面構造物あるいは立体物)であると識別された互いに近接する複数画素により示される形状が形状記憶部20に記憶されている形状テンプレートの形状に近似しているかどうかを判断し、近似していると判断したときには、当該複数画素に対応した場所に存在する物体を当該形状テンプレートに対応する特定物体であると特定する物体特定処理を行う。これにより、物体の偏光特性だけでなく、物体の形状情報から、物体を特定することができる。
また、本実施形態における物体識別装置は、上述したように、当該物体識別装置による識別結果を利用して移動体である車両(自車)の移動制御を行う移動制御手段しての走行支援ECUを備えた移動体制御装置としての自動ブレーキシステムに適用できる。
また、本実施形態における物体識別装置は、上述したように、当該物体識別装置による識別結果を利用して移動体である車両(自車)を運転操作する運転者にとって有益な情報を生成し、生成した情報を当該運転者に報知する情報提供装置にも適用できる。
As described above, the object identification device according to the present embodiment receives two polarized lights (P-polarized light and S-polarized light) having different polarization directions included in the reflected light from the object existing in the imaging region, A polarization camera 10 as an imaging means for capturing a polarized image (P-polarized image and S-polarized image), and a P-polarized image and an S-polarized image captured by the polarized camera 10 are each divided into predetermined processing areas (units of one pixel). The differential polarization degree image processing unit 15 as a luminance difference value calculation unit that calculates the luminance difference value between the P-polarized image and the S-polarized image for each pixel, and the luminance calculated by the differential polarization degree image processing unit 15 The road surface structure identification unit 16 as an object identification processing unit that performs identification processing of an object existing at a location corresponding to each pixel in the imaging region using the differential polarization degree that is an identification index value obtained from the difference value. And a fine solid object identifying unit 18. Thereby, it is possible to distinguish and recognize between the road surface and the road surface structure or the road surface and the three-dimensional object that could not be identified when using the difference in monochrome luminance.
Further, in the present embodiment, the road surface structure identifying unit 16 and the three-dimensional object identifying unit 18 perform a determination process for determining which of a plurality of numerical ranges each determined for each of a plurality of different objects belongs to the degree of differential polarization. The identification process is performed by performing a process of identifying an object existing at a location corresponding to the processing area as an object corresponding to the numerical range determined to belong to the determination process. With such a process, the identification process can be realized by a simple process of comparison with a threshold value.
In the present embodiment, the polarization camera 10 is mounted on a vehicle (own vehicle) as a moving body that moves on a road surface that is a moving surface, and images an imaging region including the road surface obliquely from above the road surface. The numerical range defined for the same object is set for each of at least two or more areas that divide the P-polarized image and the S-polarized image in the vertical direction, and the difference between the processing areas belonging to the area is set. An identification process is performed by determining which of the numerical ranges set for the area the polarization degree belongs to. Accordingly, it is possible to appropriately identify the difference in the amount of light received by the polarization camera 10 in the vertical direction of the P-polarized image and the S-polarized image.
In the present embodiment, the road surface structure identification unit 16 performs a material identification process for identifying the material (metal) of an object present at a location corresponding to each processing area in the imaging area. Objects of different materials existing in the same plane, which could not be identified when using the difference in monochrome luminance, can be appropriately identified by the difference in their polarization characteristics.
Further, in the present embodiment, the polarization camera 10 is mounted on a vehicle that is a moving body that moves on a road surface that is a moving surface, and images an imaging region that includes the road surface, and is substantially flush with the road surface. The object (road surface structure) whose outer surface is exposed is identified. Therefore, a road surface structure such as a manhole cover, a road connecting portion, a section line made of botsdots or cat's eyes can be identified.
In the present embodiment, the road surface structure identification unit 16 calculates the difference calculated by the differential polarization degree image processing unit 15 for the reference processing region corresponding to the location of the asphalt as the reference object that is assumed to exist in advance. Using the degree of polarization as a reference index value, the relative polarization degree calculated by the difference polarization degree image processing unit 15 for a processing area different from the reference processing area is calculated with respect to the reference index value (relative difference polarization degree), Based on this relative differential polarization degree, a process of identifying an object present at a location corresponding to the processing region is performed. As a result, even if there is a deviation in the calculated value of the differential polarization degree of the identification target area due to the influence of the difference in the shooting environment, etc., by using the relative amount with the reference differential polarization degree where the deviation is caused by the same influence, The impact can be reduced.
In this embodiment, since the differential polarization degree indicating the ratio of the luminance difference value (P-polarization intensity-S-polarization intensity) to the luminance total value (P-polarization intensity + S-polarization intensity) is used as the identification index value. Even if there is not enough, recognition with high accuracy is possible.
In the present embodiment, the road surface structure identification unit 16 and the three-dimensional object identification unit 18 are stored in a memory serving as an identification process result storage unit that stores the results of identification processes performed in the past. 16 and the three-dimensional object identification unit 18 perform the identification process using the result of the past identification process stored in the memory together with the differential polarization degree. This makes it possible to determine the reliability of the identification result as to whether the same result as the past identification result has been obtained.
Further, in the present embodiment, it has a shape storage unit 20 as a shape information storage unit that stores a shape template that is shape information indicating a shape when a predetermined specific object is imaged by the polarization camera 10, and includes an object identification processing unit. The road surface structure specifying unit 17 and the three-dimensional object specifying unit 19 are adjacent to each other that are identified as the same object (road surface structure or three-dimensional object) by the identification processing of the road surface structure identifying unit 16 and the three-dimensional object identifying unit 18. It is determined whether or not the shape indicated by the plurality of pixels approximates the shape of the shape template stored in the shape storage unit 20, and when it is determined that the shape is approximated, it exists at a location corresponding to the plurality of pixels. An object specifying process for specifying an object as a specific object corresponding to the shape template is performed. Thereby, the object can be specified not only from the polarization characteristic of the object but also from the shape information of the object.
In addition, as described above, the object identification device according to the present embodiment is a travel support ECU as a movement control unit that performs movement control of a vehicle (own vehicle) that is a moving body using the identification result of the object identification device. It can be applied to an automatic brake system as a moving body control device equipped with
In addition, as described above, the object identification device according to the present embodiment generates information useful for a driver who operates a vehicle (own vehicle) that is a moving body using the identification result of the object identification device. The present invention can also be applied to an information providing apparatus that notifies the driver of the generated information.

なお、本実施形態に係る運転者支援システムは、そのシステム全体が車両に搭載されているが、必ずしもシステム全体が車両に搭載されている必要はない。したがって、例えば、偏光カメラ10のみを自車に搭載して、残りのシステム構成要素を自車とは別の場所に遠隔配置するようにしてもよい。この場合、車両の走行状態を運転者以外の者が客観的に把握するシステムとすることもできる。
また、本実施形態では、指標値として差分偏光度を用いているが、差分値そのものであってもよい。
Note that the driver assistance system according to the present embodiment is mounted on the vehicle as a whole, but the entire system does not necessarily have to be mounted on the vehicle. Therefore, for example, only the polarization camera 10 may be mounted on the own vehicle, and the remaining system components may be remotely arranged at a location different from the own vehicle. In this case, a system in which a person other than the driver objectively grasps the traveling state of the vehicle can be provided.
In the present embodiment, the differential polarization degree is used as the index value, but the differential value itself may be used.

10 偏光カメラ
11 水平偏光画像メモリ
12 垂直偏光画像メモリ
13 モノクロ画像処理部
14 白線識別部
15 差分偏光度画像処理部
16 路面構造物識別部
17 路面構造物特定部
18 立体物識別部
19 立体物特定部
20 形状記憶部
101,111,112 カメラ
102 回転偏光子
113,114,124,133,134,144,152,153 偏光フィルタ
DESCRIPTION OF SYMBOLS 10 Polarization camera 11 Horizontally polarized image memory 12 Vertically polarized image memory 13 Monochrome image processing part 14 White line identification part 15 Differential polarization degree image processing part 16 Road surface structure identification part 17 Road surface structure identification part 18 Three-dimensional object identification part 19 Three-dimensional object identification Unit 20 Shape storage unit 101, 111, 112 Camera 102 Rotating polarizer 113, 114, 124, 133, 134, 144, 152, 153 Polarization filter

特開平11−175702号公報Japanese Patent Laid-Open No. 11-175702

Claims (13)

撮像領域内に存在する物体を識別する物体識別装置において、
撮像領域内に存在する物体からの反射光に含まれている偏光方向が互いに異なる2つの偏光を受光して、それぞれの偏光画像を撮像する撮像手段と、
該撮像手段が撮像した2つの偏光画像を用いて上記撮像領域内における各処理領域に対応した場所に存在する物体の識別処理を行う物体識別処理手段とを有することを特徴とする物体識別装置。
In an object identification device for identifying an object existing in an imaging region,
Imaging means for receiving two polarized light beams having different polarization directions included in reflected light from an object existing in the imaging region and capturing respective polarized images;
An object identification apparatus comprising: object identification processing means for performing identification processing of an object existing at a location corresponding to each processing area in the imaging area using two polarized images captured by the imaging means.
撮像領域内に存在する物体を識別する物体識別装置において、
撮像領域内に存在する物体からの反射光に含まれている偏光方向が互いに異なる2つの偏光を受光して、それぞれの偏光画像を撮像する撮像手段と、
該撮像手段が撮像した2つの偏光画像をそれぞれ所定の処理領域に分割し、処理領域ごとに該2つの偏光画像間における輝度差分値を算出する輝度差分値算出手段と、
該輝度差分値算出手段が算出した輝度差分値から得られる識別指標値を用いて、上記撮像領域内における各処理領域に対応した場所に存在する物体の識別処理を行う物体識別処理手段とを有することを特徴とする物体識別装置。
In an object identification device for identifying an object existing in an imaging region,
Imaging means for receiving two polarized light beams having different polarization directions included in reflected light from an object existing in the imaging region and capturing respective polarized images;
A luminance difference value calculating unit that divides two polarized images captured by the imaging unit into predetermined processing regions, and calculates a luminance difference value between the two polarized images for each processing region;
Using an identification index value obtained from the luminance difference value calculated by the luminance difference value calculating means, and an object identification processing means for performing identification processing of an object existing at a location corresponding to each processing area in the imaging area. An object identification device.
請求項2の物体識別装置において、
上記物体識別処理手段は、互いに異なる複数の物体ごとにそれぞれ定められる複数の数値範囲のいずれに上記識別指標値が属するかを判断する判断処理を行い、当該処理領域に対応した場所に存在する物体を、該判断処理により属すると判断された数値範囲に対応する物体であると識別する処理を行うことにより、上記識別処理を実施することを特徴とする物体識別装置。
The object identification device according to claim 2,
The object identification processing means performs a determination process to determine which of a plurality of numerical ranges defined for each of a plurality of different objects each belongs to the identification index value, and an object present at a location corresponding to the processing area The object identification device is characterized in that the identification process is performed by performing a process of identifying the object corresponding to the numerical range determined to belong to the determination process.
請求項3の物体識別装置において、
上記撮像手段は、移動面上を移動する移動体に搭載され、該移動面に対して斜め上方から該移動面を含む撮像領域を撮像するものであり、
上記判断処理では、同一の物体に対して定められる数値範囲を、上記2つの偏光画像をそれぞれ上下方向に区分する少なくとも2つ以上の区域ごとにそれぞれ設定し、当該区域に属する処理領域の識別指標値が該区域に対して設定された数値範囲のいずれに属するかを判断することを特徴とする物体識別装置。
The object identification device according to claim 3.
The imaging means is mounted on a moving body that moves on a moving surface, and picks up an imaging region including the moving surface obliquely from above the moving surface,
In the determination process, a numerical range defined for the same object is set for each of at least two or more sections that respectively divide the two polarized images in the vertical direction, and an identification index of a processing region belonging to the section. An object identification device for determining which of a numerical range set for the area a value belongs to.
請求項2乃至4のいずれか1項に記載の物体識別装置において、
上記識別処理には、上記撮像領域内における各処理領域に対応した場所に存在する物体の材質を識別する材質識別処理が含まれることを特徴とする物体識別装置。
In the object identification device according to any one of claims 2 to 4,
The object identification device, wherein the identification process includes a material identification process for identifying a material of an object existing at a location corresponding to each processing area in the imaging area.
請求項5の物体識別装置において、
上記材質識別処理により識別する物体の材質には、金属が含まれることを特徴とする物体識別装置。
The object identification device according to claim 5, wherein
An object identification device, wherein the material of the object identified by the material identification process includes metal.
請求項2乃至6のいずれか1項に記載の物体識別装置において、
上記撮像手段は、移動面である路面上を移動する移動体である車両に搭載され、該路面を含む撮像領域を撮像するものであり、
上記物体識別処理手段は、上記路面と略同一平面上に外面が露出している物体の識別処理を行うことを特徴とする物体識別装置。
The object identification device according to any one of claims 2 to 6,
The imaging means is mounted on a vehicle that is a moving body that moves on a road surface that is a moving surface, and images an imaging region that includes the road surface.
The object identification processing means performs identification processing of an object whose outer surface is exposed on substantially the same plane as the road surface.
請求項2乃至7のいずれか1項に記載の物体識別装置において、
上記物体識別処理手段は、予め存在することが想定されている基準物体の存在場所に対応する基準処理領域について上記輝度差分値算出手段が算出した輝度差分値から得られる識別指標値を基準指標値とし、該基準処理領域とは異なる処理領域について該輝度差分値算出手段が算出した輝度差分値から得られる識別指標値の該基準指標値に対する相対値を算出し、該相対値に基づいて該処理領域に対応した場所に存在する物体を識別する処理を行うことにより、上記識別処理を実施することを特徴とする物体識別装置。
The object identification device according to any one of claims 2 to 7,
The object identification processing means uses an identification index value obtained from the luminance difference value calculated by the luminance difference value calculation means for a reference processing area corresponding to a location where a reference object is assumed to exist in advance as a reference index value. And calculating a relative value of the identification index value obtained from the brightness difference value calculated by the brightness difference value calculation means for the processing area different from the reference processing area with respect to the reference index value, and performing the processing based on the relative value. An object identification apparatus characterized in that the identification process is performed by performing a process of identifying an object existing at a location corresponding to a region.
請求項2乃至8のいずれか1項に記載の物体識別装置において、
上記識別指標値として、上記輝度差分値を算出する際に用いる2つの偏光画像間における輝度合計値に対する該輝度差分値の比率を示す差分偏光度を用いることを特徴とする物体識別装置。
The object identification device according to any one of claims 2 to 8,
An object identification device using a differential polarization degree indicating a ratio of a luminance difference value to a luminance total value between two polarized images used when calculating the luminance difference value as the identification index value.
請求項2乃至9のいずれか1項に記載の物体識別装置において、
上記物体識別処理手段が過去に行った上記識別処理の結果を記憶する識別処理結果記憶手段を有し、
上記物体識別処理手段は、上記識別指標値とともに、上記識別処理結果記憶手段に記憶された過去の識別処理の結果も用いて、上記識別処理を行うことを特徴とする物体識別装置。
In the object identification device according to any one of claims 2 to 9,
An identification processing result storage means for storing the result of the identification processing performed in the past by the object identification processing means;
The object identification processing unit performs the identification process by using the identification index value and the result of the past identification process stored in the identification process result storage unit.
請求項2乃至10のいずれか1項に記載の物体識別装置において、
所定の特定物体を上記撮像手段により撮像したときの形状を示す形状情報を記憶する形状情報記憶手段を有し、
上記物体識別処理手段は、上記識別処理により同じ物体であると識別された互いに近接する複数の処理領域により示される形状が上記形状情報記憶手段に記憶されている形状情報の形状に近似しているかどうかを判断し、近似していると判断したときには、該複数の処理領域に対応した場所に存在する物体を上記特定物体であると特定する物体特定処理を行うことを特徴とする物体識別装置。
The object identification device according to any one of claims 2 to 10,
Having shape information storage means for storing shape information indicating a shape when a predetermined specific object is imaged by the imaging means;
Whether the object identification processing means approximates the shape of the shape information stored in the shape information storage means with the shape indicated by the plurality of processing regions adjacent to each other identified as the same object by the identification processing An object identification device that performs an object identification process that identifies an object that exists at a location corresponding to the plurality of processing areas as the specific object when it is determined whether the object is approximate.
移動体の移動制御を行う移動制御手段と、
該移動体の周囲を撮像対象として撮像し、該撮像対象内に存在する物体を識別する物体識別手段とを有し、
上記移動制御手段は、上記物体識別手段による識別結果を用いて上記移動制御を行う移動体制御装置において、
上記物体識別手段として、請求項1乃至11のいずれか1項に記載の物体識別装置を用いたことを特徴とする移動体制御装置。
A movement control means for performing movement control of the moving body;
An object identification unit that images the surroundings of the moving object as an imaging target and identifies an object existing in the imaging target;
In the moving body control device that performs the movement control using the identification result by the object identification unit,
A moving body control device using the object identification device according to any one of claims 1 to 11 as the object identification means.
運転者による運転操作に従って移動する移動体の周囲を撮像対象として撮像し、該撮像対象内に存在する物体を識別する物体識別手段と、
上記物体識別手段による識別結果を用いて該運転者にとって有益な情報を生成する有益情報生成手段と、
該有益情報生成手段が生成した情報を該運転者に報知する情報報知手段とを有する情報提供装置において、
上記物体識別手段として、請求項1乃至11のいずれか1項に記載の物体識別装置を用いたことを特徴とする情報提供装置。
An object identification unit that captures an image of a moving object that moves in accordance with a driving operation by a driver as an imaging target, and that identifies an object existing in the imaging target;
Useful information generating means for generating information useful for the driver using the identification result by the object identifying means;
In an information providing apparatus having information notifying means for notifying the driver of information generated by the useful information generating means,
An information providing apparatus using the object identifying apparatus according to any one of claims 1 to 11 as the object identifying means.
JP2010243925A 2009-12-25 2010-10-29 Object identification device, and moving body control device and information providing device provided with the same Expired - Fee Related JP5696927B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2010243925A JP5696927B2 (en) 2009-12-25 2010-10-29 Object identification device, and moving body control device and information providing device provided with the same
PCT/JP2010/073069 WO2011078199A1 (en) 2009-12-25 2010-12-15 Object identifying apparatus, moving body control apparatus, and information providing apparatus
US13/516,754 US9317754B2 (en) 2009-12-25 2010-12-15 Object identifying apparatus, moving body control apparatus, and information providing apparatus
BR112012017199A BR112012017199A2 (en) 2009-12-25 2010-12-15 object identification apparatus, moving body monitoring apparatus and apparatus for providing information
KR1020127016422A KR101404924B1 (en) 2009-12-25 2010-12-15 Object identifying apparatus, moving body control apparatus, and information providing apparatus
CN201080058590.3A CN102782720B (en) 2009-12-25 2010-12-15 Object recognition equipment, mobile agent control device and information provider unit
EP10839429.7A EP2517175A4 (en) 2009-12-25 2010-12-15 Object identifying apparatus, moving body control apparatus, and information providing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009295885 2009-12-25
JP2009295885 2009-12-25
JP2010243925A JP5696927B2 (en) 2009-12-25 2010-10-29 Object identification device, and moving body control device and information providing device provided with the same

Publications (2)

Publication Number Publication Date
JP2011150686A true JP2011150686A (en) 2011-08-04
JP5696927B2 JP5696927B2 (en) 2015-04-08

Family

ID=44537565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010243925A Expired - Fee Related JP5696927B2 (en) 2009-12-25 2010-10-29 Object identification device, and moving body control device and information providing device provided with the same

Country Status (1)

Country Link
JP (1) JP5696927B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013148505A (en) * 2012-01-20 2013-08-01 Ricoh Co Ltd Image processing system and vehicle including the same
JP2013148504A (en) * 2012-01-20 2013-08-01 Ricoh Co Ltd Image processing system and vehicle including the same
WO2013114891A1 (en) * 2012-02-03 2013-08-08 パナソニック株式会社 Imaging device and imaging system
US8831286B2 (en) 2010-07-01 2014-09-09 Ricoh Company, Ltd. Object identification device
WO2015093206A1 (en) * 2013-12-16 2015-06-25 ソニー株式会社 Image processing device and image processing method
US10178361B2 (en) 2014-12-26 2019-01-08 Ricoh Company, Ltd. Image pickup element, imaging apparatus, and image recognition system using non-polarized light
JP2019021189A (en) * 2017-07-20 2019-02-07 セコム株式会社 Object detection device
JP2019200405A (en) * 2018-05-15 2019-11-21 株式会社三井光機製作所 Tri-spectroscopic optical module and optical device utilizing the same
CN111753676A (en) * 2020-06-09 2020-10-09 深圳珑璟光电技术有限公司 Anti-counterfeiting method, device and system
CN113533215A (en) * 2021-08-09 2021-10-22 哈尔滨工业大学(深圳) Water drop detection system and method for optical mirror surface and water drop erasing system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180025591A (en) 2016-09-01 2018-03-09 삼성전자주식회사 Control method and apparatus of vision sensor for automatic driving car

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311312A (en) * 1994-03-25 1995-11-28 Omron Corp Optical sensor device
JPH08138036A (en) * 1994-11-11 1996-05-31 Nissan Motor Co Ltd Preceding vehicle recognition device
JPH11175702A (en) * 1997-12-15 1999-07-02 Toyota Motor Corp Line detecting device for vehicle, on-road line detecting method, and medium recorded with program
JP2000230805A (en) * 1999-02-09 2000-08-22 Toyota Motor Corp Device and method for detecting travel lane
JP2007322374A (en) * 2006-06-05 2007-12-13 Mitsubishi Electric Corp Infrared target selector
JP2009009209A (en) * 2007-06-26 2009-01-15 Nippon Soken Inc Image recognition device and image recognition processing method
JP2009025198A (en) * 2007-07-20 2009-02-05 Denso It Laboratory Inc Apparatus and method for detecting road surface condition

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311312A (en) * 1994-03-25 1995-11-28 Omron Corp Optical sensor device
JPH08138036A (en) * 1994-11-11 1996-05-31 Nissan Motor Co Ltd Preceding vehicle recognition device
JPH11175702A (en) * 1997-12-15 1999-07-02 Toyota Motor Corp Line detecting device for vehicle, on-road line detecting method, and medium recorded with program
JP2000230805A (en) * 1999-02-09 2000-08-22 Toyota Motor Corp Device and method for detecting travel lane
JP2007322374A (en) * 2006-06-05 2007-12-13 Mitsubishi Electric Corp Infrared target selector
JP2009009209A (en) * 2007-06-26 2009-01-15 Nippon Soken Inc Image recognition device and image recognition processing method
JP2009025198A (en) * 2007-07-20 2009-02-05 Denso It Laboratory Inc Apparatus and method for detecting road surface condition

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8831286B2 (en) 2010-07-01 2014-09-09 Ricoh Company, Ltd. Object identification device
JP2013148504A (en) * 2012-01-20 2013-08-01 Ricoh Co Ltd Image processing system and vehicle including the same
JP2013148505A (en) * 2012-01-20 2013-08-01 Ricoh Co Ltd Image processing system and vehicle including the same
US9658463B2 (en) 2012-02-03 2017-05-23 Panasonic Intellectual Property Management Co., Ltd. Imaging device and imaging system
JPWO2013114891A1 (en) * 2012-02-03 2015-05-11 パナソニックIpマネジメント株式会社 Imaging apparatus and imaging system
WO2013114891A1 (en) * 2012-02-03 2013-08-08 パナソニック株式会社 Imaging device and imaging system
WO2015093206A1 (en) * 2013-12-16 2015-06-25 ソニー株式会社 Image processing device and image processing method
US10366303B2 (en) 2013-12-16 2019-07-30 Sony Corporation Image processing device and image processing method
US10178361B2 (en) 2014-12-26 2019-01-08 Ricoh Company, Ltd. Image pickup element, imaging apparatus, and image recognition system using non-polarized light
JP2019021189A (en) * 2017-07-20 2019-02-07 セコム株式会社 Object detection device
JP2019200405A (en) * 2018-05-15 2019-11-21 株式会社三井光機製作所 Tri-spectroscopic optical module and optical device utilizing the same
JP7183508B2 (en) 2018-05-15 2022-12-06 株式会社三井光機製作所 3 Spectral optical module and optical device using it
CN111753676A (en) * 2020-06-09 2020-10-09 深圳珑璟光电技术有限公司 Anti-counterfeiting method, device and system
CN113533215A (en) * 2021-08-09 2021-10-22 哈尔滨工业大学(深圳) Water drop detection system and method for optical mirror surface and water drop erasing system
CN113533215B (en) * 2021-08-09 2023-10-03 哈尔滨工业大学(深圳) Water droplet detection system, method and water droplet erasure system for optical mirror

Also Published As

Publication number Publication date
JP5696927B2 (en) 2015-04-08

Similar Documents

Publication Publication Date Title
JP5696927B2 (en) Object identification device, and moving body control device and information providing device provided with the same
KR101404924B1 (en) Object identifying apparatus, moving body control apparatus, and information providing apparatus
JP5761601B2 (en) Object identification device
JP5686281B2 (en) Three-dimensional object identification device, and mobile object control device and information providing device provided with the same
JP5867807B2 (en) Vehicle identification device
JP5967463B2 (en) Object identification device, and moving body control device and information providing device provided with the same
JP2011150687A (en) Three-dimensional object identifying apparatus, moving body control apparatus equipped with the same, and information providing apparatus
US10183666B2 (en) Method and device for determining a valid lane marking
RU2546547C1 (en) Driving aid and method of vehicle detection nearby it
US10933798B2 (en) Vehicle lighting control system with fog detection
CN102668540A (en) Imaging device, on-vehicle imaging system, road surface appearance detection method, and object detection device
JP2013029451A (en) Deposit detection device and deposit detection method
US20150302257A1 (en) On-Vehicle Control Device
JP2014006885A (en) Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
KR101986734B1 (en) Driver assistance apparatus in vehicle and method for guidance a safety driving thereof
JP2009301495A (en) Image processor and image processing method
JP5434277B2 (en) Driving support device and driving support method
KR101706682B1 (en) Image providing apparatus for curved road
JP2014016981A (en) Movement surface recognition device, movement surface recognition method, and movement surface recognition program
JP4572826B2 (en) Road marking line detection device
JP2007233487A (en) Pedestrian detection method, device, and program
JP2006024120A (en) Image processing system for vehicles and image processor
WO2023135952A1 (en) Image processing device, image processing method, and image processing system
JP2022069052A (en) Moving body detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140808

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150129

R151 Written notification of patent or utility model registration

Ref document number: 5696927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees