JP6060612B2 - Moving surface situation recognition device, moving object, and program - Google Patents

Moving surface situation recognition device, moving object, and program Download PDF

Info

Publication number
JP6060612B2
JP6060612B2 JP2012230059A JP2012230059A JP6060612B2 JP 6060612 B2 JP6060612 B2 JP 6060612B2 JP 2012230059 A JP2012230059 A JP 2012230059A JP 2012230059 A JP2012230059 A JP 2012230059A JP 6060612 B2 JP6060612 B2 JP 6060612B2
Authority
JP
Japan
Prior art keywords
parallax
image
map
moving surface
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012230059A
Other languages
Japanese (ja)
Other versions
JP2014081827A (en
Inventor
維 仲
維 仲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012230059A priority Critical patent/JP6060612B2/en
Publication of JP2014081827A publication Critical patent/JP2014081827A/en
Application granted granted Critical
Publication of JP6060612B2 publication Critical patent/JP6060612B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動面状況認識装置、移動体、及びプログラムに関する。   The present invention relates to a moving surface situation recognition device, a moving body, and a program.

近年、自動車の安全性や利便性を向上するため、車載カメラを利用した運転支援システムが実用化されている。運転支援システムにおいて、衝突防止等の機能を実現するためには、走行空間における路面状況の認識が非常に重要である。ステレオカメラを用いると視覚情報だけでなく距離情報も得ることができるため、最近ではステレオカメラを利用した運転支援システムに関する研究が多く行われている。   In recent years, in order to improve the safety and convenience of automobiles, driving support systems using in-vehicle cameras have been put into practical use. In order to realize functions such as collision prevention in a driving support system, it is very important to recognize road surface conditions in a traveling space. Since a stereo camera can be used to obtain not only visual information but also distance information, recently, many studies on driving support systems using a stereo camera have been conducted.

特許文献1では、路面形状や路上物等の路面状況を正確に判定することを目的として、輝度画像及び視差から得た白線の三次元情報を用いて、特徴ヒストグラムテンプレートと比較し、白線の三次元形状を取得している。また、白線の三次元形状を補間することによって、路面三次元形状を認識している。そして、路面三次元形状を撮影したと仮定した画像に変換することにより、その変換画像と路面画像との差を示す差分画像を生成し、この差分画像に基づいて路上物を検出する技術が開示されている。   In Patent Document 1, for the purpose of accurately determining a road surface condition such as a road surface shape and an object on the road, the white line three-dimensional information obtained from the luminance image and the parallax is compared with a feature histogram template, The original shape is acquired. Further, the three-dimensional shape of the road surface is recognized by interpolating the three-dimensional shape of the white line. Then, a technique for generating a difference image indicating a difference between the converted image and the road surface image by converting the image on the assumption that the road surface three-dimensional shape is photographed, and detecting a road object based on the difference image is disclosed. Has been.

しかしながら、上記従来の路面状況認識は、ステレオカメラによって撮影された輝度画像と、それから得られたヒストグラム視差と、の両方を使って特徴量を算出することにより、三次元情報に基づいて認識するものである。よって、認識アルゴリズムが複雑であり、カメラ上での実装と、リアルタイム処理が難しいという問題があった。   However, the above conventional road surface condition recognition is based on the three-dimensional information by calculating the feature amount using both the luminance image photographed by the stereo camera and the histogram parallax obtained therefrom. It is. Therefore, the recognition algorithm is complicated, and there is a problem that implementation on a camera and real-time processing are difficult.

また、特許文献1に記載された技術では、ステレオカメラの撮像画像から得られたヒストグラムと、基準特徴量とを比較することを行っている。しかしながら、輝度画像の白線抽出と視差とを取得することによって、複数の白線の三次元形状から路面三次元形状を取得し、さらに、路面三次元形状の変換画像と路面画像との差を示す差分画像を生成し、この差分画像に基づいて路上物を検出しているため、路面状況の認識方法が複雑であり、カメラの内部処理としての実装と、リアルタイム性の実現とが困難であるという問題は解消されていない。   In the technique described in Patent Document 1, a histogram obtained from a captured image of a stereo camera is compared with a reference feature amount. However, by acquiring the white line extraction and parallax of the luminance image, the road surface three-dimensional shape is acquired from the three-dimensional shape of the plurality of white lines, and the difference indicating the difference between the converted image of the road surface three-dimensional shape and the road surface image Since the image is generated and objects on the road are detected based on the difference image, the road surface condition recognition method is complicated, and it is difficult to implement the internal processing of the camera and to realize real-time performance. Has not been resolved.

そこで本発明は、上記従来技術の問題点に鑑みてなされたものであって、ステレオカメラを用いて得た距離データと視差画像とを用いることで、簡易な構成と処理により、高速度で、路面状況を自動的に認識することができる移動面状況認識装置、移動体、及びプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems of the prior art, and by using distance data and parallax images obtained using a stereo camera, a simple configuration and processing can be performed at high speed. It is an object of the present invention to provide a moving surface state recognition device, a moving body, and a program that can automatically recognize a road surface state.

上記課題を解決するため、請求項1に記載の本発明における移動面状況認識装置は、移動体に搭載された第1及び第2の撮像手段によりそれぞれ撮像された第1及び第2の画像を取得するステレオ画像取得手段と、前記第1及び第2の画像に基づいて当該第1及び第2の画像に対応する視差データを含む視差画像を生成する視差生成手段と、前記視差データに基づいて、前記視差画像と当該視差データにより示される高さが最も高い点が関連づけられた第1の視差マップと、前記視差画像と前記視差データにより示される高さが最も低い点が関連づけられた第2の視差マップとを生成する視差マップ生成手段と、前記第1の視差マップで示される高さ及び前記第2の視差マップで示される高さから算出される高さ差分に基づいて認識処理を行う認識処理手段と、を含むことを特徴とする。 In order to solve the above-described problem, the moving surface situation recognition apparatus according to the present invention described in claim 1 is configured to display the first and second images respectively captured by the first and second imaging means mounted on the moving body. stereo image acquisition means acquire a Sasei formed means vision for generating a parallax image including a parallax data corresponding to the first and second image based on the first and second image, based on the parallax data The first parallax map in which the highest point indicated by the parallax image and the parallax data is associated with the first parallax map that is associated with the lowest point indicated by the parallax image and the parallax data. A recognition process based on a height difference calculated from a height indicated by the first parallax map and a height indicated by the second parallax map; line It characterized in that it comprises a recognition processing means.

本発明によれば、認識処理に視差データを用いることに加え、自動車等の移動体が走行する路面の高さ差分の特徴量を既知の情報として利用することにより、システムを高速化・自動化することができるので、ステレオカメラによる簡易な構成と処理により、高速度で、路面状況を自動的に認識することができる移動面状況認識装置、移動体、及びプログラムを得ることができる。   According to the present invention, in addition to using parallax data for recognition processing, the feature quantity of the height difference of a road surface on which a moving body such as an automobile travels is used as known information, thereby speeding up and automating the system. Therefore, it is possible to obtain a moving surface state recognition device, a moving body, and a program that can automatically recognize a road surface state at a high speed with a simple configuration and processing using a stereo camera.

本発明の実施形態に係る移動面状況認識装置の全体構成について説明する概略構成図である。It is a schematic block diagram explaining the whole structure of the movement surface condition recognition apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る移動面状況認識装置の機能ブロックについて説明する図である。It is a figure explaining the functional block of the movement surface condition recognition apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る移動面状況認識装置のステレオカメラから取得されたステレオ画像を用いて視差画像と輝度画像とを生成する機能ブロックについて説明する図である。It is a figure explaining the functional block which produces | generates a parallax image and a brightness | luminance image using the stereo image acquired from the stereo camera of the moving surface condition recognition apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る移動面状況認識装置のステレオカメラの構造と結像関係について説明する図である。It is a figure explaining the structure and imaging relationship of the stereo camera of the moving surface condition recognition apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る移動面状況認識装置のステレオカメラで得られた(a)左カメラ画像例、(b)右カメラ画像例について説明する図である。It is a figure explaining the (a) example of a left camera image obtained with the stereo camera of the movement surface condition recognition apparatus which concerns on embodiment of this invention, and the (b) example of a right camera image. 本発明の実施形態に係る移動面状況認識装置の左右輝度画像と視差画像について説明する図である。It is a figure explaining the left-right luminance image and parallax image of the moving surface condition recognition apparatus which concern on embodiment of this invention. 本発明の実施形態に係る移動面状況認識装置の視差画像と、U−Map、U−Height−Map、及びU−Low−Mapとの関係について説明する図である。It is a figure explaining the relationship between the parallax image of the moving surface condition recognition apparatus which concerns on embodiment of this invention, and U-Map, U-Height-Map, and U-Low-Map. 本発明の実施形態に係る移動面状況認識装置の輝度画像と、U−Map、U−Low−Map、及びU−Height−Mapとの関係について説明する図である。It is a figure explaining the relationship between the luminance image of the moving surface condition recognition apparatus which concerns on embodiment of this invention, and U-Map, U-Low-Map, and U-Height-Map. 本発明の実施形態に係る移動面状況認識装置の路面認識処理フローについて説明する図である。It is a figure explaining the road surface recognition process flow of the moving surface condition recognition apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る移動面状況認識装置の路面状況認識の例について説明する図である。It is a figure explaining the example of the road surface condition recognition of the moving surface condition recognition apparatus which concerns on embodiment of this invention.

次に、本発明を実施するための形態について図面を参照して詳細に説明する。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。本発明はステレオカメラに関するものであり、簡易な構成で、路面状況をリアルタイムに認識するもの、すなわち、ステレオカメラを用いて距離を測定し、距離情報に基づいて路面状況を認識するものである。   Next, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the part which is the same or it corresponds, The duplication description is simplified thru | or abbreviate | omitted suitably. The present invention relates to a stereo camera, and recognizes a road surface situation in real time with a simple configuration, that is, measures a distance using a stereo camera and recognizes a road surface situation based on distance information.

具体的には、自動車等が移動する路面に対して、移動面である路面の高さの差分量を整理し、明記したデータである移動面高さ差分特徴量をメモリにプリセット、すなわち記憶させておく。そして、車載ステレオカメラから視差データを取得し、画像のX方向視差画像ヒストグラム(X方向視差マップ:U−Map)とX方向視差高さマップ(U−Low−Map、U−Height−Map)とを算出する。さらに、認識処理において、U−Mapから抽出された線の情報に基づき、U−Low−Map上及びU−Height−Map上で高さ差分を移動面高さ差分特徴量と比較し、移動面と物体とを認識する。そして、輝度画像との位置関係に基づき、路面範囲、路上物、及び路外物を求めることが特徴になっている。   Specifically, with respect to the road surface on which an automobile or the like moves, the difference amount of the height of the road surface that is the moving surface is arranged, and the moving surface height difference feature amount that is the specified data is preset in the memory, that is, stored. Keep it. Then, parallax data is acquired from the in-vehicle stereo camera, and an X direction parallax image histogram (X direction parallax map: U-Map) and an X direction parallax height map (U-Low-Map, U-Height-Map) Is calculated. Further, in the recognition process, the height difference is compared with the moving surface height difference feature amount on the U-Low-Map and the U-Height-Map based on the information of the line extracted from the U-Map, and the moving surface And objects are recognized. A feature is that the road surface range, road objects, and road objects are obtained based on the positional relationship with the luminance image.

上記記載の本発明の特徴について、以下図面を用いて詳細に解説する。まず始めに、本発明の実施形態に係る移動面状況認識装置の全体構成について説明する。図1は、本発明の実施形態に係る移動面状況認識装置の全体構成について説明する概略構成図である。   The characteristics of the present invention described above will be described in detail with reference to the drawings. First, the overall configuration of the moving surface situation recognition apparatus according to the embodiment of the present invention will be described. FIG. 1 is a schematic configuration diagram illustrating the overall configuration of a moving surface situation recognition apparatus according to an embodiment of the present invention.

本発明の実施形態に係る移動面状況認識装置は、ハードウェアの全体構成としては図1に示すような移動面状況の認識機能を有したステレオカメラシステム100である。距離を取得するために左右平行に取り付けられた2台のカメラである左カメラ101と右カメラ102と、2台のカメラ101、102で取得された移動面上の被写体の画像であるステレオ画像から、視差データを高速に算出するためのFPGA(Field Programmable Gate Array)103と、視差マップの生成や認識処理を行うMPU(Micro Processing Unit)106と、撮影画像、視差データ、及び認識結果画像を記憶するフレームバッファ104と、認識処理に用いるためにカメラから得られた路面高さ差分特徴量を明記したデータを記憶するメモリ107と、路面認識処理の結果やカメラ画像を表示するための画像表示装置105と、を有する。   The moving surface state recognition apparatus according to the embodiment of the present invention is a stereo camera system 100 having a moving surface state recognition function as shown in FIG. From left camera 101 and right camera 102, which are two cameras mounted in parallel on the left and right sides in order to acquire a distance, and a stereo image that is an image of a subject on a moving plane acquired by two cameras 101, 102 An FPGA (Field Programmable Gate Array) 103 for calculating parallax data at high speed, an MPU (Micro Processing Unit) 106 for generating and recognizing a parallax map, and a captured image, parallax data, and a recognition result image are stored. Frame buffer 104, memory 107 for storing data specifying a road surface height difference feature quantity obtained from the camera for use in recognition processing, and an image display device for displaying the results of the road surface recognition processing and camera images 105.

次に、本発明の実施形態に係る移動面状況認識装置の機能ブロックついて詳細に説明する。図2は、本発明の実施形態に係る移動面状況認識装置の機能ブロックについて説明する図である。なお、図2に示す移動面状況認識装置200は、路面上を移動する移動体、例えば、自動車等に搭載されるものである。   Next, functional blocks of the moving surface situation recognition apparatus according to the embodiment of the present invention will be described in detail. FIG. 2 is a diagram illustrating functional blocks of the moving surface state recognition device according to the embodiment of the present invention. 2 is mounted on a moving body that moves on the road surface, for example, an automobile or the like.

移動面状況認識装置200は、2台のカメラ101、102(図1)からステレオ画像を取得するステレオ画像取得部201と、取得されたステレオ画像からステレオマッチング処理を行い、視差画像を生成する視差画生成部202と、移動する移動面の路面高さ差分特徴量を記憶する路面高さ差分特徴量記憶部204と、視差画像上の視差データのヒストグラム等に代表される視差データの頻度を示す視差マップを作成する視差マップ生成部203と、視差マップと輝度画像とから認識処理を行う認識処理演算部205と、認識処理演算部205の認識結果画像を出力表示するための認識結果画像表示部206とから構成される。   The moving surface situation recognition apparatus 200 has a stereo image acquisition unit 201 that acquires stereo images from the two cameras 101 and 102 (FIG. 1), and a parallax that generates a parallax image by performing stereo matching processing from the acquired stereo images. The image generation unit 202, the road surface height difference feature amount storage unit 204 that stores the road surface height difference feature amount of the moving moving surface, and the frequency of the parallax data represented by the parallax data histogram on the parallax image, etc. A parallax map generation unit 203 that creates a parallax map, a recognition processing calculation unit 205 that performs a recognition process from the parallax map and the luminance image, and a recognition result image display unit that outputs and displays the recognition result image of the recognition processing calculation unit 205 206.

次に、図2に示した機能ブロックの各構成要素について説明する。ステレオカメラ画像取得部201は、左右カメラ101、102を平行に取り付け、左カメラ101と右カメラ102とでそれぞれ撮影された画像が出力される。視差画像生成部202は、取得されたステレオカメラ画像間で相互に対応する部分画像を検出するステレオマッチング処理を行い、部分画像間の視差で構成され、視差データからなる視差画像を生成する。   Next, each component of the functional block shown in FIG. 2 will be described. The stereo camera image acquisition unit 201 attaches the left and right cameras 101 and 102 in parallel, and outputs images captured by the left camera 101 and the right camera 102, respectively. The parallax image generation unit 202 performs stereo matching processing for detecting partial images corresponding to each other between the acquired stereo camera images, and generates a parallax image composed of parallax between the partial images and including parallax data.

ここで、ステレオ画像取得部201で取得されたステレオカメラ画像に基づいて行われるステレオマッチング処理について図3から図5を用いて説明する。図3は、本発明の実施形態に係る移動面状況認識装置200のステレオカメラから取得されたステレオ画像を用いて視差画像と輝度画像とを生成する機能ブロックについて説明する図である。図4は、本発明の実施形態に係る移動面状況認識装置のステレオカメラの構造と結像関係について説明する図である。図5は、本発明の実施形態に係る移動面状況認識装置のステレオカメラで得られた(a)左カメラ画像例、(b)右カメラ画像例について説明する図である。   Here, stereo matching processing performed based on the stereo camera image acquired by the stereo image acquisition unit 201 will be described with reference to FIGS. 3 to 5. FIG. 3 is a diagram illustrating functional blocks that generate a parallax image and a luminance image using a stereo image acquired from the stereo camera of the moving surface situation recognition apparatus 200 according to the embodiment of the present invention. FIG. 4 is a diagram for explaining the structure and imaging relationship of the stereo camera of the moving surface situation recognition apparatus according to the embodiment of the present invention. FIG. 5 is a diagram illustrating (a) an example of a left camera image and (b) an example of a right camera image obtained by a stereo camera of the moving surface situation recognition apparatus according to the embodiment of the present invention.

ステレオマッチング処理は、図3における輝度画像入力部301及び視差画像計算部302で実行される。ステレオ画像取得部201で取得されるステレオ画像は、図4に示す左右のカメラレンズとセンサとから取得される2枚のステレオ画像である。図4に示すように左レンズL 401と右レンズR 402には、それぞれステレオ画像が入力される。図5に、入力されたステレオ画像の、(a)左カメラ画像、及び(b)右カメラ画像の例を示す。左レンズL 401及び右レンズR 402により、同じ被写体403が左右のセンサにおける結像位置は異なる。   The stereo matching process is executed by the luminance image input unit 301 and the parallax image calculation unit 302 in FIG. The stereo image acquired by the stereo image acquisition unit 201 is two stereo images acquired from the left and right camera lenses and sensors shown in FIG. As shown in FIG. 4, stereo images are input to the left lens L 401 and the right lens R 402, respectively. FIG. 5 shows an example of (a) a left camera image and (b) a right camera image of an input stereo image. The left lens L 401 and the right lens R 402 have different imaging positions of the same subject 403 in the left and right sensors.

輝度画像入力部301には、ステレオ画像の左画像又は右画像から輝度画像が入力される。入力された画像は、ステレオカメラの図示しないメモリ領域に保存される。視差画像計算部302では、ステレオ画像取得部201で取得されたステレオ画像を用いて、撮影対象における左右画像での結線位置の差、すなわち視差が計算される。図5(a)(b)に示すように、左右のレンズ401、402で結像されたステレオ画像の同じ部分に対してブロックマッチングを施すことにより、視差画像が計算される。   The luminance image input unit 301 receives a luminance image from the left image or the right image of the stereo image. The input image is stored in a memory area (not shown) of the stereo camera. In the parallax image calculation unit 302, the difference between the connection positions of the left and right images in the shooting target, that is, the parallax is calculated using the stereo image acquired by the stereo image acquisition unit 201. As shown in FIGS. 5A and 5B, a parallax image is calculated by performing block matching on the same portion of the stereo image formed by the left and right lenses 401 and 402.

具体的には、左右画像をブロックに分割し、同じ物体の左右画像におけるブロックの差分が一番少ないとき、ブロックがマッチングした部分から視差を求める。すなわち、左画像のブロックの値Il(x、y)に対して、右画像のブロックの値Ir(x+Δ、y)が見つかった場合、その差分である視差データΔを求める。例えば、1280×960画素の画像に対して5×5サイズのブロックで分割を行い、各ブロックにおける視差値を求める。ブロックサイズの最適値は実験により調整し、設定する。   Specifically, the left and right images are divided into blocks, and when the difference between the blocks in the left and right images of the same object is the smallest, the parallax is obtained from the portion where the blocks match. That is, when the value Ir (x + Δ, y) of the block of the right image is found with respect to the value Il (x, y) of the block of the left image, the parallax data Δ that is the difference is obtained. For example, a 1280 × 960 pixel image is divided into blocks of 5 × 5 size, and a parallax value in each block is obtained. The optimum block size is adjusted and set by experiment.

図4に示す例では、被写体403上にある点Oの位置と、左右画像での結像位置である、左レンズ401の結像中心、及び右レンズ402の結像中心との間の距離は、それぞれΔ1とΔ2である。その差分である視差データは、Δ=Δ1+Δ2である。視差画像は画素位置での視差値を有するものである。   In the example shown in FIG. 4, the distance between the position of the point O on the subject 403 and the imaging center of the left lens 401 and the imaging center of the right lens 402, which are the imaging positions in the left and right images, is , Δ1 and Δ2, respectively. The parallax data that is the difference is Δ = Δ1 + Δ2. The parallax image has a parallax value at the pixel position.

次に、左右輝度画像と視差画像の例について図6を用いて説明する。図6は、本発明の実施形態に係る移動面状況認識装置の左右輝度画像と視差画像について説明する図である。本発明の実施形態で生成される視差マップは、視差画像上のX方向走査による視差データのヒストグラムであるU−Map、それぞれの視差データの最大高さマップであるU−Height−Map、及び最小高さマップであるU−Low−Mapである。   Next, examples of left and right luminance images and parallax images will be described with reference to FIG. FIG. 6 is a diagram illustrating the left-right luminance image and the parallax image of the moving surface situation recognition device according to the embodiment of the present invention. The parallax map generated in the embodiment of the present invention includes a U-Map that is a histogram of parallax data obtained by scanning in the X direction on a parallax image, a U-Height-Map that is a maximum height map of each parallax data, and a minimum. It is U-Low-Map which is a height map.

すなわち、左カメラ101(図1)によって取得された(a)左画像と、右カメラ102によって取得された(b)右画像とが、ステレオ画像取得部201(図3)において輝度画像として出力され、視差画像生成部202においてステレオマッチング処理が行われ、(c)視差画像がカラー表示される。   That is, (a) the left image acquired by the left camera 101 (FIG. 1) and (b) the right image acquired by the right camera 102 are output as luminance images in the stereo image acquisition unit 201 (FIG. 3). Then, the stereo matching processing is performed in the parallax image generation unit 202, and (c) the parallax image is displayed in color.

次に、視差画像と、U−Map、U−Height−Map、及びU−Low−Mapとの関係を図7を用いて説明する。図7は、本発明の実施形態に係る移動面状況認識装置の視差画像と、U−Map、U−Height−Map、及びU−Low−Mapとの関係について説明する図である。   Next, the relationship between a parallax image and U-Map, U-Height-Map, and U-Low-Map will be described with reference to FIG. FIG. 7 is a diagram illustrating the relationship between the parallax image of the moving surface situation recognition device according to the embodiment of the present invention, and U-Map, U-Height-Map, and U-Low-Map.

図7において、(a)視差画像のうち、X軸の0座標701において、Y軸の0行から3行までに、2、5、3、3の視差データが対応付けられている。そして、(b)U−Mapでは、視差データの出現回数、すなわち出現頻度を示す値がU−Mapの値になることから、(a)視差画像のX軸の0座標701において、2は1回、3は2回、5は1回それぞれ出現しているので、(b)U−MapのX軸の0座標702には、2の欄に1、3の欄に2、5の欄に1がそれぞれ定められる。   In FIG. 7, (a) in the 0-axis 701 on the X-axis in the parallax image, the parallax data of 2, 5, 3, and 3 are associated with the 0th to 3rd rows on the Y-axis. In (b) U-Map, since the number of appearances of parallax data, that is, the value indicating the appearance frequency becomes the value of U-Map, (a) In the 0 coordinate 701 on the X axis of the parallax image, 2 is 1 Since 3 times, 2 times and 5 times each appear, (b) 0-coordinate 702 of the X-axis of U-Map is 1 in the 2 column, 2 in the 3 column, 2 in the 5 column 1 is defined respectively.

次に、(c)U−Height−Mapでは、視差データの一番番高い行数がU−Height−Mapの値になることから、(a)視差画像のX軸の0座標701において、2は0行、3は3行、5は1行が一番高い行数であるので、(c)U−Height−MapのX軸の0座標703には、2の欄に0、3の欄に3、5の欄に1がそれぞれ定められる。   Next, in (c) U-Height-Map, since the highest number of lines of parallax data is the value of U-Height-Map, (a) 2 coordinates in the X coordinate 0 701 of the parallax image Is 0 row, 3 is 3 row, and 5 is 1 row, so that (c) 0-coordinate 703 of X-axis of U-Height-Map is 0, 3 column in 2 column 1 is set in the columns 3 and 5 respectively.

最後に、(d)U−Low−Mapでは、視差データの一番低い行数がU−Low−Mapの値になることから、(a)視差画像のX軸の0座標701において、2は0行、3は2行、5は1行が一番低い行数であるので、(d)U−Low−MapのX軸の0座標704には、2の欄に0、3の欄に2、5の欄に1がそれぞれ定められる。以下、(a)視差画像のX軸の0座標以降の視差データについても同様に定めることができる。   Finally, in (d) U-Low-Map, since the lowest number of rows of parallax data is the value of U-Low-Map, (a) in the 0 coordinate 701 of the X axis of the parallax image, 2 is Lines 0 and 3 are 2, and line 5 is the lowest number of lines. Therefore, (d) 0-coordinate 704 of the X axis of U-Low-Map is displayed in columns 2 and 0 and 3. 1 is defined in columns 2 and 5 respectively. Hereinafter, (a) parallax data after the 0 coordinate of the X axis of the parallax image can be determined in the same manner.

次に、輝度画像と、U−Map、U−Height−Map、及びU−Low−Mapとの関係の例を図8を用いて説明する。図8は、本発明の実施形態に係る移動面状況認識装置の輝度画像と、U−Map、U−Low−Map、及びU−Height−Mapとの関係について説明する図である。   Next, an example of the relationship between a luminance image and U-Map, U-Height-Map, and U-Low-Map will be described with reference to FIG. FIG. 8 is a diagram for explaining the relationship between the luminance image of the moving surface situation recognition apparatus according to the embodiment of the present invention and U-Map, U-Low-Map, and U-Height-Map.

路面高さ差分特徴量記憶部204(図2)では、検出対象の路面高さ差分特徴量が処理前にプリセット、すなわち記憶される。路面高さ差分特徴量は、路肩と物体とを判別するための基準として利用される。認識処理演算部205では、視差画像に基づいて、まず、3つの視差マップであるU−Map、U−Height−Map、及びU−Low−Mapを生成する。そして、生成された視差マップに対し、路肩、路面の面上に存在する路上物、及び路面の外部に存在する路外物を認識する。   In the road surface height difference feature amount storage unit 204 (FIG. 2), the road surface height difference feature amount to be detected is preset, that is, stored before processing. The road surface height difference feature quantity is used as a reference for discriminating a road shoulder from an object. Based on the parallax image, the recognition processing calculation unit 205 first generates three parallax maps, U-Map, U-Height-Map, and U-Low-Map. Then, with respect to the generated parallax map, a road shoulder, a road object existing on the road surface, and a road object existing outside the road surface are recognized.

例えば、図8では、(a)輝度画像において、建物801は、(b)U−Mapにおいて何らかの影803として認識されるが、(c)U−Low−Mapでは、路肩803として認識され、(d)U−Height−Mapでは、建物801が路外物801として認識されている。また、(a)輝度画像において、自動車802は、(b)U−Mapにおいて、視差画像に存在するノイズを除去するノイズ近似、並びに線近似がされた後、何らかの線分802として認識されるが、(d)U−Height−Mapでは、自動車802が路上物802として認識されている。   For example, in FIG. 8, (a) in the luminance image, the building 801 is recognized as a certain shadow 803 in (b) U-Map, but (c) is recognized as a road shoulder 803 in U-Low-Map. d) In the U-Height-Map, the building 801 is recognized as the outdoor object 801. In (a) the luminance image, the automobile 802 is recognized as a line segment 802 after (b) U-Map is subjected to noise approximation and line approximation for removing noise present in the parallax image. (D) In U-Height-Map, the automobile 802 is recognized as a road object 802.

次に、本発明の実施形態における移動面状況認識装置の具体的な処理フローを図9を用いて説明する。図9は、本発明の実施形態に係る移動面状況認識装置の路面認識処理フローについて説明する図である。まず、輝度画像と視差画像とに基づいて、ステップ(以下、「S」という。)901の処理において、U−Map、U−Height−Map、及びU−Low−Mapが生成される。そして、S902の処理では、入力されたU−Mapに基づいて、ノイズの除去と線分の近似処理が行われ、対象物の抽出処理が行われる。   Next, a specific processing flow of the moving surface situation recognition apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 9 is a diagram illustrating a road surface recognition process flow of the moving surface state recognition device according to the embodiment of the present invention. First, U-Map, U-Height-Map, and U-Low-Map are generated in the processing of Step (hereinafter referred to as “S”) 901 based on the luminance image and the parallax image. In the processing of S902, noise removal and line segment approximation processing are performed based on the input U-Map, and target object extraction processing is performed.

そして、S903の処理では、U−Map上で抽出された線分に対して、U−Low−Map上とU−Height−Map上との位置関係に基づいて、線分毎に高さ差分が算出される。この算出された高さ差分と視差マップとに基づいて、実際の高さずれを求め、予め路面高さ差分特徴量記憶部204に記憶された路面高さ差分特徴量と比較し、路肩と物体とが認識される。   In the process of S903, the height difference is calculated for each line segment based on the positional relationship between the U-Low-Map and U-Height-Map with respect to the line segment extracted on the U-Map. Calculated. Based on the calculated height difference and the parallax map, the actual height deviation is obtained and compared with the road surface height difference feature amount stored in the road surface height difference feature amount storage unit 204 in advance. Is recognized.

具体的には、実際の高さずれが路面高さ差分特徴量より大きい場合、物体として認識する。また、実際の高さずれが路面高さ差分特徴量より小さい場合、路肩として認識する。そして、S904の処理では、路肩の輝度画像上での位置関係に基づいて、路面範囲を求め、さらに、路面範囲に基づいて、認識された物体を、路上物と路外物とに分類する。なお、認識結果画像表示部206(図2)は、カメラからの各種画像や認識結果画像(路肩と物体とを線と枠等で重畳表示した画像)をユーザが確認するため、画像として出力する機能を有する。   Specifically, when the actual height deviation is larger than the road surface height difference feature amount, it is recognized as an object. Further, when the actual height deviation is smaller than the road surface height difference feature amount, it is recognized as a road shoulder. In step S904, the road surface range is obtained based on the positional relationship of the road shoulder on the luminance image, and the recognized objects are classified into road objects and road objects based on the road surface range. Note that the recognition result image display unit 206 (FIG. 2) outputs various images from the camera and recognition result images (images in which road shoulders and objects are superimposed and displayed with lines, frames, etc.) as images for the user to confirm. It has a function.

なお、図9に示した本発明の実施形態における充電装置の各動作フローは、コンピュータ上のプログラムに実行させることもできる。すなわち、移動面状況認識装置100の図示しない制御部に内蔵される図示しないCPUが、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成される図示しない記憶部に格納されたプログラムをロードし、プログラムの各処理ステップが順次実行されることによって行われる。   In addition, each operation | movement flow of the charging device in embodiment of this invention shown in FIG. 9 can also be made to perform the program on a computer. That is, a CPU (not shown) built in a control unit (not shown) of the moving surface situation recognition apparatus 100 stores a program stored in a storage unit (not shown) including a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. This is done by loading and executing each processing step of the program sequentially.

本発明の実施形態における認識結果処理画像を図10を用いて説明する。図10は、本発明の実施形態に係る移動面状況認識装置の路面状況認識の例について説明する図である。図10では、(a)輝度画像において、建物801は、(b)U−Mapにおいて何らかの影803として認識されるが、(d)U−Height−Mapでは、路外物801として認識され、(e)認識結果画像として、建物801として認識される。   The recognition result processing image in the embodiment of the present invention will be described with reference to FIG. FIG. 10 is a diagram illustrating an example of road surface situation recognition of the moving surface situation recognition apparatus according to the embodiment of the present invention. In FIG. 10, (a) in the luminance image, the building 801 is recognized as some shadow 803 in (b) U-Map, but (d) in U-Height-Map, it is recognized as an outdoor object 801 ( e) Recognized as a building 801 as a recognition result image.

また、(a)輝度画像において、自動車802は、(d)U−Height−Mapでは、路上物802として認識され、(e)認識結果画像として自動車802として認識される。さらに、(a)輝度画像において、道路標識804は、(c)U−Low−Mapにおいて路肩805として認識され、(e)認識結果画像として道路標識804として認識される。このように、(e)認識結果画像では、路肩を線として、路上物の物体と路外物の物体とを違う色として、輝度画像に重畳表示させて出力する。   In (a) the luminance image, the automobile 802 is recognized as a road object 802 in (d) U-Height-Map, and (e) the automobile 802 is recognized as a recognition result image. Further, (a) in the luminance image, the road sign 804 is recognized as a road shoulder 805 in (c) U-Low-Map, and (e) is recognized as a road sign 804 as a recognition result image. As described above, (e) in the recognition result image, the road shoulder is used as a line, and the object on the road and the object outside the road are displayed in different colors so as to be superimposed on the luminance image and output.

以上説明したように、本発明によれば、ステレオカメラを備えた移動面認識用カメラシステムにおいて、ステレオカメラによって取得された視差情報と、事前に記憶しておいた移動面高さ差分特徴量とを用いることにより、路肩の認識、及び路外物と路上物との判別といった路面状況を、高速度で自動的に認識することができる移動面状況認識装置、移動体、及びプログラムを得ることが可能となった。   As described above, according to the present invention, in the moving surface recognition camera system including a stereo camera, the parallax information acquired by the stereo camera and the moving surface height difference feature amount stored in advance are obtained. To obtain a moving surface situation recognition device, a moving body, and a program capable of automatically recognizing road surface conditions such as road shoulder recognition and discrimination between roadside objects and roadside objects at high speed. It has become possible.

以上、本発明の好適な実施形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範囲な趣旨及び範囲から逸脱することなく、これら具体例に様々な修正及び変更が可能である。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments thereof, various modifications and changes can be made to these embodiments without departing from the broader spirit and scope of the invention as defined in the claims. is there.

100 ステレオカメラシステム
101 左カメラ
102 右カメラ
103 FPGA
104 フレームバッファ
105 画像表示装置
106 MPU
107 メモリ
200 移動面状況認識装置
201 ステレオ画像取得部
202 視差画像生成部
203 視差マップ生成部
204 路面高さ差分特徴量記憶部
205 認識処理演算部
206 認識結果画像表示部
301 輝度画像入力部
302 視差画像計算部
401 左レンズ
402 右レンズ
403 被写体
801 建物、路外物
802 自動車、線分
803 影、路肩
804 道路標識
805 路肩
100 stereo camera system 101 left camera 102 right camera 103 FPGA
104 Frame buffer 105 Image display device 106 MPU
DESCRIPTION OF SYMBOLS 107 Memory 200 Moving surface condition recognition apparatus 201 Stereo image acquisition part 202 Parallax image generation part 203 Parallax map generation part 204 Road surface height difference feature-value memory | storage part 205 Recognition processing calculating part 206 Recognition result image display part 301 Luminance image input part 302 Parallax Image calculation unit 401 Left lens 402 Right lens 403 Subject 801 Building, roadside 802 Car, line segment 803 Shadow, shoulder 804 Road sign 805 Road shoulder

特開2002−150302号公報JP 2002-150302 A

Claims (7)

移動体に搭載された第1及び第2の撮像手段によりそれぞれ撮像された第1及び第2の画像を取得するステレオ画像取得手段と、
前記第1及び第2の画像に基づいて当該第1及び第2の画像に対応する視差データを含む視差画像を生成する視差生成手段と、
前記視差データに基づいて、前記視差画像と当該視差データにより示される高さが最も高い点が関連づけられた第1の視差マップと、前記視差画像と前記視差データにより示される高さが最も低い点が関連づけられた第2の視差マップとを生成する視差マップ生成手段と、
前記第1の視差マップで示される高さ及び前記第2の視差マップで示される高さから算出される高さ差分に基づいて認識処理を行う認識処理手段と、
含むことを特徴とする移動面状況認識装置。
Each stereo image acquisition means acquire the first and second image captured by the first and second imaging means mounted on a mobile body,
And Visual Sasei forming means for generating a parallax image including a parallax data corresponding to the first and second image based on the first and second images,
Based on the parallax data, the first parallax map in which the parallax image and the point with the highest height indicated by the parallax data are associated, and the point with the lowest height indicated by the parallax image and the parallax data a parallax map generating means for generating a second parallax map is associated,
Recognition processing means for performing recognition processing based on a height difference calculated from the height indicated by the first parallax map and the height indicated by the second parallax map;
Moving surface situation recognition apparatus, which comprises a.
前記両撮像手段から得られた前記被写体の前記移動面からの高さである移動面高さ差分特徴量が予め記憶されている移動面高さ差分特徴量記憶手段と、A moving surface height difference feature amount storing means in which a moving surface height difference feature amount that is a height from the moving surface of the subject obtained from the both imaging means is stored;
前記視差マップと前記移動面高さ差分特徴量とに基づいて、前記被写体を構成する物体を認識する認識処理演算手段と、Recognition processing calculation means for recognizing an object constituting the subject based on the parallax map and the moving surface height difference feature quantity;
を含むことを特徴とする請求項1記載の移動面状況認識装置。The moving surface situation recognition apparatus according to claim 1, wherein:
前記被写体を構成する物体は、前記移動面の外部に存在する移動面外物と、前記移動面の面上に存在する移動面上物とを含み、前記認識処理演算手段は、前記移動面を認識した後、前記移動面外物と移動面上物とを区別して認識することを特徴とする請求項1または2に記載の移動面状況認識装置。 The object constituting the subject includes a moving surface outside object that exists outside the moving surface and a moving surface object that exists on the surface of the moving surface, and the recognition processing calculation means includes the moving surface. 3. The moving surface state recognition apparatus according to claim 1, wherein after the recognition, the object outside the moving surface and the object on the moving surface are distinguished and recognized. 前記出力手段は、前記被写体の画像と、前記被写体を構成する物体とを重畳して表示することを特徴とする請求項1から3の何れか1項に記載の移動面状況認識装置。 It said output means includes an image of the object, moving surface situation recognition apparatus according to any one of claims 1 to 3, characterized in that superimposed and displayed on the objects constituting the object. 前記視差マップ生成手段は、前記視差マップを生成する前に、前記視差画像に含まれるノイズを除去することを特徴とする請求項1からの何れか1項に記載の移動面状況認識装置。 The disparity map generating means, the before generating the disparity map, moving surface situation recognition apparatus according to claim 1, any one of 4, characterized in that the removal of noise included in the parallax image. 移動体に搭載された第1及び第2の撮像手段によりそれぞれ撮像された第1及び第2の画像を取得するステレオ画像取得手段と、
前記第1及び第2の画像に基づいて当該第1及び第2の画像に対応する視差データを含む視差画像を生成する視差生成手段と、
前記視差データに基づいて、前記視差画像と当該視差データにより示される高さが最も高い点が関連づけられた第1の視差マップと、前記視差画像と前記視差データにより示される高さが最も低い点が関連づけられた第2の視差マップとを生成する視差マップ生成手段と、
前記第1の視差マップで示される高さ及び前記第2の視差マップで示される高さから算出される高さ差分に基づいて認識処理を行う認識処理手段と、
含むことを特徴とする移動体。
Each stereo image acquisition means acquire the first and second image captured by the first and second imaging means mounted on a mobile body,
Parallax generating means for generating a parallax image including parallax data corresponding to the first and second images based on the first and second images ;
Based on the parallax data, the first parallax map in which the parallax image and the point with the highest height indicated by the parallax data are associated, and the point with the lowest height indicated by the parallax image and the parallax data a parallax map generating means for generating a second parallax map is associated,
Recognition processing means for performing recognition processing based on a height difference calculated from the height indicated by the first parallax map and the height indicated by the second parallax map;
Mobile which comprises a.
移動体に搭載された第1及び第2の撮像手段によりそれぞれ撮像された第1及び第2の画像を取得する処理と
前記第1及び第2の画像に基づいて当該第1及び第2の画像に対応する視差データを含む視差画像を生成する処理と
前記視差データに基づいて、前記視差画像と当該視差データにより示される高さが最も高い点が関連づけられた第1の視差マップと、前記視差画像と前記視差データにより示される高さが最も低い点が関連づけられた第2の視差マップとを生成する処理と、
前記第1の視差マップで示される高さ及び前記第2の視差マップで示される高さから算出される高さ差分に基づいて認識処理を行う処理と、
含むことを特徴とするプログラム。
The first and second imaging means mounted on a mobile body and each processed that Tokusu preparative first and second images captured,
A process that generates a parallax image including a parallax data corresponding to the first and second image based on the first and second images,
Based on the parallax data, the first parallax map in which the parallax image and the point with the highest height indicated by the parallax data are associated, and the point with the lowest height indicated by the parallax image and the parallax data a process that generates a second parallax map is associated,
Processing for performing recognition processing based on a height difference calculated from the height indicated by the first parallax map and the height indicated by the second parallax map ;
The program characterized by including.
JP2012230059A 2012-10-17 2012-10-17 Moving surface situation recognition device, moving object, and program Active JP6060612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012230059A JP6060612B2 (en) 2012-10-17 2012-10-17 Moving surface situation recognition device, moving object, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012230059A JP6060612B2 (en) 2012-10-17 2012-10-17 Moving surface situation recognition device, moving object, and program

Publications (2)

Publication Number Publication Date
JP2014081827A JP2014081827A (en) 2014-05-08
JP6060612B2 true JP6060612B2 (en) 2017-01-18

Family

ID=50785955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012230059A Active JP6060612B2 (en) 2012-10-17 2012-10-17 Moving surface situation recognition device, moving object, and program

Country Status (1)

Country Link
JP (1) JP6060612B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3399499A4 (en) 2015-12-28 2019-01-09 Ricoh Company, Ltd. Image processing device, object recognition device, machinery control system, image processing method, and image processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3337197B2 (en) * 1997-04-04 2002-10-21 富士重工業株式会社 Outside monitoring device
JP3562751B2 (en) * 1998-06-09 2004-09-08 矢崎総業株式会社 Forward vehicle detection method and device
JP2000259997A (en) * 1999-03-05 2000-09-22 Nissan Motor Co Ltd Height of preceding vehicle and inter-vehicle distance measuring device

Also Published As

Publication number Publication date
JP2014081827A (en) 2014-05-08

Similar Documents

Publication Publication Date Title
US9454821B2 (en) One method of depth perception based on binary laser speckle images
EP2437494B1 (en) Device for monitoring area around vehicle
CN106170828B (en) External recognition device
JP6230751B1 (en) Object detection apparatus and object detection method
WO2010113239A1 (en) Image integration unit and image integration method
JP2014115978A (en) Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device
JP6891954B2 (en) Object detection device, object detection method, and program
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
US9826166B2 (en) Vehicular surrounding-monitoring control apparatus
JP4609603B2 (en) 3D information display device and 3D information display method
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
JP6031819B2 (en) Image processing apparatus and image processing method
WO2017002209A1 (en) Display control device, display control method, and display control program
JP2014183322A (en) Intersection recognition device and computer-executable program
JP2015184907A (en) Image processor and image processing program
JP2010224918A (en) Environment recognition device
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP4553071B1 (en) 3D information display device and 3D information display method
JP2010224936A (en) Object detection device
WO2020209046A1 (en) Object detection device
JP6060612B2 (en) Moving surface situation recognition device, moving object, and program
JP2015158749A (en) Image processor, mobile body, robot, device control method and program
JP5020920B2 (en) Pedestrian detection device and program
US20220129660A1 (en) System and method of acquiring coordinates of pupil center point
JP2016081108A (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161128

R151 Written notification of patent or utility model registration

Ref document number: 6060612

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151