JP6855325B2 - Image processing equipment, stereo camera systems, moving objects, road surface shape detection methods and programs - Google Patents

Image processing equipment, stereo camera systems, moving objects, road surface shape detection methods and programs Download PDF

Info

Publication number
JP6855325B2
JP6855325B2 JP2017103940A JP2017103940A JP6855325B2 JP 6855325 B2 JP6855325 B2 JP 6855325B2 JP 2017103940 A JP2017103940 A JP 2017103940A JP 2017103940 A JP2017103940 A JP 2017103940A JP 6855325 B2 JP6855325 B2 JP 6855325B2
Authority
JP
Japan
Prior art keywords
parallax
image
road surface
stereo
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017103940A
Other languages
Japanese (ja)
Other versions
JP2018200190A (en
Inventor
和昌 穐本
和昌 穐本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017103940A priority Critical patent/JP6855325B2/en
Publication of JP2018200190A publication Critical patent/JP2018200190A/en
Application granted granted Critical
Publication of JP6855325B2 publication Critical patent/JP6855325B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、画像処理装置、ステレオカメラシステム、移動体、路面形状検出方法およびプログラムに関する。 The present disclosure relates to an image processing device, a stereo camera system, a moving body, a road surface shape detecting method and a program.

近年、自動車等の移動体にステレオカメラシステムが設けられ、立体物の検出及び距離測定等に用いられている。ステレオカメラシステムでは、複数のカメラから取得した複数の画像のそれぞれから、画像全体に渡って距離分布を求め、この距離分布の情報から、障害物を判別する方法が提案されている(例えば、特許文献1参照)。 In recent years, a stereo camera system has been provided on a moving body such as an automobile, and is used for detecting a three-dimensional object and measuring a distance. In a stereo camera system, a method has been proposed in which a distance distribution is obtained over the entire image from each of a plurality of images acquired from a plurality of cameras, and an obstacle is discriminated from the information of the distance distribution (for example, a patent). Reference 1).

特開平5−265547号公報Japanese Unexamined Patent Publication No. 5-265547

しかしながら、従来のステレオカメラシステムでは、移動体の走行する路面が水平であるということを前提として、道路上の物体を認識している。このため、実際の路面に傾きまたは起伏があると、道路上の物体の高さを誤って判定することがある。例えば、路面の右側が高くなっている場合、路面の右側にある高さが低い物体を、高さが高い大きな物体であると判断することがある。また、路面の左側にある高さが高い物体を、高さの低い小さな物体であると判断することがある。 However, the conventional stereo camera system recognizes an object on the road on the premise that the road surface on which the moving body travels is horizontal. Therefore, if the actual road surface is inclined or undulated, the height of an object on the road may be erroneously determined. For example, when the right side of the road surface is high, a low-height object on the right side of the road surface may be determined to be a large high-height object. In addition, a high-height object on the left side of the road surface may be determined to be a small low-height object.

したがって、これらの点に着目してなされた本発明の目的は、路面の傾きおよび起伏等の形状を検出して物体認識の精度を向上した画像処理装置、ステレオカメラシステム、移動体、路面形状検出方法およびプログラムを提供することにある。 Therefore, an object of the present invention made by paying attention to these points is an image processing device, a stereo camera system, a moving body, and a road surface shape detection which improve the accuracy of object recognition by detecting shapes such as inclination and undulation of the road surface. To provide methods and programs.

本開示の一実施形態に係る画像処理装置は、入力部とプロセッサとを含む。入力部は、ステレオカメラからステレオ画像を取得する。プロセッサは、入力部で取得したステレオ画像から視差画像を生成し、前記視差画像から視差分布を算出し、該視差分布に基づいて視差が等しい点を結ぶ複数の等視差線を算出する。プロセッサは、複数の等視差線に基づいて路面の形状を検知する。 The image processing apparatus according to the embodiment of the present disclosure includes an input unit and a processor. The input unit acquires a stereo image from the stereo camera. The processor generates a parallax image from the stereo image acquired by the input unit, calculates the parallax distribution from the parallax image, and calculates a plurality of parallax lines connecting points having the same parallax based on the parallax distribution. The processor detects the shape of the road surface based on a plurality of parallax lines.

本開示の一実施形態に係るステレオカメラシステムは、ステレオカメラとプロセッサとを含む。ステレオカメラは、ステレオ画像を撮像する。プロセッサは、ステレオカメラにより撮像されたステレオ画像から視差画像を生成し、前記視差画像から視差分布を算出し、該視差分布に基づいて視差が等しい点を結ぶ複数の等視差線を算出する。プロセッサは、複数の等視差線に基づいて路面の形状を検知する。 A stereo camera system according to an embodiment of the present disclosure includes a stereo camera and a processor. A stereo camera captures a stereo image. The processor generates a parallax image from a stereo image captured by a stereo camera, calculates a parallax distribution from the parallax image, and calculates a plurality of parallax lines connecting points having equal parallax based on the parallax distribution. The processor detects the shape of the road surface based on a plurality of parallax lines.

本開示の一実施形態に係る移動体は、ステレオカメラシステムを含む。ステレオカメラシステムは、ステレオカメラとプロセッサとを含む。ステレオカメラは、ステレオ画像を撮像する。プロセッサは、ステレオカメラにより撮像されたステレオ画像から視差画像を生成し、前記視差画像から視差分布を算出し、該視差分布に基づいて視差が等しい点を結ぶ複数の等視差線を算出する。プロセッサは、複数の等視差線に基づいて路面の形状を検知する。 The mobile according to one embodiment of the present disclosure includes a stereo camera system. The stereo camera system includes a stereo camera and a processor. A stereo camera captures a stereo image. The processor generates a parallax image from a stereo image captured by a stereo camera, calculates a parallax distribution from the parallax image, and calculates a plurality of parallax lines connecting points having equal parallax based on the parallax distribution. The processor detects the shape of the road surface based on a plurality of parallax lines.

本開示の一実施形態に係る路面形状検出方法は、ステレオ画像から視差画像を生成し、前記視差画像から視差分布を算出し、該視差分布に基づいて視差が等しい点を結ぶ複数の等視差線を算出し、前記複数の等視差線に基づいて路面の形状を検知する。 In the road surface shape detection method according to the embodiment of the present disclosure, a parallax image is generated from a stereo image, a parallax distribution is calculated from the parallax image, and a plurality of parallax lines connecting points having equal parallax based on the parallax distribution. Is calculated, and the shape of the road surface is detected based on the plurality of isoparallax lines.

本開示の一実施形態に係るプログラムは、コンピュータに、ステレオ画像から視差画像を生成し、前記視差画像から視差分布を算出する手順と、該視差分布に基づいて視差が等しい点を結ぶ複数の等視差線を算出する手順と、前記複数の等視差線に基づいて路面の形状を検知する手順とを実行させる。 The program according to the embodiment of the present disclosure includes a procedure of generating a parallax image from a stereo image on a computer and calculating a parallax distribution from the parallax image, and a plurality of points connecting points having the same parallax based on the parallax distribution. The procedure for calculating the parallax line and the procedure for detecting the shape of the road surface based on the plurality of parallax lines are executed.

本発明の実施形態に係る画像処理装置、ステレオカメラシステム、移動体、路面形状検出方法およびプログラムによれば、物体認識の精度を向上させることができる。 According to the image processing device, the stereo camera system, the moving body, the road surface shape detecting method and the program according to the embodiment of the present invention, the accuracy of object recognition can be improved.

図1は、複数の実施形態の1つに係るステレオカメラシステムの概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a stereo camera system according to one of a plurality of embodiments. 図2は、図1のステレオカメラシステムを搭載する移動体を模式的に示す側面図である。FIG. 2 is a side view schematically showing a moving body equipped with the stereo camera system of FIG. 図3は、図1のステレオカメラシステムを搭載する移動体を模式的に示す正面図である。FIG. 3 is a front view schematically showing a moving body equipped with the stereo camera system of FIG. 図4は、図1の画像処理装置のプロセッサが行う処理の一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of processing performed by the processor of the image processing apparatus of FIG. 図5は、図1のステレオカメラの何れか一方のカメラで撮像される画像の一例を示す図である。FIG. 5 is a diagram showing an example of an image captured by either one of the stereo cameras of FIG. 図6は、図5の画像に対応する第1視差画像を説明する図である。FIG. 6 is a diagram illustrating a first parallax image corresponding to the image of FIG. 図7は、図5の図6の第1視差画像から立体物を除去して得られる第2視差画像を説明する図である。FIG. 7 is a diagram illustrating a second parallax image obtained by removing a three-dimensional object from the first parallax image of FIG. 6 of FIG. 図8は、図7の第2視差画像から得られる等視差線を示す図である。FIG. 8 is a diagram showing isoparallax lines obtained from the second parallax image of FIG. 7. 図9は、図1の画像処理装置の制御部が行う処理の他の一例を示すフローチャートである。FIG. 9 is a flowchart showing another example of processing performed by the control unit of the image processing apparatus of FIG. 図10は、視差画像から検出される視差と画像垂直位置との関係の一例を示す図である。FIG. 10 is a diagram showing an example of the relationship between the parallax detected from the parallax image and the vertical position of the image. 図11は、図10で欠落している視差に対応する画像垂直位置を補完して得られる視差と画像垂直位置との関係を示す図である。FIG. 11 is a diagram showing the relationship between the parallax obtained by complementing the image vertical position corresponding to the parallax missing in FIG. 10 and the image vertical position. 図12は、図11において、所定値より小さい視差に対応する画像垂直位置をカルマンフィルタにより推測して得られる視差と画像垂直位置との関係を示す図である。FIG. 12 is a diagram showing the relationship between the image vertical position and the parallax obtained by estimating the image vertical position corresponding to the parallax smaller than the predetermined value by the Kalman filter in FIG.

以下、本発明の実施の形態について、図面を参照して説明する。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は、現実のものとは必ずしも一致していない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The figures used in the following description are schematic. The dimensional ratios on the drawings do not always match the actual ones.

図1に示すように、ステレオカメラシステム1は、ステレオカメラ10と画像処理装置20とを含む。ステレオカメラ10と画像処理装置20とは、有線または無線のネットワーク30を介して互いに通信可能である。ネットワーク30は、例えば無線、有線、またはCAN(Controller Area Network)等を含んでよい。また、ステレオカメラ10と画像処理装置20とは、同一の筺体内に収納され一体的に構成されてよい。ステレオカメラ10と画像処理装置20とが同一の筺体に収納された装置を、ステレオカメラ装置と呼びうる。ステレオカメラ10及び画像処理装置20は、移動体に設けられ移動体内のECU40(Electronic Control Unit)と通信可能としてよい。 As shown in FIG. 1, the stereo camera system 1 includes a stereo camera 10 and an image processing device 20. The stereo camera 10 and the image processing device 20 can communicate with each other via a wired or wireless network 30. The network 30 may include, for example, wireless, wired, CAN (Controller Area Network), or the like. Further, the stereo camera 10 and the image processing device 20 may be housed in the same housing and integrally configured. A device in which the stereo camera 10 and the image processing device 20 are housed in the same housing can be called a stereo camera device. The stereo camera 10 and the image processing device 20 may be provided in the moving body and can communicate with the ECU 40 (Electronic Control Unit) in the moving body.

「ステレオカメラ」とは、互いに視差を有し、互いに協働する複数のカメラである。ステレオカメラは、少なくとも2つ以上のカメラを含む。ステレオカメラでは、複数のカメラを協働させて、複数の方向から対象を撮像することが可能である。ステレオカメラには、複数のカメラを協働させて対象を同時に撮像することができるものが含まれる。撮影の「同時」は、完全な同じ時刻に限られない。例えば、(1)複数のカメラが同時刻に撮像すること、(2)複数のカメラが同じ信号に基づいて撮像すること、及び(3)複数のカメラが各々の内部時計において同時刻に撮像することは、本開示における「同時」に撮影するに含まれる。撮像の時間基準には、撮像の開始時刻、撮像の終了時刻、撮像した画像データの送信時刻、及び画像データを相手機器が受信した時刻が含まれる。ステレオカメラは、1つの筐体に複数のカメラが含まれる機器であってよい。ステレオカメラは互いに独立し、且つ互いに離れて位置する2台以上のカメラを含む機器であってよい。ステレオカメラは、互いに独立した複数のカメラに限られない。本開示では、例えば、離れた2箇所に入射される光を1つの受光素子に導く光学機構を有するカメラをステレオカメラとして採用できる。本開示では、同じ被写体を異なる視点から撮像した複数の画像を「ステレオ画像」と呼ぶことがある。 A "stereo camera" is a plurality of cameras that have parallax with each other and cooperate with each other. Stereo cameras include at least two or more cameras. With a stereo camera, it is possible to collaborate with a plurality of cameras to capture an object from a plurality of directions. Stereo cameras include those capable of simultaneously capturing an object by coordinating a plurality of cameras. The “simultaneous” shooting is not limited to the exact same time. For example, (1) multiple cameras take pictures at the same time, (2) multiple cameras take pictures based on the same signal, and (3) multiple cameras take pictures at the same time in each internal clock. That is included in shooting "simultaneously" in the present disclosure. The time reference for imaging includes the start time of imaging, the end time of imaging, the transmission time of captured image data, and the time when the other device receives the image data. The stereo camera may be a device in which a plurality of cameras are included in one housing. A stereo camera may be a device including two or more cameras that are independent of each other and located apart from each other. Stereo cameras are not limited to multiple cameras that are independent of each other. In the present disclosure, for example, a camera having an optical mechanism that guides light incident on two distant places to one light receiving element can be adopted as a stereo camera. In the present disclosure, a plurality of images obtained by capturing the same subject from different viewpoints may be referred to as "stereo images".

ステレオカメラ10は、第1カメラ11と第2カメラ12とを備える。第1カメラ11および第2カメラ12は、それぞれ光軸OXを規定する光学系と撮像素子とを備える。第1カメラ11および第2カメラ12はそれぞれ異なる光軸OXを有するが、本明細書の説明では単一の符号OXのみで、カメラ11およびカメラ12双方の光軸をまとめて表す。撮像素子は、CCDイメージセンサ(Charge-Coupled Device Image Sensor)、及びCMOSイメージセンサ(Complementary MOS Image Sensor)を含む。第1カメラ11および第2カメラ12は、撮像素子で結像された画像を表す画像信号を生成する。また、第1カメラ11および第2カメラ12は、撮像した画像について、歪み補正、明度調整、コントラスト調整、ガンマ補正等の任意の処理を行ってもよい。 The stereo camera 10 includes a first camera 11 and a second camera 12. The first camera 11 and the second camera 12 each include an optical system and an image sensor that define the optical axis OX. Although the first camera 11 and the second camera 12 have different optical axes OX, in the description of the present specification, the optical axes of both the camera 11 and the camera 12 are collectively represented by only a single reference numeral OX. The image sensor includes a CCD image sensor (Charge-Coupled Device Image Sensor) and a CMOS image sensor (Complementary MOS Image Sensor). The first camera 11 and the second camera 12 generate an image signal representing an image formed by the image sensor. Further, the first camera 11 and the second camera 12 may perform arbitrary processing such as distortion correction, brightness adjustment, contrast adjustment, and gamma correction on the captured image.

第1カメラ11および第2カメラ12の光軸OXは、互いに同じ被写体を撮像可能な方向を向いている。第1カメラ11及び第2カメラ12は、互いの光軸OXが異なる。第1カメラ11及び第2カメラ12は、撮像した画像に少なくとも同じ被写体が含まれるように、光軸OX及び位置が定められる。第1カメラ11及び第2カメラ12の光軸OXは、互いに平行になるように向けられる。この平行は、厳密な平行に限られず、組み立てのずれ、取付けのずれ、及びこれらの経時によるずれを許容する。第1カメラ11及び第2カメラ12の光軸OXは、平行に限られず、互いに異なる方向でよい。 The optical axes OX of the first camera 11 and the second camera 12 are oriented so that they can image the same subject. The first camera 11 and the second camera 12 have different optical axes OX from each other. The optical axis OX and the position of the first camera 11 and the second camera 12 are determined so that the captured image includes at least the same subject. The optical axes OX of the first camera 11 and the second camera 12 are oriented so as to be parallel to each other. This parallelism is not limited to strict parallelism, but allows assembly deviation, mounting deviation, and these deviations over time. The optical axes OX of the first camera 11 and the second camera 12 are not limited to parallel, and may be in different directions from each other.

図2及び図3に示すように、図1のステレオカメラシステム1は、移動体50に搭載される。図2の側面図に示すように、第1カメラ11及び第2カメラ12は、移動体50の前方を撮像するように、第1カメラ11および第2カメラ12の各光学系の光軸OXが移動体50の前方と略平行となるように配置される。なお、本願において前方とは、移動体の50の直進時の進行方向であり、右および左は前方を基準にした右および左を意味する。また、高さ方向は路面に垂直で上向きの方向である。 As shown in FIGS. 2 and 3, the stereo camera system 1 of FIG. 1 is mounted on the moving body 50. As shown in the side view of FIG. 2, the first camera 11 and the second camera 12 have the optical axis OX of each optical system of the first camera 11 and the second camera 12 so as to image the front of the moving body 50. It is arranged so as to be substantially parallel to the front of the moving body 50. In the present application, the front means the traveling direction of the moving body 50 when traveling straight, and the right and left mean the right and left with respect to the front. The height direction is perpendicular to the road surface and upward.

本開示における「移動体」は、例えば車両、航空機を含んでよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、および滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、およびトロリーバス等を含んでよい。産業車両は、例えば農業および建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフトおよびゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。航空機は、例えば固定翼機および回転翼機等を含んでよい。 The "moving body" in the present disclosure may include, for example, a vehicle or an aircraft. Vehicles may include, for example, automobiles, industrial vehicles, railroad vehicles, living vehicles, fixed-wing aircraft traveling on runways, and the like. Automobiles may include, for example, passenger cars, trucks, buses, motorcycles, trolley buses and the like. Industrial vehicles may include, for example, industrial vehicles for agriculture and construction. Industrial vehicles may include, for example, forklifts, golf carts, and the like. Industrial vehicles for agriculture may include, for example, tractors, cultivators, transplanters, binders, combines, lawnmowers and the like. Industrial vehicles for construction may include, for example, bulldozers, scrapers, excavators, crane trucks, dump trucks, road rollers and the like. The vehicle may include a vehicle that travels manually. The classification of vehicles is not limited to the above examples. For example, an automobile may include an industrial vehicle that can travel on the road. The same vehicle may be included in multiple categories. Aircraft may include, for example, fixed-wing aircraft, rotary-wing aircraft, and the like.

本開示の移動体50は、道路または滑走路等の上を走行する。移動体50が走行する道路または滑走路の表面を路面とよぶ。 The moving body 50 of the present disclosure travels on a road, a runway, or the like. The surface of the road or runway on which the moving body 50 travels is called the road surface.

第1カメラ11および第2カメラ12がそれぞれ備える撮像素子は、それぞれの光軸OXに垂直な同一面内に存在する。図3の正面図に示すように、第1カメラ11および第2カメラ12は、それぞれが備える撮像素子の中心等の基準点を通る直線(基準線)が水平となるように配置されてよい。また、撮像素子の基準線は、水平方向よりも若干上方または下方に向けてもよい。 The image pickup elements included in the first camera 11 and the second camera 12 are located in the same plane perpendicular to the respective optical axes OX. As shown in the front view of FIG. 3, the first camera 11 and the second camera 12 may be arranged so that a straight line (reference line) passing through a reference point such as the center of the image pickup element provided therein is horizontal. Further, the reference line of the image pickup device may be directed slightly above or below the horizontal direction.

第1カメラ11および第2カメラ12は、光軸OXに交わる方向において離れて位置している。複数の実施形態のうちの1つにおいて、第1カメラ11および第2カメラ12は、移動体50の幅方向に沿って位置している。第1カメラ11は、前方を向いたときに第2カメラ12の左側に位置する。第2カメラ12は、前方を向いたときに第1カメラ11の右側に位置する。第1カメラ11と第2カメラ12との位置の違いにより、各カメラで撮像した2つの画像において、互いに対応する被写体の位置は、異なる。第1カメラ11から出力される第1画像と、第2カメラ12から出力される第2画像とは、異なる視点から撮像したステレオ画像となる。第1カメラ11および第2カメラ12は、所定のフレームレート(例えば30fps)で被写体を撮像する。 The first camera 11 and the second camera 12 are located apart from each other in the direction intersecting the optical axis OX. In one of the plurality of embodiments, the first camera 11 and the second camera 12 are located along the width direction of the moving body 50. The first camera 11 is located on the left side of the second camera 12 when facing forward. The second camera 12 is located on the right side of the first camera 11 when facing forward. Due to the difference in position between the first camera 11 and the second camera 12, the positions of the subjects corresponding to each other in the two images captured by each camera are different. The first image output from the first camera 11 and the second image output from the second camera 12 are stereo images captured from different viewpoints. The first camera 11 and the second camera 12 take an image of a subject at a predetermined frame rate (for example, 30 fps).

複数の実施形態のうちの1つにおいて、第1カメラ11および第2カメラ12の光軸OXは、移動体50の前方に向けて固定されている。複数の実施形態のうちの1つにおいて、第1カメラ11および第2カメラ12は、移動体50のウインドシールドを介して移動体50の外部を撮像できる。複数の実施形態の1つにおいて、第1カメラ11および第2カメラ12は、車両のフロントバンパー、フェンダーグリル、サイドフェンダー、ライトモジュール、及びボンネットのいずれかに固定されていてよい。 In one of the plurality of embodiments, the optical axis OX of the first camera 11 and the second camera 12 is fixed toward the front of the moving body 50. In one of the plurality of embodiments, the first camera 11 and the second camera 12 can image the outside of the moving body 50 through the windshield of the moving body 50. In one of the plurality of embodiments, the first camera 11 and the second camera 12 may be fixed to any of the front bumper, fender grille, side fender, light module, and bonnet of the vehicle.

画像処理装置20は、入出力部21と制御部22とを備える。画像処理装置20は、移動体50内において任意の位置に配置できる。例えば、画像処理装置20は、移動体50のダッシュボード内に配置できる。 The image processing device 20 includes an input / output unit 21 and a control unit 22. The image processing device 20 can be arranged at an arbitrary position in the moving body 50. For example, the image processing device 20 can be arranged in the dashboard of the moving body 50.

入出力部21は、画像データを入力する画像処理装置20の入力インタフェースであり、且つ、画像処理装置20から移動体50内の他の装置に情報を出力する出力インタフェースである。したがって、入出力部21は、入力部であり且つ出力部である。移動体内の他の装置には、ECU(Electronic Control Unit)40を含む。入出力部21は、物理コネクタ、及び無線通信機が採用できる。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、及び電磁波による伝送に対応した電磁コネクタが含まれる。電気コネクタには、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、RCA端子に対応するコネクタ、EIAJ CP-1211Aに規定されるS端子に対応するコネクタ、EIAJ RC-5237に規定されるD端子に対応するコネクタ、HDMI(登録商標)規格に準拠するコネクタ、及びBNCを含む同軸ケーブルに対応するコネクタを含む。光コネクタは、IEC 61754に準拠する種々のコネクタを含む。無線通信機は、Bluetooth(登録商標)、及びIEEE802.11を含む各規格に準拠する無線通信機を含む。無線通信機は、少なくとも1つのアンテナを含む。 The input / output unit 21 is an input interface of the image processing device 20 for inputting image data, and is an output interface for outputting information from the image processing device 20 to another device in the moving body 50. Therefore, the input / output unit 21 is both an input unit and an output unit. Other devices in the moving body include an ECU (Electronic Control Unit) 40. A physical connector and a wireless communication device can be used as the input / output unit 21. The physical connector includes an electric connector corresponding to transmission by an electric signal, an optical connector corresponding to transmission by an optical signal, and an electromagnetic connector corresponding to transmission by an electromagnetic wave. The electrical connectors include IEC60603 compliant connector, USB standard compliant connector, RCA terminal compatible connector, EIAJ CP-1211A S terminal compatible connector, and EIAJ RC-5237 D terminal. The connector includes a connector corresponding to HDMI, a connector conforming to the HDMI (registered trademark) standard, and a connector corresponding to a coaxial cable including BNC. Optical connectors include various connectors according to IEC 61754. Wireless communication devices include wireless communication devices that comply with each standard including Bluetooth (registered trademark) and IEEE 802.11. The wireless communication device includes at least one antenna.

入出力部21には、第1カメラ11及び第2カメラ12の各々が撮像した画像の画像データが入力される。入出力部21は入力された画像データを制御部22に引き渡す。入出力部21は、ステレオカメラ10の撮像信号の伝送方式に対応してよい。入出力部21は、ネットワーク30を介してステレオカメラ10の出力インタフェースに接続してよい。画像処理装置20は、入出力部21を介して、移動体50内の他の装置のECU40に出力しうる。ECU40は、画像処理装置20から受信した情報を適宜使用しうる。 Image data of images captured by each of the first camera 11 and the second camera 12 is input to the input / output unit 21. The input / output unit 21 delivers the input image data to the control unit 22. The input / output unit 21 may correspond to the transmission method of the image pickup signal of the stereo camera 10. The input / output unit 21 may be connected to the output interface of the stereo camera 10 via the network 30. The image processing device 20 can output to the ECU 40 of another device in the moving body 50 via the input / output unit 21. The ECU 40 can appropriately use the information received from the image processing device 20.

制御部22は、一つまたは複数のプロセッサを含む。制御部22もしくはプロセッサは、種々の処理のためのプログラム及び演算中の情報を記憶する1または複数のメモリを含んでよい。メモリは、揮発性メモリ及び不揮発性メモリが含まれる。メモリは、プロセッサと独立しているメモリ、及びプロセッサの内蔵メモリが含まれる。プロセッサには、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、特定の処理に特化した専用のプロセッサが含まれる。専用のプロセッサには、特定用途向けIC(ASIC;Application Specific Integrated Circuit)が含まれる。プロセッサには、プログラマブルロジックデバイス(PLD;Programmable Logic Device)が含まれる。PLDには、FPGA(Field-Programmable Gate Array)が含まれる。制御部22は、一つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。制御部22の実行する処理は、プロセッサが実行する処理と言い換えることができる。 The control unit 22 includes one or more processors. The control unit 22 or the processor may include one or more memories for storing programs for various processes and information during calculation. The memory includes a volatile memory and a non-volatile memory. The memory includes a memory independent of the processor and a built-in memory of the processor. Processors include general-purpose processors that load specific programs and perform specific functions, and dedicated processors that specialize in specific processing. Dedicated processors include application specific integrated circuits (ASICs). The processor includes a programmable logic device (PLD). The PLD includes an FPGA (Field-Programmable Gate Array). The control unit 22 may be either a SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package). The process executed by the control unit 22 can be rephrased as the process executed by the processor.

画像処理装置20は、以下に説明する制御部22が行う処理を、非一時的なコンピュータ可読媒体に記録されたプログラムを読み込んで実装するように構成されてよい。非一時的なコンピュータ可読媒体は、磁気記憶媒体、光学記憶媒体、光磁気記憶媒体、半導体記憶媒体を含むがこれらに限られない。磁気記憶媒体は、磁気ディスク、ハードディスク、磁気テープを含む。光学記憶媒体は、CD(Compact Disc)、DVD、ブルーレイディスク(Blu-ray(登録商標) Disc)等の光ディスクを含む。半導体記憶媒体は、ROM(Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリを含む。 The image processing device 20 may be configured to read and implement a program recorded on a non-temporary computer-readable medium for the processing performed by the control unit 22 described below. Non-temporary computer-readable media include, but are not limited to, magnetic storage media, optical storage media, photomagnetic storage media, and semiconductor storage media. Magnetic storage media include magnetic disks, hard disks, and magnetic tapes. Optical storage media include optical discs such as CDs (Compact Discs), DVDs, and Blu-ray Discs (Blu-ray® Discs). The semiconductor storage medium includes a ROM (Read Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and a flash memory.

制御部22は、画像処理装置20全体および各構成要素の制御を行うとともに、ステレオカメラ10から取得した画像データに基づくステレオ画像の処理を行う。以下に図4を参照して制御部22の行う処理を説明する。 The control unit 22 controls the entire image processing device 20 and each component, and processes a stereo image based on the image data acquired from the stereo camera 10. The processing performed by the control unit 22 will be described below with reference to FIG.

制御部22は、入出力部21を介して、ステレオカメラ10の第1カメラ11および第2カメラによって撮像された画像を取得する(ステップS101)。制御部22は、第1カメラ11から取得した第1画像および第2カメラ12から取得した第2画像に対して、視差を検出する前に前処理を行ってよい。前処理には、画像の歪み補正、第1画像および第2画像の間のコントラスト調整、エッジ強調、第1カメラ11および第2カメラ12の間のずれのソフトウェアによる較正等の処理を含みうる。制御部22は、前処理を行った第1画像および第2画像をメモリに格納する。 The control unit 22 acquires images captured by the first camera 11 and the second camera of the stereo camera 10 via the input / output unit 21 (step S101). The control unit 22 may perform preprocessing on the first image acquired from the first camera 11 and the second image acquired from the second camera 12 before detecting the parallax. The pre-processing may include processing such as image distortion correction, contrast adjustment between the first and second images, edge enhancement, software calibration of the displacement between the first camera 11 and the second camera 12. The control unit 22 stores the preprocessed first image and the second image in the memory.

図5に第1カメラ11または第2カメラ12から取得される画像の例を模式的に示す。図5では、車両である移動体50が、トンネル内の道路の左車線上を走行している様子を示している。道路は右方向にカーブしており前方にはトンネルの壁が見えている。また、画像内には前方を走行する車両が撮像されている。第1画像および第2画像は、視差の違いを除き、同一の被写体を撮像した画像となっている。図5および以下の図6から図8は、説明のためのものであって、実際に撮像され、または処理された画像とは異なる。 FIG. 5 schematically shows an example of an image acquired from the first camera 11 or the second camera 12. FIG. 5 shows a moving body 50, which is a vehicle, traveling on the left lane of the road in the tunnel. The road curves to the right and the tunnel wall is visible in front. In addition, a vehicle traveling ahead is imaged in the image. The first image and the second image are images of the same subject except for the difference in parallax. 5 and 6 to 8 below are for illustration purposes only and are different from the images actually captured or processed.

ステップS101の後、制御部22は、第1カメラ11から取得した第1画像及び第2カメラ12から取得した第2画像の視差分布を算出する(ステップS102)。制御部22は、第1画像及び第2画像の一方の画像(例えば、第1画像)を多数の小領域に分割する。小領域は、例えば、縦横ともに3から9画素の矩形の領域である。例えば、小領域は、縦方向3画素、横方向3画素で構成されうる。制御部22は、分割した複数の小領域の各々の画像と他方の画像(例えば、第2画像)とを、1画素ずつ水平方向にずらしながらマッチングさせる。ステレオ画像のマッチングには、SAD(Sum of Absolute Difference)関数を用いる方法が知られている。これは、小領域内の輝度値の差の絶対値の総和を表すものである。SAD関数が最小となるとき、両画像は最も類似すると判断される。ステレオ画像のマッチングは、SAD関数を用いる方法に限られず、他の方法を採用しうる。 After step S101, the control unit 22 calculates the parallax distribution of the first image acquired from the first camera 11 and the second image acquired from the second camera 12 (step S102). The control unit 22 divides one image (for example, the first image) of the first image and the second image into a large number of small areas. The small area is, for example, a rectangular area having 3 to 9 pixels in both vertical and horizontal directions. For example, the small area may be composed of 3 pixels in the vertical direction and 3 pixels in the horizontal direction. The control unit 22 matches each image of the plurality of divided small regions with the other image (for example, a second image) while shifting the image one pixel at a time in the horizontal direction. A method using a SAD (Sum of Absolute Difference) function is known for matching stereo images. This represents the sum of the absolute values of the differences in the brightness values in the small area. When the SAD function is minimized, both images are determined to be the most similar. The matching of stereo images is not limited to the method using the SAD function, and other methods may be adopted.

制御部22は、第1画像と第2画像とでマッチングした2つの領域の横方向における画素の位置の違いに基づいて、当該小領域ごとの視差を算出する。視差の大きさは、画素の横方向の幅を単位として表すことができる。視差の大きさは距離に対応する。視差が大きければ距離が近く、視差が小さければ距離が遠いことを意味する。ステレオ演算部は、算出した視差の分布を示す視差画像を生成する。したがって、視差分布は視差画像と言い換えることができる。視差画像を構成する視差を表す画素を視差画素とよぶ。補間処理をすることにより、元の第1画像および第2画像の画素の精度で視差画像を生成することができる。 The control unit 22 calculates the parallax for each small region based on the difference in the position of the pixels in the lateral direction of the two regions matched between the first image and the second image. The magnitude of parallax can be expressed in units of the width of the pixel in the horizontal direction. The magnitude of parallax corresponds to the distance. If the parallax is large, it means that the distance is short, and if the parallax is small, it means that the distance is long. The stereo calculation unit generates a parallax image showing the calculated parallax distribution. Therefore, the parallax distribution can be rephrased as a parallax image. The pixels that represent the parallax that make up the parallax image are called parallax pixels. By performing the interpolation processing, a parallax image can be generated with the accuracy of the pixels of the original first image and the second image.

図6は、図5の画像に対応した視差画像の一例を模式的に示している。図5の視差画像を第1視差画像とよぶ。制御部22は、視差の違いを画素の輝度または色等の違いに置き換えて表示することができる。図6では、視差を異なる網掛けにより表現している。図6では、網掛けが濃いほど視差が小さく、網掛けが薄いほど視差が大きい。図6において等しい網掛けの領域は、それぞれ所定の視差の範囲内に位置することを表す。図6では、網掛けにより視差分布は画像全体に表されている。しかし、実際の視差画像では、必ずしもこのように画像全体に渡って視差を算出することはできない。なぜならば、滑らかな道路の路面など、周辺領域との間で色および明るさ等に差異が少ない領域では、マッチングにより対応する小領域を見つけることが困難なことがあるためである。このため、視差画像のデータは、白線が引かれている部分、道路上に不均一な凹凸がある部分、道路上の立体物、等について抽出することができる。なお、制御部22は、視差分布を算出した後に画像として表示する必要は無い。視差の分布は、制御部22の内部でデータとして保持し、必要な処理を行えばよい。 FIG. 6 schematically shows an example of a parallax image corresponding to the image of FIG. The parallax image of FIG. 5 is called a first parallax image. The control unit 22 can replace the difference in parallax with the difference in the brightness or color of the pixels and display it. In FIG. 6, the parallax is represented by different shading. In FIG. 6, the darker the shading, the smaller the parallax, and the lighter the shading, the larger the parallax. In FIG. 6, the equal shaded areas represent that they are located within a predetermined parallax range. In FIG. 6, the parallax distribution is represented by shading over the entire image. However, in an actual parallax image, it is not always possible to calculate the parallax over the entire image in this way. This is because it may be difficult to find a corresponding small area by matching in an area where there is little difference in color, brightness, etc. from the surrounding area such as a smooth road surface. Therefore, the parallax image data can be extracted for a portion where a white line is drawn, a portion having uneven unevenness on the road, a three-dimensional object on the road, and the like. The control unit 22 does not need to display the image as an image after calculating the parallax distribution. The parallax distribution may be retained as data inside the control unit 22 and necessary processing may be performed.

ステップS102の後、制御部22は第1視差画像から立体物を判別し、これを除去する(ステップS103)。制御部22は、第1視差画像内で高さ方向に等しい視差を有する領域を検出することにより、当該視差に対応する距離に位置する物体を識別する。 After step S102, the control unit 22 determines a three-dimensional object from the first parallax image and removes it (step S103). The control unit 22 identifies an object located at a distance corresponding to the parallax by detecting a region having a parallax equal to the height direction in the first parallax image.

例えば、図6の第1視差画像では、前方を走行する車両が画像上で高さ方向に略等しい視差を有する領域として検出されうる。制御部22は、第1視差画像から、車両、人間、道路標識、電柱、道路上の障害物等を立体物として検出しうる。制御部22は、このようにして検出した立体物の視差データを、第1視差画像から除去する。図7は、第1視差画像から立体物としての車両の視差データを除去して得られたた第2視差画像を示している。こうすることによって、制御部22は、道路上から路面以外の立体物による視差の多くを除去することができる。図7では、削除された車両に該当する視差画像の部分を説明のため破線で示している。 For example, in the first parallax image of FIG. 6, a vehicle traveling in front can be detected as a region having substantially equal parallax in the height direction on the image. The control unit 22 can detect a vehicle, a person, a road sign, a utility pole, an obstacle on the road, or the like as a three-dimensional object from the first parallax image. The control unit 22 removes the parallax data of the three-dimensional object detected in this way from the first parallax image. FIG. 7 shows a second parallax image obtained by removing the parallax data of the vehicle as a three-dimensional object from the first parallax image. By doing so, the control unit 22 can remove most of the parallax due to the three-dimensional object other than the road surface from the road surface. In FIG. 7, the part of the parallax image corresponding to the deleted vehicle is shown by a broken line for explanation.

ステップS103の後、制御部22は、検出対象とする中で最も大きい視差を1番目の視差(k=1)とする(ステップS104)。検出対象とする最大の視差は、どこまでの近距離を測定対象とするかに基づいて、制御部22において予め決められてよい。あるいは、最大の視差は、利用者が画像処理装置20に設定可能であってよい。制御部22は、第2視差画像の中から当該最も大きい視差を有する複数の画素を点群として抽出する(ステップS105)。制御部22は、この1番目の視差を有する点群に対する第2視差画像上の近似線を等視差線として算出する(S106)。等視差線は直線とし、近似には最小二乗法を用いてよいが、これに限られない。等視差線は曲線であってもよい。また、実際の視差画像において、視差のデータは、画像内で離散的に得られるため、等視差線は画像内の異なる部分に複数算出されてもよい。 After step S103, the control unit 22 sets the largest parallax to be detected as the first parallax (k = 1) (step S104). The maximum parallax to be detected may be predetermined in the control unit 22 based on how close the distance is to be measured. Alternatively, the maximum parallax may be set by the user in the image processing apparatus 20. The control unit 22 extracts a plurality of pixels having the largest parallax from the second parallax image as a point cloud (step S105). The control unit 22 calculates an approximate line on the second parallax image with respect to the point group having the first parallax as an isoparallax line (S106). The parallax line may be a straight line, and the least squares method may be used for approximation, but the approximation is not limited to this. The parallax line may be curved. Further, in an actual parallax image, since the parallax data is obtained discretely in the image, a plurality of parallax lines may be calculated in different portions in the image.

1番目の視差についてステップS106により近似線を算出した後、制御部22は次に小さい視差データがあることを確認する(ステップS107)。制御部22は、検出対象とする視差を最も大きい視差の次の視差とし(ステップS108)、2番目の視差(k=2)について、等視差の点群の抽出(ステップS105)および等視差線の算出を行う(ステップS106)。制御部22は、以下、検出対象の最小の視差になるまで(ステップS107)、順次、次に小さい視差を対象として(ステップS108)、ステップS105、S106の処理を繰り返す。一実施形態において、検出対象の最小の視差は1画素の視差である。 After calculating the approximate line for the first parallax in step S106, the control unit 22 confirms that there is the next smallest parallax data (step S107). The control unit 22 sets the parallax to be detected as the parallax next to the largest parallax (step S108), extracts the point cloud of the parallax (step S105) and the parallax line for the second parallax (k = 2). Is calculated (step S106). Hereinafter, the control unit 22 repeats the processes of steps S105 and S106, sequentially targeting the next smallest parallax (step S108), until the minimum parallax of the detection target is reached (step S107). In one embodiment, the minimum parallax to be detected is the parallax of one pixel.

制御部22は、最小の視差まで等視差線を算出し、次の算出対象の視差が無くなると(ステップS107:N)、ステップS109に進む。ステップS109において、制御部22は、ステップS105からS108によって算出した等視差線のうち、視差の等しい複数の等視差線を結合して、ひとつながりの等視差線を得る。等視差線は、移動体50から視差に対応する所定距離離れた位置をつなぐ線である。等視差線の傾きおよび画面上での高さから、当該距離に位置する路面の傾きや起伏の情報を含む路面情報を取得することができる(ステップS109)。 The control unit 22 calculates the parallax line to the minimum parallax, and when the parallax of the next calculation target disappears (step S107: N), the process proceeds to step S109. In step S109, the control unit 22 combines a plurality of parallax lines having the same parallax among the parallax lines calculated in steps S105 to S108 to obtain a single parallax line. The parallax line is a line connecting positions separated from the moving body 50 by a predetermined distance corresponding to the parallax. Road surface information including information on the inclination and undulations of the road surface located at the distance can be acquired from the inclination of the isoparallax line and the height on the screen (step S109).

図8には、図7の画像に対応して、等視差線が描かれた第2視差画像が示されている。図8では、等視差線は網掛けされた領域の境界に4本のみ代表的に描かれている。制御部22は検出可能な視差の数だけ等視差線を算出することができる。また、ステップS103において、立体物を第1視差画像から除去したので、路面上にある立体物に影響を受けることなく等視差線を算出することができる。よって、等視差線の精度が向上する。 FIG. 8 shows a second parallax image on which an isoparallax line is drawn, corresponding to the image of FIG. 7. In FIG. 8, only four isoparallax lines are typically drawn at the boundary of the shaded area. The control unit 22 can calculate as many parallax lines as there are detectable parallaxes. Further, since the three-dimensional object is removed from the first parallax image in step S103, the parallax line can be calculated without being affected by the three-dimensional object on the road surface. Therefore, the accuracy of the isoparallax line is improved.

等視差線に基づいて、前方の道路の傾きおよび路面の起伏などの路面形状の情報を得ることができる。等視差線の左右の傾きは、移動体50から等距離の路面の左右の傾きを示す。等視差線の間隔は、坂道等の路面の起伏を示す。図8によれば、等視差線の傾きにより、移動体50の前方の道路が右に傾いていることを知ることができる。 Based on the isoparallax line, it is possible to obtain information on the road surface shape such as the inclination of the road ahead and the undulations of the road surface. The left-right inclination of the equidistant line indicates the left-right inclination of the road surface equidistant from the moving body 50. The interval between the parallax lines indicates the undulations of the road surface such as a slope. According to FIG. 8, it can be known that the road in front of the moving body 50 is tilted to the right due to the tilt of the isoparallax line.

以上説明したように本実施形態のステレオカメラシステム1によれば、制御部22は、移動体50の前方の路面形状を取得するので、前方の立体物の路面からの高さをより精度高く検出することが可能になる。立体物には、ステップS203で除去した立体物も含む。路面形状を検出したことにより、立体物を除去する前の第1視差画像に対して、改めて路面高さからの立体物の高さを判定することが可能になる。これにより、路面からの高さが高い検出すべき物体の検出漏れ、および、路面からの高さが低い検出しなくともよい物体の誤検出の発生を低減することができ、ステレオカメラシステム1による物体認識の精度が向上する。 As described above, according to the stereo camera system 1 of the present embodiment, the control unit 22 acquires the road surface shape in front of the moving body 50, so that the height of the three-dimensional object in front from the road surface can be detected with higher accuracy. It becomes possible to do. The three-dimensional object also includes the three-dimensional object removed in step S203. By detecting the road surface shape, it becomes possible to determine the height of the three-dimensional object from the road surface height again with respect to the first parallax image before removing the three-dimensional object. As a result, it is possible to reduce the omission of detection of an object having a high height from the road surface to be detected and the occurrence of erroneous detection of an object having a low height from the road surface which does not need to be detected. The accuracy of object recognition is improved.

ステレオカメラシステム1が検出する道路の傾き及び起伏等の道路形状は、移動体50から見た相対的なものである。このため、ステレオカメラシステム1は、ステレオカメラシステム1を搭載した移動体50が傾き、道路が水平な場合でも、物体認識の精度を向上することができる。 The road shapes such as the slope and undulations of the road detected by the stereo camera system 1 are relative to the moving body 50. Therefore, in the stereo camera system 1, the accuracy of object recognition can be improved even when the moving body 50 on which the stereo camera system 1 is mounted is tilted and the road is horizontal.

制御部22は、入出力部21を介して、移動体50の種々の装置のECU40に、より精度の高い立体物の情報を送信することができ、移動体50の制御の精度を向上させることができる。移動体50の制御としては、移動体50が自動的に行う制動およびステアリング操作等を挙げることができる。すなわち、立体物を検出しての警告、自動停止、自動回避等での活用が可能になる。 The control unit 22 can transmit more accurate information on a three-dimensional object to the ECUs 40 of various devices of the mobile body 50 via the input / output unit 21 to improve the control accuracy of the mobile body 50. Can be done. Examples of the control of the moving body 50 include braking and steering operations automatically performed by the moving body 50. That is, it can be used for warning, automatic stop, automatic avoidance, etc. by detecting a three-dimensional object.

また、本実施形態のステレオカメラシステム1によれば、画像処理装置20は前方の道路の移動体50に対する相対的な傾きおよび起伏を検出することができる。さらに、この情報と走行速度の情報とを用いることにより、画像処理装置20または移動体50内のECU40は、特定の時間後に移動体50の姿勢がどのように変化するか推定することが可能になる。例えば、画像処理装置20は、移動体50が秒速10mで走行時に、50m前方の路面の傾きから、5秒後の移動体50の傾きの変化を知ることができる。画像処理装置20は、移動体の姿勢の変化に伴う画像上の物体の動きを考慮して、物体の実際の移動方向または速度を認識することができる。ECU40は、安全性の向上、乗り心地の改善等のために、画像処理装置20からの路面情報を活用することが可能である。例えば、高速走行時に前方の路面状態が大きく変化する情報を取得したとき、ECU40は、走行速度を減速させてよい。 Further, according to the stereo camera system 1 of the present embodiment, the image processing device 20 can detect the relative inclination and undulation of the road ahead with respect to the moving body 50. Further, by using this information and the information on the traveling speed, the ECU 40 in the image processing device 20 or the moving body 50 can estimate how the posture of the moving body 50 changes after a specific time. Become. For example, the image processing device 20 can know the change in the inclination of the moving body 50 after 5 seconds from the inclination of the road surface 50 m ahead when the moving body 50 travels at a speed of 10 m / s. The image processing device 20 can recognize the actual moving direction or speed of the object in consideration of the movement of the object on the image due to the change in the posture of the moving body. The ECU 40 can utilize the road surface information from the image processing device 20 for improving safety, riding comfort, and the like. For example, the ECU 40 may reduce the traveling speed when the information that the road surface condition in front of the vehicle changes significantly during high-speed traveling is acquired.

上述の説明では、画像処理装置20の制御部22は、検出対象の最も大きい視差の画素数から、順次視差を1画素分ずつ減少させ、視差が1画素分となるまでその視差の画素群を抽出した。しかし、視差画像では、視差が大きい領域における1画素の視差の違いに対応する距離が、視差が小さい領域における1画素の視差の違いに対応する距離に比べ小さい。また、視差が大きい領域は近距離であるため、遠距離に位置する視差の小さい領域よりも画像データが密に得られやすい。このため、視差が大きい領域において、制御部22の演算量を減らすため、算出を行う視差を間引いて視差分布を算出することがある。 In the above description, the control unit 22 of the image processing device 20 sequentially reduces the parallax by one pixel from the number of pixels of the largest parallax to be detected, and reduces the parallax pixel group by one pixel until the parallax becomes one pixel. Extracted. However, in the parallax image, the distance corresponding to the difference in parallax of one pixel in the region where the parallax is large is smaller than the distance corresponding to the difference in parallax of one pixel in the region where the parallax is small. Further, since the region having a large parallax is a short distance, image data can be obtained more densely than the region having a small parallax located at a long distance. Therefore, in a region where the parallax is large, the parallax distribution may be calculated by thinning out the parallax to be calculated in order to reduce the calculation amount of the control unit 22.

そこで、一実施形態に係るステレオカメラシステムでは、視差を間引いて視差分布を算出する。間引いた視差については、路面形状を得る際に前後の視差のデータから補間処理を行うことができる。 Therefore, in the stereo camera system according to the embodiment, the parallax is thinned out to calculate the parallax distribution. With respect to the thinned parallax, interpolation processing can be performed from the data of the front and rear parallax when obtaining the road surface shape.

また、視差が1または2等の視差の最も小さい領域は、画像上の最も遠距離の領域に対応する。この領域では、1画素の違いが大きな距離の違いに対応する。また、遠距離であるため、画像上での立体物が小さくなり、連続したデータが得にくい。このため、視差が小さい遠距離のデータは信頼性が低くなりうる。 Further, the region having the smallest parallax such as 1 or 2 corresponds to the region at the longest distance on the image. In this region, a difference of one pixel corresponds to a large difference in distance. Further, since the distance is long, the three-dimensional object on the image becomes small, and it is difficult to obtain continuous data. Therefore, long-distance data with small parallax can be unreliable.

そこで、制御部22は、最も遠距離に対応するいくつかの画素についてはマッチング処理を行わずに、路面位置のデータに近距離側からカルマンフィルタを適用して、遠距離の路面形状を推測することができる。カルマンフィルタは、通常時間変化する時系列データに対して適用されるが、本実施形態では、遠距離の道路形状の推測に使用する。すなわち、通常のカルマンフィルタにおける時間を、本実施形態では距離または視差に置き換えて計算するものである。 Therefore, the control unit 22 applies a Kalman filter to the road surface position data from the short-distance side without performing matching processing for some pixels corresponding to the longest distance, and estimates the long-distance road surface shape. Can be done. The Kalman filter is usually applied to time-series data that changes over time, but in the present embodiment, it is used to estimate a long-distance road shape. That is, in the present embodiment, the time in a normal Kalman filter is calculated by replacing it with distance or parallax.

図9のフローチャートは、間引きした視差を補完し最も遠距離の推定のためにカルマンフィルタを適用した、一実施形態に係る画像処理装置20の制御部22の処理の流れを示す。図9のフローチャートのステップS202の視差分布算出は、1画素の視差を含むいくつかの画素に相当する視差を間引いて算出を行っている。また、ステップS204〜S208の処理は、ステップS202で視差分布を算出した視差に対して行っている。その他の点で、ステップS201〜S209の処理は、図4のフローチャートのステップS101〜S109と同じであるから、説明を省略する。 The flowchart of FIG. 9 shows the processing flow of the control unit 22 of the image processing apparatus 20 according to the embodiment, which complements the thinned parallax and applies the Kalman filter for the estimation of the longest distance. The parallax distribution calculation in step S202 of the flowchart of FIG. 9 is performed by thinning out the parallax corresponding to some pixels including the parallax of one pixel. Further, the processes of steps S204 to S208 are performed on the parallax for which the parallax distribution was calculated in step S202. In other respects, the processing of steps S201 to S209 is the same as that of steps S101 to S109 of the flowchart of FIG. 4, and thus the description thereof will be omitted.

図10は、ステップS209の後のステレオカメラ10から見たある1方向の視差に対する路面の画像垂直位置を表すグラフである。画像垂直位置は、画像上での高さを、画像の最上部を0とし、そこからの画素数で表している。実際には、路面情報はステレオカメラ10の前方および左右方向に二次元的に取得しているが、図10および以下の図11、12では、説明のために前方に一次元的に取得されたものとする。このグラフでは、1画素、17画素、19画素、21画素および23画素に相当する視差の算出を行っていない。 FIG. 10 is a graph showing the vertical position of the image of the road surface with respect to the parallax in a certain direction as seen from the stereo camera 10 after step S209. The vertical position of the image represents the height on the image by the number of pixels from the top of the image as 0. Actually, the road surface information is acquired two-dimensionally in the front and left-right directions of the stereo camera 10, but in FIG. 10 and FIGS. 11 and 12 below, the road surface information is acquired one-dimensionally forward for the sake of explanation. It shall be. In this graph, the parallax corresponding to 1 pixel, 17 pixels, 19 pixels, 21 pixels and 23 pixels is not calculated.

ステップS210では、間引きした視差が17画素、19画素、21画素および23画素の視差データをその前後の視差データから補完する処理を行う。図11は、補間処理を行った後の路面の画素垂直位置を白抜きの丸で表している。間引きされた視差のデータを、補完することによって、これら間引きされた視差の等視差線を得ることができる。補間に係る計算量は、ステップS202で視差分布をマッチング処理により算出した場合よりも少ない。 In step S210, processing is performed in which the parallax data of 17 pixels, 19 pixels, 21 pixels, and 23 pixels of the thinned parallax is complemented from the parallax data before and after the parallax data. In FIG. 11, the vertical pixel positions of the road surface after the interpolation processing are represented by white circles. By complementing the thinned-out parallax data, the equi-parallax lines of these thinned-out parallax can be obtained. The amount of calculation related to interpolation is smaller than the case where the parallax distribution is calculated by the matching process in step S202.

ステップS211では、視差データに対して視差の大きい近距離側のデータからカルマンフィルタを用いることによって、最も遠い1画素の視差に相当する距離の位置の路面形状を推定する。図12は、図11の補間後のデータに、近距離側から順次カルマンフィルタを用いて視差1画素の最遠距離の路面の画像垂直位置を推定したものである。カルマンフィルタを用いることにより、視差算出によるデータの信頼性が低下する遠距離について、信頼性を高めた路面形状のデータを得ることが可能になる。 In step S211, the road surface shape at a distance corresponding to the parallax of the farthest pixel is estimated by using a Kalman filter from the data on the short distance side where the parallax is large with respect to the parallax data. In FIG. 12, the vertical position of the image of the road surface at the farthest distance with a parallax of 1 pixel is estimated from the interpolated data of FIG. 11 by sequentially using a Kalman filter from the short distance side. By using the Kalman filter, it is possible to obtain road surface shape data with improved reliability for a long distance where the reliability of the data calculated by parallax is reduced.

さらに、カルマンフィルタを用いたことにより、比較的信頼性の高い近距離側のデータを用いて、遠距離側のデータの平滑化および明らかに誤ったデータの除去が可能になる。 Furthermore, the use of the Kalman filter makes it possible to smooth the data on the long-distance side and remove the apparently incorrect data by using the relatively reliable data on the short-distance side.

上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態及び実施例によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態及び実施例に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。 Although the above embodiments have been described as typical examples, it will be apparent to those skilled in the art that many modifications and substitutions can be made within the spirit and scope of the present invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments and examples, and various modifications and modifications can be made without departing from the scope of claims. For example, it is possible to combine the plurality of constituent blocks described in the embodiments and examples into one, or to divide one constituent block into one.

1 ステレオカメラシステム
10 ステレオカメラ
11 第1カメラ
12 第2カメラ
20 画像処理装置
21 入出力部
22 制御部
30 ネットワーク
40 ECU
50 移動体
1 Stereo camera system 10 Stereo camera 11 1st camera 12 2nd camera 20 Image processing device 21 Input / output unit 22 Control unit 30 Network 40 ECU
50 mobile

Claims (11)

ステレオ画像を取得する入力部と、
前記入力部で取得した前記ステレオ画像から視差画像を生成し、前記視差画像から視差分布を算出し、該視差分布に基づいて視差が等しい点を結ぶ複数の等視差線を算出し、前記複数の等視差線に基づいて路面の形状を検知するプロセッサと
を備える画像処理装置。
The input section that acquires a stereo image and
A parallax image is generated from the stereo image acquired by the input unit, a parallax distribution is calculated from the parallax image, a plurality of parallax lines connecting points having the same parallax are calculated based on the parallax distribution, and the plurality of parallax lines are calculated. An image processing device including a processor that detects the shape of a road surface based on an isoparallax line.
前記プロセッサは、前記視差分布から複数の互いに等視差の視差画素を抽出し、前記等視差線を前記視差画素に基づいて近似により算出する請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the processor extracts a plurality of parallax pixels having parallax with each other from the parallax distribution, and calculates the parallax line by approximation based on the parallax pixels. 前記プロセッサは、前記視差分布から立体物を判定し、該立体物に対応する視差分布を除外した後、前記等視差線を算出する請求項1または2に記載の画像処理装置。 The image processing device according to claim 1 or 2, wherein the processor determines a three-dimensional object from the parallax distribution, excludes the parallax distribution corresponding to the three-dimensional object, and then calculates the parallax line. 前記プロセッサは、高さ方向に等視差が連続する領域に基づき前記立体物を判別する請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the processor determines the three-dimensional object based on a region where parallax is continuous in the height direction. 前記プロセッサは、前記複数の等視差線の間を補間して路面の形状を検知する請求項1から4の何れか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 4, wherein the processor detects the shape of a road surface by interpolating between the plurality of parallax lines. 前記プロセッサは、前記等視差線の算出において、所定の画素数より小さい視差に対応する等視差線を、カルマンフィルタを用いて推定する請求項1から5の何れか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 5, wherein the processor estimates an parallax line corresponding to a parallax smaller than a predetermined number of pixels in the calculation of the parallax line by using a Kalman filter. 前記プロセッサは、前記路面の相対的な傾きから算出される前記路面からの高さに基づいて、前記ステレオ画像の認識処理を行う請求項1から6の何れか一項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 6, wherein the processor performs a stereo image recognition process based on a height from the road surface calculated from the relative inclination of the road surface. ステレオ画像を撮像するステレオカメラと、
前記ステレオカメラにより撮像された前記ステレオ画像から視差画像を生成し、前記視差画像から視差分布を算出し、該視差分布に基づいて視差が等しい点を結ぶ等視差線を算出し、前記等視差線に基づいて路面の形状を検知するプロセッサと
を備えるステレオカメラシステム。
A stereo camera that captures stereo images and
A parallax image is generated from the stereo image captured by the stereo camera, a parallax distribution is calculated from the parallax image, an isoparallax line connecting points having equal parallax is calculated based on the parallax distribution, and the parallax line is calculated. A stereo camera system equipped with a processor that detects the shape of the road surface based on.
ステレオ画像を撮像するステレオカメラ、および、前記ステレオカメラにより撮像された前記ステレオ画像から視差画像を生成し、前記視差画像から視差分布を算出し、該視差分布に基づいて視差が等しい点を結ぶ複数の等視差線を算出し、前記複数の等視差線に基づいて路面の形状を検知するプロセッサを含むステレオカメラシステムを備えた移動体。 A stereo camera that captures a stereo image, and a plurality of parallax images generated from the stereo image captured by the stereo camera, a parallax distribution is calculated from the parallax image, and points having the same parallax are connected based on the parallax distribution. A moving body including a stereo camera system including a processor that calculates the parallax line of the above and detects the shape of the road surface based on the plurality of parallax lines. ステレオ画像から視差画像を生成し、前記視差画像から視差分布を算出し、
該視差分布に基づいて視差が等しい点を結ぶ複数の等視差線を算出し、
前記複数の等視差線に基づいて路面の形状を検知する
路面形状検出方法。
A parallax image is generated from the stereo image, the parallax distribution is calculated from the parallax image, and the parallax distribution is calculated.
A plurality of parallax lines connecting points having the same parallax are calculated based on the parallax distribution.
A road surface shape detecting method for detecting the shape of a road surface based on the plurality of parallax lines.
コンピュータに、ステレオ画像から視差画像を生成し、前記視差画像から視差分布を算出する手順と、該視差分布に基づいて視差が等しい点を結ぶ複数の等視差線を算出する手順と、前記複数の等視差線に基づいて路面の形状を検知する手順とを実行させるプログラム。 A procedure for generating a parallax image from a stereo image on a computer and calculating the parallax distribution from the parallax image, a procedure for calculating a plurality of parallax lines connecting points having the same parallax based on the parallax distribution, and the plurality of steps. A program that executes the procedure of detecting the shape of the road surface based on the isotropic parallax line.
JP2017103940A 2017-05-25 2017-05-25 Image processing equipment, stereo camera systems, moving objects, road surface shape detection methods and programs Active JP6855325B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017103940A JP6855325B2 (en) 2017-05-25 2017-05-25 Image processing equipment, stereo camera systems, moving objects, road surface shape detection methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017103940A JP6855325B2 (en) 2017-05-25 2017-05-25 Image processing equipment, stereo camera systems, moving objects, road surface shape detection methods and programs

Publications (2)

Publication Number Publication Date
JP2018200190A JP2018200190A (en) 2018-12-20
JP6855325B2 true JP6855325B2 (en) 2021-04-07

Family

ID=64667096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017103940A Active JP6855325B2 (en) 2017-05-25 2017-05-25 Image processing equipment, stereo camera systems, moving objects, road surface shape detection methods and programs

Country Status (1)

Country Link
JP (1) JP6855325B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7229129B2 (en) * 2019-09-05 2023-02-27 京セラ株式会社 OBJECT DETECTION DEVICE, OBJECT DETECTION SYSTEM, MOBILE OBJECT AND OBJECT DETECTION METHOD
JP7225149B2 (en) 2020-02-25 2023-02-20 日立Astemo株式会社 processing equipment
JP7214776B2 (en) * 2021-03-25 2023-01-30 本田技研工業株式会社 ACTIVE SUSPENSION DEVICE AND SUSPENSION CONTROL DEVICE

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5561064B2 (en) * 2010-09-24 2014-07-30 トヨタ自動車株式会社 Vehicle object recognition device
CN103164851B (en) * 2011-12-09 2016-04-20 株式会社理光 Lane segmentation object detecting method and device
JP6340850B2 (en) * 2014-03-18 2018-06-13 株式会社リコー Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP5989701B2 (en) * 2014-03-24 2016-09-07 トヨタ自動車株式会社 Boundary detection device and boundary detection method
JP6561670B2 (en) * 2015-08-10 2019-08-21 日産自動車株式会社 Step detecting device and step detecting method

Also Published As

Publication number Publication date
JP2018200190A (en) 2018-12-20

Similar Documents

Publication Publication Date Title
US11270134B2 (en) Method for estimating distance to an object via a vehicular vision system
EP3358295B1 (en) Image processing device, stereo camera device, vehicle, and image processing method
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
US9747524B2 (en) Disparity value deriving device, equipment control system, movable apparatus, and robot
JP6855325B2 (en) Image processing equipment, stereo camera systems, moving objects, road surface shape detection methods and programs
JP6456499B2 (en) Three-dimensional object detection device, stereo camera device, vehicle, and three-dimensional object detection method
JP6455164B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6121641B1 (en) Image processing apparatus, stereo camera apparatus, vehicle, and image processing method
WO2021045092A1 (en) Object detecting device, object detecting system, and method of detecting moving body and object
WO2021060117A1 (en) Object detection device, object detection system, moving object, and object detection method
JP2015179499A (en) Parallax value derivation device, apparatus control system, moving body, robot, parallax value derivation method and program
JP6992356B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
EP3367058B1 (en) Parallax calculation device, stereo camera device, vehicle, and parallax calculation method
EP3336754A2 (en) Information processing apparatus, photographing apparatus, moving object control system, moving object, information processing method, and program
EP2919191B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
WO2021049649A1 (en) Road surface detection device, object detection device, object detection system, mobile unit, and object detection method
WO2021054339A1 (en) Object detecting device, object detecting system, moving body, and method for detecting object
WO2021054341A1 (en) Object detecting device, object detecting system, moving body, and method for detecting object
WO2021054340A1 (en) Object detecting device, object detecting system, moving body, and object detecting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210317

R150 Certificate of patent or registration of utility model

Ref document number: 6855325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150