JP2012118885A - Movement amount estimation device and movement amount estimation method - Google Patents

Movement amount estimation device and movement amount estimation method Download PDF

Info

Publication number
JP2012118885A
JP2012118885A JP2010269723A JP2010269723A JP2012118885A JP 2012118885 A JP2012118885 A JP 2012118885A JP 2010269723 A JP2010269723 A JP 2010269723A JP 2010269723 A JP2010269723 A JP 2010269723A JP 2012118885 A JP2012118885 A JP 2012118885A
Authority
JP
Japan
Prior art keywords
road surface
image
movement amount
surface projection
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010269723A
Other languages
Japanese (ja)
Other versions
JP5682266B2 (en
Inventor
Kazufumi Nakayama
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010269723A priority Critical patent/JP5682266B2/en
Publication of JP2012118885A publication Critical patent/JP2012118885A/en
Application granted granted Critical
Publication of JP5682266B2 publication Critical patent/JP5682266B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device or a method for accurately estimating a movement amount of a moving object.SOLUTION: A movement amount estimation device comprises a projection unit, an extraction unit, and an estimation unit. The projection unit respectively generates road surface projection images for respective images obtained by plural cameras attached to a moving object. The extraction unit extracts image patterns matching each other between road surface projection images from a common visual field area in which visual fields of plural cameras overlap each other in the plural road surface projection images generated by the projection unit. The estimation unit estimates a movement amount of the moving object based on temporal variation in the image patterns extracted by the extraction unit.

Description

本発明は、移動体の移動量を推定する移動量推定装置、移動量推定方法、および移動量推定プログラムに係わる。   The present invention relates to a movement amount estimation apparatus, a movement amount estimation method, and a movement amount estimation program for estimating a movement amount of a moving object.

近年、車両の運転支援または運転制御等のために、車両の移動量(移動距離および移動方向)を検出する技術が研究されている。車両の移動量は、例えば、GPS等を利用して検出することができる。しかし、GPS等を利用する方法では、用途によっては検出精度が不十分であり、また、車両走行のリアルタイム制御には不向きである。このため、車両に搭載された移動量推定装置が、自車の移動量を推定する技術が提案されている。   2. Description of the Related Art In recent years, techniques for detecting the amount of movement of a vehicle (movement distance and movement direction) have been studied for vehicle driving assistance or driving control. The amount of movement of the vehicle can be detected using, for example, GPS. However, the method using GPS or the like has insufficient detection accuracy depending on the application, and is not suitable for real-time control of vehicle travel. For this reason, a technique has been proposed in which a movement amount estimation device mounted on a vehicle estimates the movement amount of the host vehicle.

例えば、車載カメラの映像を利用して車両の移動量を推定する方法が提案されている。この方法では、車載カメラは、車両の走行中に路面を含む動画像を撮影する。また、移動量推定装置は、車載カメラの映像を利用して所定の時間間隔で路面投影像を生成する。路面投影像は、車載カメラの映像を路面に対応する平面に投影することにより生成される。そして、移動量推定装置は、路面投影像の時間変化を検出することで車両の移動量を推定する。なお、車載カメラの映像を利用して車両の移動量を推定する方法は、例えば、非特許文献1に記載されている。   For example, a method for estimating the amount of movement of a vehicle using an image of a vehicle-mounted camera has been proposed. In this method, the in-vehicle camera captures a moving image including a road surface while the vehicle is traveling. Further, the movement amount estimation device generates a road surface projection image at predetermined time intervals using the video from the in-vehicle camera. The road surface projection image is generated by projecting the video from the in-vehicle camera onto a plane corresponding to the road surface. Then, the movement amount estimation device estimates the movement amount of the vehicle by detecting the time change of the road surface projection image. In addition, the method of estimating the moving amount | distance of a vehicle using the image | video of a vehicle-mounted camera is described in the nonpatent literature 1, for example.

「車載カメラを用いた単眼測距検証システムの開発」、滝本周平、伊藤崇晶、SEIテクニカルレビュー169号、82〜87ページ、2006年7月"Development of a monocular ranging verification system using an in-vehicle camera", Shuhei Takimoto, Takaaki Ito, SEI Technical Review No. 169, pp. 82-87, July 2006

路面投影像の時間変化に基づいて車両の移動量を推定する方法では、カメラ映像内に立体物が写っているときは、移動量を正しく推定できない。しかし、従来技術においては、路面投影像内が立体物の画像を含んでいるか否かは考慮されていなかった。このため、従来技術では、車両の移動量を正しく推定できないことがあった。なお、この問題は、車両の移動量を推定する場合に限らず、任意の移動体の移動量を推定する際に発生し得る。   In the method of estimating the movement amount of the vehicle based on the time change of the road projection image, the movement amount cannot be estimated correctly when a three-dimensional object is captured in the camera image. However, in the prior art, it has not been considered whether or not the road surface projection image includes a three-dimensional object image. For this reason, in the prior art, the amount of movement of the vehicle may not be correctly estimated. This problem is not limited to estimating the amount of movement of the vehicle, but may occur when estimating the amount of movement of an arbitrary moving body.

本発明の課題は、移動体の移動量を精度よく推定する装置または方法を提供することである。   An object of the present invention is to provide an apparatus or a method for accurately estimating the amount of movement of a moving body.

本発明の1つの態様の移動量推定装置は、移動体に取り付けられた複数のカメラにより得られる各映像についてそれぞれ路面投影像を生成する投影部と、前記投影部により生成される複数の路面投影像において前記複数のカメラの視野が重複する共通視野領域から、路面投影像間で互いに一致する画像パターンを抽出する抽出部と、前記抽出部により抽出される画像パターンの時間変化に基づいて、前記移動体の移動量を推定する推定部、を備える。   A movement amount estimation apparatus according to one aspect of the present invention includes a projection unit that generates a road surface projection image for each image obtained by a plurality of cameras attached to a moving body, and a plurality of road surface projections generated by the projection unit. Based on a common field region where the fields of view of the plurality of cameras overlap in an image, an extraction unit that extracts mutually matching image patterns between road surface projection images, and based on temporal changes of the image pattern extracted by the extraction unit, An estimation unit configured to estimate a moving amount of the moving body.

上述の態様によれば、移動体の移動量を精度よく推定することができる。   According to the above-described aspect, it is possible to accurately estimate the moving amount of the moving body.

移動体に取り付けられるカメラとその視野について示す図である。It is a figure shown about the camera attached to a moving body and its visual field. 第1の実施形態の移動量推定装置の機能ブロック図である。It is a functional block diagram of the movement amount estimation apparatus of the first embodiment. 座標系を説明する図である。It is a figure explaining a coordinate system. 路面投影像を生成する領域を説明する図である。It is a figure explaining the area | region which produces | generates a road surface projection image. 投影による座標の変換について説明する図である。It is a figure explaining the conversion of the coordinate by projection. 画素値の補間について説明する図である。It is a figure explaining the interpolation of a pixel value. 移動体の周辺の環境の一例を示す図である。It is a figure which shows an example of the environment around a moving body. 撮影された立体物の路面投影像について説明する図である。It is a figure explaining the road surface projection image of the image | photographed solid object. 図7に示す環境で得られる映像データから生成される路面投影像を示す図である。It is a figure which shows the road surface projection image produced | generated from the video data obtained in the environment shown in FIG. 2つの路面投影像を重ね合わせた状態を示す図である。It is a figure which shows the state which overlap | superposed two road surface projection images. 抽出された路面模様を示す図である。It is a figure which shows the extracted road surface pattern. 路面投影像間で互いに一致する画像パターンを抽出する処理を説明する図である。It is a figure explaining the process which extracts the image pattern which mutually matches between road surface projection images. 路面模様画像について説明する図である。It is a figure explaining a road surface pattern image. 統合路面投影画像について説明する図である。It is a figure explaining an integrated road surface projection image. 移動量抽出部の処理の概略を示すフローチャートである。It is a flowchart which shows the outline of a process of a movement amount extraction part. 図15のステップS1の処理を示すフローチャートである。It is a flowchart which shows the process of step S1 of FIG. 図16のステップS14の処理を示すフローチャートである。It is a flowchart which shows the process of step S14 of FIG. 照合スコアの算出について説明する図である。It is a figure explaining calculation of a collation score. 図15のステップS2の処理を示すフローチャートである。It is a flowchart which shows the process of step S2 of FIG. 図19のステップS44の処理を示すフローチャートである。It is a flowchart which shows the process of step S44 of FIG. 第2の実施形態の移動量推定装置の機能ブロック図である。It is a functional block diagram of the movement amount estimation apparatus of the second embodiment. 第2の実施形態で実行されるステップS1の処理を示すフローチャートである。It is a flowchart which shows the process of step S1 performed in 2nd Embodiment. 第2の実施形態で実行されるステップS2の処理を示すフローチャートである。It is a flowchart which shows the process of step S2 performed by 2nd Embodiment. 近傍統合投影画像について説明する図である。It is a figure explaining a near integrated projection image. 第3の実施形態の移動量推定部の処理を示すフローチャートである。It is a flowchart which shows the process of the movement amount estimation part of 3rd Embodiment. 第4の実施形態の移動量推定部の処理を示すフローチャートである。It is a flowchart which shows the process of the movement amount estimation part of 4th Embodiment. 移動量推定装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a movement amount estimation apparatus.

実施形態の移動量推定方法においては、複数のカメラが取り付けられている移動体の移動量が推定される。このとき、移動量推定装置は、複数のカメラによりそれぞれ得られる映像を利用して、その移動体の移動量を推定する。   In the movement amount estimation method of the embodiment, the movement amount of a moving body to which a plurality of cameras are attached is estimated. At this time, the movement amount estimation apparatus estimates the movement amount of the moving body by using images respectively obtained by a plurality of cameras.

移動体の「移動量」は、並進移動量(移動距離および移動方向)および回転量(ヨー回転)により表わされる。すなわち、移動量推定装置は、移動体の並進移動量および回転量を推定する。ただし、移動量推定装置は、移動体の並進移動量または回転量の一方を推定するようにしてもよい。なお、移動量を推定する対象の移動体は、特に限定されるものではないが、例えば、乗用車を含む車両、工場等で使用される搬送台車等である。また、移動体は、路面上を移動(例えば、走行)するものとする。   The “movement amount” of the moving body is represented by a translation movement amount (movement distance and movement direction) and a rotation amount (yaw rotation). That is, the movement amount estimation device estimates the translational movement amount and the rotation amount of the moving body. However, the movement amount estimation device may estimate either the translational movement amount or the rotation amount of the moving body. In addition, although the moving body of the object which estimates movement amount is not specifically limited, For example, it is a conveyance trolley etc. which are used in vehicles, a factory, etc. including a passenger car. The moving body is assumed to move (for example, travel) on the road surface.

図1は、移動体に取り付けられるカメラとその視野について示す。図1に示すように、移動体1には、カメラ2a〜2dが取り付けられている。カメラ2aは、移動体1の前部に取り付けられ、移動体1の前方の映像を取得する。また、カメラ2bは、移動体1の後部に取り付けられ、移動体1の後方の映像を取得する。さらに、カメラ2c、2dは、それぞれ、移動体1の右側部および左側部に取り付けられ、移動体1の右方および左方の映像を取得する。なお、移動体1の進行方向を「前方」と呼ぶことにする。   FIG. 1 shows a camera attached to a moving body and its field of view. As shown in FIG. 1, cameras 2 a to 2 d are attached to the moving body 1. The camera 2a is attached to the front part of the moving body 1 and acquires an image in front of the moving body 1. The camera 2b is attached to the rear part of the moving body 1 and acquires an image behind the moving body 1. Furthermore, the cameras 2c and 2d are attached to the right side and the left side of the moving body 1, respectively, and acquire right and left images of the moving body 1. The traveling direction of the moving body 1 is referred to as “front”.

カメラ2a、カメラ2b、カメラ2c、カメラ2dは、それぞれ視野領域3a、3b、3c、3dを有する。視野領域は、対応するカメラにより映像が取得される領域である。ここで、各カメラ2a〜2dは、いずれも広角カメラであり、大きな視野角を有する。図1に示す例では、各カメラ2a〜2dの視野角は、約180度である。   The camera 2a, camera 2b, camera 2c, and camera 2d have visual field areas 3a, 3b, 3c, and 3d, respectively. The visual field area is an area where an image is acquired by a corresponding camera. Here, each of the cameras 2a to 2d is a wide-angle camera and has a large viewing angle. In the example shown in FIG. 1, the viewing angles of the cameras 2a to 2d are about 180 degrees.

このため、視野領域3a、3b、3c、3dは、互いに一部が重なり合う。例えば、共通視野領域4eは、カメラ2aの視野領域3aおよびカメラ2cの視野領域3cが互いに重なり合う領域である。すなわち、共通視野領域4eの映像は、カメラ2aおよびカメラ2cの双方により取得される。同様に、共通視野領域4fは、カメラ2bの視野領域3bおよびカメラ2cの視野領域3cが互いに重なり合う領域であり、共通視野領域4gは、カメラ2aの視野領域3aおよびカメラ2dの視野領域3dが互いに重なり合う領域であり、共通視野領域4hは、カメラ2bの視野領域3bおよびカメラ2dの視野領域3dが互いに重なり合う領域である。なお、各共通視野領域4e〜4hは、図1では、斜線領域で表わされている。   For this reason, the visual field regions 3a, 3b, 3c, and 3d partially overlap each other. For example, the common visual field area 4e is an area where the visual field area 3a of the camera 2a and the visual field area 3c of the camera 2c overlap each other. That is, the video of the common visual field 4e is acquired by both the camera 2a and the camera 2c. Similarly, the common visual field region 4f is a region where the visual field region 3b of the camera 2b and the visual field region 3c of the camera 2c overlap each other, and the common visual field region 4g is the same as the visual field region 3a of the camera 2a and the visual field region 3d of the camera 2d. The common visual field region 4h is a region where the visual field region 3b of the camera 2b and the visual field region 3d of the camera 2d overlap each other. In addition, each common visual field area | region 4e-4h is represented by the oblique line area | region in FIG.

実施形態の移動量推定方法は、共通視野領域4e〜4hの少なくとも1つの映像を利用して、移動体1の移動量を推定する。なお、実施形態の移動量推定方法は、移動体1に4台のカメラが取り付けられている場合にのみ適用されるものではなく、移動体1に2台以上のカメラが取り付けられている場合に適用可能である。   The movement amount estimation method of the embodiment estimates the movement amount of the moving body 1 using at least one video of the common visual field regions 4e to 4h. In addition, the movement amount estimation method of the embodiment is not applied only when four cameras are attached to the moving body 1, and when two or more cameras are attached to the moving body 1. Applicable.

<<第1の実施形態>>
図2は、第1の実施形態の移動量推定装置の機能ブロック図である。第1の実施形態の移動量推定装置10は、画像入力部11、同期制御部12、路面投影部13、路面模様抽出部14、移動量推定部15を備える。また、移動量推定装置10には、カメラ2a〜2dからそれぞれ映像データが入力される。さらに、移動量推定装置10は、映像データDB16に接続されている。なお、路面投影部13、路面模様抽出部14、移動量推定部15は、それぞれ、発明に係る投影部、抽出部、推定部の一例である。
<< First Embodiment >>
FIG. 2 is a functional block diagram of the movement amount estimation apparatus according to the first embodiment. The movement amount estimation apparatus 10 of the first embodiment includes an image input unit 11, a synchronization control unit 12, a road surface projection unit 13, a road surface pattern extraction unit 14, and a movement amount estimation unit 15. In addition, video data is input from the cameras 2a to 2d to the movement amount estimation apparatus 10, respectively. Further, the movement amount estimation apparatus 10 is connected to the video data DB 16. The road surface projection unit 13, the road surface pattern extraction unit 14, and the movement amount estimation unit 15 are examples of a projection unit, an extraction unit, and an estimation unit according to the invention, respectively.

カメラ2a〜2dは、図1に示すように移動体1に取り付けられており、それぞれ映像データを取得する。映像データは、特に限定されるものではないが、例えば、30フレーム/秒の動画像データである。   The cameras 2a to 2d are attached to the moving body 1 as shown in FIG. 1, and each acquire video data. The video data is not particularly limited, but is, for example, moving image data of 30 frames / second.

画像入力部11は、同期制御部12により生成される同期信号に従って、カメラ2a〜2dの映像データを取り込む。ここで、同期制御部12は、例えば、カメラの映像同期信号に合わせて、あるいはタイマまたはカウンタを備え、所定の時間間隔で同期信号を出力する。第1の実施形態では、一例として、カメラ2aからの映像同期信号と同期させることを想定して、カメラ2aから映像信号を同期制御部12に入力する形態を示したが、映像同期信号を入力するためのカメラは、カメラ2b〜2dの他のカメラとしても良い。また、カメラからの映像同期信号を用いず、同期制御部12が備えるタイマまたはカウンタで同期信号を出力する場合は、カメラからの映像同期信号の入力を用いなくとも良い。そして、画像入力部11は、同期信号を受信する毎に、カメラ2a〜2dの映像データから、フレーム内の各画素の画素値を含むデジタル情報を生成する。すなわち、画像フレームを表す2次元配列の各要素にそれぞれ画素値を有するデジタル画像情報が生成される。画素値は、輝度値および/または色情報で表わされる。   The image input unit 11 captures video data of the cameras 2 a to 2 d according to the synchronization signal generated by the synchronization control unit 12. Here, the synchronization control unit 12 includes a timer or a counter, for example, in accordance with the video synchronization signal of the camera, and outputs the synchronization signal at a predetermined time interval. In the first embodiment, as an example, the mode in which the video signal is input from the camera 2a to the synchronization control unit 12 on the assumption that it is synchronized with the video synchronization signal from the camera 2a has been described. The camera to do may be other cameras 2b to 2d. Further, when the synchronization signal is output by the timer or counter provided in the synchronization control unit 12 without using the video synchronization signal from the camera, it is not necessary to use the input of the video synchronization signal from the camera. The image input unit 11 generates digital information including the pixel value of each pixel in the frame from the video data of the cameras 2a to 2d every time the synchronization signal is received. That is, digital image information having pixel values for each element of the two-dimensional array representing the image frame is generated. The pixel value is represented by a luminance value and / or color information.

なお、同期制御部12は、必ずしも一定の時間間隔で同期信号を出力しなくてもよい。例えば、同期制御部12は、移動体1の移動速度に応じて同期信号を生成する時間間隔を決定してもよい。この場合、同期制御部12は、移動体1の移動速度が速いときに短い時間間隔で同期信号を生成し、移動体1の移動速度が遅いときに長い時間間隔で同期信号を生成してもよい。   Note that the synchronization control unit 12 does not necessarily output the synchronization signal at a constant time interval. For example, the synchronization control unit 12 may determine the time interval for generating the synchronization signal according to the moving speed of the moving body 1. In this case, the synchronization control unit 12 generates a synchronization signal at a short time interval when the moving speed of the moving body 1 is high, and generates a synchronization signal at a long time interval when the moving speed of the moving body 1 is low. Good.

路面投影部13は、画像入力部11から入力されるデジタル画像を移動体1の走行路面に投影することにより、路面投影像を生成する。すなわち、路面投影部13は、各カメラ2a〜2dの映像データをそれぞれ路面投影像に変換する。そして、路面投影部13は、生成した路面投影像を映像データDB16に記録する。なお、以下の説明では、移動体1の走行路面を単に「路面」を呼ぶことにする。   The road surface projection unit 13 generates a road surface projection image by projecting the digital image input from the image input unit 11 onto the traveling road surface of the moving body 1. That is, the road surface projection unit 13 converts the video data of the cameras 2a to 2d into road surface projection images. The road surface projection unit 13 records the generated road surface projection image in the video data DB 16. In the following description, the traveling road surface of the moving body 1 is simply referred to as “road surface”.

路面模様抽出部14は、路面投影部13によって生成される複数の路面投影像の共通視野領域において、共通視野を有する路面投影像間で互いに一致する画像パターンを抽出する。抽出される画像パターンは、路面上の模様(以下、路面模様)を表す。そして、路面模様抽出部14は、抽出した路面模様を含む路面模様画像を映像データDB16に記録する。   The road surface pattern extraction unit 14 extracts image patterns that coincide with each other between road surface projection images having a common field of view in a common field region of a plurality of road surface projection images generated by the road surface projection unit 13. The extracted image pattern represents a pattern on the road surface (hereinafter, road surface pattern). Then, the road surface pattern extraction unit 14 records a road surface pattern image including the extracted road surface pattern in the video data DB 16.

映像データDB16は、例えば半導体メモリであり、各カメラ2a〜2dの路面投影像および各共通視野領域の路面模様画像を格納する。ここで、映像データDB16は、最新の路面投影像および路面模様画像に加えて、少なくとも直前の路面投影像および路面模様画像を保持する。また、映像データDB16は、後述する統合路面投影画像を格納してもよい。   The video data DB 16 is, for example, a semiconductor memory, and stores road surface projection images of the cameras 2a to 2d and road surface pattern images of the common visual field regions. Here, the video data DB 16 holds at least the immediately preceding road surface projection image and road surface pattern image in addition to the latest road surface projection image and road surface pattern image. In addition, the video data DB 16 may store an integrated road surface projection image to be described later.

移動量推定部15は、映像データDB16に記録されている最新の路面模様画像および直前の路面模様画像に基づいて、移動体1の移動量を推定する。すなわち、移動量推定部15は、路面模様画像の時間変化に基づいて移動体1の移動量を推定する。なお、移動量推定部15は、路面模様画像だけでなく、路面投影像も利用して移動体1の移動量を推定するようにしてもよい。   The movement amount estimation unit 15 estimates the movement amount of the moving body 1 based on the latest road surface pattern image recorded in the video data DB 16 and the previous road surface pattern image. That is, the movement amount estimation unit 15 estimates the movement amount of the moving body 1 based on the time change of the road surface pattern image. The movement amount estimation unit 15 may estimate the movement amount of the moving body 1 using not only a road surface pattern image but also a road surface projection image.

このように、移動量推定装置10においては、路面投影部13は、カメラ2a〜2dの映像データからそれぞれ路面投影像を生成する。また、路面模様抽出部14は、複数の路面投影像の共通視野領域において、共通視野を有する路面投影像間で互いに一致する画像パターンを抽出する。このとき、後で詳しく説明するが、共通視野領域から立体物は抽出されず、路面に形成されている路面模様が抽出される。そして、移動量推定部15は、路面模様画像の時間変化に基づいて移動体1の移動量を推定する。すなわち、移動体1の移動量を推定する処理において、映像データ中の立体物の影響が除去されるので、移動量推定装置10は、移動体1の移動量を精度よく推定できる。   Thus, in the movement amount estimation apparatus 10, the road surface projection unit 13 generates a road surface projection image from the video data of the cameras 2a to 2d. Further, the road surface pattern extraction unit 14 extracts image patterns that coincide with each other between the road surface projection images having a common field of view in the common field region of the plurality of road surface projection images. At this time, as will be described in detail later, the three-dimensional object is not extracted from the common visual field region, but the road surface pattern formed on the road surface is extracted. And the movement amount estimation part 15 estimates the movement amount of the mobile body 1 based on the time change of a road surface pattern image. That is, in the process of estimating the movement amount of the moving body 1, the influence of the three-dimensional object in the video data is removed, so that the movement amount estimation apparatus 10 can estimate the movement amount of the moving body 1 with high accuracy.

次に、路面投影部13、路面模様抽出部14、移動量推定部15の動作を具体的に説明する。なお、以下の説明では、図3に示す直交座標系を利用する。この座標系では、移動体1の進行方向をz方向と定義する。また、z方向に直交し、且つ移動体1の横方向(図3では、進行方向に対して右向き)にx方向が定義される。さらに、z方向に直交し、且つ移動体1の高さ方向(図3では、下向き)にy方向が定義される。   Next, operations of the road surface projection unit 13, the road surface pattern extraction unit 14, and the movement amount estimation unit 15 will be specifically described. In the following description, the orthogonal coordinate system shown in FIG. 3 is used. In this coordinate system, the traveling direction of the moving body 1 is defined as the z direction. In addition, the x direction is defined in a direction orthogonal to the z direction and in the lateral direction of the moving body 1 (rightward with respect to the traveling direction in FIG. 3). Furthermore, the y direction is defined in the direction perpendicular to the z direction and in the height direction of the moving body 1 (downward in FIG. 3).

<路面投影部13の動作>
路面投影部13は、同期制御部12から同期信号を受信したタイミングおいて、カメラ2a〜2dの映像データからそれぞれ路面投影像を生成する。このとき、路面投影像を生成する領域は、移動体1の位置を基準として予め決められているものとする。すなわち、路面投影部13は、図4において破線で囲まれた領域について、入力映像データから路面投影像を生成する。ただし、図4に示す破線で囲まれた領域内であっても、カメラ2a〜2dの視野領域でない領域(例えば、移動体1の直下領域)については、映像データが生成されないので、路面投影像も生成されない。
<Operation of Road Projection Unit 13>
The road surface projection unit 13 generates a road surface projection image from the video data of the cameras 2 a to 2 d at the timing when the synchronization signal is received from the synchronization control unit 12. At this time, it is assumed that a region for generating a road surface projection image is determined in advance with reference to the position of the moving body 1. That is, the road surface projection unit 13 generates a road surface projection image from the input video data for an area surrounded by a broken line in FIG. However, even within the area surrounded by the broken line shown in FIG. 4, no video data is generated for the area that is not the visual field area of the cameras 2a to 2d (for example, the area directly below the moving body 1). Is not generated.

図4に示す例では、路面投影部13は、カメラ2aにより得られる視野領域3aの映像データから、領域R1、R2、R3の路面投影像を生成する。同様に、路面投影部13は、カメラ2cにより得られる視野領域3cの映像データから領域R3、R4、R5の路面投影像を生成し、カメラ2bにより得られる視野領域3bの映像データから領域R5、R6、R7の路面投影像を生成し、カメラ2dにより得られる視野領域3dの映像データから領域R7、R8、R1の路面投影像を生成する。   In the example shown in FIG. 4, the road surface projection unit 13 generates road surface projection images of the regions R1, R2, and R3 from the video data of the visual field region 3a obtained by the camera 2a. Similarly, the road surface projection unit 13 generates road surface projection images of the regions R3, R4, and R5 from the video data of the visual field region 3c obtained by the camera 2c, and generates the region R5, from the video data of the visual field region 3b obtained by the camera 2b. Road surface projection images of R6 and R7 are generated, and road surface projection images of regions R7, R8, and R1 are generated from video data of the visual field region 3d obtained by the camera 2d.

このとき、各共通視野領域4e〜4hにおいては、それぞれ路面投影像が重複して生成される。例えば、カメラ2a、2cの共通視野領域4eにおいては、カメラ2aの映像データから領域R3の路面投影像が生成されると共に、カメラ2cの映像データからも領域R3の路面投影像が生成される。   At this time, in each common visual field area | region 4e-4h, a road surface projection image is each produced | generated overlappingly. For example, in the common visual field area 4e of the cameras 2a and 2c, a road surface projection image of the area R3 is generated from the video data of the camera 2a, and a road surface projection image of the area R3 is also generated from the video data of the camera 2c.

このように、路面投影部13は、各カメラ2a〜2dの映像データからそれぞれ路面投影像を生成する。ここで、カメラ2a〜2dの映像データから路面投影像を生成する処理は、生成される路面投影像の各画素について、入力映像の対応する画素を特定する処理に相当する。そこで、以下では、図5に示すように、入力映像の画素(sx,sy)が、路面投影像の画素(u,v)に投影されるものとする。この場合、i(i=2a,2b,2c,2d)番目のカメラの映像に対応する路面投影像の画素(u,v)の画素値Qi(u,v)は、下記(1)式で与えられる。
i(u,v)=INTERP(Ii, (sx,sy)) ・・・(1)
「INTERP()」は、補間演算を表す。「Ii」は、i番目のカメラからの映像を表す。
As described above, the road surface projection unit 13 generates a road surface projection image from the video data of the cameras 2a to 2d. Here, the process of generating the road surface projection image from the video data of the cameras 2a to 2d corresponds to the process of specifying the corresponding pixel of the input image for each pixel of the generated road surface projection image. Therefore, in the following, it is assumed that the pixel (sx, sy) of the input video is projected onto the pixel (u, v) of the road surface projection image, as shown in FIG. In this case, the pixel value Q i (u, v) of the pixel (u, v) of the road surface projection image corresponding to the i (i = 2a, 2b, 2c, 2d) -th camera image is expressed by the following equation (1): Given in.
Q i (u, v) = INTERP (I i , (sx, sy)) (1)
“INTERP ()” represents an interpolation operation. “I i ” represents an image from the i-th camera.

ここで、路面投影像のサイズをPW×PH画素とする。例えば、図4に示す例では、波線で囲まれる領域が、PW×PH画素の画像で表わされる。なお、PWおよびPHは、それぞれ路面投影像の幅および高さであり、下式で表わされる。
PW=2×ww+1
PH=2×hh+1
ww、hhは、下式で表わされる。
ww=MX/rx
hh=MY/ry
MX、MY(ミリメートル)は、それぞれ、路面投影像を生成する領域の幅および高さの2分の1に相当する。rx、ry(ミリメートル/ピクセル)は、1画素当たりの投影サイズを表す。
Here, the size of the road projection image is PW × PH pixels. For example, in the example shown in FIG. 4, the area surrounded by the wavy line is represented by an image of PW × PH pixels. PW and PH are the width and height of the road surface projection image, respectively, and are expressed by the following equations.
PW = 2 × ww + 1
PH = 2 × hh + 1
ww and hh are expressed by the following equations.
ww = MX / rx
hh = MY / ry
MX and MY (millimeters) respectively correspond to a half of the width and height of the region for generating the road surface projection image. rx, ry (millimeter / pixel) represents the projection size per pixel.

また、i番目のカメラの配置は、下式で表わされるものとする。なお、Tiは、i番目のカメラが取り付けられている位置を表す。Riは、i番目のカメラの光軸方向を表す。 Further, the arrangement of the i-th camera is represented by the following equation. T i represents a position where the i-th camera is attached. R i represents the optical axis direction of the i-th camera.

上記条件の下では、i番目のカメラにより撮影される任意の目標物の座標は下記(2)式で表わされる。
x=r11{(u−ww)rx−Ti x}+r12{−(v−hh)ry−Ti y}+r13(−Ti z)
y=r21{(u−ww)rx−Ti x}+r22{−(v−hh)ry−Ti y}+r23(−Ti z)
z=r31{(u−ww)rx−Ti x}+r32{−(v−hh)ry−Ti y}+r33(−Ti z) ・・・(2)
Under the above conditions, the coordinates of an arbitrary target photographed by the i-th camera are expressed by the following equation (2).
L x = r11 {(u−ww) rx−T i x } + r12 {− (v−hh) ry−T i y } + r13 (−T i z )
L y = r21 {(u−ww) rx−T i x } + r22 {− (v−hh) ry−T i y } + r23 (−T i z )
L z = r31 {(u- ww) rx-T i x} + r32 {- (v-hh) ry-T i y} + r33 (-T i z) ··· (2)

次に、上記(2)式から下記の定義を導入する。   Next, the following definition is introduced from the above equation (2).

そうすると、路面投影像の画素(u,v)に対応する入力映像の画素(sx,sy)は、下記(3)式で得られる。
sx=fx×p+cx
sy=fy×p+cy ・・・(3)
なお、fx、fyは、それぞれ、カメラの横方向および縦方向の焦点距離を表す。また、cx、cyは、図5に示すように、入力映像データの画像中心位置を表す。
Then, the pixel (sx, sy) of the input image corresponding to the pixel (u, v) of the road surface projection image is obtained by the following equation (3).
sx = fx × p + cx
sy = fy × p + cy (3)
Note that fx and fy represent the focal lengths in the horizontal and vertical directions of the camera, respectively. Also, cx and cy represent the image center position of the input video data as shown in FIG.

上記(2)(3)式において、Ti、Riは、カメラ2a〜2dの配置に応じて決まる。また、fx、fyは、カメラ2a〜2dの仕様であり、定数である。ここで、カメラ2a〜2dの配置を表す情報(Ti、Ri)、及びカメラ2a〜2dの焦点距離(fx、fy)を含むカメラの仕様に係わる情報は、カメラ情報として移動量推定装置10がアクセス可能なメモリに格納されている。そして、路面投影部13は、図2に示すように、そのカメラ情報を参照することができる。ww、hh、rx、ryは、いずれも予め設定される定数であり、これらの情報も移動量推定装置10がアクセス可能なメモリに格納されている。したがって、路面投影部13は、路面投影像の画素(u,v)に対して、入力映像内の対応する座標(sx,sy)を一意に算出することができる。 In the above formulas (2) and (3), T i and R i are determined according to the arrangement of the cameras 2a to 2d. Further, fx and fy are specifications of the cameras 2a to 2d and are constants. Here, information relating to the specifications of the camera, including information (T i , R i ) indicating the arrangement of the cameras 2a to 2d and focal lengths (fx, fy) of the cameras 2a to 2d, is a movement amount estimation device. 10 is stored in an accessible memory. The road surface projection unit 13 can refer to the camera information as shown in FIG. ww, hh, rx, and ry are constants set in advance, and these pieces of information are also stored in a memory accessible by the movement amount estimation apparatus 10. Therefore, the road surface projection unit 13 can uniquely calculate the corresponding coordinates (sx, sy) in the input video for the pixel (u, v) of the road surface projection image.

ただし、路面投影像の画素(u,v)に対して特定される入力映像内の座標(sx,sy)は、必ずしも1つの画素を指し示すものではない。たとえば、図6に示す例では、路面投影像の画素(u,v)に対して、入力映像内の座標(51.7, 45.6)が算出されている。この場合、路面投影像の画素(u,v)の画素値Qi(u,v)は、座標(sx,sy)に隣接する4つの画素P1〜P4の画素値に基づく補間演算で算出される。補間演算は、例えば、画素P1〜P4の画素値の重み付け平均により実現される。 However, the coordinates (sx, sy) in the input image specified for the pixel (u, v) of the road projection image do not necessarily indicate one pixel. For example, in the example shown in FIG. 6, the coordinates (51.7, 45.6) in the input video are calculated for the pixel (u, v) of the road surface projection image. In this case, the pixel value Q i (u, v) of the pixel (u, v) of the road projection image is calculated by interpolation based on the pixel values of the four pixels P1 to P4 adjacent to the coordinates (sx, sy). The The interpolation calculation is realized by, for example, a weighted average of the pixel values of the pixels P1 to P4.

このように、路面投影部13は、カメラ2a〜2dの映像データに基づいて、路面投影像の各画素の画素値を算出する。これにより、路面投影像が生成される。
なお、路面投影部13は、上述のようにして生成される路面投影像に対してSobel演算等の微分処理を実行してもよい。画像に対して微分処理を実行すると、模様の輪郭が強調され、各カメラ2a〜2dの特性の差異、あるいは映像の濃淡値の時間変化による影響が抑制される。したがって、以下の説明では、上述の投影処理によって得られた画像に対してさらに微分処理を実行した後の画像を路面投影像と呼ぶことにする。
As described above, the road surface projection unit 13 calculates the pixel value of each pixel of the road surface projection image based on the video data of the cameras 2a to 2d. Thereby, a road surface projection image is generated.
The road surface projection unit 13 may perform differentiation processing such as Sobel calculation on the road surface projection image generated as described above. When the differentiation process is executed on the image, the contour of the pattern is emphasized, and the influence due to the difference in the characteristics of the cameras 2a to 2d or the temporal change in the gray value of the video is suppressed. Therefore, in the following description, an image after further performing a differentiation process on the image obtained by the above-described projection process will be referred to as a road surface projection image.

路面投影部13は、上述のようにして生成した路面投影像を映像データDB16に記録する。すなわち、同期制御部12から同期信号が出力される毎に、カメラ2a〜2dの映像データから生成される4つの路面投影像が映像データDB16に記録される。   The road surface projection unit 13 records the road surface projection image generated as described above in the video data DB 16. That is, every time a synchronization signal is output from the synchronization control unit 12, four road surface projection images generated from the video data of the cameras 2a to 2d are recorded in the video data DB 16.

<路面模様抽出部14の動作>
路面模様抽出部14は、路面投影部13により生成される複数の路面投影像の共通視野領域において、共通視野を有する路面投影像間で互いに一致する画像パターンを路面模様として抽出する。以下、1つの例として、図1または図4に示すカメラ2a、2cの共通視野領域4eについて説明する。なお、路面模様を抽出する方法は、他の共通視野領域4f〜4hについても同様である。
<Operation of the road surface pattern extraction unit 14>
The road surface pattern extraction unit 14 extracts, as a road surface pattern, image patterns that match each other between road surface projection images having a common field of view in a common field region of a plurality of road surface projection images generated by the road surface projection unit 13. Hereinafter, as one example, the common visual field region 4e of the cameras 2a and 2c shown in FIG. 1 or 4 will be described. The method for extracting the road surface pattern is the same for the other common visual field regions 4f to 4h.

図7は、移動体1の周辺の環境の一例を示す図である。ここで、図7は、移動体1およびその周辺を上方から見たときの様子を表している。そして、図7に示す例では、移動体1の右斜め前方に、路面模様21および立体物22が存在している。路面模様21は、路面に形成されている模様であり、例えば、横断歩道あるいは道路標識などの路面に描かれている模様である。なお、路面模様21は、路面に対して「高さ」を有していないものとする。立体物22は、路面に対して「高さ」を有する物体である。この例では、立体物22は、路面に対して垂直に立てられた板状の物体(例えば、立て看板など)である。   FIG. 7 is a diagram illustrating an example of the environment around the moving body 1. Here, FIG. 7 shows a state when the moving body 1 and its periphery are viewed from above. In the example illustrated in FIG. 7, the road surface pattern 21 and the three-dimensional object 22 exist in the right diagonal front of the moving body 1. The road surface pattern 21 is a pattern formed on the road surface, for example, a pattern drawn on a road surface such as a pedestrian crossing or a road sign. It is assumed that the road surface pattern 21 does not have a “height” with respect to the road surface. The three-dimensional object 22 is an object having a “height” with respect to the road surface. In this example, the three-dimensional object 22 is a plate-like object (for example, a standing signboard) that is set up perpendicular to the road surface.

移動体1には、上述したように、カメラ2a、2cが取り付けられている。そして、図7に示す時刻において、路面模様21および立体物22は、カメラ2aの視野範囲内に位置しており、且つ、カメラ2cの視野範囲内にも位置している。すなわち、路面模様21および立体物22は、図1または図4に示す共通視野領域4eの中に位置している。   As described above, the cameras 2a and 2c are attached to the moving body 1. At the time shown in FIG. 7, the road surface pattern 21 and the three-dimensional object 22 are located within the visual field range of the camera 2a and also within the visual field range of the camera 2c. That is, the road surface pattern 21 and the three-dimensional object 22 are located in the common visual field region 4e shown in FIG. 1 or FIG.

図8は、撮影された立体物の路面投影像について説明する図である。ここでは、カメラ2aにより立体物22が撮影されたものとする。なお、図8において路面模様21は省略されている。ここで、立体物22は、図8(a)に示すように、路面に対して垂直に立てられた板状の物体である。この場合、カメラ2aにより得られる映像データを路面に投影すると、図8(b)に示す路面投影像が生成される。即ち、映像データ内の立体物の「高さ」は、路面投影像においては「奥行き」として表わされる。このため、立体物22は、図8(b)に示す路面投影像においては、斜線領域で示すように、立体物22と路面とが接する直線23から、カメラ2aを原点として放射状に広がる画像パターンとして表わされる。さらに、図8(b)に示す画像に対して微分処理を実行すると、図8(c)に示すように、輪郭が強調された路面投影像が得られる。   FIG. 8 is a diagram for explaining a road surface projection image of a captured three-dimensional object. Here, it is assumed that the three-dimensional object 22 is photographed by the camera 2a. In FIG. 8, the road surface pattern 21 is omitted. Here, as shown in FIG. 8A, the three-dimensional object 22 is a plate-like object that stands upright with respect to the road surface. In this case, when the video data obtained by the camera 2a is projected onto the road surface, a road surface projection image shown in FIG. 8B is generated. That is, the “height” of the three-dimensional object in the video data is represented as “depth” in the road projection image. Therefore, in the road surface projection image shown in FIG. 8B, the three-dimensional object 22 is an image pattern that spreads radially from the straight line 23 where the three-dimensional object 22 and the road surface are in contact with each other, as indicated by the hatched area. Is represented as Furthermore, when a differentiation process is performed on the image shown in FIG. 8B, a road surface projection image with an emphasized contour is obtained as shown in FIG. 8C.

図9(a)は、図7においてカメラ2aにより得られる映像データから生成される路面投影像を示す。図9(b)は、図7においてカメラ2cにより得られる映像データから生成される路面投影像を示す。なお、図9(a)および図9(b)に示す路面投影像は、微分処理が実行された後の状態を表している。したがって、図7に示す路面模様21は、路面投影像においては、その輪郭のみが現れている。   FIG. 9A shows a road projection image generated from the video data obtained by the camera 2a in FIG. FIG. 9B shows a road projection image generated from the video data obtained by the camera 2c in FIG. In addition, the road surface projection image shown to Fig.9 (a) and FIG.9 (b) represents the state after a differentiation process was performed. Therefore, only the contour of the road surface pattern 21 shown in FIG. 7 appears in the road surface projection image.

立体物22は、路面投影像においては、図8を参照しながら説明したように、立体物22が置かれている位置からカメラを原点として放射状に広がる画像パターンとして表わされる。このため、カメラ2aの路面投影像においては、立体物22は、図9(a)に示すように、画像パターン24a、25a、26aで表わされる。同様に、カメラ2cの路面投影像においては、立体物22は、図9(b)に示すように、画像パターン24c、25c、26cで表わされる。このように、立体物22の路面投影像は、カメラの位置に応じて異なる画像パターンとして表わされる。   In the road projection image, the three-dimensional object 22 is represented as an image pattern that spreads radially from the position where the three-dimensional object 22 is placed as the origin, as described with reference to FIG. For this reason, in the road projection image of the camera 2a, the three-dimensional object 22 is represented by image patterns 24a, 25a, and 26a as shown in FIG. Similarly, in the road surface projection image of the camera 2c, the three-dimensional object 22 is represented by image patterns 24c, 25c, and 26c as shown in FIG. 9B. Thus, the road surface projection image of the three-dimensional object 22 is represented as a different image pattern depending on the position of the camera.

路面模様抽出部14は、カメラ2aの路面投影像とカメラ2cの路面投影像とを比較して、それらの路面投影像間で互いに一致する画像パターンを路面模様として抽出する。すなわち、路面模様抽出部14は、図9(a)および図9(b)に示す路面投影像を比較する。   The road surface pattern extraction unit 14 compares the road surface projection image of the camera 2a and the road surface projection image of the camera 2c, and extracts image patterns that coincide with each other between the road surface projection images as a road surface pattern. That is, the road surface pattern extraction unit 14 compares the road surface projection images shown in FIGS. 9 (a) and 9 (b).

図10は、図9(a)に示すカメラ2aの路面投影像および図9(b)に示すカメラ2cの路面投影像を重ね合わせた状態を表している。この場合、路面模様21は、2つの路面投影像間で互いに一致する。しかし、立体物22は、カメラ2aの路面投影像においては画像パターン24a、25a、26aで表わされ、カメラ2cの路面投影像においては画像パターン24c、25c、26cで表わされる。ここで、画像パターン24a、24cは、2つの路面投影像間で互いに一致する。しかし、画像パターン25a、25cは互いに異なり、また、画像パターン26a、26cも互いに異なる。   FIG. 10 shows a state in which the road surface projection image of the camera 2a shown in FIG. 9A and the road surface projection image of the camera 2c shown in FIG. In this case, the road surface pattern 21 matches between the two road surface projection images. However, the three-dimensional object 22 is represented by image patterns 24a, 25a, and 26a in the road surface projection image of the camera 2a, and is represented by image patterns 24c, 25c, and 26c in the road surface projection image of the camera 2c. Here, the image patterns 24a and 24c coincide with each other between the two road surface projection images. However, the image patterns 25a and 25c are different from each other, and the image patterns 26a and 26c are also different from each other.

路面模様抽出部14は、上記2つの路面投影像間で互いに一致する画像パターンを路面模様として抽出する。そうすると、図11に示すように、路面模様21に対応する画像パターンが抽出される。このとき、画像パターン24a、24cも抽出される。なお、画像パターン24a、24cは、立体物22と路面との境界線に相当する。この結果、路面投影像から立体物が除去された画像が生成される。以下、このようにして生成される画像を路面模様画像と呼ぶことがある。   The road surface pattern extraction unit 14 extracts image patterns that match each other between the two road surface projection images as a road surface pattern. Then, as shown in FIG. 11, an image pattern corresponding to the road surface pattern 21 is extracted. At this time, image patterns 24a and 24c are also extracted. The image patterns 24a and 24c correspond to the boundary line between the three-dimensional object 22 and the road surface. As a result, an image in which the three-dimensional object is removed from the road surface projection image is generated. Hereinafter, the image generated in this way may be referred to as a road surface pattern image.

図12は、路面投影像間で互いに一致する画像パターンを抽出する処理を説明する図である。路面模様抽出部14は、比較する2つの路面投影像(または、2つの路面投影像の互いに重なり合う領域)をそれぞれ複数の小領域(以下、画像ブロック)に分割する。図12に示す例では、カメラ2aの路面投影像が画像ブロックA1〜A9に分割され、カメラ2cの路面投影像が画像ブロックC1〜C9に分割されている。画像ブロックA1〜A9および画像ブロックC1〜C9は、互いに対応する領域を表している。なお、画像ブロックのサイズは、特に限定されるものではないが、たとえば、4×4画素、8×8画素、16×16画素などとすることができる。   FIG. 12 is a diagram illustrating a process of extracting image patterns that match each other between road surface projection images. The road surface pattern extraction unit 14 divides two road surface projection images to be compared (or regions where the two road surface projection images overlap each other) into a plurality of small regions (hereinafter referred to as image blocks). In the example shown in FIG. 12, the road surface projection image of the camera 2a is divided into image blocks A1 to A9, and the road surface projection image of the camera 2c is divided into image blocks C1 to C9. The image blocks A1 to A9 and the image blocks C1 to C9 represent areas corresponding to each other. Note that the size of the image block is not particularly limited, and can be, for example, 4 × 4 pixels, 8 × 8 pixels, 16 × 16 pixels, or the like.

路面模様抽出部14は、2つの路面投影像間で対応する画像ブロックの画像パターンを比較する。例えば、路面模様抽出部14は、SAD(Sum of Absolute Difference)を用いて画像パターンを比較する。すなわち、路面模様抽出部14は、対応する2つの画像ブロック間で、対応する画素の画素値の差分絶対値をそれぞれ算出し、それら差分絶対値の総和を求める。そして、この差分絶対値の総和が予め決められた閾値よりも小さければ、2つの画像ブロックの画像パターンが互いに一致すると判定される。一方、差分絶対値の総和が予め決められた閾値以上であれば、2つの画像ブロックの画像パターンが互いに一致しないと判定される。   The road surface pattern extraction unit 14 compares the image patterns of the corresponding image blocks between the two road surface projection images. For example, the road surface pattern extraction unit 14 compares image patterns using SAD (Sum of Absolute Difference). That is, the road surface pattern extraction unit 14 calculates the absolute difference of the pixel values of the corresponding pixels between the two corresponding image blocks, and obtains the sum of the absolute differences. If the sum of the absolute differences is smaller than a predetermined threshold value, it is determined that the image patterns of the two image blocks match each other. On the other hand, if the sum of absolute differences is equal to or greater than a predetermined threshold, it is determined that the image patterns of the two image blocks do not match each other.

図12において、まず、画像ブロックA1、C1が比較される。ここで、画像ブロックのA1の画像は「△」であり、画像ブロックのC1の画像も「△」である。したがって、画像ブロックA1、C1の画像パターンが互いに一致すると判定される。そうすると、路面模様抽出部14は、路面模様画像の対応する画像ブロックT1の画像データとして、画像ブロックA1、C1のいずれか一方の画像データを出力する。ここで、画像ブロックA1、C1の画像パターンは互いに一致しているので、面模様抽出部14は、画像ブロックA1、C1のいずれの画像データを出力してもよい。   In FIG. 12, first, the image blocks A1 and C1 are compared. Here, the image A1 of the image block is “Δ”, and the image C1 of the image block is also “Δ”. Therefore, it is determined that the image patterns of the image blocks A1 and C1 match each other. Then, the road surface pattern extraction unit 14 outputs image data of one of the image blocks A1 and C1 as the image data of the image block T1 corresponding to the road surface pattern image. Here, since the image patterns of the image blocks A1 and C1 match each other, the surface pattern extraction unit 14 may output any image data of the image blocks A1 and C1.

続いて、画像ブロックA2、C2が比較される。ここで、画像ブロックのA2の画像は「○」であり、画像ブロックのC2の画像は「☆」である。したがって、画像ブロックA2、C2の画像パターンが互いに一致しないと判定される。そうすると、路面模様抽出部14は、路面模様画像の対応する画像ブロックT2の画像データとして、「ゼロ」を出力する。「ゼロ」は、画像ブロック内のすべての画素の画素値がゼロである画像データである。   Subsequently, the image blocks A2 and C2 are compared. Here, the image A2 of the image block is “◯”, and the image C2 of the image block is “☆”. Therefore, it is determined that the image patterns of the image blocks A2 and C2 do not match each other. Then, the road surface pattern extraction unit 14 outputs “zero” as the image data of the image block T2 corresponding to the road surface pattern image. “Zero” is image data in which the pixel values of all the pixels in the image block are zero.

同様に、路面模様画像の画像ブロックT3〜T9が生成される。なお、上記2つの路面投影像の対応する画像ブロックがいずれも「無模様」であるときは、画像パターンが互いに一致し得る。例えば、画像ブロックA7、C7の画像パターンは互いに一致すると判定される。この場合、路面模様抽出部14は、路面模様画像の対応する画像ブロックT7の画像データとして、画像ブロックA7、C7のいずれか一方の画像データを出力する。   Similarly, image blocks T3 to T9 of the road surface pattern image are generated. When the corresponding image blocks of the two road surface projection images are both “no pattern”, the image patterns can match each other. For example, it is determined that the image patterns of the image blocks A7 and C7 match each other. In this case, the road surface pattern extraction unit 14 outputs image data of one of the image blocks A7 and C7 as image data of the image block T7 corresponding to the road surface pattern image.

このように、路面模様抽出部14は、路面投影像間で対応する画像ブロックの画像パターンが互いに異なるときに、「ゼロ」を出力する。これにより、立体物が除去された路面模様画像が生成される。   As described above, the road surface pattern extraction unit 14 outputs “zero” when the image patterns of the corresponding image blocks are different between the road surface projection images. Thereby, the road surface pattern image from which the three-dimensional object is removed is generated.

路面模様抽出部14は、各共通視野領域に対して、上述の路面模様画像を生成する。この結果、路面模様抽出部14は、図13に示す全体路面模様画像を得る。全体路面模様画像は、共通視野領域R1、R3、R5、R7には、図12に示す方法で生成された路面模様画像を有する。また、全体路面模様画像の他の領域R2、R4、R6、R8、R9の各画素には、「ゼロ」が与えられる。なお、以下の説明では、全体路面模様画像のことを単に「路面模様画像」と呼ぶことがある。   The road surface pattern extraction unit 14 generates the above road surface pattern image for each common visual field region. As a result, the road surface pattern extracting unit 14 obtains the entire road surface pattern image shown in FIG. The entire road surface pattern image has road surface pattern images generated by the method shown in FIG. 12 in the common visual field regions R1, R3, R5, and R7. Further, “zero” is given to each pixel of the other regions R2, R4, R6, R8, and R9 of the entire road surface pattern image. In the following description, the entire road pattern image may be simply referred to as a “road pattern image”.

さらに、路面模様抽出部14は、図14に示す統合路面投影画像を生成する。統合路面投影画像は、共通視野領域R1、R3、R5、R7には、図12に示す方法で生成された路面模様画像を有する。また、単独視野領域R2、R4、R6、R8には、対応するカメラの路面投影像が割り当てられる。例えば、単独視野領域R2は、カメラ2aのみにより映像データが生成される。この場合、単独視野領域R2には、カメラ2aの映像データから生成される路面投影像が割り当てられる。なお、いずれのカメラ2a〜2dの視野範囲でない領域R9の各画素には、「ゼロ」が与えられる。   Further, the road surface pattern extraction unit 14 generates an integrated road surface projection image shown in FIG. The integrated road surface projection image has road surface pattern images generated by the method shown in FIG. 12 in the common visual field regions R1, R3, R5, and R7. In addition, road surface projection images of corresponding cameras are assigned to the single visual field regions R2, R4, R6, and R8. For example, in the single visual field region R2, video data is generated only by the camera 2a. In this case, a road surface projection image generated from the video data of the camera 2a is assigned to the single visual field region R2. Note that “zero” is given to each pixel in the region R9 that is not in the visual field range of any of the cameras 2a to 2d.

このように、路面模様抽出部14は、路面投影部13により得られる路面投影像に基づいて、路面模様画像および統合路面投影画像を生成する。また、路面模様抽出部14は、生成した路面模様画像および統合路面投影画像を映像データDB16に記録する。なお、路面模様抽出部14は、例えば、所定の時間間隔で路面模様画像および統合路面投影画像を生成して映像データDB16に記録する。そして、映像データDB16は、最新の路面模様画像および統合路面投影画像に加えて、過去の路面模様画像および統合路面投影画像(少なくとも、直前の路面模様画像および統合路面投影像)を保持する。   In this way, the road surface pattern extraction unit 14 generates a road surface pattern image and an integrated road surface projection image based on the road surface projection image obtained by the road surface projection unit 13. In addition, the road surface pattern extraction unit 14 records the generated road surface pattern image and the integrated road surface projection image in the video data DB 16. The road surface pattern extraction unit 14 generates a road surface pattern image and an integrated road surface projection image at predetermined time intervals, for example, and records them in the video data DB 16. The video data DB 16 holds the past road surface pattern image and the integrated road surface projection image (at least the previous road surface pattern image and the integrated road surface projection image) in addition to the latest road surface pattern image and the integrated road surface projection image.

<移動量抽出部15の動作>
移動量抽出部15は、路面模様抽出部14により生成された路面模様画像の時間変化に基づいて、移動体1の移動量を推定する。図15は、移動量抽出部15の処理の概略を示すフローチャートである。
<Operation of Movement Amount Extracting Unit 15>
The movement amount extraction unit 15 estimates the movement amount of the moving body 1 based on the time change of the road surface pattern image generated by the road surface pattern extraction unit 14. FIG. 15 is a flowchart showing an outline of processing of the movement amount extraction unit 15.

ステップS1において、移動量抽出部15は、共通視野領域から抽出された路面模様の時間変化に基づいて、移動体1の移動量を推定する。つづいて、移動量推定部15は、ステップS2において、統合路面投影画像およびステップS1の推定結果を用いて、より高い精度で移動体1の移動量を推定する。すなわち、移動量推定部15は、統合路面投影画像を利用して、ステップS1で得られた移動量を補正する。   In step S <b> 1, the movement amount extraction unit 15 estimates the movement amount of the moving body 1 based on the time change of the road surface pattern extracted from the common visual field region. Subsequently, in step S2, the movement amount estimation unit 15 estimates the movement amount of the moving body 1 with higher accuracy using the integrated road surface projection image and the estimation result of step S1. That is, the movement amount estimation unit 15 corrects the movement amount obtained in step S1 using the integrated road surface projection image.

図16は、図15に示すステップS1の処理を示すフローチャートである。このフローチャートの処理は、移動量推定部15によって実行される。また、移動量推定部15は、映像データDB16に記録されている路面模様画像を利用して、移動体1の移動量を推定する。ここで、移動量推定部15は、時刻t1の映像データに基づいて生成された路面模様画像C(t1)、および時刻t2の映像データに基づいて生成された路面模様画像C(t2)を映像データDB16から取得するものとする。なお、時刻t2は、この例では、現在時刻である。時刻t1は、時刻t2に対して所定時間だけ過去の時刻である。時刻t1と時刻t2との間の時間間隔は、特に限定されるものではないが、例えば、カメラ2a〜2dのフレーム間隔(1/30秒)、またはその整数倍である。そして、移動量推定部15は、時刻t1と時刻t2との間における移動体1の移動量を推定する。   FIG. 16 is a flowchart showing the process of step S1 shown in FIG. The processing of this flowchart is executed by the movement amount estimation unit 15. Further, the movement amount estimation unit 15 estimates the movement amount of the moving body 1 using the road surface pattern image recorded in the video data DB 16. Here, the movement amount estimation unit 15 displays the road surface pattern image C (t1) generated based on the video data at time t1 and the road surface pattern image C (t2) generated based on the video data at time t2. It shall be acquired from data DB16. Note that the time t2 is the current time in this example. The time t1 is a time in the past by a predetermined time with respect to the time t2. The time interval between the time t1 and the time t2 is not particularly limited, and is, for example, the frame interval (1/30 seconds) of the cameras 2a to 2d, or an integer multiple thereof. And the movement amount estimation part 15 estimates the movement amount of the mobile body 1 between the time t1 and the time t2.

ステップS11において、移動量推定部15は、変数Mmaxをゼロに初期化する。変数Mmaxは、時刻t1の画像と時刻t2の画像との間の照合度(或いは、相関)の最大値を表す。   In step S11, the movement amount estimation unit 15 initializes the variable Mmax to zero. The variable Mmax represents the maximum value of the matching degree (or correlation) between the image at time t1 and the image at time t2.

ステップS12において、移動量推定部15は、回転角aを「−A」に初期化する。回転角aは、移動体1の移動量の1つの要素である平面回転(或いは、ヨー回転)の回転量を表す変数である。   In step S12, the movement amount estimating unit 15 initializes the rotation angle a to “−A”. The rotation angle a is a variable representing the amount of rotation of plane rotation (or yaw rotation) that is one element of the amount of movement of the moving body 1.

ステップS13において、移動量推定部15は、前時刻の路面模様画像C(t1)を角度aだけ回転変換することにより、回転路面模様画像D(t1)を生成する。なお、画像の回転変換は、例えば、各画素の座標を回転行列で演算することに実現される。   In step S13, the movement amount estimation unit 15 generates a rotating road surface pattern image D (t1) by rotationally converting the road surface pattern image C (t1) at the previous time by an angle a. Note that the rotation conversion of the image is realized, for example, by calculating the coordinates of each pixel using a rotation matrix.

ステップS14において、移動量推定部15は、ステップS13で得られた回転路面模様画像D(t1)と、現在時刻の路面模様画像C(t2)との間で、最大照合度Mmaxを与える並進変位(DXmax、DYmax)を特定する。ステップS14の処理については、後で詳しく説明する。   In step S14, the movement amount estimation unit 15 translates between the rotating road surface pattern image D (t1) obtained in step S13 and the road surface pattern image C (t2) at the current time to provide the maximum matching degree Mmax. (DXmax, DYmax) is specified. The process of step S14 will be described in detail later.

ステップS15において、移動量推定部15は、予め決められた所定の角度Δaを回転角aに加算する。なお、角度Δaは、回転角aを−Aから+Aまでスキャンするための角度ステップを表す。そして、ステップS16において、移動量推定部15は、回転角aがA以下であるか否かを判定する。回転角aがA以下であれば、移動量推定部15の処理はステップS13に戻る。   In step S15, the movement amount estimation unit 15 adds a predetermined angle Δa determined in advance to the rotation angle a. The angle Δa represents an angle step for scanning the rotation angle a from −A to + A. In step S <b> 16, the movement amount estimation unit 15 determines whether the rotation angle a is equal to or less than A. If the rotation angle a is A or less, the process of the movement amount estimation unit 15 returns to step S13.

このように、移動量推定部15は、回転路面模様画像D(t1)の回転角aを−Aから+Aまでスキャンしながら、回転路面模様画像D(t1)と路面模様画像C(t2)との間で最大照合度Mmaxを与える並進変位(DXmax、DYmax)を特定する。そして、回転角aがAよりも大きくなると(ステップS16:No)、移動量推定部15は、ステップS17において、移動体1の移動量の推定結果として、最大照合度Mmaxを与える並進変位(DXmax、DYmax)および回転角(Amax)を出力する。なお、ステップS17の出力は、時刻t1〜時刻t2における移動体1の移動量の推定値である。   In this way, the movement amount estimation unit 15 scans the rotation angle a of the rotating road surface pattern image D (t1) from −A to + A, while rotating the road surface pattern image D (t1) and the road surface pattern image C (t2). The translational displacement (DXmax, DYmax) that gives the maximum matching degree Mmax is specified. When the rotation angle a becomes larger than A (step S16: No), the movement amount estimation unit 15 gives a translational displacement (DXmax) that gives the maximum matching degree Mmax as the movement amount estimation result of the moving body 1 in step S17. , DYmax) and rotation angle (Amax). Note that the output of step S17 is an estimated value of the moving amount of the moving body 1 from time t1 to time t2.

次に、ステップS14に示す処理を詳しく説明する。ここでは、下記の変数が使用される。
dx:回転路面模様画像D(t1)のX方向の変位量を表す
dy:回転路面模様画像D(t1)のY方向の変位量を表す
mmax:ステップ22〜S30の処理ループの中で照合スコアScの最大値を表す
dxmax:ステップ22〜S30の処理ループの中で照合スコアScが最大となるX方向の変位量を表す
dymax:ステップ22〜S30の処理ループの中で照合スコアScが最大となるY方向の変位量を表す
Mmax:回転角aを−Aから現在の角度までスキャンした処理の中での照合スコアScの最大値を表す
DXmax:Mmaxを与えるX方向の変位量を表す
DYmax:Mmaxを与えるY方向の変位量を表す
Amax:Mmaxを与える回転角を表す
Next, the process shown in step S14 will be described in detail. Here, the following variables are used:
dx: a displacement amount in the X direction of the rotating road surface pattern image D (t1) dy: a displacement amount in the Y direction of the rotating road surface pattern image D (t1) mmax: a matching score in the processing loop of steps 22 to S30 Dxmax representing the maximum value of Sc: dymax representing the amount of displacement in the X direction in which the matching score Sc is maximum in the processing loop of steps 22 to S30: the matching score Sc is maximum in the processing loop of steps 22 to S30 Mmax representing the amount of displacement in the Y direction: DXmax representing the maximum value of the collation score Sc in the process of scanning the rotation angle a from -A to the current angle: DYmax representing the amount of displacement in the X direction giving Mmax: Amax representing the amount of displacement in the Y direction giving Mmax: Representing the rotation angle giving Mmax

図17は、図16のステップS14の処理を示すフローチャートである。なお、図17に示すフローチャートの処理は、回転路面模様画像D(t1)の回転角aを−Aから+Aまでスキャンする手順において、与えられた回転角aに対して実行される。   FIG. 17 is a flowchart showing the process of step S14 of FIG. Note that the processing of the flowchart shown in FIG. 17 is executed for a given rotation angle a in the procedure for scanning the rotation angle a of the road surface pattern image D (t1) from −A to + A.

ステップS21において、移動量推定部15は、変数mmaxをゼロに初期化する。ステップS22において、移動量推定部15は、変位量dyを「−DY」に初期化する。ステップS23において、移動量推定部15は、変位量dxを「−DX」に初期化する。   In step S21, the movement amount estimation unit 15 initializes the variable mmax to zero. In step S <b> 22, the movement amount estimation unit 15 initializes the displacement amount dy to “−DY”. In step S <b> 23, the movement amount estimation unit 15 initializes the displacement amount dx to “−DX”.

ステップS24において、移動量推定部15は、変位量dxおよび変位量dyに従って回転路面模様画像D(t1)の座標をシフトさせる。すなわち、移動量推定部15は、回転路面模様画像D(t1)を(dx,dy)だけシフトさせる。そして、移動量推定部15は、路面模様画像C(t2)と、(dx,dy)だけシフトした回転路面模様画像D(t1)との間で画像照合を実行して照合スコアScを算出する。   In step S24, the movement amount estimation unit 15 shifts the coordinates of the rotating road surface pattern image D (t1) according to the displacement amount dx and the displacement amount dy. That is, the movement amount estimation unit 15 shifts the rotating road surface pattern image D (t1) by (dx, dy). Then, the movement amount estimation unit 15 performs image matching between the road pattern image C (t2) and the rotating road pattern image D (t1) shifted by (dx, dy) to calculate a matching score Sc. .

照合スコアScは、路面模様画像C(t2)、および(dx,dy)だけシフトした回転路面模様画像D(t1)が互いに重なり合う領域(図18に示す斜線領域)について下記の処理を実行することで算出される。
S=0, N=0
IF (C(x,y)!=0 && D(x+dx,y+dy)!=0) THEN
S=S+{C(x,y)−D(x+dx,y+dy)}の絶対値
N=N+1
ENDIF
Sc=LV−(S/N)
The matching score Sc is obtained by executing the following processing on a region where the road surface pattern image C (t2) and the rotating road surface pattern image D (t1) shifted by (dx, dy) overlap each other (the hatched region shown in FIG. 18). Is calculated by
S = 0, N = 0
IF (C (x, y)! = 0 && D (x + dx, y + dy)! = 0) THEN
S = S + {C (x, y) −D (x + dx, y + dy)} absolute value
N = N + 1
ENDIF
Sc = LV− (S / N)

すなわち、画素値の差分絶対値の累積加算値を表す変数S、および重なり領域内の画素の個数をカウントする変数Nが初期化される。続いて、重なり領域内の各画素について、路面模様画像C(t2)の画素値C(x,y)がゼロではなく、且つ、回転路面模様画像D(t1)の画素値D(x+dx,y+dy)もゼロでないときに、画素値C(x,y)と画素値D(x+dx,y+dy)との間の差分絶対値が累積加算される。さらに、定数LVから、1画素当たりの画素値の差分絶対値を減算することにより、照合スコアScが得られる。なお、定数LVは、2つの画像の相関が高いほど照合スコアScが大きな正値となるように決定される。例えば、画素値が0〜255で表わされるときは、「LV>255」であり、一例としては「LV=300」である。   That is, a variable S that represents the cumulative addition value of the absolute difference values of pixel values and a variable N that counts the number of pixels in the overlapping region are initialized. Subsequently, for each pixel in the overlapping region, the pixel value C (x, y) of the road pattern image C (t2) is not zero, and the pixel value D (x + dx) of the rotating road pattern image D (t1). , y + dy) is not zero, the absolute difference between the pixel value C (x, y) and the pixel value D (x + dx, y + dy) is cumulatively added. Further, the collation score Sc is obtained by subtracting the absolute difference value of the pixel value per pixel from the constant LV. The constant LV is determined such that the higher the correlation between the two images, the greater the collation score Sc. For example, when the pixel value is represented by 0 to 255, “LV> 255”, and as an example, “LV = 300”.

図17に戻る。ステップS25において、移動量推定部15は、ステップS24で算出された照合スコアScが変数mmaxよりも大きいか否かを判定する。そして、照合スコアScが変数mmaxよりも大きければ、移動量推定部15は、ステップS26において変数mmax、変数dxmax、変数dymaxを下記のように更新する。なお、照合スコアScが変数mmax以下であれば、ステップS26はスキップされる。
mmax←Sc
dxmax←dx
dymax←dy
すなわち、新たに算出された照合スコアScは、現時点までの照合スコアScの最大値を表す変数mmaxとして保持される。また、照合スコアScの最大値を与える変位量は、変数dxmax、dymaxとして保持される。
Returning to FIG. In step S25, the movement amount estimation unit 15 determines whether or not the matching score Sc calculated in step S24 is larger than the variable mmax. If the collation score Sc is larger than the variable mmax, the movement amount estimating unit 15 updates the variable mmax, the variable dxmax, and the variable dymax in step S26 as follows. If the matching score Sc is equal to or less than the variable mmax, step S26 is skipped.
mmax ← Sc
dxmax ← dx
dymax ← dy
That is, the newly calculated matching score Sc is held as a variable mmax representing the maximum value of the matching score Sc up to the present time. Further, the displacement amount that gives the maximum value of the matching score Sc is held as variables dxmax and dymax.

ステップS27において、移動量推定部15は、変位量dxにΔdxを加算する。ここで、Δdxは、X方向の変位量dxを−DXから+DXまでスキャンするための変位量のステップを表す。そして、移動量推定部15は、ステップS28において、ステップS27で更新された変位量dxがDX以下であるか否かを判定する。変数量dxがDX以下であれば、移動量推定部15の処理はステップS24に戻る。   In step S27, the movement amount estimation unit 15 adds Δdx to the displacement amount dx. Here, Δdx represents a displacement amount step for scanning the displacement amount dx in the X direction from −DX to + DX. Then, in step S28, the movement amount estimation unit 15 determines whether or not the displacement amount dx updated in step S27 is equal to or less than DX. If the variable amount dx is less than or equal to DX, the process of the movement amount estimation unit 15 returns to step S24.

変数量dxがDXを超えていれば、移動量推定部15は、ステップS29において、変位量dyにΔdyを加算する。ここで、Δdyは、Y方向の変位量dyを−DYから+DYまでスキャンするための変位量のステップを表す。そして、移動量推定部15は、ステップS30において、ステップS29で更新された変位量dyがDY以下であるか否かを判定する。変数量dyがDY以下であれば、移動量推定部15の処理はステップS23に戻る。   If the variable amount dx exceeds DX, the movement amount estimation unit 15 adds Δdy to the displacement amount dy in step S29. Here, Δdy represents a displacement amount step for scanning the displacement amount dy in the Y direction from −DY to + DY. Then, in step S30, the movement amount estimation unit 15 determines whether or not the displacement amount dy updated in step S29 is equal to or less than DY. If the variable amount dy is less than or equal to DY, the process of the movement amount estimation unit 15 returns to step S23.

変数量dyがDYを超えていれば、移動量推定部15は、ステップS31において、変数mmaxと変数Mmaxとを比較する。そして、「mmax>Mmax」であれば、移動量推定部15は、ステップS32において、Mmax、DXmax、DYmax、Amaxを下記のように更新する。なお、「mmax>Mmax」でなければ、ステップS32はスキップされる。
Mmax←mmax
DXmax←dxmax
DYmax←dymax
Amax←a
すなわち、回転角aを−Aから現在の角度までスキャンした処理の中での算出された照合スコアScの最大値がMmaxとして保存される。また、Mmaxを与えるX方向変位量、Y方向変位量、回転角は、それぞれDXmax、DYmax、Amaxとして保存される。
If the variable amount dy exceeds DY, the movement amount estimation unit 15 compares the variable mmax with the variable Mmax in step S31. If “mmax> Mmax”, the movement amount estimation unit 15 updates Mmax, DXmax, DYmax, and Amax as follows in step S32. If “mmax> Mmax” is not satisfied, step S32 is skipped.
Mmax ← mmax
DXmax ← dxmax
DYmax ← dymax
Amax ← a
That is, the maximum value of the collation score Sc calculated during the process of scanning the rotation angle a from −A to the current angle is stored as Mmax. Further, the X-direction displacement amount, the Y-direction displacement amount, and the rotation angle that give Mmax are stored as DXmax, DYmax, and Amax, respectively.

このように、移動量推定部15は、図16〜図17に示す処理を実行することにより、回転路面模様画像D(t1)と路面模様画像C(t2)との間で最大照合度Mmaxを与える移動量(DXmax、DYmax、Amax)を算出する。ここで、このようにして算出される移動量は、路面模様の配置(位置および/または角度)の時間変化に相当する。すなわち、移動量推定部15は、路面模様の時間変化に基づいて、移動体1の移動量を推定する。   As described above, the movement amount estimation unit 15 performs the processing shown in FIGS. 16 to 17 to obtain the maximum matching degree Mmax between the rotating road surface pattern image D (t1) and the road surface pattern image C (t2). The amount of movement (DXmax, DYmax, Amax) to be given is calculated. Here, the movement amount calculated in this way corresponds to a time change in the layout (position and / or angle) of the road surface pattern. That is, the movement amount estimation unit 15 estimates the movement amount of the moving body 1 based on the time change of the road surface pattern.

なお、図16〜図17に示すフローチャートで使用する「DX」「DY」「A」は、移動体1の仕様または性能に応じて決定される。例えば、「DX」「DY」は、移動体1の許容最高速度に応じて決定してもよい。   Note that “DX”, “DY”, and “A” used in the flowcharts shown in FIGS. 16 to 17 are determined according to the specifications or performance of the moving body 1. For example, “DX” and “DY” may be determined according to the maximum allowable speed of the moving body 1.

移動量推定部15は、図15に示すステップS1に続いて、ステップS2の処理を実行する。すなわち、移動量推定部15は、図14に示す統合路面投影画像を利用して、ステップS1で得られた移動体1の移動量を補正する。   The movement amount estimation unit 15 executes the process of step S2 following step S1 shown in FIG. That is, the movement amount estimation unit 15 corrects the movement amount of the moving body 1 obtained in step S1 using the integrated road surface projection image shown in FIG.

図19は、図15に示すステップS2の処理を示すフローチャートである。移動量推定部15は、図19に示すステップS41〜S47を実行する。ステップS41〜S47の処理の流れは、図16に示すステップS11〜S17とほぼ同じである。ただし、ステップS11〜S17とステップS41〜S47とでは、処理対象の画像、初期値、いくつかの変数などが異なる。以下、ステップS11〜S17とステップS41〜S47との間の差異について説明する。   FIG. 19 is a flowchart showing the process of step S2 shown in FIG. The movement amount estimation unit 15 executes steps S41 to S47 shown in FIG. The processing flow of steps S41 to S47 is substantially the same as steps S11 to S17 shown in FIG. However, in steps S11 to S17 and steps S41 to S47, an image to be processed, an initial value, some variables, and the like are different. Hereinafter, the difference between steps S11 to S17 and steps S41 to S47 will be described.

ステップS42において、移動量推定部15は、回転角aの初期値を「Amax−A2」に設定する。Amaxは、ステップS11〜S17の処理により得られる。A2は、ステップS11〜S17で使用する「A」よりも小さい定数である。   In step S42, the movement amount estimating unit 15 sets the initial value of the rotation angle a to “Amax−A2”. Amax is obtained by the processing of steps S11 to S17. A2 is a constant smaller than “A” used in steps S11 to S17.

ステップS43において、移動量推定部15は、前時刻の統合路面投影画像E(t1)を角度aだけ回転変換することにより、回転統合路面投影画像F(t1)を生成する。なお、統合路面投影画像は、図14を参照しながら説明した通りであり、映像データDB16に記録されている。そして、ステップS44において、移動量推定部15は、ステップS43で得られた回転統合路面投影画像F(t1)と、現在時刻の統合路面投影画像E(t2)との間で、最大照合度Mmaxを与える並進変位(DXmax2、DYmax2)を特定する。   In step S43, the movement amount estimating unit 15 generates a rotation integrated road surface projection image F (t1) by rotationally converting the integrated road surface projection image E (t1) at the previous time by an angle a. The integrated road projection image is as described with reference to FIG. 14 and is recorded in the video data DB 16. In step S44, the movement amount estimation unit 15 determines the maximum matching degree Mmax between the rotation integrated road surface projection image F (t1) obtained in step S43 and the integrated road surface projection image E (t2) at the current time. The translational displacement (DXmax2, DYmax2) that gives

ステップS45において、移動量推定部15は、角度Δa2を回転角aに加算する。なお、角度Δa2は、回転角aをAmax−A2からAmax+A2までスキャンするための角度ステップを表す。また、Δa2は、ステップS11〜S17で使用するΔaよりも小さい角度ステップである。そして、ステップS46において、回転角aがAmax+A2以下であれば、移動量推定部15の処理はステップS43に戻る。   In step S45, the movement amount estimation unit 15 adds the angle Δa2 to the rotation angle a. The angle Δa2 represents an angle step for scanning the rotation angle a from Amax−A2 to Amax + A2. Δa2 is an angle step smaller than Δa used in steps S11 to S17. If the rotation angle a is equal to or less than Amax + A2 in step S46, the process of the movement amount estimation unit 15 returns to step S43.

このように、移動量推定部15は、ステップS43〜S46において回転統合路面投影画像F(t1)の回転角aをAmax−A2からAmax+A2までスキャンしながら、回転統合路面投影画像F(t1)と統合路面投影画像E(t2)との間で最大照合度Mmaxを与える並進変位(DXmax2、DYmax2)を特定する。そして、回転角aがAmax+A2よりも大きくなると、移動量推定部15は、ステップS47において、移動体1の移動量のより詳細な推定結果として、最大照合度Mmaxを与える並進変位(DXmax2、DYmax2)および回転角(Amax2)を出力する。   As described above, the movement amount estimation unit 15 scans the rotation angle a of the rotation integrated road surface projection image F (t1) from Amax−A2 to Amax + A2 in steps S43 to S46, and the rotation integrated road surface projection image F (t1). A translation displacement (DXmax2, DYmax2) that gives the maximum matching degree Mmax with the integrated road surface projection image E (t2) is specified. When the rotation angle a becomes larger than Amax + A2, the movement amount estimation unit 15 translates (DXmax2, DYmax2) which gives the maximum matching degree Mmax as a more detailed estimation result of the movement amount of the moving body 1 in step S47. And the rotation angle (Amax2) is output.

図20は、図19のステップS44の処理を示すフローチャートである。なお、図20に示すフローチャートの処理は、統合回転路面投影画像F(t1)の回転角aをAmax−A2からAmax+A2までスキャンする手順において、与えられた回転角aに対して実行される。   FIG. 20 is a flowchart showing the process of step S44 of FIG. Note that the processing of the flowchart shown in FIG. 20 is executed for a given rotation angle a in the procedure of scanning the rotation angle a of the integrated rotating road surface projection image F (t1) from Amax−A2 to Amax + A2.

図20に示すステップS51〜S62の処理の流れは、図17に示すステップS21〜S32とほぼ同じである。ただし、ステップS21〜S32とステップS51〜S62とでは、処理対象の画像、初期値、いくつかの変数などが異なる。以下、ステップS21〜S32とステップS51〜S62との間の差異について説明する。   The process flow of steps S51 to S62 shown in FIG. 20 is almost the same as steps S21 to S32 shown in FIG. However, the image to be processed, the initial value, some variables, and the like are different between steps S21 to S32 and steps S51 to S62. Hereinafter, differences between steps S21 to S32 and steps S51 to S62 will be described.

ステップS51〜S62においては、変位dxは、dxmax±DX2の範囲でスキャンされる。変位dxを変化させるステップΔdx2は、ステップS21〜S32で使用するΔdxよりも小さい。また、変位dyは、dymax±DY2の範囲でスキャンされる。変位dyを変化させるステップΔdy2は、ステップS21〜S32で使用するΔdyよりも小さい。   In steps S51 to S62, the displacement dx is scanned in the range of dxmax ± DX2. Step Δdx2 for changing the displacement dx is smaller than Δdx used in steps S21 to S32. The displacement dy is scanned in the range of dymax ± DY2. Step Δdy2 for changing the displacement dy is smaller than Δdy used in steps S21 to S32.

更に、ステップS61において「mmax>Mmax」であれば、移動量推定部15は、ステップS62において、Mmax、DXmax2、DYmax2、Amax2を下記のように更新する。
Mmax←mmax
DXmax2←dxmax
DYmax2←dymax
Amax2←a
移動量推定部15は、移動体1の並進移動量の推定値としてDXmax2、DYmax2を出力する。また、移動量推定部15は、移動体1の回転量の推定値としてAmax2を出力する。
Furthermore, if “mmax> Mmax” in step S61, the movement amount estimation unit 15 updates Mmax, DXmax2, DYmax2, and Amax2 as follows in step S62.
Mmax ← mmax
DXmax2 ← dxmax
DYmax2 ← dymax
Amax2 ← a
The movement amount estimation unit 15 outputs DXmax2 and DYmax2 as estimated values of the translational movement amount of the moving body 1. Further, the movement amount estimation unit 15 outputs Amax2 as an estimated value of the rotation amount of the moving body 1.

このように、第1の実施形態の移動量推定装置10(または、移動量推定方法)は、まず、路面模様画像を利用して移動体1の移動量を推定する。その後、移動量推定装置10は、路面模様画像に基づく推定結果および統合路面投影画像を利用して、移動体1の移動量をより詳細に推定する。   Thus, the movement amount estimation apparatus 10 (or movement amount estimation method) of the first embodiment first estimates the movement amount of the moving body 1 using the road surface pattern image. Thereafter, the movement amount estimation apparatus 10 estimates the movement amount of the moving body 1 in more detail using the estimation result based on the road surface pattern image and the integrated road surface projection image.

ここで、路面模様画像は、カメラ映像を路面に投影する処理の中で立体物の画像を除去することで得られる。したがって、第1の実施形態によれば、立体物の影響を受けることなく、移動体1の移動量を精度よく推定できる。   Here, the road surface pattern image is obtained by removing the three-dimensional object image during the process of projecting the camera video onto the road surface. Therefore, according to the first embodiment, the moving amount of the moving body 1 can be accurately estimated without being affected by the three-dimensional object.

ただし、除去される立体物の画像領域が大きいときは、路面模様画像に含まれる特徴の数が少なくなるおそれがある。このため、移動量推定装置10は、共通視野領域でない領域の路面投影像も利用してさらに推定を行う。これにより、移動量の推定精度の低下を防ぐことができる。   However, when the image area of the three-dimensional object to be removed is large, the number of features included in the road surface pattern image may be reduced. For this reason, the movement amount estimation apparatus 10 further performs estimation using a road surface projection image of an area that is not a common visual field area. This can prevent a decrease in the estimation accuracy of the movement amount.

なお、移動量推定装置10は、必ずしも、路面模様画像に基づく推定処理の後に統合路面投影画像を利用した推定を実行しなくてもよい。例えば、除去される立体物の画像領域が小さいときは、統合路面投影画像を利用するステップS2の処理を省略してもよい。   Note that the movement amount estimation apparatus 10 does not necessarily have to perform estimation using the integrated road surface projection image after the estimation processing based on the road surface pattern image. For example, when the image area of the three-dimensional object to be removed is small, the process of step S2 using the integrated road surface projection image may be omitted.

<<第2の実施形態>>
図21は、第2の実施形態の移動量推定装置の機能ブロック図である。第2の実施形態の移動量推定装置20は、画像入力部11、同期制御部12、路面投影部13、路面模様抽出部14、回転角入力部21、移動量推定部22を備える。ここで、画像入力部11、同期制御部12、路面投影部13、路面模様抽出部14の動作は、実質的に第1の実施形態と同じである。また、移動量推定装置20には、カメラ2a〜2dから映像データが入力され、回転角センサ5から回転データが入力される。さらに、移動量推定装置20は、映像データDB16に接続されている。
<< Second Embodiment >>
FIG. 21 is a functional block diagram of the movement amount estimation apparatus according to the second embodiment. The movement amount estimation apparatus 20 of the second embodiment includes an image input unit 11, a synchronization control unit 12, a road surface projection unit 13, a road surface pattern extraction unit 14, a rotation angle input unit 21, and a movement amount estimation unit 22. Here, the operations of the image input unit 11, the synchronization control unit 12, the road surface projection unit 13, and the road surface pattern extraction unit 14 are substantially the same as those in the first embodiment. In addition, the movement amount estimation apparatus 20 receives video data from the cameras 2 a to 2 d and receives rotation data from the rotation angle sensor 5. Furthermore, the movement amount estimation apparatus 20 is connected to the video data DB 16.

回転角センサ5は、移動体1に取り付けられており、移動体1の路面上における回転量(ヨー回転量)を表す回転データを出力する。なお、回転角センサ5は、例えば、ジャイロセンサである。   The rotation angle sensor 5 is attached to the moving body 1 and outputs rotation data representing a rotation amount (yaw rotation amount) of the moving body 1 on the road surface. The rotation angle sensor 5 is, for example, a gyro sensor.

回転角入力部21は、回転角センサ5から出力される回転データに基づいて、所定の時間における移動体1の回転量を算出する。具体的には、回転角入力部21は、同期制御部12により生成される同期信号とその直前の同期信号との間での移動体1の回転量を算出する。そして、回転角入力部21は、算出した回転角を移動量推定部22に通知する。   The rotation angle input unit 21 calculates the rotation amount of the moving body 1 in a predetermined time based on the rotation data output from the rotation angle sensor 5. Specifically, the rotation angle input unit 21 calculates the amount of rotation of the moving body 1 between the synchronization signal generated by the synchronization control unit 12 and the synchronization signal immediately before. Then, the rotation angle input unit 21 notifies the movement amount estimation unit 22 of the calculated rotation angle.

移動量推定部22は、路面模様画像、統合路面投影画像、および回転角入力部21により算出される回転角に基づいて、移動体1の移動量を推定する。このとき、移動量推定部22は、第1の実施形態と同様に、図15に示すステップS1〜S2を実行することにより、移動体1の移動量を推定する。ただし、第2の実施形態では、移動体1の移動量のうち、移動体1の回転量については回転角センサ5により検出される。したがって、移動量推定部22は、移動体1の並進移動量を推定する。   The movement amount estimation unit 22 estimates the movement amount of the moving body 1 based on the road surface pattern image, the integrated road surface projection image, and the rotation angle calculated by the rotation angle input unit 21. At this time, the movement amount estimation unit 22 estimates the movement amount of the moving body 1 by executing steps S1 to S2 shown in FIG. 15 as in the first embodiment. However, in the second embodiment, of the movement amount of the moving body 1, the rotation amount of the moving body 1 is detected by the rotation angle sensor 5. Therefore, the movement amount estimation unit 22 estimates the translational movement amount of the moving body 1.

図22は、第2の実施形態で実行されるステップS1の処理を示すフローチャートである。第2の実施形態では、移動量推定部22は、図15のステップS1の処理として、ステップS11、S12−2、S13−2、S14、S17−2を実行する。なお、ステップS11、S14の処理は、第1の実施形態と同じなので、説明を省略する。   FIG. 22 is a flowchart showing the process of step S1 executed in the second embodiment. In the second embodiment, the movement amount estimation unit 22 executes steps S11, S12-2, S13-2, S14, and S17-2 as the process of step S1 in FIG. In addition, since the process of step S11, S14 is the same as 1st Embodiment, description is abbreviate | omitted.

ステップS12−2において、移動量推定部22は、移動体1の回転角aとして、回転角入力部21から通知される「Asen」を設定する。続いて、ステップS13−2において、移動量推定部22は、前時刻の路面模様画像C(t1)を角度Asenだけ回転変換することにより、回転路面模様画像D(t1)を生成する。そして、移動量推定部22は、ステップS14を実行した後、ステップS17−2において、移動体1の移動量の推定結果として最大照合度Mmaxを与える並進変位(DXmax、DYmax)を出力する。このとき、移動量推定部22は、回転角入力部21から通知される回転量Asenも合わせて出力する。   In step S <b> 12-2, the movement amount estimation unit 22 sets “Asen” notified from the rotation angle input unit 21 as the rotation angle a of the moving body 1. Subsequently, in step S13-2, the movement amount estimation unit 22 generates a rotating road surface pattern image D (t1) by rotationally converting the road surface pattern image C (t1) at the previous time by an angle Asen. Then, after executing step S14, the movement amount estimation unit 22 outputs a translational displacement (DXmax, DYmax) that gives the maximum matching degree Mmax as the estimation result of the movement amount of the moving body 1 in step S17-2. At this time, the movement amount estimation unit 22 also outputs the rotation amount Asen notified from the rotation angle input unit 21.

図23は、第2の実施形態で実行されるステップS2の処理を示すフローチャートである。第2の実施形態では、移動量推定部22は、図15のステップS2の処理として、ステップS41、S42−2、S43−2、S44、S47−2を実行する。なお、ステップS41、S44の処理は、第1の実施形態と同じなので、説明を省略する。   FIG. 23 is a flowchart showing the process of step S <b> 2 executed in the second embodiment. In the second embodiment, the movement amount estimation unit 22 executes steps S41, S42-2, S43-2, S44, and S47-2 as the process of step S2 of FIG. In addition, since the process of step S41, S44 is the same as 1st Embodiment, description is abbreviate | omitted.

ステップS42−2において、移動量推定部22は、移動体1の回転角aとして、回転角入力部21から通知される「Asen」を設定する。続いて、ステップS43−2において、移動量推定部22は、前時刻の統合路面投影画像E(t1)を角度Asenだけ回転変換することにより、回転統合路面投影画像F(t1)を生成する。そして、移動量推定部22は、ステップS44を実行した後、ステップS47−2において、移動体1の移動量の推定結果として、最大照合度Mmaxを与える並進変位(DXmax2、DYmax2)を出力する。このとき、移動量推定部22は、回転角入力部21から通知される回転量Asenも合わせて出力する。   In step S42-2, the movement amount estimation unit 22 sets “Asen” notified from the rotation angle input unit 21 as the rotation angle a of the moving body 1. Subsequently, in step S43-2, the movement amount estimation unit 22 generates the rotation integrated road surface projection image F (t1) by rotationally converting the integrated road surface projection image E (t1) at the previous time by the angle Asen. Then, after executing step S44, the movement amount estimation unit 22 outputs a translational displacement (DXmax2, DYmax2) that gives the maximum matching degree Mmax as the estimation result of the movement amount of the moving body 1 in step S47-2. At this time, the movement amount estimation unit 22 also outputs the rotation amount Asen notified from the rotation angle input unit 21.

このように、第2の実施形態の移動量推定装置20は、回転角センサ5を利用して移動体1の回転量を取得する。すなわち、移動量推定装置20は、路面模様画像および統合路面投影画像の回転角をスキャンする処理を実行することなく、移動体1の並進移動量を推定できる。したがって、第2の実施形態においては、第1の実施形態と比較して、移動体1の移動量を推定するための演算量が少なくなる。   As described above, the movement amount estimation device 20 of the second embodiment acquires the rotation amount of the moving body 1 using the rotation angle sensor 5. That is, the movement amount estimation apparatus 20 can estimate the translational movement amount of the moving body 1 without executing the process of scanning the rotation angle of the road surface pattern image and the integrated road surface projection image. Therefore, in the second embodiment, the amount of calculation for estimating the amount of movement of the mobile body 1 is smaller than in the first embodiment.

<<第3の実施形態>>
上述のように、実施形態(例えば、第1の実施形態)の移動量推定方法においては、立体物の画像を除去した路面投影像(すなわち、路面模様画像)を利用して移動量1の移動量が推定される。これにより、立体物の影響を受けることなく、移動体1の移動量が精度よく推定される。
<< Third Embodiment >>
As described above, in the movement amount estimation method of the embodiment (for example, the first embodiment), the movement of the movement amount 1 is performed using the road surface projection image (that is, the road surface pattern image) from which the three-dimensional object image is removed. The quantity is estimated. Thereby, the movement amount of the moving body 1 is accurately estimated without being affected by the three-dimensional object.

第3の実施形態では、図24に示すように、複数のカメラの共通視野領域においては路面模様画像を使用すると共に、他の視野領域においては移動体1の近傍領域の路面投影像を使用する。図24に示す例では、領域R1、R3、R5、R7は、それぞれ対応する2台のカメラの共通視野領域であって、図12に示す方法で生成された路面模様画像を有する。ここで、領域R1、R3、R5、R7においては、立体物に対応する画像は除去されている。一方、領域R2、R4、R6、R8は、それぞれ対応する1台のカメラ2a、2c、2b、2dの視野領域であり、路面投影像を有する。ただし、第3の実施形態では、領域R2の路面投影像に対して、移動体1に近接する領域R2x以外の領域の各画素の画素値をゼロに置き換える処理が実行される。また、領域R4、R6、R8においても、移動体1に近接する領域R4x、R6x、R8x以外の領域の各画素の画素値をゼロに置き換える処理が実行される。以下、このようにして生成される図24に示す画像を近傍統合投影画像と呼ぶことがある。   In the third embodiment, as shown in FIG. 24, a road surface pattern image is used in a common visual field region of a plurality of cameras, and a road surface projection image of a region near the moving body 1 is used in other visual field regions. . In the example shown in FIG. 24, regions R1, R3, R5, and R7 are common visual field regions of two corresponding cameras, respectively, and have road surface pattern images generated by the method shown in FIG. Here, in the regions R1, R3, R5, and R7, the image corresponding to the three-dimensional object is removed. On the other hand, the regions R2, R4, R6, and R8 are visual field regions of the corresponding cameras 2a, 2c, 2b, and 2d, respectively, and have road surface projection images. However, in the third embodiment, a process of replacing the pixel value of each pixel in a region other than the region R2x close to the moving body 1 with zero is performed on the road surface projection image of the region R2. In the regions R4, R6, and R8, a process of replacing the pixel values of the pixels in the regions other than the regions R4x, R6x, and R8x adjacent to the moving body 1 with zero is executed. Hereinafter, the image shown in FIG. 24 generated in this way may be referred to as a neighborhood integrated projection image.

領域R2x、R4x、R6x、R8xは、移動体1に近接しているので、その中に立体物が存在する可能性は低い。したがって、領域R2x、R4x、R6x、R8xの画像を利用して移動体1の移動量を推定しても、立体物の影響を受ける可能性は低い。なお、領域R2x、R4x、R6x、R8xは、移動体1からの距離範囲(例えば、移動体1から500mm以下の範囲)を指定することで生成される。   Since the regions R2x, R4x, R6x, and R8x are close to the moving body 1, there is a low possibility that a three-dimensional object exists therein. Therefore, even if the movement amount of the moving body 1 is estimated using the images of the regions R2x, R4x, R6x, and R8x, the possibility of being affected by the three-dimensional object is low. The regions R2x, R4x, R6x, and R8x are generated by designating a distance range from the moving body 1 (for example, a range of 500 mm or less from the moving body 1).

第3の実施形態の移動量推定装置の構成は、第1の実施形態の移動量推定装置10と実質的に同じである。ただし、第3の実施形態の移動量推定部の処理は、第1の実施形態の移動量推定部15と異なる。   The configuration of the movement amount estimation apparatus of the third embodiment is substantially the same as that of the movement amount estimation apparatus 10 of the first embodiment. However, the process of the movement amount estimation unit of the third embodiment is different from the movement amount estimation unit 15 of the first embodiment.

図25は、第3の実施形態の移動量推定部の処理を示すフローチャートである。第3の実施形態の移動量推定部は、図25に示すステップS71〜S77を実行して移動体1の移動量を推定する。ここで、ステップS71〜S77の処理の流れは、第1の実施形態のステップS11〜S17とほぼ同じである。ただし、第1の実施形態では路面模様画像を利用するのに対して、第3の実施形態では図24に示す近傍統合投影画像を利用して移動体1の移動量を推定する。   FIG. 25 is a flowchart illustrating the processing of the movement amount estimation unit according to the third embodiment. The movement amount estimation unit of the third embodiment performs steps S71 to S77 shown in FIG. 25 to estimate the movement amount of the moving body 1. Here, the process flow of steps S71 to S77 is substantially the same as steps S11 to S17 of the first embodiment. However, while the road pattern image is used in the first embodiment, the movement amount of the moving body 1 is estimated using the neighborhood integrated projection image shown in FIG. 24 in the third embodiment.

このように、第3の実施形態の推定方法は、図24に示す近傍統合投影画像を利用して図25に示すフローチャートに従って移動体1の移動量を推定する。ここで、第1の実施形態の推定方法は、図15に示すステップS1で移動量を推定した後、さらにステップS2でその移動量を補正する処理を実行する。したがって、第3の実施形態の推定方法は、第1の実施形態と比較して演算量が少なくなる。   As described above, the estimation method of the third embodiment estimates the amount of movement of the moving body 1 according to the flowchart shown in FIG. 25 using the neighborhood integrated projection image shown in FIG. Here, in the estimation method of the first embodiment, after the movement amount is estimated in step S1 shown in FIG. 15, a process of correcting the movement amount is further executed in step S2. Therefore, the estimation method according to the third embodiment requires a smaller amount of computation than the first embodiment.

また、第1の実施形態で実行されるステップS1は、共通視野領域の路面模様を利用して移動量を推定する。これに対して、第3の実施形態の推定方法は、共通視野領域の路面模様に加えて、非共通視野領域内の立体物が存在する可能性の低い路面投影像も利用して移動量を推定する。したがって、第3の実施形態の推定方法は、第1の実施形態においてステップS1のみを実行する場合と比較すると、推定精度が高くなる。   Moreover, step S1 performed in 1st Embodiment estimates the movement amount using the road surface pattern of a common visual field area | region. On the other hand, the estimation method of the third embodiment uses the road surface projection image in which there is a low possibility that a three-dimensional object in the non-common visual field area exists in addition to the road surface pattern of the common visual field area. presume. Therefore, the estimation method of the third embodiment has higher estimation accuracy than the case where only step S1 is executed in the first embodiment.

<<第4の実施形態>>
第4の実施形態の移動量推定装置の構成は、第2の実施形態の移動量推定装置20と実質的に同じである。すなわち、第4の実施形態においても、移動体1の回転量は、回転角センサ5を使用して検出される。ただし、第4の実施形態の移動量推定部の処理は、第2の実施形態の移動量推定部22と異なる。具体的には、第4の実施形態の推定方法は、第3の実施形態と同様に、図24に示す近傍統合投影画像を利用して移動体1の移動量(ただし、並進移動量)を推定する。
<< Fourth Embodiment >>
The configuration of the movement amount estimation apparatus of the fourth embodiment is substantially the same as that of the movement amount estimation apparatus 20 of the second embodiment. That is, also in the fourth embodiment, the rotation amount of the moving body 1 is detected using the rotation angle sensor 5. However, the process of the movement amount estimation unit of the fourth embodiment is different from the movement amount estimation unit 22 of the second embodiment. Specifically, as in the third embodiment, the estimation method of the fourth embodiment uses the neighborhood integrated projection image shown in FIG. 24 to calculate the movement amount (however, the translation movement amount) of the moving body 1. presume.

図26は、第4の実施形態の移動量推定部の処理を示すフローチャートである。第4の実施形態の移動量推定部は、ステップS71、S72−2、S73−2、S74、S77−2を実行して移動体1の移動量を推定する。ここで、ステップS71、S72−2、S73−2、S74、S77−2の処理の流れは、図22に示す第2の実施形態のステップS11、S12−2、S13−2、S14、S17−2とほぼ同じである。ただし、第2の実施形態では路面模様画像を利用するのに対して、第4の実施形態では図24に示す近傍統合投影画像を利用して移動体1の移動量を推定する。   FIG. 26 is a flowchart illustrating processing of the movement amount estimation unit according to the fourth embodiment. The movement amount estimation unit of the fourth embodiment performs steps S71, S72-2, S73-2, S74, and S77-2 to estimate the movement amount of the moving body 1. Here, the processing flow of steps S71, S72-2, S73-2, S74, and S77-2 is the same as that of steps S11, S12-2, S13-2, S14, and S17- of the second embodiment shown in FIG. 2 is almost the same. However, while the road pattern image is used in the second embodiment, the movement amount of the moving body 1 is estimated using the neighborhood integrated projection image shown in FIG. 24 in the fourth embodiment.

このように、第4の実施形態の移動量推定方法は、回転角センサ5を利用して移動体1の回転量を取得する。すなわち、第4の実施形態の移動量推定方法は、近傍統合投影画像の回転角をスキャンする処理を実行することなく、移動体1の並進移動量を推定できる。したがって、第4の実施形態においては、第3の実施形態と比較すると、移動体1の移動量を推定するための演算量が少なくなる。   Thus, the movement amount estimation method of the fourth embodiment acquires the rotation amount of the moving body 1 using the rotation angle sensor 5. That is, the movement amount estimation method of the fourth embodiment can estimate the translational movement amount of the moving body 1 without executing the process of scanning the rotation angle of the neighborhood integrated projection image. Therefore, in the fourth embodiment, compared with the third embodiment, the amount of calculation for estimating the moving amount of the moving body 1 is reduced.

<移動量推定装置のハードウェア構成>
図27は、第1〜第4の実施形態の移動量推定方法がソフトウェアで実現されるときに、移動量推定装置10、20を実現するためのコンピュータシステム100のハードウェア構成を示す図である。コンピュータシステム100は、図27に示すように、CPU101、メモリ102、記憶装置103、読み取り装置104、通信インタフェース106、および入出力装置107を備える。なお、CPU101、メモリ102、記憶装置103、読み取り装置104、通信インタフェース106、入出力装置107は、例えば、バス108を介して互いに接続されている。
<Hardware configuration of movement estimation device>
FIG. 27 is a diagram illustrating a hardware configuration of a computer system 100 for realizing the movement amount estimation apparatuses 10 and 20 when the movement amount estimation methods of the first to fourth embodiments are realized by software. . As shown in FIG. 27, the computer system 100 includes a CPU 101, a memory 102, a storage device 103, a reading device 104, a communication interface 106, and an input / output device 107. The CPU 101, the memory 102, the storage device 103, the reading device 104, the communication interface 106, and the input / output device 107 are connected to each other via a bus 108, for example.

CPU101は、メモリ102を利用して上述の移動量推定方法の手順を記述したプログラムを実行することにより、画像入力部11、路面投影部13、路面模様抽出部14、移動量推定部15、22、回転角入力部21の一部または全部の機能を提供する。   The CPU 101 uses the memory 102 to execute a program that describes the procedure of the above-described movement amount estimation method, whereby the image input unit 11, the road surface projection unit 13, the road surface pattern extraction unit 14, and the movement amount estimation units 15, 22 are executed. The function of part or all of the rotation angle input unit 21 is provided.

メモリ102は、例えば半導体メモリであり、RAM領域およびROM領域を含んで構成される。記憶装置103は、例えばハードディスクであり、実施形態の移動量推定に係わるプログラムを格納する。なお、記憶装置103は、フラッシュメモリ等の半導体メモリであってもよい。また、記憶装置103は、外部記録装置であってもよい。図2または図21に示す映像データDB16は、例えば、記憶装置103に形成される。図2または図21に示すカメラ情報は、例えば、記憶装置103に格納される。   The memory 102 is a semiconductor memory, for example, and includes a RAM area and a ROM area. The storage device 103 is, for example, a hard disk, and stores a program related to movement amount estimation according to the embodiment. Note that the storage device 103 may be a semiconductor memory such as a flash memory. The storage device 103 may be an external recording device. The video data DB 16 shown in FIG. 2 or 21 is formed in the storage device 103, for example. The camera information shown in FIG. 2 or FIG. 21 is stored in the storage device 103, for example.

読み取り装置104は、CPU101の指示に従って着脱可能記録媒体105にアクセスする。着脱可能記録媒体105は、たとえば、半導体デバイス(USBメモリ等)、磁気的作用により情報が入出力される媒体(磁気ディスク等)、光学的作用により情報が入出力される媒体(CD−ROM、DVD等)などにより実現される。通信インタフェース106は、CPU101の指示に従ってネットワークを介してデータを送受信する。入出力装置107は、例えば、ユーザからの指示を受け付けるデバイス、カメラ2a〜2dと接続するためのインタフェース、回転角センサ5と接続するためのインタフェースに相当する。   The reading device 104 accesses the removable recording medium 105 in accordance with an instruction from the CPU 101. The detachable recording medium 105 includes, for example, a semiconductor device (USB memory or the like), a medium to / from which information is input / output by a magnetic action (magnetic disk or the like), a medium to / from which information is input / output by an optical action (CD-ROM, For example, a DVD). The communication interface 106 transmits / receives data via a network according to instructions from the CPU 101. The input / output device 107 corresponds to, for example, a device that accepts an instruction from the user, an interface for connecting to the cameras 2 a to 2 d, and an interface for connecting to the rotation angle sensor 5.

実施形態の移動量推定に係わるプログラムは、例えば、下記の形態でコンピュータシステム100に提供される。
(1)記憶装置103に予めインストールされている。
(2)着脱可能記録媒体105により提供される。
(3)プログラムサーバ110からダウンロードする。
The program relating to the movement amount estimation of the embodiment is provided to the computer system 100 in the following form, for example.
(1) Installed in advance in the storage device 103.
(2) Provided by the removable recording medium 105.
(3) Download from the program server 110.

なお、実施形態の移動量推定装置は、例えば、移動量を推定する対象の移動体に搭載される。ここで、移動量推定装置がプロセッサで移動量推定プログラムを実行することにより実現される場合には、移動量推定のための専用プロセッサで移動量推定プログラムを実行してもよいし、他の用途にも用いる共用プロセッサで移動量推定プログラムを実行してもよい。   Note that the movement amount estimation apparatus according to the embodiment is mounted on, for example, a target moving body whose movement amount is estimated. Here, when the movement amount estimation apparatus is realized by executing a movement amount estimation program by a processor, the movement amount estimation program may be executed by a dedicated processor for movement amount estimation, or other applications. The movement amount estimation program may be executed by a shared processor used for the above.

また、実施形態の移動量推定装置は、移動量を推定する対象の移動体の外部に設けるようにしてもよい。この場合、移動体に取り付けられている各カメラの映像データは、無線リンクを介して移動量推定装置へ送信される。そして、移動量推定装置は、無線リンクを介して受信する映像データを利用して移動体の移動量を推定する。この場合、移動量推定装置は、移動量の推定結果を、無線リンクを介して移動体に送信するようにしてもよい。   In addition, the movement amount estimation apparatus of the embodiment may be provided outside the target moving body whose movement amount is to be estimated. In this case, the video data of each camera attached to the moving body is transmitted to the movement amount estimating device via the wireless link. Then, the movement amount estimation apparatus estimates the movement amount of the moving body using video data received via the wireless link. In this case, the movement amount estimation apparatus may transmit the movement amount estimation result to the moving body via the wireless link.

さらに、移動量推定装置は、ハードウェアで実現してもよい。或いは、移動量推定装置は、ソフトウェアとハードウェアとの組合せで実現してもよい。   Furthermore, the movement amount estimation apparatus may be realized by hardware. Alternatively, the movement amount estimation apparatus may be realized by a combination of software and hardware.

1 移動体
2a〜2d カメラ
5 回転角センサ
10、20 移動量推定装置
11 画像入力部
12 同期制御部
13 路面投影部
14 路面模様抽出部
15、22 移動量推定部
16 映像データDB
21 回転角入力部
DESCRIPTION OF SYMBOLS 1 Moving body 2a-2d Camera 5 Rotation angle sensor 10, 20 Movement amount estimation apparatus 11 Image input part 12 Synchronization control part 13 Road surface projection part 14 Road surface pattern extraction part 15, 22 Movement amount estimation part 16 Image | video data DB
21 Rotation angle input unit

Claims (6)

移動体に取り付けられた複数のカメラにより得られる各映像についてそれぞれ路面投影像を生成する投影部と、
前記投影部により生成される複数の路面投影像において前記複数のカメラの視野が重複する共通視野領域から、路面投影像間で互いに一致する画像パターンを抽出する抽出部と、
前記抽出部により抽出される画像パターンの時間変化に基づいて、前記移動体の移動量を推定する推定部、
を備える移動量推定装置。
A projection unit that generates a road surface projection image for each image obtained by a plurality of cameras attached to a moving body;
An extraction unit that extracts image patterns that match each other between road surface projection images from a common field region in which the fields of view of the plurality of cameras overlap in a plurality of road surface projection images generated by the projection unit;
An estimation unit configured to estimate a movement amount of the moving body based on a temporal change of the image pattern extracted by the extraction unit;
A movement amount estimation apparatus comprising:
前記推定部は、前記画像パターンの位置の時間変化および前記移動体の回転量を検出する回転センサから出力される回転データに基づいて、前記移動体の並進移動量を推定する
ことを特徴とする請求項1に記載の移動量推定装置。
The estimation unit estimates a translational movement amount of the moving body based on a temporal change in the position of the image pattern and rotation data output from a rotation sensor that detects a rotation amount of the moving body. The movement amount estimation apparatus according to claim 1.
前記推定部は、前記画像パターンを利用して得られる推定結果を、路面投影像が互いに重なり合う領域以外の路面投影像を利用して補正する
ことを特徴とする請求項1または2に記載の移動量推定装置。
The movement according to claim 1, wherein the estimation unit corrects an estimation result obtained using the image pattern using a road surface projection image other than a region where road surface projection images overlap each other. Quantity estimation device.
前記推定部は、前記画像パターンの時間変化、および路面投影像が互いに重なり合う領域以外の路面投影像内で前記移動体の近傍領域の路面投影像の時間変化に基づいて、前記移動体の移動量を推定する
ことを特徴とする請求項1または2に記載の移動量推定装置。
The estimation unit is configured to detect a movement amount of the moving body based on a temporal change of the image pattern and a temporal change of a road surface projection image in a region near the moving body in a road surface projection image other than a region where road surface projection images overlap each other. The movement amount estimation apparatus according to claim 1, wherein the movement amount estimation apparatus according to claim 1.
コンピュータが、
移動体に取り付けられた複数のカメラにより得られる各映像についてそれぞれ路面投影像を生成し、
複数の路面投影像において前記複数のカメラの視野が重複する共通視野領域から、路面投影像間で互いに一致する画像パターンを抽出し、
抽出される画像パターンの時間変化に基づいて、前記移動体の移動量を推定する、
ことを特徴とする移動量推定方法。
Computer
A road surface projection image is generated for each image obtained by a plurality of cameras attached to a moving body,
Extracting image patterns that coincide with each other between the road surface projection images from a common visual field region where the fields of view of the plurality of cameras overlap in a plurality of road surface projection images,
Estimating the amount of movement of the moving body based on the temporal change of the extracted image pattern,
A moving amount estimation method characterized by the above.
移動体に取り付けられた複数のカメラにより得られる各映像についてそれぞれ路面投影像を生成し、
複数の路面投影像において前記複数のカメラの視野が重複する共通視野領域から、路面投影像間で互いに一致する画像パターンを抽出し、
抽出される画像パターンの時間変化に基づいて、前記移動体の移動量を推定する、
処理をコンピュータに実行させる移動量推定プログラム。
A road surface projection image is generated for each image obtained by a plurality of cameras attached to a moving body,
Extracting image patterns that coincide with each other between the road surface projection images from a common visual field region where the fields of view of the plurality of cameras overlap in a plurality of road surface projection images,
Estimating the amount of movement of the moving body based on the temporal change of the extracted image pattern,
A moving amount estimation program for causing a computer to execute processing.
JP2010269723A 2010-12-02 2010-12-02 Movement amount estimation apparatus and movement amount estimation method Expired - Fee Related JP5682266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010269723A JP5682266B2 (en) 2010-12-02 2010-12-02 Movement amount estimation apparatus and movement amount estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010269723A JP5682266B2 (en) 2010-12-02 2010-12-02 Movement amount estimation apparatus and movement amount estimation method

Publications (2)

Publication Number Publication Date
JP2012118885A true JP2012118885A (en) 2012-06-21
JP5682266B2 JP5682266B2 (en) 2015-03-11

Family

ID=46501598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010269723A Expired - Fee Related JP5682266B2 (en) 2010-12-02 2010-12-02 Movement amount estimation apparatus and movement amount estimation method

Country Status (1)

Country Link
JP (1) JP5682266B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088092A (en) * 2013-11-01 2015-05-07 富士通株式会社 Movement amount estimation device and movement amount estimation method
JP2015232794A (en) * 2014-06-10 2015-12-24 ニチユ三菱フォークリフト株式会社 Vehicle operation estimation device and loading vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178309A (en) * 2001-10-03 2003-06-27 Toyota Central Res & Dev Lab Inc Moving amount estimating device
JP2006053755A (en) * 2004-08-11 2006-02-23 Tokyo Institute Of Technology Device for calculating moving quantity of mobile body

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178309A (en) * 2001-10-03 2003-06-27 Toyota Central Res & Dev Lab Inc Moving amount estimating device
JP2006053755A (en) * 2004-08-11 2006-02-23 Tokyo Institute Of Technology Device for calculating moving quantity of mobile body

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088092A (en) * 2013-11-01 2015-05-07 富士通株式会社 Movement amount estimation device and movement amount estimation method
JP2015232794A (en) * 2014-06-10 2015-12-24 ニチユ三菱フォークリフト株式会社 Vehicle operation estimation device and loading vehicle

Also Published As

Publication number Publication date
JP5682266B2 (en) 2015-03-11

Similar Documents

Publication Publication Date Title
US20190089888A1 (en) Image distortion correction of a camera with a rolling shutter
US20170019657A1 (en) Stereo auto-calibration from structure-from-motion
JP4553072B1 (en) Image integration apparatus and image integration method
KR101544021B1 (en) Apparatus and method for generating 3d map
KR20090103165A (en) Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
US9122936B2 (en) Detecting device, detection method, and computer program product
CN104918033A (en) Image processing device and image processing method
JP4941565B2 (en) Corresponding point search apparatus and corresponding point searching method
US9158994B2 (en) Apparatus and method for real-time capable disparity estimation for virtual view rendering suitable for multi-threaded execution
JP2008309637A (en) Obstruction measuring method, obstruction measuring apparatus, and obstruction measuring system
JP2011100174A (en) Apparatus and method for detecting vehicle on lane
JP2014183322A (en) Intersection recognition device and computer-executable program
JP2009188635A (en) Vehicle peripheral image processor and vehicle peripheral condition presenting method
JP3988574B2 (en) Image processing device
CN111316322B (en) Road surface area detection device
JP4985542B2 (en) Corresponding point search device
JP5682266B2 (en) Movement amount estimation apparatus and movement amount estimation method
JP2013205867A (en) Information processing unit, method, and program
JP2009092551A (en) Method, apparatus and system for measuring obstacle
JP2007195061A (en) Image processor
JP2017020942A (en) Estimation device and estimation program
JP6619589B2 (en) Image processing device
JP6786635B2 (en) Vehicle recognition device and vehicle recognition method
JP7134780B2 (en) stereo camera device
JP2018147241A (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141229

R150 Certificate of patent or registration of utility model

Ref document number: 5682266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees