JP2018004435A - Movement amount calculation device and movement amount calculation method - Google Patents

Movement amount calculation device and movement amount calculation method Download PDF

Info

Publication number
JP2018004435A
JP2018004435A JP2016131477A JP2016131477A JP2018004435A JP 2018004435 A JP2018004435 A JP 2018004435A JP 2016131477 A JP2016131477 A JP 2016131477A JP 2016131477 A JP2016131477 A JP 2016131477A JP 2018004435 A JP2018004435 A JP 2018004435A
Authority
JP
Japan
Prior art keywords
image
distance
movement amount
deviation
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016131477A
Other languages
Japanese (ja)
Other versions
JP6704307B2 (en
Inventor
アレックス益男 金子
Alex Masuo Kaneko
アレックス益男 金子
山本 健次郎
Kenjiro Yamamoto
健次郎 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016131477A priority Critical patent/JP6704307B2/en
Publication of JP2018004435A publication Critical patent/JP2018004435A/en
Application granted granted Critical
Publication of JP6704307B2 publication Critical patent/JP6704307B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a movement amount calculation device capable of calculating a movement amount with low processing load and high accuracy even when three-dimensional objects having different reflection rates are projected in a pickup image.SOLUTION: A movement amount calculation device comprises: an imaging device for imaging an image of a road surface; and an image processing part for calculating a movement amount of a mobile body on the basis of a time-series pickup image picked up by the imaging device. The image processing part calculates a time-series distance image on the basis of the pickup image, and stores it in a memory (S32), and extracts a plurality of first feature points from a first pickup image picked up at a first timing among pickup images, and extracts a plurality of second feature points from a second pickup image picked up at a second timing after the first timing (S36), and tracks each of the first feature points to each of the second feature points (S37), and calculates a deviation image indicating a deviation of a distance from the calculated time-series distance image, and calculates a movement amount of the mobile body on the basis of the feature point whose deviation is a predetermined threshold or less among the plurality of tracked feature points (S39).SELECTED DRAWING: Figure 3

Description

本発明は、ロボットや自動車などに適用される移動量算出装置および移動量算出方法に関する。   The present invention relates to a movement amount calculation apparatus and a movement amount calculation method applied to a robot, an automobile, and the like.

危険作業を人の代わりに実施する陸上無人機やロボットなどの移動体において、安全性や利便性向上のため、周囲環境の情報を検出し、状況に応じた走行制御を行う自律走行技術が開発されている。特に、GPS(Global Positioning System)が使えない開けた環境を走行するとき、地面の凹凸を参考に移動量を推定する技術が必要である。   Developed autonomous driving technology that detects information on the surrounding environment and performs driving control according to the situation to improve safety and convenience in mobile units such as land drones and robots that perform dangerous work on behalf of people Has been. In particular, when traveling in an open environment where GPS (Global Positioning System) cannot be used, a technique for estimating the amount of movement with reference to the unevenness of the ground is required.

移動体の移動量を算出する例として、移動環境の地図情報を複数記憶し、TOF(Time-of-flight)カメラ(距離画像カメラ)の測定角度に基づいて、地図情報とTOFカメラで測定された距離データに基づいて、自己位置を推定する技術がある(特許文献1参照)。該文献では、TOFカメラで測定された移動量の精度を地図情報で向上させようとしている。   As an example of calculating the amount of movement of a moving object, a plurality of map information of the moving environment is stored and measured by the map information and the TOF camera based on the measurement angle of the TOF (Time-of-flight) camera (distance image camera). There is a technique for estimating the self-position based on the obtained distance data (see Patent Document 1). In this document, the accuracy of the movement amount measured by the TOF camera is to be improved with map information.

特開2011−209845号公報JP2011-209845A

しかし、特許文献1のように、地図情報を利用しても、精度を高められるとは限らない。例えば、反射率の異なる立体物がTOF距離画像センサに映っていれば、異なる反射率の影響でTOF距離画像センサ取得した距離情報の精度が低くなり、移動体の移動量を誤る場合がある。   However, as in Patent Document 1, even if map information is used, the accuracy is not always improved. For example, if a three-dimensional object having a different reflectance is reflected on the TOF distance image sensor, the accuracy of the distance information acquired by the TOF distance image sensor is lowered due to the influence of the different reflectance, and the moving amount of the moving object may be erroneous.

本発明は、前記の課題を解決するための発明であって、撮像画像に反射率の異なる立体物が映っている場合でも、低処理負荷、かつ高精度な移動量算出が可能な移動量算出装置を提供することを目的とする。   The present invention is an invention for solving the above-described problems, and is a movement amount calculation capable of calculating a movement amount with a low processing load and high accuracy even when a three-dimensional object having a different reflectance is reflected in a captured image. An object is to provide an apparatus.

前記目的を達成するため、本発明の移動量算出装置は、路面の画像を撮像する撮像装置と、撮像装置が撮像した時系列の撮像画像に基づいて移動体の移動量を算出する画像処理部と、を備え、画像処理部は、撮像画像に基づいて時系列の距離画像を算出して記憶部(例えば、メモリ6)に保存し(例えば、ステップS32)、撮像画像のうち、第1のタイミングで撮像された第1の撮像画像から第1の特徴点を複数抽出し、第1のタイミングより後の第2のタイミングで撮像された第2の撮像画像から第2の特徴点を複数抽出し(例えば、ステップS36)、第1の特徴点の各々を第2の特徴点の各々にトラッキングし(例えば、ステップS37)、算出された時系列の距離画像から距離の偏差を示す偏差画像を算出し(例えば、ステップS34)、トラッキングする複数の特徴点のうち、その偏差が所定の閾値以下の特徴点に基づいて、移動体の移動量を算出する(例えば、ステップS39)ことを特徴とする。本発明のその他の態様については、後記する実施形態において説明する。   In order to achieve the above object, a movement amount calculation device of the present invention includes an imaging device that captures an image of a road surface, and an image processing unit that calculates a movement amount of a moving body based on time-series captured images captured by the imaging device. The image processing unit calculates a time-series distance image based on the captured image and stores it in the storage unit (for example, the memory 6) (for example, step S32). A plurality of first feature points are extracted from the first captured image captured at the timing, and a plurality of second feature points are extracted from the second captured image captured at the second timing after the first timing. (Eg, step S36), each of the first feature points is tracked to each of the second feature points (eg, step S37), and a deviation image indicating a deviation of the distance from the calculated time-series distance image is obtained. Calculated (eg, step S 4), among the plurality of feature points to track, based on the feature point of the deviation is less than a predetermined threshold value, and calculates the amount of movement of the moving body (e.g., step S39) it is characterized. Other aspects of the present invention will be described in the embodiments described later.

本発明によれば、撮像画像に反射率の異なる立体物が映っている場合でも、低処理負荷、かつ高精度な移動量算出が可能な移動量算出装置および移動体の移動量算出方法を提供することができる。   According to the present invention, it is possible to provide a movement amount calculation apparatus and a movement amount calculation method for a moving body that are capable of calculating a movement amount with a low processing load and high accuracy even when a three-dimensional object having a different reflectance is reflected in a captured image. can do.

本実施形態に係る移動量算出装置の構成を示す図である。It is a figure which shows the structure of the movement amount calculation apparatus which concerns on this embodiment. 反射率の異なる立体物による影響の詳細を示す図であり、(a)は距離の正確さを検証するための構成を示す図であり、(b)は異なる反射率による距離の影響を示す図であり、(c)は異なる反射率による偏差の影響を示す図である。It is a figure which shows the detail of the influence by the three-dimensional object from which a reflectance differs, (a) is a figure which shows the structure for verifying the accuracy of distance, (b) is a figure which shows the influence of the distance by a different reflectance. (C) is a figure which shows the influence of the deviation by a different reflectance. 画像処理部の処理を示すフローチャートである。It is a flowchart which shows the process of an image process part. ステップS34の詳細を示す図であり、(a)は移動体が低速の場合であり、(b)は移動体が高速の場合である。It is a figure which shows the detail of step S34, (a) is a case where a mobile body is low speed, (b) is a case where a mobile body is high speed. ステップS38関連の詳細を示す図である。It is a figure which shows the detail relevant to step S38. 道路での移動量算出方法を示す図であり、(a)は反射率の異なる物体がない場合、(b)は反射率の異なる物体がある場合である。It is a figure which shows the movement amount calculation method on a road, (a) is a case where there is no object with a different reflectance, (b) is a case where there is an object with a different reflectance. 撮像装置で取得した画像に基づく実験データの例を示す図であり、(a)は撮像画像、(b)は平均距離画像、(c)は偏差画像判別結果である。It is a figure which shows the example of the experimental data based on the image acquired with the imaging device, (a) is a captured image, (b) is an average distance image, (c) is a deviation image discrimination | determination result.

本発明を実施するための実施形態について、適宜図面を参照しながら詳細に説明する。
図1は、移動量算出装置の構成を示す図である。移動体1は、周囲環境の画像を撮像する撮像装置2、撮像装置2が撮像した画像を処理して移動体1の移動量を算出し、算出結果に応じた表示あるいは制御用の信号を出力する処理装置3により構成されている。なお、本実施形態の移動量算出装置10(光学式移動量推定装置)は、少なくとも撮像装置2、画像処理部4を含んでいる。
DESCRIPTION OF EMBODIMENTS Embodiments for carrying out the present invention will be described in detail with reference to the drawings as appropriate.
FIG. 1 is a diagram illustrating a configuration of a movement amount calculation apparatus. The moving body 1 captures an image of the surrounding environment, processes the image captured by the imaging apparatus 2, calculates the amount of movement of the moving body 1, and outputs a display or control signal according to the calculation result. It is comprised by the processing apparatus 3 to perform. Note that the movement amount calculation device 10 (optical movement amount estimation device) of the present embodiment includes at least the imaging device 2 and the image processing unit 4.

処理装置3は、計算機システムなどにより構成され、撮像装置2が撮像した画像を処理する画像処理部4、該処理された画像に基づき種々の制御を行う制御部(CPU)5、移動量算出などのために制御部で使用する各種データを格納するメモリ6(記憶部)、制御部5の演算結果などを出力する表示部7、及び、これら構成要素を相互に接続するバス8を備えている。なお、CPUは、Central Processing Unitの略である。   The processing device 3 is configured by a computer system or the like, and includes an image processing unit 4 that processes an image captured by the imaging device 2, a control unit (CPU) 5 that performs various controls based on the processed image, a movement amount calculation, and the like. For this purpose, a memory 6 (storage unit) for storing various data used in the control unit, a display unit 7 for outputting a calculation result of the control unit 5, and a bus 8 for connecting these components to each other are provided. . CPU is an abbreviation for Central Processing Unit.

撮像装置2は、移動体1の前方に向けられて設置された距離画像センサである。距離画像センサにより、ピクセル(画素)毎に距離データが取得される。以下では説明を簡単にするため、1台の標準カメラを採用した事例について説明するが、走行中に特徴点が抽出可能な視野角を有するものであれば、標準カメラでも広角カメラでもステレオカメラでもTOF距離画像センサでもよい。どのカメラも最終的に1枚の画像を生成するものであり、複数台のカメラを組み合わせて撮像装置2を構成してもよい。   The imaging device 2 is a distance image sensor installed facing the front of the moving body 1. Distance data is acquired for each pixel (pixel) by the distance image sensor. In the following, for the sake of simplicity, a case where a single standard camera is used will be described. However, any standard camera, wide-angle camera, or stereo camera can be used as long as it has a viewing angle from which feature points can be extracted during driving. A TOF distance image sensor may be used. Each camera finally generates one image, and the imaging apparatus 2 may be configured by combining a plurality of cameras.

撮像装置2は、制御部5から指令が入力されたとき、もしくは一定の時間間隔で画像を取得し、取得した画像と取得時間を、メモリ6を介して画像処理部4に出力する。取得した画像の原画と取得時間はメモリ6に格納された上で、画像処理部4において中間的な加工画像が作成される。これらの中間画像も適宜必要に応じてメモリ6に格納され、制御部5などの判断や処理に利用される。なお、制御部5での処理に用いられた結果データなども適宜メモリ6に格納される。   The imaging device 2 acquires an image when a command is input from the control unit 5 or at regular time intervals, and outputs the acquired image and the acquisition time to the image processing unit 4 via the memory 6. The original image and the acquisition time of the acquired image are stored in the memory 6, and an intermediate processed image is created in the image processing unit 4. These intermediate images are also stored in the memory 6 as necessary, and are used for determination and processing by the control unit 5 and the like. The result data used for the processing in the control unit 5 is also stored in the memory 6 as appropriate.

各ブロック間のデータの伝送を行うバス8は、IEBUS(Inter Equipment Bus)やLIN(Local Interconnect Network)やCAN(Controller Area Network)などで構成できる。   The bus 8 for transmitting data between the blocks can be configured by an IEBUS (Inter Equipment Bus), a LIN (Local Interconnect Network), a CAN (Controller Area Network), or the like.

画像処理部4は、移動体1の走行中に撮像装置2が撮像した画像に基づいて、移動量を算出する。まず、撮像装置2から伝送された画像上の特徴点を抽出する。更に、次に伝送された画像上の特徴点も抽出する。そして、先に(前回)抽出された特徴点と次に(今回)抽出された特徴点をトラッキングし(対比し)、移動体の移動量を算出し、その結果を制御部5に出力する。   The image processing unit 4 calculates a movement amount based on an image captured by the imaging device 2 while the moving body 1 is traveling. First, feature points on the image transmitted from the imaging device 2 are extracted. Further, feature points on the next transmitted image are also extracted. Then, the feature point extracted first (previous) and the next (current) feature point are tracked (contrast), the amount of movement of the moving object is calculated, and the result is output to the control unit 5.

制御部5は、画像処理部4で算出した移動量に基づいて、移動体1の位置を算出し、将来の移動方向や速度を決定し、移動体1を制御する。そして、必要な検知結果を表示部7に表示することで、移動体1の運転員に情報提供を行う。   The control unit 5 calculates the position of the moving body 1 based on the movement amount calculated by the image processing unit 4, determines the future moving direction and speed, and controls the moving body 1. Then, by displaying a necessary detection result on the display unit 7, information is provided to the operator of the moving body 1.

図2は、反射率の異なる立体物による影響の詳細を示す図であり、(a)は距離の正確さを検証するための構成を示す図であり、(b)は異なる反射率による距離の影響を示す図であり、(c)は異なる反射率による偏差の影響を示す図である。   FIG. 2 is a diagram showing details of the influence of a three-dimensional object having different reflectivities, (a) is a diagram showing a configuration for verifying the accuracy of the distance, and (b) is a diagram of distances due to different reflectivities. It is a figure which shows an influence, (c) is a figure which shows the influence of the deviation by a different reflectance.

図2(a)に示す平面20は、撮像装置2に対して平行に設置された平面である。距離M(21)は、撮像装置2から平面20の中心XOまで一定の距離である。平面20が撮像装置2に対して平行になっているため、ピクセル(u、v)毎に撮像装置2は、距離M(21)を算出することができる。線22は、平面20の上にある線である。ここで、簡単のため、線22を画像上でのuピクセルと同じ方向で画像の中心XOを通る線とする。なお、撮像装置2から平面20の全ピクセルに対して深さが一定である。   A plane 20 illustrated in FIG. 2A is a plane installed in parallel to the imaging device 2. The distance M (21) is a constant distance from the imaging device 2 to the center XO of the plane 20. Since the plane 20 is parallel to the imaging device 2, the imaging device 2 can calculate the distance M (21) for each pixel (u, v). The line 22 is a line on the plane 20. Here, for the sake of simplicity, the line 22 is a line passing through the center XO of the image in the same direction as the u pixel on the image. Note that the depth is constant for all pixels on the plane 20 from the imaging device 2.

図2(b)に示すグラフ23は、撮像装置2がTOF距離画像センサで、距離画像を複数取得し、線22までの平均距離を算出した例を表している。横軸は、直線22のピクセル位置(画素位置)を示し、横軸の「0」点位置は、線22上で撮像装置2から平面22を見て、例えば、左端に該当する。TOF距離画素センサを用いて、その照射光と反射光との位相差から時間差を得て距離Mを算出している。   A graph 23 illustrated in FIG. 2B represents an example in which the imaging device 2 is a TOF distance image sensor, a plurality of distance images are acquired, and an average distance to the line 22 is calculated. The horizontal axis indicates the pixel position (pixel position) of the straight line 22, and the “0” point position on the horizontal axis corresponds to, for example, the left end when the plane 22 is viewed from the imaging device 2 on the line 22. Using the TOF distance pixel sensor, the distance M is calculated by obtaining the time difference from the phase difference between the irradiated light and the reflected light.

平面20が白色ボードのような一定の反射率を有する場合、ピクセル位置と距離Mとの関係はデータ24になり、中心XOまでの距離MをM0とすると、中心点XOでの距離M0を頂点とする、下に凸の曲線となる。一方、平面20がチェスボードのような反射率の異なる立体物の場合、ピクセル位置と距離との関係がデータ25になる。この場合、撮像装置2が算出した距離に誤差が発生し、データ25の値はデータ24と異なる値になる。   When the plane 20 has a constant reflectance such as a white board, the relationship between the pixel position and the distance M is data 24. When the distance M to the center XO is M0, the distance M0 at the center point XO is the vertex. And a downwardly convex curve. On the other hand, when the plane 20 is a three-dimensional object having a different reflectance such as a chess board, the relationship between the pixel position and the distance is data 25. In this case, an error occurs in the distance calculated by the imaging device 2, and the value of the data 25 is different from the data 24.

図2(c)に示すグラフ26は、グラフ23と同じ距離画像で得られた距離の偏差を表している。平面20が白色ボードのような一定の反射率を有する場合、ピクセル位置と距離の偏差との関係がデータ27になる。一方、平面20がチェスボードのような反射率の異なる立体物の場合、ピクセル位置と距離の偏差との関係がデータ28になる。この場合、撮像装置2が算出した距離に誤差が発生するため、距離の偏差が大きくなる。つまり、距離の偏差と精度が関連し、距離の偏差が大きい場合、距離の精度が低い。一方、距離の偏差が小さい場合、距離の精度が高いため、時系列に距離画像で偏差を算出することで精度の区別が可能になる。   A graph 26 shown in FIG. 2C represents a deviation in distance obtained by the same distance image as the graph 23. When the plane 20 has a certain reflectance such as a white board, the relationship between the pixel position and the deviation of the distance becomes the data 27. On the other hand, when the plane 20 is a three-dimensional object with different reflectivities such as a chess board, the relationship between the pixel position and the deviation in distance becomes the data 28. In this case, an error occurs in the distance calculated by the imaging device 2, so that the distance deviation becomes large. That is, the distance deviation and accuracy are related, and when the distance deviation is large, the distance accuracy is low. On the other hand, when the distance deviation is small, the accuracy of the distance is high. Therefore, it is possible to distinguish the precision by calculating the deviation using a distance image in time series.

図3は、画像処理部の処理を示すフローチャートである。画像処理部4は、撮像装置2が撮像した画像(撮像画像)をメモリ6から取得する(ステップS30)。次に、画像処理部4は、距離画像を算出する(ステップS31)。撮像装置2がステレオカメラの場合、同時に撮像した2枚の画像を用い、幾何学的にピクセル毎に距離を算出する。撮像装置2がTOF距離画像センサの場合、TOF原理でピクセル毎に距離を算出する。TOF原理は、センサが発光した光が対象物で反射し、センサに届くまでの光の飛行時間と光の速度から対象物までの距離が得られる。また、路面が平らであれば、画像上のピクセル位置と実際の位置関係(X、Y、Z)が一定になるため、距離を幾何学的に算出してもよい。画像処理部4は、算出した距離画像をメモリ6に保存する(ステップS32)。   FIG. 3 is a flowchart showing the processing of the image processing unit. The image processing unit 4 acquires an image (captured image) captured by the imaging device 2 from the memory 6 (step S30). Next, the image processing unit 4 calculates a distance image (step S31). When the imaging device 2 is a stereo camera, the distance is calculated geometrically for each pixel using two images taken simultaneously. When the imaging device 2 is a TOF distance image sensor, the distance is calculated for each pixel based on the TOF principle. According to the TOF principle, the light emitted from the sensor is reflected by the object, and the distance to the object is obtained from the time of flight of light and the speed of light until it reaches the sensor. If the road surface is flat, the pixel position on the image and the actual positional relationship (X, Y, Z) are constant, and the distance may be calculated geometrically. The image processing unit 4 stores the calculated distance image in the memory 6 (step S32).

画像処理部4は、移動体1の速度領域が低速か高速かを判定する(速度領域判定、ステップS33)。すなわち、画像処理部4は、速度領域に応じて処理フローを変える。移動体1の速度情報はGPSやIMU(Inertia Measurement Unit)や車輪エンコーダなどの移動体1に搭載されたセンサから得られる。また、撮像装置2を用いて、画像オドメトリ技術で移動体1の速度を推定してもよい。低速の場合、ステップS34に進み、高速の場合はステップS35に進む。   The image processing unit 4 determines whether the speed area of the moving body 1 is low speed or high speed (speed area determination, step S33). That is, the image processing unit 4 changes the processing flow according to the speed region. The speed information of the moving body 1 is obtained from sensors mounted on the moving body 1 such as GPS, IMU (Inertia Measurement Unit), and wheel encoder. Moreover, you may estimate the speed of the mobile body 1 by the image odometry technique using the imaging device 2. If the speed is low, the process proceeds to step S34. If the speed is high, the process proceeds to step S35.

なお、低速の場合においては、後記するステップS34、ステップS35、ステップS36、ステップS37の順に処理し、高速場合は、ステップS35、ステップS36、ステップS37、ステップS34の順に処理する。このように、処理順序を入れ替える理由については後記する。   In the case of a low speed, processing is performed in the order of steps S34, S35, S36, and S37 described later. In the case of a high speed, processing is performed in the order of Step S35, Step S36, Step S37, and Step S34. The reason for changing the processing order will be described later.

画像処理部4は、時系列にメモリ6に保存した距離画像を用いて、偏差画像を算出する(ステップS34)。詳細については、図4を参照して後記する。   The image processing unit 4 calculates a deviation image using the distance image stored in the memory 6 in time series (step S34). Details will be described later with reference to FIG.

そして、画像処理部4は、ステップS30で取得した画像上に、特徴点を抽出するための関心領域を設定する(ステップS35)。例えば、精度が高くて障害物が少ない撮像装置2に近い走行路面を所定の範囲の関心領域に設定する。また、移動体1が道路を走行する場合、となりの車線の対向車や他の障害物が自己位置推定に影響するため、走行車線内を関心領域に設定する。また、開けた環境で走行環境の地面を用いて自己位置推定を行う場合、地面に対して撮像装置2の設置高さや角度によって、撮像装置2が撮像する環境情報が変わるため、地面が映っている部分を関心領域に設定する。   Then, the image processing unit 4 sets a region of interest for extracting feature points on the image acquired in step S30 (step S35). For example, a traveling road surface close to the imaging device 2 with high accuracy and few obstacles is set as a region of interest within a predetermined range. In addition, when the moving body 1 travels on a road, an oncoming vehicle or other obstacle in the adjacent lane affects the self-position estimation, so the traveling lane is set as a region of interest. In addition, when self-position estimation is performed using the ground of the driving environment in an open environment, the environment information captured by the imaging device 2 changes depending on the installation height and angle of the imaging device 2 with respect to the ground, so the ground is reflected. Is set as a region of interest.

そして、画像処理部4は、ステップS35で設定した関心領域の中からステップS30で取得した画像上に特徴点を抽出する(ステップS36)。特徴点は、画像上のエッジやコーナーなどであり、Canny、Sobel、FAST、Hessian、Gaussianなどの技術を用いる。   Then, the image processing unit 4 extracts feature points on the image acquired in Step S30 from the region of interest set in Step S35 (Step S36). The feature points are edges, corners, and the like on the image, and techniques such as Canny, Sobel, FAST, Hessian, and Gaussian are used.

次に、画像処理部4は、第1のタイミングで撮像された画像(前フレーム)、即ち、第2のタイミングで撮像された画像(現フレーム)よりも前に撮像された画像から抽出した特徴点を、今回撮像(第2のタイミングで撮像)された画像上でトラッキングする(ステップS37)。トラッキングにはLucas−Kanade法やShi−Tomasi法などの技術を用いる。   Next, the image processing unit 4 extracts from the image captured at the first timing (previous frame), that is, the image captured before the image captured at the second timing (current frame). The point is tracked on the image captured this time (imaged at the second timing) (step S37). For the tracking, a technique such as Lucas-Kanade method or Shi-Tomasi method is used.

そして、画像処理部4は、ステップS34で算出した偏差画像に基づいて、精度の高いピクセルと精度の低いピクセルを区別して、偏差画像にフィルタリングする必要があるか否かを判定する(ステップS38)。具体的には、ステップS34で算出した偏差画像の各ピクセルの偏差を定められた閾値と比較する。ピクセルの偏差が定められた閾値より大きい場合(ステップS38,Yes)、ステップS31で算出したピクセルの距離精度が低いため、ステップS38aでフィルタリングされる(移動体1の移動量推定に利用しない)。一方、ピクセルの偏差が定められた閾値(所定の閾値)以下の場合(ステップS38,No)、ステップS31で算出したピクセルの距離精度が高いため、フィルタリングされずにステップS39に進む。なお、ステップS38の判定処理は、ピクセル毎に実施する。   Then, the image processing unit 4 distinguishes between high accuracy pixels and low accuracy pixels based on the deviation image calculated in step S34, and determines whether or not it is necessary to filter the deviation image (step S38). . Specifically, the deviation of each pixel of the deviation image calculated in step S34 is compared with a predetermined threshold value. When the pixel deviation is larger than the predetermined threshold value (Yes at Step S38), the pixel distance accuracy calculated at Step S31 is low, and therefore, filtering is performed at Step S38a (not used for estimating the moving amount of the moving body 1). On the other hand, if the pixel deviation is equal to or less than a predetermined threshold (predetermined threshold) (No in step S38), the pixel distance accuracy calculated in step S31 is high, and the process proceeds to step S39 without filtering. Note that the determination process in step S38 is performed for each pixel.

次に、画像処理部4は、ステップS38でフィルタリングされなかった特徴点を用い、移動体1の移動量ΔDmを算出する(ステップS39)。フィルタリングされなかった特徴点の点をoとし、前フレームで抽出した特徴点の相対位置d(m-1)oと今回抽出した特徴点の相対位置dmoの差分(Δdmo=dmo−d(m-1)o)を算出し、複数のΔdmoを用いて移動体1の移動量ΔDmを算出する。算出する方法には、例えばRigid Body Transformation、Sliding Window、最小二乗法、中央値フィルタなどを利用することができる。 Next, the image processing unit 4 calculates the movement amount ΔD m of the moving body 1 using the feature points not filtered in step S38 (step S39). The point of the feature point that has not been filtered is set to o, and the difference (Δd mo = d mo −d ) between the relative position d (m−1) o of the feature point extracted in the previous frame and the relative position d mo of the feature point extracted this time. (m-1) o ) is calculated, and a moving amount ΔD m of the moving body 1 is calculated using a plurality of Δd mo . As a calculation method, for example, Rigid Body Transformation, Sliding Window, least square method, median filter, or the like can be used.

図4は、ステップS34の詳細を示す図であり、(a)は移動体が低速の場合であり、(b)は移動体が高速の場合である。   FIG. 4 is a diagram showing details of step S34, where (a) shows a case where the moving body is low speed, and (b) shows a case where the moving body is high speed.

図4(a)は、移動体1が低速で走行する場合の偏差画像算出(ステップS34)の詳細を示す。D1、D2、・・・、Df(40)は、ステップS31で時系列にステップS30で取得した画像1、画像2、・・・、画像fから算出した距離画像1、距離画像2、・・・、距離画像fである。D1、D2、・・・、Df(40)のピクセル(u、v)を(u、v)1、(u、v)2、・・・、(u、v)fとする。 FIG. 4A shows details of the deviation image calculation (step S34) when the moving body 1 travels at a low speed. D 1, D 2, ···, D f (40) , the image 1 acquired in step S30 to the time series at step S31, the image 2,..., Range image 1 was calculated from the image f, the distance image 2 ,... Is a distance image f. D 1, D 2, ···, D f of (40) pixels (u, v) (u, v) 1, and (u, v) 2, ··· , (u, v) f.

AVERAGE画像41は、D1、D2、・・・、Df(40)から得られた平均距離画像である。AVERAGE画像41のピクセル(u、v)を(u、v)AVEとし、式(1)で算出される。 The AVERAGE image 41 is an average distance image obtained from D 1 , D 2 ,..., D f (40). The pixel (u, v) of the AVERAGE image 41 is set to (u, v) AVE, and is calculated by Expression (1).

(u、v)AVE=((u、v)1+(u、v)2+・・・+(u、v)f)/f ・・・(1) (u, v) AVE = ((u, v) 1 + (u, v) 2 + ... + (u, v) f ) / f (1)

撮像装置2が下を向いて、走行中環境の凹凸が瞬時に大きく変化しない場合、式(1)で時系列にピクセル毎に平均を算出することで、反射率の異なる立体物や移動体1の振動による精度の悪いピクセルの影響を軽減させることができる。また、AVERAGE画像41はmedian(メディアン)やmode(モード)やmoving average(移動平均)などの処理で構成してもよい。なお、median、mode、moving averageは、統計処理などで用いられものであり、メディアンは中央値を用いる手法であり、モードは最頻値を用いる手法であり、移動平均は系列データを平滑化する手法である。   When the imaging device 2 faces downward and the unevenness of the traveling environment does not change greatly instantaneously, the average is calculated for each pixel in time series using the equation (1), so that the three-dimensional object or the moving body 1 having different reflectivity is obtained. It is possible to reduce the influence of inaccurate pixels due to the vibration of. Further, the AVERAGE image 41 may be configured by processing such as median, mode (mode), moving average (moving average). Note that median, mode, and moving average are used in statistical processing and the like. The median is a method that uses a median value, the mode is a method that uses a mode value, and the moving average smoothes sequence data. It is a technique.

VAR画像42はD1、D2、・・・、Df(40)から得られた偏差画像である。VAR画像42のピクセル(u、v)を(u、v)VARとし、式(2)で算出される。また、標準偏差やステップS21で時系列に得られた距離画像のばらつきを表す数値を算出してもよい。 The VAR image 42 is a deviation image obtained from D 1 , D 2 ,..., D f (40). The pixel (u, v) of the VAR image 42 is set to (u, v) VAR, and is calculated by Expression (2). Further, a numerical value representing the standard deviation or the variation of the distance image obtained in time series in step S21 may be calculated.

(u、v)VAR=[((u、v)AVE−(u、v)1)2
+・・・
+((u、v)AVE−(u、v)f)2]/f ・・・(2)
(u, v) VAR = [((u, v) AVE- (u, v) 1 ) 2
+ ...
+ ((U, v) AVE- (u, v) f ) 2 ] / f (2)

距離画像の枚数(例えば、f)は、環境に合わせて設定する。例えば、振動や反射率の異なる立体物が多い環境の場合、fを大きく設定することで、AVERAGE画像41の精度を修正できる。また、移動体1が低速で走行する場合、距離画像D1、D2、・・・、Df(40)が瞬時に大きく変わらないため、fを大きく設定する。移動体1が高速で走行する場合、距離の変化が大きくなるため、fを小さく設定する。 The number of distance images (for example, f) is set according to the environment. For example, in an environment where there are many three-dimensional objects with different vibrations and reflectances, the accuracy of the AVERAGE image 41 can be corrected by setting f large. When the moving body 1 travels at a low speed, the distance images D 1 , D 2 ,..., D f (40) do not change greatly instantaneously, so f is set large. When the moving body 1 travels at a high speed, the distance changes greatly, so f is set small.

移動体1が動く場合、ピクセル(u、v)1、(u、v)2、・・・、(u、v)fと環境の位置関係(X、Y、Z)1、(X、Y、Z)2、・・・、(X、Y、Z)fが異なるが、低速の場合、凹凸が瞬時に大きく変化しないで、移動体1の移動量が小さいと想定し、式(1)と式(2)で(u、v)AVEと(u、v)VARを算出してもよい。 When the moving body 1 moves, the positional relationship between the pixels (u, v) 1 , (u, v) 2 ,..., (U, v) f and the environment (X, Y, Z) 1 , (X, Y , Z) 2 ,..., (X, Y, Z) f are different, but in the case of low speed, the unevenness does not change greatly instantaneously, and the moving amount of the moving body 1 is assumed to be small. (U, v) AVE and (u, v) VAR may be calculated by the following equation (2).

一方、図4(b)は、移動体1が高速で走行する場合を示す。D1、D2、・・・、Df(40b)は、ステップS31で時系列にステップS30で取得した画像1、画像2、・・・、画像fから算出した距離画像1、距離画像2、・・・、距離画像fである。D1、D2、・・・、Df(40b)のピクセル(u、v)を(u、v)1、(u、v)2、・・・、(u、v)fとする。 On the other hand, FIG.4 (b) shows the case where the mobile body 1 drive | works at high speed. D 1, D 2, ···, D f (40b) , the image 1 acquired in step S30 to the time series at step S31, the image 2,..., Range image 1 was calculated from the image f, the distance image 2 ,... Is a distance image f. D 1, D 2, ···, D f of (40b) pixels (u, v) (u, v) 1, and (u, v) 2, ··· , (u, v) f.

ただし、移動体1が高速で走行する場合、ピクセル(u、v)1、(u、v)2、・・・、(u、v)fと環境の位置関係(X、Y、Z)1、(X、Y、Z)2、・・・、(X、Y、Z)fが大きく異なるため、図3のステップS37の特徴点トラッキングを用い、ピクセルと位置関係を修正し、AVERAGE画像41bを算出する。すなわち、図3において、高速の場合に、ステップS34の処理をステップS37(特徴点トラッキング)処理のあとで処理している理由である。 However, when the moving body 1 travels at a high speed, the positional relationship between the pixels (u, v) 1 , (u, v) 2 ,..., (U, v) f and the environment (X, Y, Z) 1 , (X, Y, Z) 2 ,..., (X, Y, Z) f are greatly different. Therefore, the feature point tracking of step S37 in FIG. 3 is used to correct the pixel and positional relationship, and the AVERAGE image 41b Is calculated. That is, in FIG. 3, in the case of high speed, the process of step S34 is performed after the process of step S37 (feature point tracking).

特徴点(U、V)143aは画像1においてステップS36で抽出した特徴点である。画像1において特徴点43aをステップS37でトラッキングした後、画像1における特徴点43aは画像2における特徴点(U、V)243bに移動する。画像2において特徴点43bをステップS37でトラッキングした後、画像2における特徴点43bは画像fにおける特徴点(U、V)43cに移動する。 The feature points (U, V) 1 43a are the feature points extracted in step S36 in the image 1 . After tracking the feature point 43a at step S37 in the image 1, the feature point 43a in the image 1 is moved to the feature point (U, V) 2 43 b in the image 2. After tracking the feature point 43b in step S37 in the image 2, a feature point 43b in the image 2 is moved to the feature point (U, V) f 43c in the image f.

AVERAGE画像41bのピクセル(U、V)AVEは、特徴点(U、V)143a、(U、V)243b、(U、V)343cを用いて式(3)で算出する。 The pixel (U, V) AVE of the AVERAGE image 41b is calculated by the equation (3) using the feature points (U, V) 1 43a, (U, V) 2 43b, (U, V) 3 43c.

(U、V)AVE=((U、V)1+(U、V)2+・・・+(U、V)f)/f ・・・(3) (U, V) AVE = ((U, V) 1 + (U, V) 2 + ... + (U, V) f ) / f (3)

ステップS37でトラッキングした特徴点(U、V)143a、(U、V)243b、(U、V)343cの移動量に基づいて、式(3)で他のピクセル(u、v)1、(u、v)2、・・・、(u、v)fの(u、v)AVEを算出することで、平均距離画像であるAVERAGE画像41bを算出できる。また、(U、V)AVEはmedianやmodeやmoving averageなどの処理で算出してもよい。 Based on the amount of movement of the feature points (U, V) 1 43a, (U, V) 2 43b, (U, V) 3 43c tracked in step S37, other pixels (u, v) are obtained using equation (3). By calculating (u, v) AVE of 1 , (u, v) 2 ,..., (U, v) f , an AVERAGE image 41b that is an average distance image can be calculated. Further, (U, V) AVE may be calculated by a process such as median, mode, or moving average.

従って、ステップS37でトラッキングした特徴点(U、V)143a、(U、V)243b、(U、V)343cと(U、V)AVEを式(4)に代入することでピクセル(U、V)VARと偏差画像であるVAR画像42bを算出できる。 Accordingly, the feature points (U, V) 1 43a, (U, V) 2 43b, (U, V) 3 43c and (U, V) AVE tracked in step S37 are substituted into the equation (4) to obtain pixels. (U, V) VAR and a VAR image 42b which is a deviation image can be calculated.

(U、V)VAR=[((U、V)AVE−(U、V)1)2
+・・・
+((U、V)AVE−(U、V)f)2]/f ・・・(4)
(U, V) VAR = [((U, V) AVE- (U, V) 1 ) 2
+ ...
+ ((U, V) AVE− (U, V) f ) 2 ] / f (4)

移動体1が低速で走行する場合、VAR画像44(図5参照)がVAR画像42になり、移動体1が高速で走行する場合、VAR画像44(図5参照)がVAR画像42bになる。   When the mobile body 1 travels at a low speed, the VAR image 44 (see FIG. 5) becomes the VAR image 42, and when the mobile body 1 travels at a high speed, the VAR image 44 (see FIG. 5) becomes the VAR image 42b.

図5は、ステップS38関連の詳細を示す図である。判定手段45は、精度の高いピクセルと精度の低いピクセルを区別(判別)する手段である。ステップS34で算出した偏差画像の各ピクセル(u、v)VARの値を定められた閾値Varth(VARth)と比較する。(u、v)VARの値がVarthより大きい場合、ステップS31で算出したピクセルの距離精度が低い。このため、ステップS37でピクセル(u、v)がトラッキングされた場合、ピクセル(u、v)の特徴点をステップS38aでフィルタリングされる(移動体1の移動量推定に利用しない)。 FIG. 5 is a diagram showing details relating to step S38. The determination unit 45 is a unit that distinguishes (determines) a high-precision pixel and a low-precision pixel. The value of each pixel (u, v) VAR of the deviation image calculated in step S34 is compared with a predetermined threshold value Var th (VAR th ). (u, v) if the value of VAR is greater than Var th, low range accuracy of pixels calculated in step S31. For this reason, when the pixel (u, v) is tracked in step S37, the feature point of the pixel (u, v) is filtered in step S38a (not used for estimating the movement amount of the moving object 1).

一方、(u、v)VARの値がVarth以下の場合、ステップS31で算出したピクセルの距離精度が高い。このため、ステップS37でピクセル(u、v)がトラッキングされた場合、ピクセル(u、v)がステップS39で移動体1の移動量推定のために利用される。Varthの設定は、走行環境に合わせて設定する。 On the other hand, (u, v) if the value of VAR is less than Var th, high distance precision pixels calculated in step S31. Therefore, when the pixel (u, v) is tracked in step S37, the pixel (u, v) is used for estimating the movement amount of the moving body 1 in step S39. The setting of Varth is set according to the driving environment.

例えば、反射率が一定であるアスファルトのような環境の場合、ステップS23で算出する偏差画像の偏差は小さいため、Varthを小さく設定し、反射率が変わるオフロードのような環境の場合、Varthを高く設定する。また、Varthを固定値にせず、走行中の環境の状況に合わせて、画像毎にVarthを算出してもよい。例えば、ステップS23で算出した偏差画像の全ピクセルのaverageやmedianやmodeなどに基づいて、Varthを設定してもよい。 For example, in the case of an environment such as asphalt where the reflectance is constant, the deviation of the deviation image calculated in step S23 is small. Therefore, in the case of an environment such as off-road where Var th is set small and the reflectance changes, Var Set th high. Also, without Var th fixed value, in accordance with the condition of the environment during traveling may be calculated Var th for each image. For example, based on such as average or median or mode of all pixels of the calculated deviation image in step S23, may be set Var th.

また、ステップS36で抽出した特徴点がステップS38ですべてフィルタリングされた場合、移動体1の移動量推定が不可になるため、ステップS36で抽出した特徴点をすべてステップS39で利用し、移動体1の移動量を推定してよい。また、ステップS32で時系列に保存した距離画像を用い、時系列に移動体1の移動量を算出し、時系列に算出した移動体1の移動量のパターンに基づいて今回推定できなかった移動体1の移動量を推定してもよい。また、ステップS36で抽出した特徴点がステップS38ですべてフィルタリングされた場合、ステップS38ですべてフィルタリングされた特徴点の中の最も精度の高いピクセルのみで移動体1の移動量を推定してもよい。   Further, when all the feature points extracted in step S36 are filtered in step S38, it is impossible to estimate the amount of movement of the moving object 1. Therefore, all the feature points extracted in step S36 are used in step S39, and the moving object 1 is used. May be estimated. Further, using the distance images saved in time series in step S32, the movement amount of the moving body 1 is calculated in time series, and the movement that could not be estimated this time based on the movement amount pattern of the moving body 1 calculated in time series The movement amount of the body 1 may be estimated. In addition, when all the feature points extracted in step S36 are filtered in step S38, the movement amount of the moving body 1 may be estimated using only the most accurate pixels among the feature points filtered in step S38. .

図6は、道路での移動量算出方法を示す図であり、(a)は反射率の異なる物体がない場合、(b)は反射率の異なる物体がある場合である。   6A and 6B are diagrams illustrating a method for calculating a movement amount on a road. FIG. 6A illustrates a case where there are no objects having different reflectances, and FIG. 6B illustrates a case where there are objects having different reflectances.

図6(a)に示す画像A51aは撮像装置2がステップS30で撮像した画像である。(u、v)は画像上のピクセル単位の座標であり、道路52は移動体1が走行する路面である。特徴点53aは、画像A51aにおいてステップS36で抽出した特徴点である。 An image A 51a illustrated in FIG. 6A is an image captured by the imaging device 2 in step S30. (u, v) are coordinates in pixel units on the image, and the road 52 is a road surface on which the moving body 1 travels. The feature point 53a is the feature point extracted in step S36 in the image A 51a.

VARA54aは画像A51aに対するステップS34で算出された偏差画像である。画像A51aに反射率の異なる立体物が映っていないため、全ピクセルの偏差が小さく、ステップS31で算出した距離の精度が高い。高精度ピクセル55は、ステップS38で定められた閾値Varth以下の偏差をもつピクセルである。 VAR A 54a is the deviation image calculated in step S34 with respect to the image A 51a. Since three-dimensional objects with different reflectivities are not shown in the image A 51a, the deviation of all pixels is small, and the accuracy of the distance calculated in step S31 is high. The high precision pixel 55 is a pixel having a deviation equal to or smaller than the threshold value Var th determined in step S38.

一方、図6(b)に示す画像B51bは画像A51aの次に撮像装置2がステップS30で撮像した画像である。特徴点53bは、画像A51aにおいてステップS36で抽出した特徴点で、画像B51bにおいてステップS37でトラッキングされた特徴点である。立体物56は、画像B51bに映っている反射率の異なる立体物である。立体物56は例えば、水溜りや、植物などの道路と異なる反射率をもつ立体物である。特徴点57は、画像B51bにおいて立体物56からステップS25で抽出した特徴点である。 On the other hand, an image B 51b shown in FIG. 6B is an image captured by the imaging device 2 in step S30 after the image A 51a. The feature point 53b is the feature point extracted in step S36 in the image A 51a, and the feature point tracked in step S37 in the image B 51b. The three-dimensional object 56 is a three-dimensional object with different reflectivity reflected in the image B 51b. The three-dimensional object 56 is, for example, a three-dimensional object having a different reflectance from a road such as a water pool or a plant. The feature point 57 is a feature point extracted in step S25 from the three-dimensional object 56 in the image B 51b.

VARB54bは画像B51bに対するステップS34で算出された偏差画像である。画像B51bに反射率の異なる立体物56が映っているため、VARB54bにおいて、立体物56が映っているピクセルの偏差が大きく、ステップS31で算出した距離の精度が低い。 VAR B 54b is the deviation image calculated in step S34 with respect to the image B 51b. Since the solid object 56 having a different reflectance is reflected in the image B 51b, the deviation of the pixel in which the solid object 56 is reflected is large in the VAR B 54b, and the accuracy of the distance calculated in step S31 is low.

低精度ピクセル58は、ステップS38で定められた閾値Varthより大きい偏差をもつピクセルである。ここで、低精度ピクセル58がステップS38でフィルタリングされ、高精度ピクセル55に対応する特徴点53bのみで移動体1の移動量をステップS39で推定する。また、低精度ピクセル58の周りに高精度ピクセル55があっても、低精度ピクセル58に影響される場合があるため、低精度ピクセル58の周りの高精度ピクセル55をフィルタリングしてもよい。 The low precision pixel 58 is a pixel having a deviation larger than the threshold value Var th determined in step S38. Here, the low-accuracy pixel 58 is filtered in step S38, and the movement amount of the moving body 1 is estimated in step S39 using only the feature point 53b corresponding to the high-accuracy pixel 55. In addition, even if there is the high-precision pixel 55 around the low-precision pixel 58, the high-precision pixel 55 around the low-precision pixel 58 may be filtered because it may be affected by the low-precision pixel 58.

図7は、撮像装置で取得した画像に基づく実験データの例を示す図であり、(a)は、撮像画像、(b)は平均距離画像、(c)は偏差画像判別結果である。図7(a)に示す画像60が撮像装置2で得られた画像である。撮像装置2は、水平面である平面60aの所定の高さに固定されており、撮像装置2から所定の距離離れた奥に、平面60aに対し垂直にチェスボート60cを配置している。すなわち、図2(a)を用いて説明すると、水平面に垂直に平面20があり、その平面20のところにチェスボード60cを配置している。平面60aは、撮像装置2が固定された水平面である。平面60bは、撮像装置2の前にある直面である。チェスボード60cは、平面60bに固定された反射率の異なる立体物である。特徴点60dは、ステップS36で抽出した特徴点である。   FIG. 7 is a diagram illustrating an example of experimental data based on an image acquired by the imaging device, where (a) is a captured image, (b) is an average distance image, and (c) is a deviation image discrimination result. An image 60 shown in FIG. 7A is an image obtained by the imaging device 2. The imaging device 2 is fixed to a predetermined height of a flat surface 60a that is a horizontal plane, and a chess boat 60c is disposed perpendicularly to the flat surface 60a at a depth away from the imaging device 2 by a predetermined distance. 2A, there is a plane 20 perpendicular to the horizontal plane, and the chess board 60c is disposed on the plane 20. As shown in FIG. The plane 60a is a horizontal plane to which the imaging device 2 is fixed. The plane 60b is a face in front of the imaging device 2. The chess board 60c is a three-dimensional object with different reflectivity fixed to the flat surface 60b. The feature point 60d is the feature point extracted in step S36.

図7(b)に示す平均距離画像61は、ステップS34で算出する平均画像(AVERAGE画像)である。暗いピクセルは撮像装置2に近い立体物を表し、明るいピクセルは撮像装置2に遠い立体物を表す。   The average distance image 61 shown in FIG. 7B is an average image (AVERAGE image) calculated in step S34. A dark pixel represents a three-dimensional object close to the imaging device 2, and a bright pixel represents a three-dimensional object far from the imaging device 2.

図7(c)に示す偏差画像判別結果62はステップS34で算出する偏差画像を用いて、ステップS38でピクセルの精度を区別(判別)し、高精度ピクセルと低精度ピクセルとを判別した結果である。黒いピクセルはステップS38aでフィルタリングされたピクセルであり、白いピクセルはステップS38でフィルタリングされなかったピクセルである。   The deviation image discrimination result 62 shown in FIG. 7C is a result of discriminating (determining) the accuracy of pixels in step S38 using the deviation image calculated in step S34, and discriminating between high-precision pixels and low-precision pixels. is there. Black pixels are pixels that have been filtered in step S38a, and white pixels are pixels that have not been filtered in step S38.

ピクセル62aは、本実施形態で区別した精度の低いピクセルである。ピクセル62aは反射率の異なるチェスボードにあるため、ステップS38aでフィルタリングされる。   The pixel 62a is a pixel with low accuracy distinguished in the present embodiment. Since pixel 62a is on a chess board with different reflectivity, it is filtered in step S38a.

また、撮像装置2がTOFセンサであるため、撮像装置2から立体物が離れれば離れるほど撮像装置2が算出する距離の誤差が大きくなる現象がある(ピクセル62b)。また、撮像装置2がTOFセンサであるため、平面60aと平面60bの間のコーナーで撮像装置2が発光した光が複数回反射し、センサに届くまでの飛行時間が変わるため、撮像装置2が算出する距離の誤差が大きくなる(ピクセル62c)。本実施形態では、ピクセル62bとピクセル62cのような精度の低いピクセルの区別もできる。   Further, since the imaging device 2 is a TOF sensor, there is a phenomenon in which the error in the distance calculated by the imaging device 2 increases as the three-dimensional object moves away from the imaging device 2 (pixel 62b). Further, since the imaging device 2 is a TOF sensor, the light emitted from the imaging device 2 is reflected a plurality of times at the corner between the plane 60a and the plane 60b, and the flight time until reaching the sensor changes. The error of the calculated distance becomes large (pixel 62c). In the present embodiment, it is also possible to distinguish pixels with low accuracy such as the pixel 62b and the pixel 62c.

1 移動体
2 撮像装置(画像取得装置)
3 処理装置
4 画像処理部(処理部)
5 制御部
6 メモリ(記憶部)
7 表示部
8 バス
10 移動量算出装置(光学式移動量推定装置)
40 距離画像
41 AVERAGE画像
42 VAR画像(偏差画像)
53a,53b,57 特徴点
54a,54b 偏差画像
55 高精度ピクセル
56 立体物
58 低精度ピクセル
61 平均距離画像
62 偏差画像判別結果
DESCRIPTION OF SYMBOLS 1 Mobile body 2 Imaging device (image acquisition device)
3 Processing Device 4 Image Processing Unit (Processing Unit)
5 Control unit 6 Memory (storage unit)
7 Display unit 8 Bus 10 Movement amount calculation device (optical movement amount estimation device)
40 Distance image 41 AVERAGE image 42 VAR image (deviation image)
53a, 53b, 57 Feature points 54a, 54b Deviation image 55 High-precision pixel 56 Three-dimensional object 58 Low-precision pixel 61 Average distance image 62 Deviation image discrimination result

Claims (8)

路面の画像を撮像する撮像装置と、
前記撮像装置が撮像した時系列の撮像画像に基づいて移動体の移動量を算出する画像処理部と、を備え、
前記画像処理部は、
前記撮像画像に基づいて時系列の距離画像を算出して記憶部に保存し、
前記撮像画像のうち、第1のタイミングで撮像された第1の撮像画像から第1の特徴点を複数抽出し、前記第1のタイミングより後の第2のタイミングで撮像された第2の撮像画像から第2の特徴点を複数抽出し、
前記第1の特徴点の各々を前記第2の特徴点の各々にトラッキングし、
前記算出された時系列の距離画像から距離の偏差を示す偏差画像を算出し、
前記トラッキングする複数の特徴点のうち、その偏差が所定の閾値以下の特徴点に基づいて、前記移動体の移動量を算出する
ことを特徴とする移動量算出装置。
An imaging device for capturing an image of a road surface;
An image processing unit that calculates a moving amount of the moving body based on a time-series captured image captured by the imaging device;
The image processing unit
A time-series distance image is calculated based on the captured image and stored in the storage unit,
Among the captured images, a plurality of first feature points are extracted from a first captured image captured at a first timing, and a second captured image is captured at a second timing after the first timing. Extracting a plurality of second feature points from the image;
Tracking each of the first feature points to each of the second feature points;
Calculating a deviation image indicating a deviation of distance from the calculated time-series distance image;
A movement amount calculating apparatus, wherein the movement amount of the moving body is calculated based on a feature point having a deviation equal to or less than a predetermined threshold among the plurality of feature points to be tracked.
前記画像処理部は、前記距離画像に基づいてピクセル毎の偏差を示す偏差画像を算出する
ことを特徴とする請求項1に記載の移動量算出装置。
The movement amount calculation apparatus according to claim 1, wherein the image processing unit calculates a deviation image indicating a deviation for each pixel based on the distance image.
前記画像処理部は、前記偏差画像に基づいて距離の精度があるか否かを判別する
ことを特徴とする請求項1に記載の移動量算出装置。
The movement amount calculation apparatus according to claim 1, wherein the image processing unit determines whether or not there is distance accuracy based on the deviation image.
前記画像処理部は、前記所定の閾値を走行環境に合わせて設定する
ことを特徴とする請求項1又は2に記載の移動量算出装置。
The movement amount calculation apparatus according to claim 1, wherein the image processing unit sets the predetermined threshold according to a driving environment.
前記画像処理部は、前記偏差画像を算出する際の距離画像の枚数を環境に合わせて設定する
ことを特徴とする請求項1又は2に記載の移動量算出装置。
The movement amount calculation apparatus according to claim 1, wherein the image processing unit sets the number of distance images when calculating the deviation image according to an environment.
前記撮像装置は、前記移動体の前方に向けられて設置された距離画像センサである
ことを特徴とする請求項1に記載の移動量算出装置。
The movement amount calculation apparatus according to claim 1, wherein the imaging device is a distance image sensor that is installed facing the front of the moving body.
前記撮像装置がステレオカメラの場合、前記画像処理部は、同時に撮像した2枚の画像を用いて幾何学的にピクセル毎に距離を算出し、前記距離画像を作成する
ことを特徴とする請求項1に記載の移動量算出装置。
When the imaging device is a stereo camera, the image processing unit geometrically calculates a distance for each pixel using two images taken at the same time, and creates the distance image. The movement amount calculation apparatus according to 1.
時系列の路面の撮像画像に基づいて移動体の移動量を算出する処理部を用いる移動量算出方法であって、
前記処理部は、
前記撮像画像に基づいて時系列の距離画像を算出して記憶部に保存し、
前記撮像画像のうち、第1のタイミングで撮像された第1の撮像画像から第1の特徴点を複数抽出し、前記第1のタイミングより後の第2のタイミングで撮像された第2の撮像画像から第2の特徴点を複数抽出し、
前記第1の特徴点の各々を前記第2の特徴点の各々にトラッキングし、
前記算出された時系列の距離画像から距離の偏差を示す偏差画像を算出し、
前記トラッキングする複数の特徴点のうち、その偏差が所定の閾値以下の特徴点に基づいて、前記移動体の移動量を算出する
ことを特徴とする移動量算出方法。
A moving amount calculation method using a processing unit that calculates a moving amount of a moving body based on a captured image of a time-series road surface,
The processor is
A time-series distance image is calculated based on the captured image and stored in the storage unit,
Among the captured images, a plurality of first feature points are extracted from a first captured image captured at a first timing, and a second captured image is captured at a second timing after the first timing. Extracting a plurality of second feature points from the image;
Tracking each of the first feature points to each of the second feature points;
Calculating a deviation image indicating a deviation of distance from the calculated time-series distance image;
A movement amount calculation method comprising: calculating a movement amount of the moving body based on a feature point having a deviation equal to or less than a predetermined threshold among the plurality of feature points to be tracked.
JP2016131477A 2016-07-01 2016-07-01 Moving amount calculating device and moving amount calculating method Active JP6704307B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016131477A JP6704307B2 (en) 2016-07-01 2016-07-01 Moving amount calculating device and moving amount calculating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016131477A JP6704307B2 (en) 2016-07-01 2016-07-01 Moving amount calculating device and moving amount calculating method

Publications (2)

Publication Number Publication Date
JP2018004435A true JP2018004435A (en) 2018-01-11
JP6704307B2 JP6704307B2 (en) 2020-06-03

Family

ID=60948948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016131477A Active JP6704307B2 (en) 2016-07-01 2016-07-01 Moving amount calculating device and moving amount calculating method

Country Status (1)

Country Link
JP (1) JP6704307B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102278536B1 (en) * 2020-11-09 2021-07-19 대한민국 Apparatus and method for measuring distance using a video image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013040872A (en) * 2011-08-18 2013-02-28 Mitsubishi Heavy Ind Ltd Measuring instrument, measuring method, and program
WO2016020970A1 (en) * 2014-08-04 2016-02-11 日産自動車株式会社 Position self-calculation device and position self-calculation method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013040872A (en) * 2011-08-18 2013-02-28 Mitsubishi Heavy Ind Ltd Measuring instrument, measuring method, and program
WO2016020970A1 (en) * 2014-08-04 2016-02-11 日産自動車株式会社 Position self-calculation device and position self-calculation method

Also Published As

Publication number Publication date
JP6704307B2 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
JP7301909B2 (en) Determination of yaw error from map data, lasers, and cameras
JP6464673B2 (en) Obstacle detection system and railway vehicle
US9151626B1 (en) Vehicle position estimation system
JP6770393B2 (en) Tracking device and program
US20220012509A1 (en) Overhead-view image generation device, overhead-view image generation system, and automatic parking device
JP6708730B2 (en) Mobile
JP7077910B2 (en) Bound line detection device and lane marking method
US11151729B2 (en) Mobile entity position estimation device and position estimation method
JP6515650B2 (en) Calibration apparatus, distance measuring apparatus and calibration method
JP6032034B2 (en) Object detection device
JP6776202B2 (en) In-vehicle camera calibration device and method
US20190362512A1 (en) Method and Apparatus for Estimating a Range of a Moving Object
US11677931B2 (en) Automated real-time calibration
KR101030317B1 (en) Apparatus for tracking obstacle using stereo vision and method thereof
JP6858681B2 (en) Distance estimation device and method
JP6815935B2 (en) Position estimator
CN114694111A (en) Vehicle positioning
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
US10249056B2 (en) Vehicle position estimation system
JP6704307B2 (en) Moving amount calculating device and moving amount calculating method
JP4462533B2 (en) Road lane detection device
JP2018194417A (en) Position estimation device, mobile device
KR102044639B1 (en) Method and apparatus for aligning stereo cameras
WO2023017624A1 (en) Drive device, vehicle, and method for automated driving and/or assisted driving

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200512

R150 Certificate of patent or registration of utility model

Ref document number: 6704307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150