JP2017091128A - Movement state estimation system, method, and program - Google Patents

Movement state estimation system, method, and program Download PDF

Info

Publication number
JP2017091128A
JP2017091128A JP2015219140A JP2015219140A JP2017091128A JP 2017091128 A JP2017091128 A JP 2017091128A JP 2015219140 A JP2015219140 A JP 2015219140A JP 2015219140 A JP2015219140 A JP 2015219140A JP 2017091128 A JP2017091128 A JP 2017091128A
Authority
JP
Japan
Prior art keywords
road surface
movement state
vehicle
feature point
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015219140A
Other languages
Japanese (ja)
Inventor
啓太 小川
Keita Ogawa
啓太 小川
邦光 藤田
Kunimitsu Fujita
邦光 藤田
宏也 八代
Hiroya Yashiro
宏也 八代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2015219140A priority Critical patent/JP2017091128A/en
Publication of JP2017091128A publication Critical patent/JP2017091128A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of accurately estimating a moving state of a vehicle free from influence by ambient circumstance light.SOLUTION: Disclosed movement state estimation system includes: a road surface image acquisition unit that acquires road surface images of a road surface picked up by a camera installed on the bottom of a vehicle; and a moving state estimation unit that estimates the moving state of the vehicle based on variation of feature points in the road surface images.SELECTED DRAWING: Figure 2

Description

本発明は、移動状態推定システム、方法およびプログラムに関する。   The present invention relates to a moving state estimation system, method, and program.

車両から前後左右のそれぞれの方向を撮像した地上投影画像の変化に基づいて車両の移動量を算出する技術が知られている(特許文献1、参照)。   A technique for calculating the amount of movement of a vehicle based on a change in a ground projection image obtained by imaging the front, rear, left and right directions from the vehicle is known (see Patent Document 1).

特開2008-175717号公報JP 2008-175717 A

しかしながら、特許文献1において、車両から前後左右のそれぞれの方向を撮像した地上投影画像は周辺環境光の影響を受けやすく、算出した車両の移動量の精度が低くなり易いという問題があった。
本発明は、前記課題にかんがみてなされたもので、周辺環境光の影響を受けにくく高精度に車両の移動状態を推定可能な技術を提供することを目的とする。
However, in Patent Document 1, there is a problem that a ground projection image obtained by capturing the front, rear, left, and right directions from the vehicle is easily affected by ambient ambient light, and the accuracy of the calculated vehicle movement amount tends to be low.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of estimating a moving state of a vehicle with high accuracy and being hardly affected by ambient light.

前記の目的を達成するため、本発明の移動状態推定システムは、車両の底面に備えられたカメラによって路面を撮像した路面画像を取得する路面画像取得部と、路面画像における特徴点の変位に基づいて車両の移動状態を推定する移動状態推定部と、を備える。   In order to achieve the above object, a moving state estimation system according to the present invention is based on a road surface image acquisition unit that acquires a road surface image obtained by imaging a road surface by a camera provided on the bottom surface of a vehicle, and displacement of feature points in the road surface image. And a movement state estimation unit that estimates a movement state of the vehicle.

また、前記の目的を達成するため、本発明の移動状態推定方法は、車両の底面に備えられたカメラによって路面を撮像した路面画像を取得する路面画像取得工程と、路面画像における特徴点の変位に基づいて車両の移動状態を推定する移動状態推定工程と、を含む。   In order to achieve the above object, the moving state estimation method of the present invention includes a road surface image acquisition step of acquiring a road surface image obtained by imaging a road surface with a camera provided on the bottom surface of the vehicle, and displacement of feature points in the road surface image. And a moving state estimating step for estimating the moving state of the vehicle based on the above.

さらに、前記の目的を達成するため、本発明の移動状態推定プログラムは、車両の底面に備えられたカメラによって路面を撮像した路面画像を取得する路面画像取得機能と、路面画像における特徴点の変位に基づいて車両の移動状態を推定する移動状態推定機能と、をコンピュータに実現させる。   Furthermore, in order to achieve the above object, the moving state estimation program of the present invention includes a road surface image acquisition function for acquiring a road surface image obtained by capturing a road surface with a camera provided on the bottom surface of the vehicle, and displacement of feature points in the road surface image. And a moving state estimating function for estimating the moving state of the vehicle based on the computer.

以上のように構成された本発明において、路面画像は、車両の底面に備えられたカメラによって撮像した路面の画像であるため、周辺環境光の影響を抑制できる。従って、周辺環境光の影響を受けにくく高精度に車両の移動状態を推定できる。カメラは車両とともに移動するため、路面画像における特徴点の変位に基づいて、路面に対する車両の移動状態を推定できる。   In the present invention configured as described above, the road surface image is an image of the road surface imaged by the camera provided on the bottom surface of the vehicle, so that the influence of ambient ambient light can be suppressed. Accordingly, it is possible to estimate the moving state of the vehicle with high accuracy and not easily affected by ambient ambient light. Since the camera moves together with the vehicle, the moving state of the vehicle relative to the road surface can be estimated based on the displacement of the feature points in the road surface image.

移動状態推定システムのブロック図である。It is a block diagram of a movement state estimation system. 図2Aは車両の平面透視図、図2Bは車両の側面図、図2C〜図2Fは路面画像を示す図である。2A is a plan perspective view of the vehicle, FIG. 2B is a side view of the vehicle, and FIGS. 2C to 2F are views showing road surface images. 図3Aは撮像のタイミングチャート、図3B,図3Dは車両の側面図、図3C,図3Eは路面画像を示す図、図3Fは換算係数のグラフである。3A is an imaging timing chart, FIGS. 3B and 3D are side views of the vehicle, FIGS. 3C and 3E are road surface images, and FIG. 3F is a graph of a conversion coefficient. 移動状態推定処理のフローチャートである。It is a flowchart of a movement state estimation process.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)移動状態推定システムの構成:
(2)移動状態推定処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of moving state estimation system:
(2) Movement state estimation processing:
(3) Other embodiments:

(1)移動状態推定システムの構成:
図1は、本発明の一実施形態にかかる移動状態推定システムとしてのナビゲーション装置10の構成を示すブロック図である。ナビゲーション装置10は、車両に備えられている。ナビゲーション装置10は、CPU(Central Processing Unit),RAM(Random Access Memory),ROM(Random Access Read Only Memory)等を備える制御部20と記録媒体30とを備えており、記録媒体30やROMに記憶されたプログラムを制御部20が実行する。制御部20は、移動状態推定プログラムとしてのナビゲーションプログラム21を実行する。
(1) Configuration of moving state estimation system:
FIG. 1 is a block diagram showing a configuration of a navigation device 10 as a movement state estimation system according to an embodiment of the present invention. The navigation device 10 is provided in a vehicle. The navigation apparatus 10 includes a control unit 20 including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Random Access Read Only Memory), and the like, and a recording medium 30, and is stored in the recording medium 30 and the ROM. The control unit 20 executes the programmed program. The control unit 20 executes a navigation program 21 as a movement state estimation program.

ナビゲーション装置10の記録媒体30には、地図情報30aが記録されている。地図情報30aには、車両が走行する道路上に設定されたノードの位置等を示すノードデータ、ノード間を接続する道路区間の形状を特定するための形状補間点の位置等を示す形状補間データ、道路区間についての各種情報を示すリンクデータ、施設の属性等を示す施設データ等が含まれている。制御部20は、地図情報30aに基づいて地図を描画する。   Map information 30 a is recorded on the recording medium 30 of the navigation device 10. The map information 30a includes node data indicating the position of a node set on the road on which the vehicle is traveling, and shape interpolation data indicating the position of a shape interpolation point for specifying the shape of a road section connecting the nodes. , Link data indicating various information about road sections, facility data indicating facility attributes, and the like are included. The control unit 20 draws a map based on the map information 30a.

車両は、タッチパネルディスプレイ41と4個の発光器42a〜42dとカメラ43とを備えている。タッチパネルディスプレイ41は、映像を画面に出力する出力装置と、画面における指等の接触位置によってユーザの入力を受け付ける入力装置とを兼ねる。タッチパネルディスプレイ41は、制御部20の制御の下で地図を表示する。   The vehicle includes a touch panel display 41, four light emitters 42 a to 42 d, and a camera 43. The touch panel display 41 serves as both an output device that outputs an image to the screen and an input device that receives a user input according to a contact position of a finger or the like on the screen. The touch panel display 41 displays a map under the control of the control unit 20.

発光器42a〜42dは、車両の下面(底面)に備えられており、設置方向によって定まる光軸方向に光を出力する。発光器42a〜42dが発光する光は、カメラ43が撮像可能な波長帯域の光であればよい。従って、カメラ43が赤外線カメラであれば発光器42a〜42dは赤外線を発光し、カメラ43が紫外線カメラであれば発光器42a〜42dは紫外線を発光し、カメラ43が可視光のカメラであれば発光器42a〜42dは可視光を発光すればよい。本実施形態のカメラ43は赤外線カメラであり、発光器42a〜42dは赤外線レーザ発振器である。ただし、発光器42a〜42dは、必ずしもレーザ発振器でなくてもよく、路面付近にて光束を絞り込む光学系を有する発光器であってもよい。本実施形態において、発光器42a〜42dは常時発光していることとする。   The light emitters 42a to 42d are provided on the lower surface (bottom surface) of the vehicle and output light in the optical axis direction determined by the installation direction. The light emitted from the light emitters 42 a to 42 d may be light in a wavelength band that can be captured by the camera 43. Therefore, if the camera 43 is an infrared camera, the light emitters 42a to 42d emit infrared light, and if the camera 43 is an ultraviolet camera, the light emitters 42a to 42d emit ultraviolet light, and the camera 43 is a visible light camera. The light emitters 42a to 42d may emit visible light. The camera 43 of this embodiment is an infrared camera, and the light emitters 42a to 42d are infrared laser oscillators. However, the light emitters 42a to 42d are not necessarily laser oscillators, and may be light emitters having an optical system that narrows the light flux near the road surface. In the present embodiment, it is assumed that the light emitters 42a to 42d always emit light.

カメラ43は、二次元のイメージセンサであり、車両の下面(底面)に備えられている。路面画像を撮像する。カメラ43は、照明を備えており、当該照明はカメラ43が撮像可能な波長の照明光を発光する。カメラ43は、照明が発光した光が路面にて反射して形成された反射像を撮像する。路面画像は、各画素が赤外光の受光強度を示すグレースケール画像である。カメラ43の照明光と発光器42a〜42dのレーザ光とは強度が大きく異なっており、路面画像を構成する画素のうち、発光器42a〜42dのレーザ光の反射光を受光した画素を明確に判別できる。なお、カメラ43がカラーカメラである場合、カメラ43が撮像可能な光の波長帯において、カメラ43の照明と発光器42a〜42dとで光の波長を異ならせてもよい。   The camera 43 is a two-dimensional image sensor and is provided on the lower surface (bottom surface) of the vehicle. A road surface image is taken. The camera 43 includes illumination, and the illumination emits illumination light having a wavelength that can be captured by the camera 43. The camera 43 captures a reflection image formed by reflecting the light emitted from the illumination on the road surface. The road surface image is a grayscale image in which each pixel indicates the received light intensity of infrared light. The illumination light of the camera 43 and the laser light of the light emitters 42a to 42d are greatly different in intensity. Among the pixels constituting the road surface image, the pixels that receive the reflected light of the laser light of the light emitters 42a to 42d are clearly defined. Can be determined. When the camera 43 is a color camera, the light wavelength may be different between the illumination of the camera 43 and the light emitters 42a to 42d in the wavelength band of light that the camera 43 can capture.

図2Aは、発光器42a〜42dとカメラ43の配置を説明する車両(四輪車)の透視平面図である。図2Aは、車両を鉛直上方から見た図である。図2Aに示すように、破線で示す車体Hの中央にカメラ43が備えられている。カメラ43は、実線で示す撮像範囲Rを撮像可能であり、撮像範囲Rの反射像を路面画像として撮像する。撮像範囲Rも車体Hの中央に位置している。平面視において矩形状の撮像範囲Rの四隅付近に発光器42a〜42dが備えられている。   FIG. 2A is a perspective plan view of a vehicle (four-wheeled vehicle) for explaining the arrangement of the light emitters 42 a to 42 d and the camera 43. FIG. 2A is a view of the vehicle as viewed from above. As shown in FIG. 2A, a camera 43 is provided in the center of the vehicle body H indicated by a broken line. The camera 43 can capture an imaging range R indicated by a solid line, and captures a reflection image of the imaging range R as a road surface image. The imaging range R is also located at the center of the vehicle body H. Light emitters 42a to 42d are provided in the vicinity of the four corners of the rectangular imaging range R in plan view.

図2Bは、発光器42a〜42dとカメラ43を説明する車両の側面図である。図2Bは、車両側面下部を路面に平行な方向から見た図である。太線で示す撮像範囲Rがハッチングで示す路面上に形成されている。撮像範囲Rをカバーするように路面に一様な強度の照明光が投射される。また、発光器42a〜42dが発光したレーザ光(二点鎖線)の路面上の投射位置Ea〜Ed(白三角)は撮像範囲R内に形成される。本実施形態において、車両の底面が路面に対して平行となる状態において、カメラ43の主光軸(一点鎖線)が路面と直交する。図2A,2Bに示すように、発光器42a〜42dが発光したレーザ光の方向は、互いに異なる方向であり、発光器42a〜42dのそれぞれの位置から撮像範囲Rの中央(カメラ43の主光軸)に向かう方向である。   FIG. 2B is a side view of the vehicle illustrating the light emitters 42 a to 42 d and the camera 43. FIG. 2B is a view of the lower part of the side surface of the vehicle as viewed from a direction parallel to the road surface. An imaging range R indicated by a bold line is formed on a road surface indicated by hatching. Illumination light having a uniform intensity is projected onto the road surface so as to cover the imaging range R. Projection positions Ea to Ed (white triangles) on the road surface of the laser beams (two-dot chain lines) emitted by the light emitters 42 a to 42 d are formed within the imaging range R. In the present embodiment, in a state where the bottom surface of the vehicle is parallel to the road surface, the main optical axis (one-dot chain line) of the camera 43 is orthogonal to the road surface. As shown in FIGS. 2A and 2B, the directions of the laser beams emitted from the light emitters 42a to 42d are different from each other, and the center of the imaging range R (the main light of the camera 43) from each position of the light emitters 42a to 42d. Direction toward the axis).

ナビゲーションプログラム21は、ナビゲーションモジュール21aと路面画像取得モジュール21bと移動状態推定モジュール21cとを含む。
ナビゲーションモジュール21aは、車両の現在位置を示すマーカを地図上に表示させる機能を制御部20に実現させる。すなわち、ナビゲーションモジュール21aの機能により制御部20は、地図情報30aに基づいて現在位置の周辺の地図をタッチパネルディスプレイ41上に表示し、当該地図上において車両の現在位置を示すマーカを重畳して表示する。なお、制御部20は、公知の経路探索手法によって探索した移動予定経路を地図上に表示してもよい。さらに、制御部20は、現在位置や移動予定経路を案内する音声を図示しないスピーカから出力してもよい。
The navigation program 21 includes a navigation module 21a, a road surface image acquisition module 21b, and a movement state estimation module 21c.
The navigation module 21a causes the control unit 20 to realize a function of displaying a marker indicating the current position of the vehicle on the map. That is, by the function of the navigation module 21a, the control unit 20 displays a map around the current position on the touch panel display 41 based on the map information 30a, and superimposes and displays a marker indicating the current position of the vehicle on the map. To do. In addition, the control part 20 may display the movement planned route searched by the well-known route search method on a map. Furthermore, the control unit 20 may output a voice for guiding the current position and the planned movement route from a speaker (not shown).

路面画像取得モジュール21bは、車両の底面に備えられたカメラ43によって路面を撮像した路面画像を取得する機能を制御部20に実現させる。具体的に、路面画像取得モジュール21bの機能により制御部20は、予め決められた時間周期(例えば1秒)ごとにカメラ43が撮像した路面画像を連続して取得する。カメラ43と制御部20は、有線接続されていてもよいし、無線通信回線によって接続されてもよい。さらに、カメラ43が撮像した路面画像を車両のECU(Electronic Control Unit)が取得し、当該ECUを介して制御部20が路面画像を取得してもよい。   The road surface image acquisition module 21b causes the control unit 20 to realize a function of acquiring a road surface image obtained by capturing the road surface with the camera 43 provided on the bottom surface of the vehicle. Specifically, by the function of the road surface image acquisition module 21b, the control unit 20 continuously acquires road surface images captured by the camera 43 at predetermined time periods (for example, 1 second). The camera 43 and the control unit 20 may be connected by wire or may be connected by a wireless communication line. Furthermore, the ECU (Electronic Control Unit) of the vehicle may acquire a road surface image captured by the camera 43, and the control unit 20 may acquire the road surface image via the ECU.

移動状態推定モジュール21cは、路面画像における特徴点の変位に基づいて車両の移動状態を推定する機能を制御部20に実現させる。移動状態推定モジュール21cの機能により制御部20は、路面画像において特徴点を抽出する。投射位置Ea〜Edを除き、カメラ43は一様な照明光が投射された撮像範囲Rを撮像するため、路面が平坦で一様な反射率を有していれば、路面画像は受光強度が一様な画像となる。しかし、路面の一部に凹凸や汚れ等がある場合、他の部分とは受光強度が異なる特徴点が路面画像に表れることなる。例えば、制御部20は、路面画像の受光強度のヒストグラムを作成し、最も度数が大きい受光強度を有している画素と、投射位置Ea〜Edに対応する画素(以下、投射画素と表記)とを路面画像から除去することにより、特徴点を抽出する。なお、投射位置Ea〜Edに対応する投射画素は、発光器42a〜42dから発光されたレーザ光の反射光の受光強度を示すため、照明光の反射光の受光強度を示す画素と区別することができる。また、特徴点は、路面の凹凸や汚れ等の形状に対応した形状を有することとなる。制御部20は、特徴点の特徴(受光強度,形状)と路面画像における位置を記録媒体30に記録する。   The movement state estimation module 21c causes the control unit 20 to realize a function of estimating the movement state of the vehicle based on the displacement of the feature points in the road surface image. The control unit 20 extracts feature points in the road surface image by the function of the movement state estimation module 21c. Except for the projection positions Ea to Ed, the camera 43 captures an imaging range R in which uniform illumination light is projected. Therefore, if the road surface is flat and has a uniform reflectance, the road surface image has a light receiving intensity. A uniform image. However, when there is unevenness or dirt on a part of the road surface, feature points having different received light intensity from other parts appear in the road surface image. For example, the control unit 20 creates a histogram of the light reception intensity of the road surface image, and includes pixels having the highest light reception intensity and pixels corresponding to the projection positions Ea to Ed (hereinafter referred to as projection pixels). Is removed from the road surface image to extract feature points. Note that the projection pixels corresponding to the projection positions Ea to Ed indicate the received light intensity of the reflected light of the laser light emitted from the light emitters 42a to 42d, and therefore are distinguished from the pixels indicating the received light intensity of the reflected light of the illumination light. Can do. In addition, the feature point has a shape corresponding to a shape such as unevenness or dirt on the road surface. The control unit 20 records the characteristics of the feature points (light reception intensity and shape) and the position in the road surface image on the recording medium 30.

移動状態推定モジュール21cの機能により制御部20は、異なる時刻において撮像された複数の路面画像間における特徴点の変位に基づいて車両の移動状態を推定する。図2C,2Dは、開始時刻が異なる露光時間t1,t2にて撮像された路面画像Iを示す。露光時間t1の路面画像Iにおいて星形の特徴点Pt1が抽出され、当該特徴点Pt1と類似する形状の特徴点Pt2が露光時間t2の路面画像Iにおいても抽出されている。制御部20は、特徴(受光強度,形状)が基準以上類似する特徴点Pt1,Pt2を、路面上の同一の凹凸や汚れ等に対応する特徴点Pt1,Pt2として抽出する。制御部20は、路面画像Iにおいて特徴点Pt1を始点とし特徴点Pt2を終点とする変位ベクトルを取得する。制御部20は、路面画像Iにおいて変位ベクトルと反対の方向を車両の移動方向として推定する。さらに、制御部20は、変位ベクトルの長さを路面上の移動距離に換算し、当該換算した移動距離を露光時間t1,t2の開始時刻の差分で除算することにより移動速度を推定する。制御部20は、路面画像Iにおける移動距離に換算係数Mを乗算することにより、路面上の移動距離を算出する。この換算係数Mは、カメラ43の撮像倍率に対応しており、カメラ43と路面との接近距離Gから導出される。接近距離Gについては後述する。以上のようにして、異なる時刻において撮像された複数の路面画像Iから導出された移動状態(移動速度、移動方向、移動距離)を第1移動状態と表記する。   With the function of the movement state estimation module 21c, the control unit 20 estimates the movement state of the vehicle based on the displacement of the feature points between the plurality of road surface images captured at different times. 2C and 2D show road surface images I captured at exposure times t1 and t2 having different start times. A star-shaped feature point Pt1 is extracted from the road surface image I at the exposure time t1, and a feature point Pt2 having a shape similar to the feature point Pt1 is also extracted from the road surface image I at the exposure time t2. The control unit 20 extracts feature points Pt1 and Pt2 whose features (light reception intensity and shape) are similar to or more than the reference as feature points Pt1 and Pt2 corresponding to the same unevenness or dirt on the road surface. The control unit 20 acquires a displacement vector having a feature point Pt1 as a start point and a feature point Pt2 as an end point in the road surface image I. The control unit 20 estimates a direction opposite to the displacement vector in the road surface image I as the moving direction of the vehicle. Further, the control unit 20 converts the length of the displacement vector into a moving distance on the road surface, and estimates the moving speed by dividing the converted moving distance by the difference between the start times of the exposure times t1 and t2. The control unit 20 calculates the movement distance on the road surface by multiplying the movement distance in the road surface image I by the conversion coefficient M. This conversion coefficient M corresponds to the imaging magnification of the camera 43 and is derived from the approach distance G between the camera 43 and the road surface. The approach distance G will be described later. As described above, a movement state (movement speed, movement direction, movement distance) derived from a plurality of road surface images I taken at different times is referred to as a first movement state.

さらに、移動状態推定モジュール21cの機能により制御部20は、単一の時刻において撮像された単一の路面画像Iにおける特徴点の線像に基づいて特徴点の変位を取得し、当該特徴点の変位に基づいて車両の移動状態を推定する。図2Eは、単一の時刻としての露光時間t3にて撮像された路面画像Iを示す。同図に示すように、路面画像Iに特徴点の線像Lt3が表れている。特徴点の線像Lt3は、特徴的な受光強度を有する線であり、単一の露光時間t3内における被写体ブレである。すなわち、移動速度が大きい場合、路面の凹凸や汚れ等が単一の露光時間t3内にて大きく相対移動することとなり、露光開始時刻における路面の凹凸や汚れ等の像と露光終了時刻における路面の凹凸や汚れ等の像とを結ぶ線が特徴点の線像Lt3として表れることとなる。なお、制御部20は、長辺と短辺とのアスペクト比が閾値以上の特徴点が抽出された場合に、特徴点の線像Lt3が抽出されたと判定してもよい。また、制御部20は、ハフ変換等の線検出手法により特徴点の線像Lt3を抽出してもよい。   Furthermore, the function of the movement state estimation module 21c causes the control unit 20 to acquire the displacement of the feature point based on the line image of the feature point in the single road surface image I imaged at a single time, and the feature point The moving state of the vehicle is estimated based on the displacement. FIG. 2E shows a road surface image I captured at an exposure time t3 as a single time. As shown in the figure, a line image Lt3 of feature points appears in the road surface image I. The feature point line image Lt3 is a line having a characteristic light reception intensity, and is a subject blur within a single exposure time t3. That is, when the moving speed is high, the road surface unevenness and dirt move relatively greatly within the single exposure time t3, and the road surface unevenness and dirt image at the exposure start time and the road surface unevenness at the exposure end time. A line connecting images such as unevenness and dirt appears as a feature point line image Lt3. Note that the control unit 20 may determine that the line image Lt3 of the feature point has been extracted when a feature point having an aspect ratio between the long side and the short side that is equal to or greater than a threshold is extracted. The control unit 20 may extract the feature point line image Lt3 by a line detection method such as Hough transform.

制御部20は、特徴点の線像Lt3の両端を接続するベクトルを変位ベクトルとして取得する。そして、制御部20は、変位ベクトルの方向と反対の方向を車両の移動方向として推定する。なお、特徴点の線像Lt3の両端のうち、どちらが始点であるかは単一の路面画像Iのみから不明であるが、直前に推定した移動方向に近い移動方向が得られるように変位ベクトルの方向(始点→終点)を定義してもよい。さらに、制御部20は、変位ベクトルの長さに換算係数Mを乗算して路面上の移動距離に換算し、当該換算した移動距離を露光時間t3の長さで除算することにより移動速度を推定する。以上のようにして、単一の時刻において撮像された単一の路面画像Iから導出された移動状態(移動速度、移動方向、移動距離)を第2移動状態と表記する。   The control unit 20 acquires a vector connecting both ends of the feature point line image Lt3 as a displacement vector. And the control part 20 estimates the direction opposite to the direction of a displacement vector as a moving direction of a vehicle. Note that which is the starting point of both ends of the line image Lt3 of the feature point is unknown only from the single road surface image I, but the displacement vector of the displacement vector is obtained so that a movement direction close to the movement direction estimated immediately before can be obtained. A direction (start point → end point) may be defined. Further, the control unit 20 multiplies the length of the displacement vector by the conversion coefficient M to convert it to a moving distance on the road surface, and estimates the moving speed by dividing the converted moving distance by the length of the exposure time t3. To do. As described above, a moving state (moving speed, moving direction, moving distance) derived from a single road surface image I imaged at a single time is referred to as a second moving state.

なお、特徴点の線像Lt3も特徴的な線の太さや受光強度を有している。従って、図2E,2Fに示すように、制御部20は、複数の露光時間t3,t4にて撮像された路面画像Iにおいて特徴(線の太さ,受光強度)が基準以上類似する特徴点の線像Lt3,Lt4を、路面上の同一の凹凸や汚れ等に対応する特徴点の線像Lt3,Lt4として抽出し、当該特徴点の線像Lt3,Lt4間(例えば始点同士)の変位ベクトルに基づいて車両の第1移動状態を推定することができる。   The feature point line image Lt3 also has a characteristic line thickness and received light intensity. Therefore, as shown in FIGS. 2E and 2F, the control unit 20 has feature points whose characteristics (line thickness, light reception intensity) are similar to each other in the road surface image I captured at a plurality of exposure times t3 and t4. The line images Lt3 and Lt4 are extracted as the line images Lt3 and Lt4 of the feature points corresponding to the same unevenness and dirt on the road surface, and the displacement vectors between the line images Lt3 and Lt4 (for example, the start points) of the feature points are extracted. Based on this, it is possible to estimate the first movement state of the vehicle.

以上のようにして、単一の路面画像Iに特徴点の線像Lt3,Lt4が表れる場合、特徴点の線像Lt3,Lt4のそれぞれに基づいて露光時間t3,t4のそれぞれにおける第2移動状態が得られる。さらに、複数の路面画像Iに互いに類似する特徴点の線像Lt3,Lt4が表れる場合、特徴点の線像Lt3,Lt4間の変位に基づいて露光時間t3〜t4における第1移動状態が得られることとなる。   As described above, when the feature point line images Lt3 and Lt4 appear in the single road surface image I, the second movement state at the exposure times t3 and t4 based on the feature point line images Lt3 and Lt4, respectively. Is obtained. Further, when the line images Lt3 and Lt4 of feature points similar to each other appear in the plurality of road surface images I, the first movement state at the exposure times t3 to t4 is obtained based on the displacement between the line images Lt3 and Lt4 of the feature points. It will be.

移動状態推定モジュール21cの機能により制御部20は、異なる時刻において撮像された複数の路面画像I間における特徴点の変位に基づいて特定した車両の移動状態である第1移動状態と、単一の時刻において撮像された単一の路面画像Iにおける特徴点の線像に基づいて特徴点の変位を取得し、当該特徴点の変位に基づいて特定した車両の移動状態である第2移動状態の双方に基づいて、車両の移動状態を推定する。移動状態推定モジュール21cの機能により制御部20は、第1移動状態と第2移動状態とを平均した値を最終的な移動状態として推定する。図3Aに示すように、露光時間t3の開始時刻から露光時間t4の開始時刻までの期間t3〜t4について第1移動状態が推定されているとともに、露光時間t3と露光時間t4のそれぞれについて第2移動状態が推定されている。例えば、制御部20は、露光時間t3における第2移動状態としての移動速度V(t3)と、露光時間t4における第2移動状態としての移動速度V(t4)との平均値を、期間t3〜t4における第2移動状態としての移動速度として算出する。そして、制御部20は、期間t3〜t4における第1移動状態としての移動速度V(t3〜t4)と、期間t3〜t4における第2移動状態としての移動速度との平均値を、最終的な移動速度をとして推定する。なお、制御部20は、第1移動状態の移動方向と、第2移動状態の移動方向とを平均した方向を最終的な移動方向として推定してもよい。なお、制御部20は、第1移動状態と第2移動状態のそれぞれの信頼度に応じて第1移動状態と第2移動状態とを加重平均してもよい。例えば、特徴点の線像Lt3,Lt4間の類似度が小さいほど、単一の特徴点の線像Lt3,Lt4から導出される第2移動状態の重みを大きくして加重平均してもよい。   With the function of the movement state estimation module 21c, the control unit 20 has a first movement state that is a movement state of the vehicle specified based on the displacement of the feature points between the plurality of road surface images I captured at different times, and a single Both of the second movement state, which is the movement state of the vehicle, obtained from the displacement of the feature point based on the line image of the feature point in the single road surface image I imaged at the time and specified based on the displacement of the feature point. Based on the above, the movement state of the vehicle is estimated. By the function of the movement state estimation module 21c, the control unit 20 estimates a value obtained by averaging the first movement state and the second movement state as a final movement state. As shown in FIG. 3A, the first movement state is estimated for the periods t3 to t4 from the start time of the exposure time t3 to the start time of the exposure time t4, and the second for each of the exposure time t3 and the exposure time t4. The movement state is estimated. For example, the control unit 20 calculates an average value of the movement speed V (t3) as the second movement state at the exposure time t3 and the movement speed V (t4) as the second movement state at the exposure time t4 during the period t3. It is calculated as the movement speed as the second movement state at t4. Then, the control unit 20 determines the average value of the movement speed V (t3 to t4) as the first movement state in the period t3 to t4 and the movement speed as the second movement state in the period t3 to t4. Estimate the moving speed as Note that the control unit 20 may estimate a direction obtained by averaging the movement direction in the first movement state and the movement direction in the second movement state as the final movement direction. Note that the control unit 20 may perform a weighted average of the first movement state and the second movement state according to the reliability of each of the first movement state and the second movement state. For example, as the similarity between the feature point line images Lt3 and Lt4 is smaller, the weight of the second moving state derived from the single feature point line images Lt3 and Lt4 may be increased to perform weighted averaging.

移動状態推定モジュール21cの機能により制御部20は、移動距離を移動方向に累積していくことにより、車両の現在位置を推定することができる。この現在位置を用いて地図の表示が行われる。制御部20は、路面画像Iのみに基づいて現在位置を推定しなくてもよく、例えばGPS信号や自立航行軌跡やマップマッチング等によって現在位置を補正してもよいし、GPS信号に基づいて現在位置の初期位置(移動距離を累積する初期位置)を取得してもよい。   With the function of the movement state estimation module 21c, the control unit 20 can estimate the current position of the vehicle by accumulating the movement distance in the movement direction. A map is displayed using this current position. The control unit 20 does not have to estimate the current position based only on the road surface image I. For example, the current position may be corrected by a GPS signal, a self-contained navigation trajectory, map matching, or the like, or based on the GPS signal. You may acquire the initial position (initial position which accumulate | stores moving distance) of a position.

次に、換算係数Mについて説明する。本実施形態において、特徴点の変位は、路面に対する車体の傾きと接近度との少なくとも一方に基づいて補正される。具体的に、移動状態推定モジュール21cの機能により制御部20は、車両の傾きと接近度とに応じて換算係数Mを導出し、路面画像Iにおける距離を路面上の移動距離に変換する際に換算係数Mを乗算することにより特徴点の変位を補正する。   Next, the conversion coefficient M will be described. In the present embodiment, the displacement of the feature point is corrected based on at least one of the inclination of the vehicle body with respect to the road surface and the degree of approach. Specifically, the control unit 20 derives the conversion coefficient M according to the inclination and the approach degree of the vehicle by the function of the movement state estimation module 21c, and converts the distance in the road surface image I into the movement distance on the road surface. By multiplying the conversion factor M, the displacement of the feature point is corrected.

また、車両の傾きと接近度との少なくとも一方は、路面上における路面画像Iの撮像範囲Rに対して複数の角度で投射された光の投射位置Ea〜Edに基づいて特定される。移動状態推定モジュール21cの機能により制御部20は、路面画像Iにおいて、発光器42a〜42dから発光されたレーザ光の反射光の受光強度を示す画素の位置を、路面上の投射位置Ea〜Edに対応する投射画素の位置として取得する。   Further, at least one of the inclination and the approach degree of the vehicle is specified based on the projection positions Ea to Ed of light projected at a plurality of angles with respect to the imaging range R of the road surface image I on the road surface. By the function of the movement state estimation module 21c, the control unit 20 causes the position of the pixel indicating the received light intensity of the reflected light of the laser light emitted from the light emitters 42a to 42d in the road surface image I to be projected positions Ea to Ed on the road surface. Is obtained as the position of the projection pixel corresponding to.

図2Bは発光器42a〜42dから路面までの接近距離GがG1である状態を示し、図3Bは発光器42a〜42dから路面までの接近距離GがG1よりも小さいG2である状態を示している。また、図2C〜2Fは発光器42a〜42dから路面までの接近距離GがG1である場合の路面画像Iを示し、図3Cは発光器42a〜42dから路面までの接近距離GがG1よりも小さいG2である場合の路面画像Iを示している。接近距離Gが大きいほど、レーザ光がカメラ43の主光軸に近い位置に進入したところで路面と交差するため、接近距離Gが大きいほど、投射位置Ea〜Edに対応する投射画素の位置が路面画像Iの中央に近づくこととなる。移動状態推定モジュール21cの機能により制御部20は、投射位置Ea〜Edに対応する投射画素の位置と、路面画像Iの中央との距離に基づいて、発光器42a〜42dごとに接近距離Gを推定する。発光器42a〜42dごとに接近距離Gを推定するため、発光器42a〜42dごとに接近距離Gが異なり得る。   2B shows a state where the approach distance G from the light emitters 42a to 42d to the road surface is G1, and FIG. 3B shows a state where the approach distance G from the light emitters 42a to 42d to the road surface is G2 smaller than G1. Yes. 2C to 2F show a road surface image I when the approach distance G from the light emitters 42a to 42d to the road surface is G1, and FIG. 3C shows the approach distance G from the light emitters 42a to 42d to the road surface than G1. The road surface image I in the case of small G2 is shown. As the approach distance G is larger, the laser beam intersects the road surface when entering the position closer to the main optical axis of the camera 43. Therefore, as the approach distance G is larger, the positions of the projection pixels corresponding to the projection positions Ea to Ed are the road surface. It approaches the center of the image I. Based on the function of the movement state estimation module 21c, the control unit 20 calculates the approach distance G for each of the light emitters 42a to 42d based on the distance between the position of the projection pixel corresponding to the projection positions Ea to Ed and the center of the road surface image I. presume. Since the approach distance G is estimated for each of the light emitters 42a to 42d, the approach distance G may be different for each of the light emitters 42a to 42d.

図3Dは、前方の2個の発光器42a,42bから路面までの接近距離GがG2であり、後方の2個の発光器42c,42dから路面までの接近距離GがG1である状態を示している。このように、発光器42a〜42dごとに接近距離Gを推定することにより、車両の路面に対する傾きを得ることができる。従って、移動状態推定モジュール21cの機能により制御部20は、路面画像Iにおける任意の画素に対応する路面上の位置と車体との間の接近距離Gを補間演算によって推定することができる。補間演算は、発光器42a〜42dごとの接近距離Gを、任意の画素から路面画像Iの四隅までの距離で加重平均することにより行われてもよい。   FIG. 3D shows a state in which the approach distance G from the two front light emitters 42a and 42b to the road surface is G2, and the approach distance G from the two rear light emitters 42c and 42d to the road surface is G1. ing. Thus, the inclination with respect to the road surface of the vehicle can be obtained by estimating the approach distance G for each of the light emitters 42a to 42d. Therefore, the control unit 20 can estimate the approach distance G between the position on the road surface corresponding to an arbitrary pixel in the road surface image I and the vehicle body by the interpolation operation by the function of the movement state estimation module 21c. The interpolation calculation may be performed by weighted averaging the approach distance G for each of the light emitters 42a to 42d with the distance from any pixel to the four corners of the road surface image I.

制御部20は、特徴点Pt1,Pt2や特徴点の線像Lt3,Lt4に対応する路面上の位置と車体との間の接近距離Gを推定し、当該接近距離Gに対応する換算係数Mを取得する。図3Fは、換算係数Mと接近距離Gとの関係を示す。接近距離Gが小さいほどカメラ43が路面に接近しているため、一画素に対応する路面上の移動距離が大きくなる。
従って、接近距離Gが小さいほど換算係数Mが大きくなる。なお、制御部20は、特徴点Pt1,Pt2の間の距離を路面上の移動距離(第1移動状態)に変換するにあたり、特徴点Pt1,Pt2の中間の画素について接近距離Gを推定し、当該接近距離Gに対応する換算係数Mを使用してもよい。
The control unit 20 estimates the approach distance G between the position on the road surface corresponding to the feature points Pt1 and Pt2 and the line images Lt3 and Lt4 of the feature points and the vehicle body, and calculates the conversion coefficient M corresponding to the approach distance G. get. FIG. 3F shows the relationship between the conversion coefficient M and the approach distance G. Since the camera 43 is closer to the road surface as the approach distance G is smaller, the moving distance on the road surface corresponding to one pixel becomes larger.
Therefore, the conversion coefficient M increases as the approach distance G decreases. In addition, the control unit 20 estimates the approach distance G for a pixel in the middle of the feature points Pt1 and Pt2 when converting the distance between the feature points Pt1 and Pt2 into a movement distance on the road surface (first movement state). A conversion coefficient M corresponding to the approach distance G may be used.

また、露光時間t1〜t2間で接近距離Gが変化した場合、制御部20は、変化前後の接近距離Gの平均値に対応する換算係数Mを使用してもよい。また、制御部20は、特徴点の線像Lt3,Lt4の長さを路面上の移動距離(第2移動状態)に変換するにあたり、特徴点の線像Lt3,Lt4それぞれの中点の画素について接近距離Gを推定し、当該接近距離Gに対応する換算係数Mを使用してもよい。以上のように、接近距離Gに対応する換算係数Mを使用して移動距離を得ることにより、路面に対する車体の傾きと接近度に基づいて特徴点の変位を補正した上で、移動距離を得ることができる。   When the approach distance G changes between the exposure times t1 and t2, the control unit 20 may use a conversion coefficient M corresponding to the average value of the approach distances G before and after the change. Further, the control unit 20 converts the lengths of the feature point line images Lt3 and Lt4 into the movement distance on the road surface (second movement state) with respect to the middle point pixels of the feature point line images Lt3 and Lt4. The approach distance G may be estimated and a conversion coefficient M corresponding to the approach distance G may be used. As described above, by obtaining the movement distance using the conversion coefficient M corresponding to the approach distance G, the displacement of the feature point is corrected based on the inclination and the approach degree of the vehicle body with respect to the road surface, and the movement distance is obtained. be able to.

以上説明した本実施形態の構成において、路面画像Iは、車両の底面に備えられたカメラによって撮像した路面の画像であるため、周辺環境光の影響を抑制できる。従って、周辺環境光の影響を受けにくく高精度に車両の移動状態を推定できる。カメラ43は車両とともに移動するため、路面画像Iにおける特徴点の変位に基づいて、路面に対する車両の移動状態を推定できる。   In the configuration of the present embodiment described above, the road surface image I is an image of the road surface imaged by the camera provided on the bottom surface of the vehicle, so that the influence of ambient ambient light can be suppressed. Accordingly, it is possible to estimate the moving state of the vehicle with high accuracy and not easily affected by ambient ambient light. Since the camera 43 moves together with the vehicle, the moving state of the vehicle relative to the road surface can be estimated based on the displacement of the feature points in the road surface image I.

制御部20は、異なる時刻において撮像された複数の路面画像I間における特徴点Pt1,Pt2の変位に基づいて車両の第1移動状態を推定する。これにより、複数の路面画像I間における特徴点の変位を、当該複数の路面画像I間を撮像した時刻間の長さ(時間)で除算した値に基づいて、移動速度を推定できる。また、複数の路面画像間における特徴点の変位の方向に基づいて、車両の移動方向を推定できる。   The control unit 20 estimates the first movement state of the vehicle based on the displacement of the feature points Pt1 and Pt2 between the plurality of road surface images I taken at different times. Accordingly, the moving speed can be estimated based on a value obtained by dividing the displacement of the feature points between the plurality of road surface images I by the length (time) between the times when the plurality of road surface images I are imaged. Further, the moving direction of the vehicle can be estimated based on the direction of displacement of the feature points between the plurality of road surface images.

制御部20は、単一の時刻において撮像された単一の路面画像Iにおける特徴点の線像Lt3,Lt4に基づいて特徴点の変位を取得し、当該特徴点の変位に基づいて車両の移動状態を推定する。単一の路面画像Iにおける特徴点の線像Lt3,Lt4は、単一の路面画像Iの露光時間t3,t4の始期における特徴点の位置と、当該露光時間t3,t4の終期における特徴点の位置とを接続する線であると考えることができる。従って、単一の路面画像Iにおける特徴点の線像Lt3,Lt4に基づいて特徴点の変位を取得できる。単一の露光時間t3,t4ごとに車両の第2移動状態を推定でき、第2移動状態を迅速に得ることができる。さらに、第1移動状態と第2移動状態の双方に基づいて、車両の移動状態を推定するため、推定された移動状態の信頼性を向上させることができる。   The control unit 20 acquires the displacement of the feature point based on the line images Lt3 and Lt4 of the feature point in the single road surface image I imaged at a single time, and moves the vehicle based on the displacement of the feature point. Estimate the state. The line images Lt3 and Lt4 of the feature points in the single road surface image I are the positions of the feature points at the beginning of the exposure times t3 and t4 of the single road surface image I and the feature points at the end of the exposure times t3 and t4. It can be thought of as a line connecting the positions. Accordingly, the displacement of the feature point can be acquired based on the feature point line images Lt3 and Lt4 in the single road surface image I. The second movement state of the vehicle can be estimated every single exposure time t3, t4, and the second movement state can be obtained quickly. Furthermore, since the moving state of the vehicle is estimated based on both the first moving state and the second moving state, the reliability of the estimated moving state can be improved.

また、特徴点の変位が路面に対する車体の傾きと接近度に基づいて補正されるため、路面に対するカメラ43の撮像距離や光軸方向が変動しても、当該変動の影響を相殺するように特徴点の変位を補正することにより、移動状態を高精度に推定できる。この車両の傾きと接近度とは、路面上における路面画像Iの撮像範囲Rに対して複数の角度で投射された光の投射位置Ea〜Edに基づいて特定される。これにより、複数の角度で投射された光の投射位置Ea〜Edを路面画像Iに基づいて特定でき、カメラ43を個別に設けることなく車両の傾きと接近度とを得ることができる。   In addition, since the displacement of the feature point is corrected based on the inclination and proximity of the vehicle body with respect to the road surface, even if the imaging distance of the camera 43 relative to the road surface and the optical axis direction vary, the effect of the variation is offset. By correcting the displacement of the points, the movement state can be estimated with high accuracy. The inclination and the approach degree of the vehicle are specified based on the projection positions Ea to Ed of light projected at a plurality of angles with respect to the imaging range R of the road surface image I on the road surface. Thereby, the projection positions Ea to Ed of the light projected at a plurality of angles can be specified based on the road surface image I, and the inclination and the approach degree of the vehicle can be obtained without providing the cameras 43 individually.

(2)移動状態推定処理:
次に、ナビゲーションプログラム21によって実行される移動状態推定処理を説明する。図4は、移動状態推定処理のフローチャートである。まず、路面画像取得モジュール21bの機能により制御部20は、路面画像Iを取得する(ステップS100)。次に、移動状態推定モジュール21cの機能により制御部20は、路面画像Iにおいて特徴点Pt2を抽出する(ステップS110)。なお、図2E,2Fに示すように、特徴点の線像Lt3,Lt4が抽出された場合、制御部20は、特徴点の線像Lt3,Lt4の始点を特徴点の位置と見なす。
(2) Movement state estimation processing:
Next, the movement state estimation process executed by the navigation program 21 will be described. FIG. 4 is a flowchart of the movement state estimation process. First, the control unit 20 acquires a road surface image I by the function of the road surface image acquisition module 21b (step S100). Next, the control unit 20 extracts a feature point Pt2 from the road surface image I by the function of the movement state estimation module 21c (step S110). 2E and 2F, when the feature point line images Lt3 and Lt4 are extracted, the control unit 20 regards the start points of the feature point line images Lt3 and Lt4 as the feature point positions.

次に、移動状態推定モジュール21cの機能により制御部20は、投射画素に基づいて接近距離Gを推定する(ステップS120)。投射画素とは、発光器42a〜42dから発光されたレーザ光の路面における投射位置Ea〜Edに対応する画素であり、レーザ光の強度に対応する受光強度を示す画素である。制御部20は、路面画像Iにおける投射画素の位置に基づいて発光器42a〜42dごとに接近距離Gを推定する。ここで、路面画像Iにおける投射画素の位置が路面画像Iの中央に近いほど接近距離Gとして大きい距離が推定されることとなる。   Next, the control part 20 estimates the approach distance G based on a projection pixel by the function of the movement state estimation module 21c (step S120). The projection pixels are pixels corresponding to the projection positions Ea to Ed on the road surface of the laser light emitted from the light emitters 42a to 42d, and are pixels that indicate the received light intensity corresponding to the intensity of the laser light. The control unit 20 estimates the approach distance G for each of the light emitters 42a to 42d based on the position of the projection pixel in the road surface image I. Here, as the position of the projection pixel in the road surface image I is closer to the center of the road surface image I, a larger distance is estimated as the approach distance G.

次に、移動状態推定モジュール21cの機能により制御部20は、フレーム情報(不図示)を記録媒体30に記録する(ステップS130)。フレーム情報とは、現在の路面画像I(フレーム)についての情報であり、抽出した特徴点Pt1,Pt2(特徴点の線像Lt3,Lt4の始点も含む)の特徴(受光強度、形状)や位置と、発光器42a〜42dごとに接近距離Gとを示す情報である。   Next, the control unit 20 records frame information (not shown) on the recording medium 30 by the function of the movement state estimation module 21c (step S130). The frame information is information about the current road surface image I (frame), and features (light receiving intensity and shape) and positions of the extracted feature points Pt1 and Pt2 (including the start points of the feature point line images Lt3 and Lt4). And the approach distance G for each of the light emitters 42a to 42d.

次に、移動状態推定モジュール21cの機能により制御部20は、前フレームのフレーム情報を取得する(ステップS140)。前フレームとは、直前の撮像周期にて撮像された路面画像Iである。ここで、前フレームが露光時間t1の路面画像I(図2C)であり、現在のフレームが露光時間t2の路面画像I(図2D)であることとして説明する。   Next, the control unit 20 acquires the frame information of the previous frame by the function of the movement state estimation module 21c (step S140). The previous frame is a road surface image I imaged in the immediately preceding imaging cycle. Here, it is assumed that the previous frame is the road surface image I (FIG. 2C) at the exposure time t1, and the current frame is the road surface image I (FIG. 2D) at the exposure time t2.

次に、移動状態推定モジュール21cの機能により制御部20は、フレーム間における特徴点Pt1,Pt2の変位ベクトルを取得する(ステップS150)。具体的に、制御部20は、異なる時刻に撮像された2個の路面画像Iから、路面上の同一の凹凸や汚れ等に対応する特徴点Pt1,Pt2を抽出し、当該特徴点Pt1,Pt2間の変位に基づいて車両の移動状態を推定する。路面上の同一の凹凸や汚れ等に対応する特徴点Pt1,Pt2は、特徴(受光強度,形状)が基準以上類似する特徴点Pt1,Pt2である。制御部20は、路面画像Iにおいて特徴点Pt1を始点とし特徴点Pt2を終点とする変位ベクトルを取得する。   Next, the control unit 20 acquires the displacement vectors of the feature points Pt1 and Pt2 between the frames by the function of the movement state estimation module 21c (step S150). Specifically, the control unit 20 extracts feature points Pt1 and Pt2 corresponding to the same unevenness and dirt on the road surface from two road surface images I taken at different times, and the feature points Pt1 and Pt2 The movement state of the vehicle is estimated based on the displacement between the two. The feature points Pt1 and Pt2 corresponding to the same unevenness and dirt on the road surface are the feature points Pt1 and Pt2 whose features (light reception intensity and shape) are similar to each other from the reference. The control unit 20 acquires a displacement vector having a feature point Pt1 as a start point and a feature point Pt2 as an end point in the road surface image I.

次に、移動状態推定モジュール21cの機能により制御部20は、接近距離Gに対応する換算係数Mを取得する(ステップS160)。具体的に、制御部20は、露光時間t1,t2における発光器42a〜42dの接近距離Gに基づいて、特徴点Pt1,Pt2の位置(特徴点Pt1,Pt2を結ぶ変位ベクトルの中点)に対応する接近距離Gを取得し、当該接近距離Gに対応する換算係数Mを取得する。   Next, the control part 20 acquires the conversion factor M corresponding to the approach distance G by the function of the movement state estimation module 21c (step S160). Specifically, the control unit 20 determines the position of the feature points Pt1 and Pt2 (the middle point of the displacement vector connecting the feature points Pt1 and Pt2) based on the approach distance G of the light emitters 42a to 42d at the exposure times t1 and t2. A corresponding approach distance G is acquired, and a conversion coefficient M corresponding to the approach distance G is acquired.

次に、移動状態推定モジュール21cの機能により制御部20は、第1移動状態を推定する(ステップS170)。すなわち、制御部20は、変位ベクトルの方向の反対方向を移動方向として推定するとともに、変位ベクトルの長さに換算係数Mを乗算して得た移動距離を2個の路面画像Iが撮像された時刻間の期間(t1〜t2)の長さで除算することにより移動速度を推定する。   Next, the control unit 20 estimates the first movement state by the function of the movement state estimation module 21c (step S170). That is, the control unit 20 estimates the direction opposite to the direction of the displacement vector as the moving direction, and two road surface images I are captured of the moving distance obtained by multiplying the length of the displacement vector by the conversion factor M. The moving speed is estimated by dividing by the length of the period between times (t1 to t2).

次に、移動状態推定モジュール21cの機能により制御部20は、特徴点の線像が抽出されたか否かを判定する(ステップS180)。すなわち、制御部20は、短辺と長辺のアスペクト比が閾値以上となる特徴点の線像がステップS110にて抽出されていたか否かを判定する。ここで、現在のフレームが露光時間t3の路面画像Iであり、特徴点の線像Lt3が抽出されたこととして以下説明する。   Next, the control unit 20 determines whether or not a feature point line image has been extracted by the function of the movement state estimation module 21c (step S180). That is, the control unit 20 determines whether or not a line image of a feature point whose aspect ratio between the short side and the long side is equal to or greater than the threshold has been extracted in step S110. Here, it will be described below that the current frame is the road surface image I at the exposure time t3 and the line image Lt3 of the feature point is extracted.

特徴点の線像Lt3が抽出されたと判定した場合(ステップS180:Y)、移動状態推定モジュール21cの機能により制御部20は、特徴点の線像Lt3の両端を接続する変位ベクトルを取得する(ステップS200)。すなわち、制御部20は、露光開始時刻における特徴点の位置と、露光終了時刻における特徴点の位置とを接続する変位ベクトルを取得する。   When it is determined that the feature point line image Lt3 has been extracted (step S180: Y), the control unit 20 acquires a displacement vector connecting both ends of the feature point line image Lt3 by the function of the movement state estimation module 21c ( Step S200). That is, the control unit 20 acquires a displacement vector that connects the position of the feature point at the exposure start time and the position of the feature point at the exposure end time.

次に、移動状態推定モジュール21cの機能により制御部20は、接近距離Gに対応する換算係数Mを取得する(ステップS210)。具体的に、制御部20は、露光時間t3における発光器42a〜42dの接近距離Gに基づいて、特徴点の線像Lt3の位置に対応する接近距離Gを取得し、当該接近距離Gに対応する換算係数Mを取得する。   Next, the control part 20 acquires the conversion factor M corresponding to the approach distance G by the function of the movement state estimation module 21c (step S210). Specifically, the control unit 20 acquires the approach distance G corresponding to the position of the line image Lt3 of the feature point based on the approach distance G of the light emitters 42a to 42d at the exposure time t3, and corresponds to the approach distance G. The conversion coefficient M to be acquired is acquired.

次に、移動状態推定モジュール21cの機能により制御部20は、第2移動状態を推定する(ステップS220)。すなわち、制御部20は、変位ベクトルの方向の反対方向を移動方向として推定するとともに、変位ベクトルの長さに換算係数Mを乗算して得た移距離を単一の露光時間t3の長さで除算することにより移動速度を推定する。   Next, the control unit 20 estimates the second movement state by the function of the movement state estimation module 21c (step S220). That is, the control unit 20 estimates the direction opposite to the direction of the displacement vector as the moving direction, and calculates the distance obtained by multiplying the length of the displacement vector by the conversion factor M by the length of the single exposure time t3. The moving speed is estimated by dividing.

次に、移動状態推定モジュール21cの機能により制御部20は、第1移動状態と第2移動状態とを平均した移動状態を出力する(ステップS230)。すなわち、制御部20は、第1移動状態と第2移動状態とを平均した移動状態を最終的に推定された移動状態として出力する。これにより、ナビゲーションモジュール21aの機能により制御部20は、最終的に推定された移動状態に基づいて車両の現在位置を推定したり、当該現在位置を示すマーカを重畳してタッチパネルディスプレイ41上に表示したりすることができる。   Next, the control part 20 outputs the movement state which averaged the 1st movement state and the 2nd movement state by the function of the movement state estimation module 21c (step S230). That is, the control unit 20 outputs the movement state obtained by averaging the first movement state and the second movement state as the finally estimated movement state. As a result, the control unit 20 estimates the current position of the vehicle based on the finally estimated movement state or superimposes the marker indicating the current position on the touch panel display 41 by the function of the navigation module 21a. You can do it.

一方、特徴点の線像が抽出されたと判定しなかった場合(ステップS180:N)、移動状態推定モジュール21cの機能により制御部20は、第1移動状態を出力する(ステップS190)。すなわち、制御部20は、現在のフレームにおいては第2移動状態を推定することができないため、現在のフレームにおいて推定可能な第1移動状態をそのまま出力する。なお、移動速度が小さい場合に特徴点の線像が抽出されず第2移動状態が推定できないこととなる。   On the other hand, when it is not determined that the feature point line image has been extracted (step S180: N), the control unit 20 outputs the first movement state by the function of the movement state estimation module 21c (step S190). That is, since the second moving state cannot be estimated in the current frame, the control unit 20 outputs the first moving state that can be estimated in the current frame as it is. When the moving speed is low, the feature point line image is not extracted and the second moving state cannot be estimated.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、本発明の効果を損なわない範囲で実施形態の変更が可能である。例えば、制御部20は、第1移動状態と第2移動状態の一方のみを推定してもよい。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and the embodiment can be changed within a range not impairing the effect of the present invention. For example, the control unit 20 may estimate only one of the first movement state and the second movement state.

例えば、路面に対する車体の傾きと接近度は、距離センサや加速度センサやジャイロセンサの計測値に基づいて取得されてもよい。さらに、車両の傾きと接近度は、サスペンションの状態やタイヤの摩耗状態に基づいて取得されてもよい。さらに、発光器42a〜42dから出力されたレーザ光をカメラ43とは別のカメラにて撮像してもよい。   For example, the inclination and the approach degree of the vehicle body with respect to the road surface may be acquired based on measurement values of a distance sensor, an acceleration sensor, and a gyro sensor. Furthermore, the inclination and the approach degree of the vehicle may be acquired based on the state of the suspension and the wear state of the tire. Further, the laser light output from the light emitters 42 a to 42 d may be captured by a camera different from the camera 43.

また、前記実施携形態のように車体の傾きまで考慮しなくてもよく、一点(例えばカメラ43の主光軸上)のみ接近距離Gを計測することにより、路面に対する車体の接近度のみを考慮してもよい。すなわち、制御部20は、特徴点Pt1,Pt2や特徴点の線像Lt3,Pt4の位置に非依存の接近距離Gに対応する換算係数Mを取得してもよい。さらに、制御部20は、実際の車体の傾きと接近度を計測することなく、車種ごとに一定の接近距離Gに対応する換算係数Mを取得してもよい。   Further, it is not necessary to consider the inclination of the vehicle body as in the above embodiment, and only the degree of vehicle body approach to the road surface is considered by measuring the approach distance G only at one point (for example, on the main optical axis of the camera 43). May be. That is, the control unit 20 may acquire the conversion coefficient M corresponding to the approach distance G independent of the positions of the feature points Pt1 and Pt2 and the feature point line images Lt3 and Pt4. Furthermore, the control unit 20 may acquire a conversion coefficient M corresponding to a certain approach distance G for each vehicle type without measuring the actual inclination and approach degree of the vehicle body.

以上の実施形態は本発明を実施するための一例であり、他にも種々の実施形態を採用可能である。車両の底面とは、車体表面のうち路面と向き合う面である。カメラは、車両の底面に備えられればよいが、できるだけ環境光の影響が少ない撮像範囲となるように光軸方向と画角とが設定されることが望ましい。例えば、鉛直方向から見た場合の車体の中央に光軸が位置するようにカメラが設けられてもよい。また、鉛直方向から見た場合の車体の外縁から規定の距離以上内側に撮像範囲が存在するようにカメラが設けられてもよい。カメラは、可視光が撮像可能なカメラであってもよいし、赤外光や紫外光が撮像可能なカメラであってもよい。例えば、赤外光を撮像可能なカメラを用いることで、環境光の影響が少ない路面画像を得ることができる。   The above embodiment is an example for carrying out the present invention, and various other embodiments can be adopted. The bottom surface of the vehicle is a surface of the vehicle body surface that faces the road surface. The camera may be provided on the bottom surface of the vehicle, but it is desirable that the optical axis direction and the angle of view are set so that the imaging range is as small as possible with the influence of ambient light. For example, the camera may be provided so that the optical axis is located at the center of the vehicle body when viewed from the vertical direction. In addition, the camera may be provided so that the imaging range exists inside a predetermined distance from the outer edge of the vehicle body when viewed from the vertical direction. The camera may be a camera capable of capturing visible light, or may be a camera capable of capturing infrared light or ultraviolet light. For example, by using a camera capable of capturing infrared light, a road surface image with little influence of ambient light can be obtained.

路面画像取得部は、移動状態を推定するタイミングで撮像された路面画像を取得すればよく、周期的に撮像された路面画像を取得することにより移動状態を周期的に推定してもよい。路面画像取得部は、カメラから、直接、路面画像を取得してもよいし、車両を介して路面画像を取得してもよい。特徴点とは、路面画像において画像的な特徴を有する点であり、路面のうち特徴的な形状や色彩を有する点が撮像された点である。特徴点の変位とは、特徴点の移動距離や移動方向である。移動状態推定部は、特徴点の移動距離や移動方向に基づいて車両の移動距離や移動方向を推定できる。   The road surface image acquisition unit only needs to acquire a road surface image captured at the timing of estimating the movement state, and may periodically estimate the movement state by acquiring the road surface image periodically captured. The road surface image acquisition unit may acquire the road surface image directly from the camera, or may acquire the road surface image via the vehicle. A feature point is a point having an image feature in a road surface image, and is a point where a point having a characteristic shape or color is captured on the road surface. The feature point displacement is the moving distance or moving direction of the feature point. The movement state estimation unit can estimate the movement distance and movement direction of the vehicle based on the movement distance and movement direction of the feature points.

また、移動状態推定部は、異なる時刻において撮像された複数の路面画像間における特徴点の変位に基づいて車両の移動状態を推定してもよい。すなわち、複数の路面画像間における特徴点の変位を、当該複数の路面画像間を撮像した時刻間の長さ(時間)で除算した値に基づいて、移動速度を推定できる。また、複数の路面画像間における特徴点の変位の方向に基づいて、車両の移動方向を推定できる。   Further, the movement state estimation unit may estimate the movement state of the vehicle based on the displacement of the feature points between a plurality of road surface images captured at different times. That is, the moving speed can be estimated based on a value obtained by dividing the displacement of the feature points between the plurality of road surface images by the length (time) between the times when the plurality of road surface images are captured. Further, the moving direction of the vehicle can be estimated based on the direction of displacement of the feature points between the plurality of road surface images.

さらに、移動状態推定部は、単一の時刻において撮像された単一の路面画像における特徴点の線像に基づいて特徴点の変位を取得し、当該特徴点の変位に基づいて車両の移動状態を推定してもよい。すなわち、単一の路面画像における特徴点の線像(いわゆる被写体ブレ)は、単一の路面画像の露光時間の始期における特徴点の位置と、当該露光時間の終期における特徴点の位置とを接続する線であると考えることができる。従って、単一の路面画像における特徴点の線像に基づいて特徴点の変位を取得できる。単一の露光時間ごとに車両の移動状態を推定でき、移動状態を迅速に得ることができる。   Further, the movement state estimation unit obtains the displacement of the feature point based on the line image of the feature point in the single road surface image captured at a single time, and the movement state of the vehicle based on the displacement of the feature point. May be estimated. That is, a line image of feature points in a single road image (so-called subject blur) connects the position of the feature point at the beginning of the exposure time of the single road surface image with the position of the feature point at the end of the exposure time. It can be thought of as a line to do. Therefore, the displacement of the feature point can be acquired based on the line image of the feature point in the single road surface image. The movement state of the vehicle can be estimated for each single exposure time, and the movement state can be obtained quickly.

また、移動状態推定部は、異なる時刻において撮像された複数の路面画像間における特徴点の変位に基づいて特定した車両の移動状態である第1移動状態と、単一の時刻において撮像された単一の路面画像における特徴点の線像に基づいて特徴点の変位を取得し、当該特徴点の変位に基づいて特定した車両の移動状態である第2移動状態の双方に基づいて、車両の移動状態を推定してもよい。複数の路面画像間における特徴点の変位に基づいて特定した第1移動状態と、単一の路面画像における特徴点の線像に基づいて特定した第2移動状態の双方に基づいて、車両の移動状態を推定するため、推定された移動状態の信頼性を向上させることができる。   The movement state estimation unit also includes a first movement state that is the movement state of the vehicle specified based on the displacement of the feature points between a plurality of road surface images captured at different times, and a single image captured at a single time. The displacement of the feature point is acquired based on the line image of the feature point in the one road surface image, and the vehicle is moved based on both the second movement state that is the movement state of the vehicle specified based on the displacement of the feature point. The state may be estimated. Movement of the vehicle based on both the first movement state identified based on the displacement of the feature points between the plurality of road surface images and the second movement state identified based on the line images of the feature points in the single road surface image Since the state is estimated, the reliability of the estimated moving state can be improved.

さらに、特徴点の変位は、路面に対する車体の傾きと接近度との少なくとも一方に基づいて補正されてもよい。これにより、路面に対するカメラの撮像距離や光軸方向が変動しても、当該変動の影響を相殺するように特徴点の変位を補正することにより、移動状態を高精度に推定できる。   Furthermore, the displacement of the feature point may be corrected based on at least one of the inclination of the vehicle body with respect to the road surface and the degree of approach. Thereby, even if the imaging distance of the camera with respect to the road surface and the optical axis direction vary, the movement state can be estimated with high accuracy by correcting the displacement of the feature points so as to cancel the influence of the variation.

また、車両の傾きと接近度との少なくとも一方は、路面上における路面画像の撮像範囲に対して複数の角度で投射された光の投射位置に基づいて特定されてもよい。複数の角度で投射された光の投射位置を路面画像に基づいて特定でき、カメラを個別に設けることなく車両の傾きと接近度との少なくとも一方を得ることができる。   Further, at least one of the inclination and the approach degree of the vehicle may be specified based on the projection positions of light projected at a plurality of angles with respect to the imaging range of the road surface image on the road surface. The projection positions of the light projected at a plurality of angles can be specified based on the road surface image, and at least one of the vehicle inclination and the approach degree can be obtained without providing a camera individually.

さらに、車両の底面に備えられたカメラによって路面を撮像した路面画像に基づいて車両の移動状態を推定する手法は、プログラムや方法としても適用可能である。また、以上のような移動状態推定システム、プログラム、方法は、単独の移動状態推定システムとして実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。例えば、以上のような移動状態推定システムを備えたナビゲーションシステムや方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、移動状態推定システムを制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Furthermore, the method of estimating the moving state of the vehicle based on the road surface image obtained by imaging the road surface with the camera provided on the bottom surface of the vehicle can also be applied as a program or a method. In addition, the moving state estimation system, the program, and the method as described above may be realized as a single moving state estimation system or may be realized by using components shared with each part provided in the vehicle. Various embodiments are included. For example, it is possible to provide a navigation system, method, and program that include the above-described moving state estimation system. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the present invention is also established as a recording medium for a program for controlling the movement state estimation system. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

10…ナビゲーション装置、20…制御部、21…ナビゲーションプログラム、21a…ナビゲーションモジュール、21b…路面画像取得モジュール、21c…移動状態推定モジュール、30…記録媒体、30a…地図情報、41…タッチパネルディスプレイ、42a〜42d…発光器、43…カメラ,…受光強度、Ea〜Ed…投射位置、G…接近距離、H…車体、I…路面画像、Lt3…線像、Lt3,Lt4…特徴点の線像、M…換算係数、Pt1,Pt2…特徴点、R…撮像範囲、t3〜t4…露光時間、V…移動速度 DESCRIPTION OF SYMBOLS 10 ... Navigation apparatus, 20 ... Control part, 21 ... Navigation program, 21a ... Navigation module, 21b ... Road surface image acquisition module, 21c ... Movement state estimation module, 30 ... Recording medium, 30a ... Map information, 41 ... Touch panel display, 42a ˜42d ... light emitter, 43 ... camera, ... light receiving intensity, Ea-Ed ... projection position, G ... access distance, H ... vehicle body, I ... road surface image, Lt3 ... line image, Lt3, Lt4 ... line image of feature points, M: conversion coefficient, Pt1, Pt2 ... feature point, R ... imaging range, t3 to t4 ... exposure time, V ... movement speed

Claims (8)

車両の底面に備えられたカメラによって路面を撮像した路面画像を取得する路面画像取得部と、
前記路面画像における特徴点の変位に基づいて前記車両の移動状態を推定する移動状態推定部と、
を備える移動状態推定システム。
A road surface image acquisition unit that acquires a road surface image obtained by imaging the road surface with a camera provided on the bottom surface of the vehicle;
A movement state estimation unit that estimates a movement state of the vehicle based on a displacement of a feature point in the road surface image;
A moving state estimation system comprising:
前記移動状態推定部は、異なる時刻において撮像された複数の前記路面画像間における前記特徴点の変位に基づいて前記車両の移動状態を推定する、
請求項1に記載の移動状態推定システム。
The movement state estimation unit estimates a movement state of the vehicle based on displacement of the feature points between a plurality of the road surface images captured at different times.
The movement state estimation system according to claim 1.
前記移動状態推定部は、単一の時刻において撮像された単一の前記路面画像における前記特徴点の線像に基づいて前記特徴点の変位を取得し、当該特徴点の変位に基づいて前記車両の移動状態を推定する、
請求項1に記載の移動状態推定システム。
The movement state estimation unit acquires a displacement of the feature point based on a line image of the feature point in a single road surface image captured at a single time, and the vehicle based on the displacement of the feature point Estimate the moving state of
The movement state estimation system according to claim 1.
前記移動状態推定部は、
異なる時刻において撮像された複数の前記路面画像間における前記特徴点の変位に基づいて特定した前記車両の移動状態である第1移動状態と、
単一の時刻において撮像された単一の前記路面画像における前記特徴点の線像に基づいて前記特徴点の変位を取得し、当該特徴点の変位に基づいて特定した前記車両の移動状態である第2移動状態の双方に基づいて、前記車両の移動状態を推定する、
請求項1に記載の移動状態推定システム。
The movement state estimation unit
A first movement state that is a movement state of the vehicle specified based on a displacement of the feature point between the plurality of road surface images captured at different times;
The movement state of the vehicle is acquired based on the displacement of the feature point based on the line image of the feature point in the single road surface image captured at a single time and specified based on the displacement of the feature point. Estimating the moving state of the vehicle based on both second moving states;
The movement state estimation system according to claim 1.
前記特徴点の変位は、路面に対する車体の傾きと接近度との少なくとも一方に基づいて補正される、
請求項1から請求項4のいずれか一項に記載の移動状態推定システム。
The displacement of the feature point is corrected based on at least one of the inclination and the approach degree of the vehicle body with respect to the road surface.
The movement state estimation system according to any one of claims 1 to 4.
前記車両の傾きと接近度との少なくとも一方は、前記路面上における前記路面画像の撮像範囲に対して複数の角度で投射された光の投射位置に基づいて特定される、
請求項5に記載の移動状態推定システム。
At least one of the inclination and the approach degree of the vehicle is specified based on a projection position of light projected at a plurality of angles with respect to an imaging range of the road surface image on the road surface.
The movement state estimation system according to claim 5.
車両の底面に備えられたカメラによって路面を撮像した路面画像を取得する路面画像取得工程と、
前記路面画像における特徴点の変位に基づいて前記車両の移動状態を推定する移動状態推定工程と、
を含む移動状態推定方法。
A road surface image acquisition step of acquiring a road surface image obtained by imaging the road surface with a camera provided on the bottom surface of the vehicle;
A moving state estimating step of estimating a moving state of the vehicle based on displacement of feature points in the road surface image;
A moving state estimation method including:
車両の底面に備えられたカメラによって路面を撮像した路面画像を取得する路面画像取得機能と、
前記路面画像における特徴点の変位に基づいて前記車両の移動状態を推定する移動状態推定機能と、
をコンピュータに実現させる移動状態推定プログラム。
A road surface image acquisition function for acquiring a road surface image obtained by imaging the road surface with a camera provided on the bottom surface of the vehicle;
A movement state estimation function for estimating a movement state of the vehicle based on a displacement of a feature point in the road surface image;
A moving state estimation program that causes a computer to realize the above.
JP2015219140A 2015-11-09 2015-11-09 Movement state estimation system, method, and program Pending JP2017091128A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015219140A JP2017091128A (en) 2015-11-09 2015-11-09 Movement state estimation system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015219140A JP2017091128A (en) 2015-11-09 2015-11-09 Movement state estimation system, method, and program

Publications (1)

Publication Number Publication Date
JP2017091128A true JP2017091128A (en) 2017-05-25

Family

ID=58771554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015219140A Pending JP2017091128A (en) 2015-11-09 2015-11-09 Movement state estimation system, method, and program

Country Status (1)

Country Link
JP (1) JP2017091128A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075356A1 (en) * 2020-10-07 2022-04-14 パイオニア株式会社 Information processing apparatus, control method, program, and storage medium
WO2022196709A1 (en) * 2021-03-19 2022-09-22 株式会社豊田自動織機 Autonomous vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075356A1 (en) * 2020-10-07 2022-04-14 パイオニア株式会社 Information processing apparatus, control method, program, and storage medium
WO2022196709A1 (en) * 2021-03-19 2022-09-22 株式会社豊田自動織機 Autonomous vehicle

Similar Documents

Publication Publication Date Title
US20200334843A1 (en) Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system
JP6237876B2 (en) Self-position calculation device and self-position calculation method
JP6244407B2 (en) Improved depth measurement quality
RU2529594C1 (en) Calibration device, distance measurement system, calibration method and calibration programme
US10762643B2 (en) Method for evaluating image data of a vehicle camera
JP6589926B2 (en) Object detection device
JP6187671B2 (en) Self-position calculation device and self-position calculation method
US9684840B2 (en) Detection system
WO2015125301A1 (en) Local location computation device and local location computation method
JP6566768B2 (en) Information processing apparatus, information processing method, and program
WO2015125297A1 (en) Local location computation device and local location computation method
JP6176387B2 (en) Self-position calculation device and self-position calculation method
CN110942470B (en) Image processing apparatus and method
WO2015125296A1 (en) Local location computation device and local location computation method
US11803982B2 (en) Image processing device and three-dimensional measuring system
JP2013002884A (en) Distance measuring device
CN110501021B (en) Odometer estimation method and system based on camera and laser radar fusion
JP2017091128A (en) Movement state estimation system, method, and program
CN109309785B (en) Imaging control device and imaging control method
JP6398217B2 (en) Self-position calculation device and self-position calculation method
JP6789440B2 (en) Object identification device
WO2024034469A1 (en) Information processing device, information processing method, and program
JPH11183142A (en) Method and apparatus for picking up three-dimensional image
JP6398219B2 (en) Self-position calculation device and self-position calculation method
WO2024009605A1 (en) Image processing device and image processing method