JP2002286416A - Obstacle-recognizing apparatus - Google Patents

Obstacle-recognizing apparatus

Info

Publication number
JP2002286416A
JP2002286416A JP2001084120A JP2001084120A JP2002286416A JP 2002286416 A JP2002286416 A JP 2002286416A JP 2001084120 A JP2001084120 A JP 2001084120A JP 2001084120 A JP2001084120 A JP 2001084120A JP 2002286416 A JP2002286416 A JP 2002286416A
Authority
JP
Japan
Prior art keywords
obstacle
data
image
cluster
mobile unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001084120A
Other languages
Japanese (ja)
Inventor
Shinichi Matsunaga
慎一 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001084120A priority Critical patent/JP2002286416A/en
Publication of JP2002286416A publication Critical patent/JP2002286416A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an obstacle-recognizing apparatus for recognizing obstacles in the all directions required for autonomously moving a mobile unit such as a robot and an automobile safely without increasing the number of sensors and without making complex a data-processing system. SOLUTION: The obstacle-recognizing apparatus has an image-outputting means that is provided at the mobile unit, an obstacle extraction means for extracting an obstacle at least in front of the mobile unit from image data in the image-outputting means, a means for calculating the relative position between the mobile unit and the obstacle, a means for extracting an amount of feature in the obstacle, and a means for storing the amount of feature corresponding to the relative position. Thereby, it is possible to grasp the presence of the obstacle existing even outside the range that can be detected by the sensor by referring to past data that are accumulated at an obstacle database even using a sensor whose detection range is limited as a simple substance as the obstacle sensor.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、移動体に設けられ
た画像出力手段の画像データから移動体の少なくとも前
方の障害物を認識するための障害物認識装置に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an obstacle recognizing device for recognizing at least an obstacle in front of a moving object from image data of image output means provided on the moving object.

【0002】[0002]

【従来の技術】ロボットや自動車など自走する移動体の
障害物センサとして、超音波センサが一般に多用されて
いる。これには、出力の処理が簡単でしかも安価であ
り、距離測定や障害物の回避判断などの制御に用いるの
に適しているという利点がある。しかし超音波センサ
は、超音波が反射する障害物の一点についてのみの距離
情報を出力するものであり、出力可能な情報量に乏し
く、複数の物体が存在する複雑な環境には対応できない
上、特に三次元的に障害物をとらえることは不得意であ
る。
2. Description of the Related Art Ultrasonic sensors are widely used as obstacle sensors for self-propelled moving bodies such as robots and automobiles. This has the advantage that the output processing is simple and inexpensive and is suitable for use in control such as distance measurement and obstacle avoidance determination. However, the ultrasonic sensor outputs the distance information only for one point of the obstacle on which the ultrasonic wave is reflected, and the amount of information that can be output is small, and it cannot cope with a complex environment in which a plurality of objects exist, In particular, it is not good at catching obstacles three-dimensionally.

【0003】他方、比較的広範囲に対応し得る障害物セ
ンサとして、2台のカメラを使用した2眼立体視システ
ムや、二次元レーザーレーダーなどが知られている。し
かしこれらにしても、単体での検知範囲は限定されてお
り、移動体の全周囲に渡って障害物を検知しようとする
と、システムが大がかりとなり、高額なものにならざる
を得なかった。
On the other hand, as obstacle sensors capable of dealing with a relatively wide range, there are known a two-lens stereoscopic system using two cameras, a two-dimensional laser radar, and the like. However, even in these cases, the detection range of a single body is limited, and if an attempt is made to detect an obstacle over the entire periphery of the moving body, the system becomes large and has to be expensive.

【0004】[0004]

【発明が解決しようとする課題】本発明は、このような
従来技術の問題点を解消すべく案出されたものであり、
その主な目的は、ロボットや自動車などのような移動体
が安全に自律移動するために必要な全周囲の障害物を、
センサの数を増やしたり、データ処理システムを複雑化
したりせずに認識することの可能な障害物認識装置を提
供することにある。
SUMMARY OF THE INVENTION The present invention has been devised to solve such problems of the prior art.
Its main purpose is to remove obstacles around the surroundings necessary for a mobile object such as a robot or car to move safely and autonomously.
An object of the present invention is to provide an obstacle recognition device capable of performing recognition without increasing the number of sensors and without complicating a data processing system.

【0005】[0005]

【課題を解決するための手段】このような目的を果たす
ために、本発明においては、移動体に設けられた画像出
力手段と、前記画像出力手段の画像データから移動体の
少なくとも前方の障害物を抽出する障害物抽出手段と、
移動体と障害物との相対位置算出手段と、障害物の特徴
量を抽出する特徴量抽出手段と、特徴量を相対位置に対
応させて記憶する記憶手段とを有することを特徴とする
障害物認識装置を提供するものとした。
In order to achieve the above object, according to the present invention, there is provided an image output means provided on a moving body, and at least an obstacle in front of the moving body is obtained from image data of the image output means. Obstacle extraction means for extracting
An obstacle, comprising: a relative position calculation unit for a moving object and an obstacle; a feature amount extraction unit for extracting a feature amount of the obstacle; and a storage unit for storing the feature amount in association with the relative position. A recognition device was provided.

【0006】特に、障害物抽出手段は、検出されたデー
タをクラスタ処理するものであることを特徴とするもの
とすると良い。
In particular, it is preferable that the obstacle extracting means performs a cluster process on the detected data.

【0007】このようにすれば、障害物センサとして、
2眼立体視システムや二次元レーザーレーダーや、少数
の超音波センサなど、単体では検知範囲が限定されてい
るものを用いても、過去に検知した障害物データの履
歴、つまり障害物データベースに蓄積された過去のデー
タを参照することで、例えば、センサの検知可能範囲外
に存在する障害物も、その存在を把握することができ
る。
[0007] In this way, as an obstacle sensor,
The history of previously detected obstacle data, that is, stored in the obstacle database, even when using a single object with a limited detection range, such as a binocular stereo vision system, two-dimensional laser radar, and a small number of ultrasonic sensors By referring to the past data obtained, for example, it is possible to grasp the existence of an obstacle existing outside the detectable range of the sensor.

【0008】[0008]

【発明の実施の形態】以下に自律移動するロボットに適
用された本発明について添付の図面を参照して詳細に説
明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention applied to an autonomously moving robot will be described below in detail with reference to the accompanying drawings.

【0009】本発明による障害物認識装置は、図1に示
したように、2つのカメラの画像をとらえる2眼立体視
システムなどの画像出力手段1と、カメラの画像データ
から移動体の少なくとも前方の障害物を抽出する障害物
抽出手段2と、移動体と障害物との相対位置算出手段3
と、障害物の特徴量の抽出手段4と、障害物の特徴量を
相対位置情報に対応させて記憶する記憶手段5とからな
っている。
As shown in FIG. 1, an obstacle recognition device according to the present invention includes an image output means 1 such as a binocular stereoscopic vision system for capturing images of two cameras, and at least a forward object of a moving object from image data of the cameras. Obstacle extracting means 2 for extracting an obstacle, and relative position calculating means 3 for a moving body and an obstacle
And a storage unit 5 for storing the feature amount of the obstacle in association with the relative position information.

【0010】この装置における処理過程について図2を
参照して以下に説明する。まず、画像出力手段1によ
り、図3に示すような障害物10a〜10eを撮像した
明度画像を得ると共に、画素毎の三次元距離データを得
る(ステップ1)。なお、この場合に得られるカメラの
画像は、無限遠方の一点を消失点とする透視図で表さ
れ、ロボットが前進するに連れて、図3−aに示す画像
から図3−bに示す画像へ連続的に変化し、カメラの視
野を外れた障害物10a〜10cは画面に映らなくな
る。
The processing steps in this device will be described below with reference to FIG. First, the image output means 1 obtains brightness images of the obstacles 10a to 10e as shown in FIG. 3, and obtains three-dimensional distance data for each pixel (step 1). The camera image obtained in this case is represented by a perspective view in which one point at infinity is a vanishing point. As the robot moves forward, the image shown in FIG. The obstacles 10a to 10c that are continuously changed from the field of view of the camera are not displayed on the screen.

【0011】次いでロボットの自己位置データを入力す
る(ステップ2)。この位置データは、例えば、車輪の
回転数に基づく移動距離センサの出力と、例えばジャイ
ロコンパスなどを応用した進行方向センサの出力と、G
PSシステムの出力とを併用することで得られる。
Next, self-position data of the robot is input (step 2). The position data includes, for example, the output of a moving distance sensor based on the number of rotations of a wheel, the output of a traveling direction sensor using a gyro compass,
It can be obtained by using the output of the PS system together.

【0012】画像データから得た最新の三次元距離デー
タを、例えばヒストグラム処理することにより、障害物
のクラスタ(以下カレントクラスタと呼ぶ)を抽出する
(ステップ3)。さらに、各カレントクラスタについ
て、各特徴量を抽出する(ステップ4)。この特徴量と
は、実空間上の障害物の平均位置や、明度/距離画像上
のクラスタの外接矩形データや、高さ、大きさ、幅、実
空間上の分布(共分散行列等)である。
The latest three-dimensional distance data obtained from the image data is subjected to, for example, histogram processing to extract a cluster of obstacles (hereinafter referred to as a current cluster) (step 3). Further, each feature amount is extracted for each current cluster (step 4). The feature amount is an average position of an obstacle in the real space, circumscribed rectangular data of a cluster on the brightness / distance image, a height, a size, a width, and a distribution (a covariance matrix or the like) in the real space. is there.

【0013】次にロボット位置の変位データを用いて障
害物データベースに保存されているクラスタデータの位
置に関わるデータを修正し、かつロボットから遠く離れ
てしまって参照する必要がなくなったデータは削除する
(ステップ5)。
Next, using the displacement data of the robot position, the data relating to the position of the cluster data stored in the obstacle database is corrected, and the data which is far away from the robot and need not be referred to is deleted. (Step 5).

【0014】ここで障害物データベースに保存されてい
るクラスタデータは図4のようになっている。図4にお
いて、1aは、リストのヘッダであり、1b〜1dは各
クラスタの特徴量が保存された構造体データである。以
下に各数値の定義を示す。
The cluster data stored in the obstacle database is as shown in FIG. In FIG. 4, reference numeral 1a denotes a list header, and reference numerals 1b to 1d denote structure data in which feature amounts of respective clusters are stored. The definition of each numerical value is shown below.

【0015】numobj:ロボット周囲の障害物数 maxid:現在位置における全周囲の障害物に割り振られ
た識別値の最大値 gmypos:X,Y,Zは実空間上のロボットの位置、VX,VYは前
回からの変位から割り出したロボットの速度 time:更新した時刻 id:障害物毎に割り当てられたその障害物の識別値 sphist[]:sphist[0]は認識した特定構造物の識別値、s
phist[1..]は過去の識別結果 x,y:ローカルマップ上の平均位置 sig[3]:ローカルマップ上の分布(共分散行列)、順に
σxx,σxy,σyy *gim:クラスタの明度画像データの先頭アドレスポイン
タ(画像上でのクラスタが外接する矩形内の明度データ
を格納) *x,y,z:クラスタを構成するクラスタ要素の実空間デー
タ、X,Y,Zの先頭アドレスポインタ(2眼立体視などで
得られる画素単位のデータ) X,Y,Z:実空間上の障害物の平均位置 SIG[5]:実空間上の分布(共分散行列)、順にσxx,σx
y,σyy,σxz,σzz relation:クラスタが視野範囲内にあるか否かの識別値
(ロボットのカメラ姿勢とクラスタの位置とから判別) rect[4]:明度/距離画像上のクラスタの外接矩形デー
タ、順に左上x,y右下x,y RECT[6]:実空間上のクラスタの外接矩形データ、順にm
in(X),min(Y),min(Z),max(X),max(Y),max(Z)(min(X)は
Xの最小値・max(X)はXの最大値) history:derectは過去に検出された回数、countはこの
クラスタが初めて検出されてからの画像入力回数、prob
はderect/countで求まる存在確率
Numobj: Number of obstacles around the robot maxid: Maximum value of identification values assigned to all obstacles around the current position gmypos: X, Y, Z are positions of the robot in the real space, VX, VY are The speed of the robot calculated from the displacement from the previous time time: The updated time id: The identification value of the obstacle assigned to each obstacle sphist []: sphist [0] is the identification value of the recognized specific structure, s
phist [1 ..] is the past identification result x, y: average position on the local map sig [3]: distribution (covariance matrix) on the local map, σxx, σxy, σyy * gim: brightness image of cluster Data start address pointer (stores brightness data in a rectangle circumscribing the cluster on the image) * x, y, z: Real space data of the cluster elements constituting the cluster, X, Y, Z start address pointer ( X, Y, Z: average position of obstacles in real space SIG [5]: distribution (covariance matrix) in real space, σxx, σx in order
y, σyy, σxz, σzz relation: Identification value of whether or not the cluster is within the visual field range (determined from the camera posture of the robot and the position of the cluster) rect [4]: The circumscribed rectangle of the cluster on the brightness / range image Data, upper left x, y lower right x, y RECT [6]: circumscribed rectangular data of cluster in real space, m in order
in (X), min (Y), min (Z), max (X), max (Y), max (Z) (min (X) is
History: derect is the number of times detected in the past, count is the number of image inputs since this cluster was first detected, prob
Is the existence probability calculated by derect / count

【0016】次に、障害物データベース内のクラスタの
うち、ロボットとの相対位置がある一定の距離以内にあ
るクラスタについて、各カレントクラスタとのマッチン
グ評価値を算出し(ステップ6)、かつマッチング評価
値が所定値未満のカレントクラスタについては新規クラ
スタとして新たな識別値を付与して障害物データベース
に追加登録し、所定値以上のカレントクラスタについて
は同一クラスタとして更新する(ステップ7)。このマ
ッチング評価値としては、例えば、2眼立体視で通常用
いられているブロック毎の差の絶対値の和を用いれば良
い。
Next, among the clusters in the obstacle database, for a cluster whose relative position to the robot is within a certain distance, a matching evaluation value with each current cluster is calculated (step 6), and the matching evaluation is performed. A current cluster having a value smaller than a predetermined value is assigned a new identification value as a new cluster and additionally registered in the obstacle database, and a current cluster having a predetermined value or more is updated as the same cluster (step 7). As the matching evaluation value, for example, the sum of the absolute values of the differences for each block that is normally used in binocular stereopsis may be used.

【0017】次に、障害物データベース内の各クラスタ
について、存在確率(prob)を算出し(ステップ8)、
かつ存在確率が所定値未満なものはデータベースから削
除する更新を行う(ステップ9)。
Next, the existence probability (prob) is calculated for each cluster in the obstacle database (step 8),
If the existence probability is less than the predetermined value, the data is deleted from the database (step 9).

【0018】以上のフローを、ロボットの移動能力に応
じて適宜に設定したサイクルタイムで周期的に繰り返す
ことによって常に最適化されるグローバルマップを参照
することにより、ロボットは前方の障害物を検知するの
みで、その全周囲の障害物の存在を的確に把握すること
ができる(図5参照)。
The robot detects an obstacle ahead by referring to a global map which is always optimized by repeating the above flow periodically with a cycle time appropriately set according to the moving ability of the robot. Only with this, it is possible to accurately grasp the existence of obstacles around the entire area (see FIG. 5).

【0019】なお、上記処理フローにおいては、各障害
物のクラスタの中心位置(実空間上の平均位置X,Y)の
データと、クラスタの実空間上の分布(σxx,σxy,σy
y)とから楕円を作成し、この楕円と外接する長方形を
作り、これを立方体の底面とし、クラスタを構成する画
素データ(x,y,z)の中からzminとzmaxとを抽出し、こ
れを立方体の高さとすることにより、障害物の立体とし
ての大きさをも簡単に認識することができるものとして
いる。
In the above processing flow, the data of the center position (average position X, Y in the real space) of the cluster of each obstacle and the distribution (σxx, σxy, σy) of the cluster in the real space are used.
y), an ellipse is created, a rectangle circumscribing the ellipse is created, and this is used as the base of the cube, and zmin and zmax are extracted from the pixel data (x, y, z) constituting the cluster. Is the height of the cube, so that the size of the obstacle as a solid can be easily recognized.

【0020】次に、障害物のデータをどの程度の範囲ま
で履歴として残すかについての一例を、2眼立体視シス
テムの距離精度を基準にして求める手法を説明する。
Next, a description will be given of a method for obtaining an example of the extent to which the data of an obstacle is to be stored as a history based on the distance accuracy of a binocular stereoscopic system.

【0021】2眼立体視システムの距離精度Δrは、一
般に次式で求められる。
The distance accuracy Δr of the two-lens stereoscopic vision system is generally obtained by the following equation.

【0022】Δr=Δd(ur/bf)Δr = Δd (ur 2 / bf)

【0023】但し、Δd:視差分解能(例えば1ピクセ
ルの1/10のサブピクセルまでの視差を算出する場合
は0.1)、u:1ピクセルのサイズ、r:視点からの
距離、b:2つのカメラ間の距離(2台のカメラの視線
は互いに平行とする)、f:焦点距離、とする。
Here, Δd: parallax resolution (for example, 0.1 when calculating parallax up to 1/10 subpixel of one pixel), u: size of one pixel, r: distance from viewpoint, b: 2 The distance between the two cameras (the lines of sight of the two cameras are parallel to each other) and f: focal length.

【0024】例えば、uを9.9μm、bを70mm、
fを6mm、Δdを1とすると、rとΔrとの関係は図
6のようになる。
For example, u is 9.9 μm, b is 70 mm,
If f is 6 mm and Δd is 1, the relationship between r and Δr is as shown in FIG.

【0025】従って、例えば許容誤差を50cmと想定
した場合、rは約4.6mとなるので、履歴範囲として
ロボットを中心とした半径4.6m程度に設定すること
が実用上の一つの目安となる。そしてこの値を基準にし
て、ロボットの走行速度や加速能力、並びにCPUの処
理速度を加味して履歴範囲を定めると良い。
Therefore, for example, when the allowable error is assumed to be 50 cm, r is about 4.6 m. Therefore, it is practically set to a radius of about 4.6 m around the robot as a history range. Become. Then, based on this value, the history range may be determined in consideration of the traveling speed and acceleration ability of the robot and the processing speed of the CPU.

【0026】[0026]

【発明の効果】このように本発明によれば、ロボットな
どの移動体の前方の障害物を検知するだけで、センサの
検知範囲外の障害物をも把握することが可能となり、移
動体を自律移動させる際の障害物回避制御を簡略化する
上に多大な効果を奏することができる。
As described above, according to the present invention, it is possible to grasp an obstacle outside the detection range of the sensor only by detecting an obstacle in front of a moving object such as a robot, and to detect the moving object. A great effect can be achieved in simplifying the obstacle avoidance control at the time of autonomous movement.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明が適用される装置構成のブロック図FIG. 1 is a block diagram of a device configuration to which the present invention is applied.

【図2】本発明の処理フロー図FIG. 2 is a processing flowchart of the present invention.

【図3】カメラが撮像した画像を表示した画面の概念図FIG. 3 is a conceptual diagram of a screen displaying an image captured by a camera.

【図4】障害物データベースの内容を示すブロック図FIG. 4 is a block diagram showing contents of an obstacle database;

【図5】ロボットの移動に応じた障害物の把握の様子を
示す概念図
FIG. 5 is a conceptual diagram showing how an obstacle is grasped according to the movement of the robot.

【図6】2眼立体視システムの距離精度Δrとレンズか
らの距離との関係線図
FIG. 6 is a diagram showing the relationship between the distance accuracy Δr of the binocular stereoscopic vision system and the distance from the lens.

【符号の説明】 1 画像出力手段 2 障害物抽出手段 3 相対位置算出手段 4 特徴量の抽出手段 5 記憶手段[Description of Signs] 1 Image output unit 2 Obstacle extraction unit 3 Relative position calculation unit 4 Feature extraction unit 5 Storage unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 移動体に設けられた画像出力手段と、 前記画像出力手段の画像データから移動体の少なくとも
前方の障害物を抽出する障害物抽出手段と、 移動体と障害物との相対位置算出手段と、 障害物の特徴量を抽出する特徴量抽出手段と、 前記特徴量を前記相対位置に対応させて記憶する記憶手
段とを有することを特徴とする障害物認識装置。
1. An image output means provided on a moving body, an obstacle extracting means for extracting at least an obstacle in front of the moving body from image data of the image output means, and a relative position between the moving body and the obstacle An obstacle recognition apparatus, comprising: a calculation unit; a feature amount extraction unit that extracts a feature amount of an obstacle; and a storage unit that stores the feature amount in association with the relative position.
【請求項2】 前記障害物抽出手段は、検出されたデー
タをクラスタ処理するものであることを特徴とする請求
項1に記載の障害物認識装置。
2. The obstacle recognition apparatus according to claim 1, wherein the obstacle extraction unit performs a cluster process on the detected data.
JP2001084120A 2001-03-23 2001-03-23 Obstacle-recognizing apparatus Pending JP2002286416A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001084120A JP2002286416A (en) 2001-03-23 2001-03-23 Obstacle-recognizing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001084120A JP2002286416A (en) 2001-03-23 2001-03-23 Obstacle-recognizing apparatus

Publications (1)

Publication Number Publication Date
JP2002286416A true JP2002286416A (en) 2002-10-03

Family

ID=18939840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001084120A Pending JP2002286416A (en) 2001-03-23 2001-03-23 Obstacle-recognizing apparatus

Country Status (1)

Country Link
JP (1) JP2002286416A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310572A (en) * 2006-05-17 2007-11-29 Toyota Motor Corp Recognition device and recognition method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310572A (en) * 2006-05-17 2007-11-29 Toyota Motor Corp Recognition device and recognition method

Similar Documents

Publication Publication Date Title
CN108406731B (en) Positioning device, method and robot based on depth vision
JP7082545B2 (en) Information processing methods, information processing equipment and programs
US10878288B2 (en) Database construction system for machine-learning
EP1394761B1 (en) Obstacle detection device and method therefor
Rodríguez Flórez et al. Multi-modal object detection and localization for high integrity driving assistance
KR102056147B1 (en) Registration method of distance data and 3D scan data for autonomous vehicle and method thereof
CN108481327B (en) Positioning device, positioning method and robot for enhancing vision
EP3842751B1 (en) System and method of generating high-definition map based on camera
CN110470333B (en) Calibration method and device of sensor parameters, storage medium and electronic device
KR102096926B1 (en) Method and system for detecting change point of interest
CN111213153A (en) Target object motion state detection method, device and storage medium
CN110969064A (en) Image detection method and device based on monocular vision and storage equipment
CN111837136A (en) Autonomous navigation based on local sensing and associated systems and methods
CN114419098A (en) Moving target trajectory prediction method and device based on visual transformation
WO2022062480A1 (en) Positioning method and positioning apparatus of mobile device
US10991155B2 (en) Landmark location reconstruction in autonomous machine applications
Badino et al. Stereo-based free space computation in complex traffic scenarios
CN114842106A (en) Method and apparatus for constructing grid map, self-walking apparatus, and storage medium
KR102106029B1 (en) Method and system for improving signage detection performance
US11377125B2 (en) Vehicle rideshare localization and passenger identification for autonomous vehicles
JP2001076128A (en) Device and method for detecting obstacle
Tsukiyama Global navigation system with RFID tags
JP2007280387A (en) Method and device for detecting object movement
JP7337617B2 (en) Estimation device, estimation method and program
CN109997052A (en) Using cross-point sensor characteristic point with reference to build environment model and the method and system of positioning