JPH0973543A - Moving object recognition method/device - Google Patents

Moving object recognition method/device

Info

Publication number
JPH0973543A
JPH0973543A JP7229039A JP22903995A JPH0973543A JP H0973543 A JPH0973543 A JP H0973543A JP 7229039 A JP7229039 A JP 7229039A JP 22903995 A JP22903995 A JP 22903995A JP H0973543 A JPH0973543 A JP H0973543A
Authority
JP
Japan
Prior art keywords
image
robot
plane
image processing
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7229039A
Other languages
Japanese (ja)
Inventor
Hiroshi Hattori
寛 服部
Kazunori Onoguchi
一則 小野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP7229039A priority Critical patent/JPH0973543A/en
Publication of JPH0973543A publication Critical patent/JPH0973543A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To always trace an object on an image in a stable state and to guide a robot while the object is grasped in a visual field even if a distance between the robot and the object is large when the robot recognizes the object and it executes some work on the object, for example. SOLUTION: An image input part 1 which is mounted on a moving body moving on an almost plane surface and which sequentially image-picks up the object existing on the plane at the time of the shift, a prescribed image generation part 2 generating projected images obtained by projecting the object in the image obtained by the image input part 1 on the plane of the image for the respective images, an image processing part 3 calculating position information showing the position of the object in the projected image for the respective projected images generated by the projected image generation part 2 and an output part 4 outputting shift information for shifting the moving body to the object based on position information obtained by the picture processing part 3.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、自律移動ロボット
の視覚制御や画像監視等に応用される画像処理装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device applied to visual control, image monitoring, etc. of an autonomous mobile robot.

【0002】[0002]

【従来の技術】近年、TVカメラ等の視覚センサから得
られる情報を用いて、環境や物体の3次元形状、位置、
動き等を計算するコンピュータビジョンの研究が盛んに
行なわれている。この技術により、例えば、ロボットが
視覚機能を備え、周囲の環境変化に柔軟に対応して行動
したり、より高度な作業を行なうことができる。
2. Description of the Related Art In recent years, information obtained from a visual sensor such as a TV camera is used to determine the three-dimensional shape, position, and
Computer vision, which calculates movements, is being actively researched. With this technology, for example, the robot has a visual function, and can flexibly respond to changes in the surrounding environment and perform higher-level work.

【0003】ロボットがある物体を確認し、その物体に
対して何らかの作業を行なうことを考えた場合、対象と
なる物体が遠くにある際には、作業を遂行するのに十分
な場所までロボットが移動する必要がある。その移動方
法として、視覚情報を用いない方法と視覚情報を用いる
方法の2つが考えられる。
Considering that a robot confirms an object and performs some work on the object, when the target object is distant, the robot can move to a place sufficient to perform the work. Need to move. As the moving method, two methods are conceivable: a method not using visual information and a method using visual information.

【0004】視覚情報を用いない方法は、ロボットが初
期位置において対象物の3次元位置を計測し、その対象
物に至るまでのロボットの移動量を視覚情報以外の情報
を用いて計測しながら対象物まで誘導するというもので
ある。ロボットの移動量を計測する一般的な手法として
は、エンコーダを車輪に取り付ける手法が採られること
が多い。
In the method that does not use visual information, the robot measures the three-dimensional position of the object at the initial position and measures the movement amount of the robot to reach the object while using the information other than the visual information. It is to guide things. As a general method for measuring the movement amount of a robot, a method of attaching an encoder to a wheel is often adopted.

【0005】また、視覚情報を用いる方法は、ロボット
が移動するのに伴って得られる画像中の対象物を追跡
し、常に対象物を視野に捉えながらロボットを誘導する
ものである。
Further, the method using visual information is to track an object in an image obtained as the robot moves and guide the robot while always capturing the object in the visual field.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記前
者の視覚情報を用いない方法では、初期位置において計
測した対象物の3次元位置は、ロボットと対象物の間の
距離が大きい場合には誤差が大きくなるため、ロボット
を対象物に正確に誘導することは困難である。特に、実
際にはロボットの車輪のスリップ等の影響で車輪の回転
数とロボットの移動量にずれを生じるため、エンコーダ
を用いた場合のロボットの移動量の計測値はかなり誤差
が大きくなり、ロボットを正確に対象物に誘導すること
はより困難なものとなる。
However, in the former method which does not use the visual information, the three-dimensional position of the object measured at the initial position has an error when the distance between the robot and the object is large. Since the robot becomes large, it is difficult to accurately guide the robot to the object. In particular, since the wheel rotation speed and the movement amount of the robot are actually deviated due to the influence of the slip of the wheel of the robot, the measured value of the movement amount of the robot when an encoder is used has a large error. It becomes more difficult to accurately guide the object to the object.

【0007】また、上記後者の視覚情報を用いる方法で
は、上記視覚情報を用いない方法のような問題は生じな
いものの、ロボットと対象物との間の距離や対象物の画
像上の投影位置によって、対象物の画像中での動きや大
きさが変化するため、安定した状態で追跡を行なうこと
はやはり困難であった。
The latter method using visual information does not cause a problem like the method not using visual information, but it depends on the distance between the robot and the object or the projection position on the image of the object. However, since the movement and size of the object in the image change, it is still difficult to track in a stable state.

【0008】本発明は上記のような実情に鑑みてなされ
たもので、その目的とするところは、例えば視覚センサ
を有するロボットがある対象物を視覚センサで得た画像
中で確認し、その対象物の位置まで移動して何らかの作
業を行なう際に、たとえロボットと対象物との間の距離
が大きい場合であっても、常に安定した状態で対象物を
画像中で追跡して常に対象物を視野に捕らえながらロボ
ットを対象物まで誘導させることが可能な画像処理装置
を提供することにある。
The present invention has been made in view of the above situation, and its object is to confirm an object with a robot having a visual sensor in an image obtained by the visual sensor and to check the object. When moving to the position of an object and doing some work, even if the distance between the robot and the object is large, the object is always tracked in the image in a stable state and the object is always tracked. An object of the present invention is to provide an image processing device capable of guiding a robot to an object while capturing it in the visual field.

【0009】[0009]

【課題を解決するための手段】すなわち本発明は、 (1) 略平面上を移動する移動体に載置され、その移
動に際して該平面上に存在する対象物を順次撮像する撮
像手段と、この撮像手段で得られた画像中の対象物を画
像中の平面に投影した投影画像を画像毎に作成する投影
画像作成手段と、この投影画像作成手段で作成された投
影画像毎に投影画像中の対象物の位置を示す位置情報を
算出する画像処理手段と、この画像処理手段で得た位置
情報に基づいて上記移動体を対象物に移動させるための
移動情報を出力する出力手段とを備えるようにしたもの
である。
Means for Solving the Problems That is, the present invention is as follows: (1) An image pickup means which is placed on a moving body which moves on a substantially flat surface, and which sequentially picks up an image of an object existing on the flat surface when moving. A projection image creation unit that creates a projection image for each image by projecting an object in the image obtained by the imaging unit onto a plane in the image, and a projection image creation unit for each projection image created by this projection image creation unit. An image processing means for calculating position information indicating the position of the object, and an output means for outputting movement information for moving the moving body to the object based on the position information obtained by the image processing means are provided. It is the one.

【0010】このような構成とすることで、既知平面上
を移動する移動体に対して相対運動する対象物を追跡す
る際に、移動体に取付けられたTVカメラ等の撮像手段
で得た画像を平面上に投影した投影画像中での該対象物
の位置を算出し、その位置に基づいて移動体を移動させ
て対象物を追跡することによって、投影画像中において
は対象物の大きさが移動体と対象物との間の距離や画像
中での位置によらず相対的に常に一定であり、対象物の
動きと移動体の動きとは確実に一致するから、安定した
状態で対象物の追跡を行なうべく移動体を移動させるこ
とができるようになる。
With such a structure, an image obtained by an image pickup means such as a TV camera attached to the moving body when tracking an object moving relative to the moving body moving on a known plane. By calculating the position of the target object in the projection image obtained by projecting on the plane, and moving the moving body based on the position to track the target object, the size of the target object in the projection image is changed. It is relatively constant regardless of the distance between the moving body and the target object or the position in the image, and the movement of the target object and the movement of the moving body surely match, so that the target object in a stable state. You will be able to move the mobile to track the.

【0011】(2) 上記(1)項において、上記画像
処理手段は、予め設定しておいた対象物の条件を基に局
所相関演算を行なうことで投影画像中から該条件を満た
す領域を抽出して対象物の位置を示す位置情報を算出す
るようにしたものである。
(2) In the above item (1), the image processing means extracts a region satisfying the condition from the projected image by performing a local correlation calculation based on the condition of the preset object. Then, the position information indicating the position of the object is calculated.

【0012】このような構成とすることで、上記(1)
項の作用に加えて、上記画像処理手段が投影画像中から
対象物の位置を示す位置情報を確実に算出することがで
きる。
With such a structure, the above (1)
In addition to the effect of the term, the image processing means can surely calculate the position information indicating the position of the object from the projected image.

【0013】[0013]

【発明の実施の形態】以下本発明の実施の一形態につい
て図面を参照して説明する。図1はその概略回路構成を
示すものであり、ここでは画像入力部1、投影画像作成
部2、画像処理部3、出力部4から構成している。
An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows the schematic circuit configuration thereof, and here it is composed of an image input unit 1, a projected image creation unit 2, an image processing unit 3, and an output unit 4.

【0014】画像入力部1は、ロボットに搭載した視覚
センサとしてのTVカメラを含み、ロボットの移動に伴
って得られる画像を入力してデジタル化し、次段の投影
画像作成部2に送出する。
The image input unit 1 includes a TV camera as a visual sensor mounted on the robot, inputs an image obtained by the movement of the robot, digitizes it, and sends it to the projection image creation unit 2 in the next stage.

【0015】投影画像作成部2は、上記画像入力部1か
ら送られてきたデジタル値の画像データを用いて後述す
る投影画像作成方法により投影画像を作成し、画像処理
部3へ送出する。
The projection image creating section 2 creates a projection image by the projection image creating method described later using the image data of the digital value sent from the image input section 1 and sends it to the image processing section 3.

【0016】画像処理部3では、投影画像作成部2から
の投影画像中での対象物の位置を後述する演算により算
出し、その位置情報を出力部4へと出力する。しかして
出力部4では、画像処理部3から送られてくる対象物の
投影画像中での位置情報に基づいて、ロボットを対象物
まで移動させるための情報、つまりロボット座標系に対
する対象物の2次元座標(x,y)を出力する。
The image processing unit 3 calculates the position of the object in the projection image from the projection image creating unit 2 by the calculation described later, and outputs the position information to the output unit 4. Then, in the output unit 4, information for moving the robot to the target object based on the position information in the projection image of the target object sent from the image processing unit 3, that is, the target object 2 with respect to the robot coordinate system. The dimensional coordinates (x, y) are output.

【0017】次に上記実施の形態の動作について説明す
る。いま、図2に示すように上記画像入力部1を構成す
るTVカメラを搭載した移動ロボットRBが、平面α上
を移動し、同平面上に存在する、画像中で近傍の平面か
ら判別可能な対象物Pの位置まで到達する場合を考え
る。
Next, the operation of the above embodiment will be described. Now, as shown in FIG. 2, a mobile robot RB equipped with a TV camera which constitutes the image input unit 1 moves on a plane α and can be discriminated from a plane near the plane existing in the plane α. Consider the case where the position of the object P is reached.

【0018】ロボットRBが持つ座標系o−xyz(以
下「ロボット座標系」と称する)のxy平面を平面αと
し、ロボットRBの走行環境には対象物Pも含めて平面
α上には高さが微小な物体しか存在しないものと仮定す
る。
The xy plane of the coordinate system o-xyz (hereinafter referred to as "robot coordinate system") of the robot RB is a plane α, and the traveling environment of the robot RB includes the object P and the height on the plane α. Suppose there is only a small object.

【0019】画像入力部1が、ロボットRBに搭載した
TVカメラから平面α上の移動に伴って得られる画像を
デジタル化して投影画像作成部2に送出すると、投影画
像作成部2では送られてきた画像を用いて投影画像を作
成する。
When the image input unit 1 digitizes an image obtained by the movement of the TV camera mounted on the robot RB on the plane α and sends it to the projection image creation unit 2, the projection image creation unit 2 sends it. A projected image is created using the captured image.

【0020】ここで投影画像とは、図3(a)に摸式的
に示すように、TVカメラから得られた画像を既知平面
αに投影して得られる画像であり、投影画像作成方法を
以下に示す。すなわち、画像中の任意の点(u,v)と
その点のロボット座標系に対する位置(x,y,z)と
の間には一般に以下の関係式が成り立つ。
Here, the projection image is an image obtained by projecting an image obtained from a TV camera onto a known plane α, as schematically shown in FIG. 3 (a). It is shown below. That is, the following relational expression generally holds between an arbitrary point (u, v) in the image and the position (x, y, z) of the point with respect to the robot coordinate system.

【0021】[0021]

【数1】 [Equation 1]

【0022】ここで、ロボットRBの走行環境には平面
αからの高さが非常に小さい物体しか存在しないものと
しているから、zの値はほとんど「0(ゼロ)」とな
る。この事実と上記式(1)により、近似的に
Here, since it is assumed that only an object having a very small height from the plane α exists in the traveling environment of the robot RB, the value of z is almost “0 (zero)”. From this fact and the above equation (1), approximately

【0023】[0023]

【数2】 なる関係式が成り立つこととなる。[Equation 2] The following relational expression holds.

【0024】この式(2)中で、h11,h12,h21,h
22,h31,h32、t1 〜t3 はいずれもロボット座標系
に対するTVカメラの位置や方向等を表すパラメータで
あり、これらは予め計測しておくことが可能である。
In this equation (2), h 11 , h 12 , h 21 , h
22 , h 31 , h 32 , and t 1 to t 3 are all parameters indicating the position, direction, etc. of the TV camera with respect to the robot coordinate system, and these can be measured in advance.

【0025】ここで、上記式(2)を u=f1 (x,y),v=f2 (x,y) …(3) とおくと、画像入力部1により入力された画像I(u,
v)(0≦u≦U,0≦v≦V)(U,V:画像サイ
ズ)から、投影画像J(x,y)(0≦x≦X,0≦y
≦Y)(X,Y:画像サイズ)は上記式(3)を用い
て、以下の式で求めることができる。すなわち、
If the above equation (2) is u = f 1 (x, y), v = f 2 (x, y) (3), the image I ( u,
v) (0 ≦ u ≦ U, 0 ≦ v ≦ V) (U, V: image size), the projected image J (x, y) (0 ≦ x ≦ X, 0 ≦ y
≦ Y) (X, Y: image size) can be obtained by the following equation using the above equation (3). That is,

【0026】[0026]

【数3】 となるもので、ここで、(u,v)が 0≦u≦U,0≦v≦V …(5) の条件を満たさなければ、その点は画像中に存在しない
ことになるから、任意の値(例えば0)を設定してお
く。図3(c)の投影画像におけるハッチングを施した
部分が画像中に存在しない領域である。
(Equation 3) Therefore, if (u, v) does not satisfy the condition of 0 ≦ u ≦ U, 0 ≦ v ≦ V (5), the point does not exist in the image. Value (for example, 0) is set. The hatched portion in the projected image of FIG. 3C is a region that does not exist in the image.

【0027】ロボットRBの移動に伴って時系列に入力
された各画像における対象物Pの動きと、これに対応し
て時系列に作成される各投影画像における対象物Pの動
きを図3(b),(c)に示す。図3(b)に示す原画
像では、対象物Pの動きと大きさはカメラとの距離と画
像中の位置に応じて変化するが、図3(c)に示すよう
に投影画像中ではこれらは相対的に常に一定となり、変
化しない。
FIG. 3 shows the movement of the object P in each image input in time series with the movement of the robot RB and the movement of the object P in each projection image created in time series corresponding thereto. Shown in b) and (c). In the original image shown in FIG. 3B, the movement and size of the target object P change depending on the distance to the camera and the position in the image, but as shown in FIG. Is relatively constant and does not change.

【0028】そこで画像処理部3では、投影画像作成部
2で作成された投影画像中の対象物Pの位置を以下の演
算により抽出する。これはすなわち、対象物Pの抽出が
あらかじめ用意しておいた対象物Pの条件、例えばロボ
ットRBからの距離、ロボットRBの大きさ、形状、
色、輝度パターン等を最も満たす領域を抽出することに
より容易に可能であり、以下に示す局所相関によって行
なうことができるものである。すなわちこの局所相関で
は、
Therefore, the image processing unit 3 extracts the position of the object P in the projection image created by the projection image creating unit 2 by the following calculation. That is, the conditions of the object P prepared in advance for the extraction of the object P, such as the distance from the robot RB, the size and shape of the robot RB,
This can be easily performed by extracting the region that most satisfies the color, the brightness pattern, etc., and can be performed by the following local correlation. So in this local correlation,

【0029】[0029]

【数4】 となるもので、この式(6)中、It (x,y),I
t+1 (x,y)は各々時刻t,t+1において得られた
投影画像中の点位置(x,y)での輝度を、at ,a
t+1 とvt ,vt+1 はウィンドウ領域内の平均と分散を
表す。ある探索範囲内で上記式(6)における値Cを計
算し、値Cが最大となる位置を求めることによって、画
像中の対象物Pを順次抽出することができる。上記探索
範囲はロボットRBの走行速度に応じて設定する。
(Equation 4) In this equation (6), I t (x, y), I
t + 1 (x, y) each time t, the position in terms of the projection in the image obtained at t + 1 (x, y) of the luminance in, a t, a
t + 1 , v t , and v t + 1 represent the average and variance in the window area. The object P in the image can be sequentially extracted by calculating the value C in the above equation (6) within a certain search range and finding the position where the value C is maximum. The search range is set according to the traveling speed of the robot RB.

【0030】こうして画像処理部3で得た対象物Pの投
影画像中での位置情報により、出力部4がロボットを対
象物Pに対して移動させるための情報、つまりロボット
座標系に対する対象物Pの2次元座標(x,y)を出力
するもので、以上のようにして、ある既知平面上でTV
カメラに対して相対運動する対象物Pを安定した状態で
追跡することができる。
In this way, based on the position information in the projected image of the object P obtained by the image processing unit 3, information for the output unit 4 to move the robot with respect to the object P, that is, the object P with respect to the robot coordinate system. It outputs the two-dimensional coordinates (x, y) of a TV on a certain known plane as described above.
The object P moving relative to the camera can be tracked in a stable state.

【0031】なお、本実施の形態では、静止した対象物
を移動しながら観測する場合について説明したが、移動
する対象物を観測し、追跡する場合も同様に行なうこと
ができる。
In this embodiment, the case of observing a stationary object while moving is explained, but the same can be done when observing and tracking a moving object.

【0032】また、上記画像処理部3における対象物P
の画像中の抽出を自動的に行なっているが、人間がロボ
ットRBに教示しても良い。さらに、対象物Pとロボッ
トRBとの間の距離が大きい場合には、対象物Pの画像
中の動きと大きさの変化は小さくなるので、このような
場合には原画像中で対象物Pの追跡を行ない、ロボット
RBが対象物Pにある程度まで近付いてから投影画像中
で対象物Pの追跡を行なっても良い。
Further, the object P in the image processing unit 3 is
However, a human may teach the robot RB. Further, when the distance between the object P and the robot RB is large, the movement and size change in the image of the object P are small, and in such a case, the object P in the original image is reduced. May be tracked, and the object P may be tracked in the projection image after the robot RB approaches the object P to some extent.

【0033】また、カメラの光軸方向と対象物が存在す
る平面の法線方法がほぼ一致する場合には、投影画像は
原画像とほぼ同じになるので、この場合にも原画像中で
追跡処理を行なっても良い。その他、本発明の要旨を逸
脱しない範囲で変形を実施できるものとする。
Further, when the optical axis direction of the camera and the normal method of the plane on which the object exists are almost the same, the projected image is almost the same as the original image. Processing may be performed. Other modifications can be made without departing from the scope of the present invention.

【0034】[0034]

【発明の効果】以上に述べた如く本発明によれば、例え
ば視覚センサを有するロボットがある対象物を視覚セン
サで得た画像中で確認し、その対象物の位置まで移動し
て何らかの作業を行なう際に、たとえロボットと対象物
との間の距離が大きい場合であっても、常に安定した状
態で対象物を画像中で追跡して常に対象物を視野に捕ら
えながらロボットを対象物まで誘導させることが可能な
画像処理装置を提供することができる。
As described above, according to the present invention, for example, a robot having a visual sensor confirms an object in an image obtained by the visual sensor and moves to the position of the object to perform some work. When performing, even if the distance between the robot and the target is large, the target is always tracked in the image in a stable state and the robot is guided to the target while always capturing the target in the visual field. It is possible to provide an image processing device capable of performing the above.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の一形態に係る概略回路構成を示
すブロック図。
FIG. 1 is a block diagram showing a schematic circuit configuration according to an embodiment of the present invention.

【図2】同実施の形態に係る動作を説明する図。FIG. 2 is a diagram explaining an operation according to the embodiment.

【図3】同実施の形態に係る動作を説明する図。FIG. 3 is a diagram explaining an operation according to the embodiment.

【符号の説明】[Explanation of symbols]

1…画像入力部 2…投影画像作成部 3…画像処理部 4…出力部 RB…ロボット P…対象物 1 ... Image input unit 2 ... Projection image creation unit 3 ... Image processing unit 4 ... Output unit RB ... Robot P ... Object

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 略平面上を移動する移動体上に撮像方向
を固定した状態で載置され、その移動に際して該平面上
に存在する対象物を順次撮像する撮像手段と、 この撮像手段で得られた画像中の対象物を画像中の平面
に投影した投影画像を画像毎に作成する投影画像作成手
段と、 この投影画像作成手段で作成された投影画像毎に投影画
像中の対象物の位置を示す位置情報を算出する画像処理
手段と、 この画像処理手段で得た位置情報に基づいて上記移動体
を対象物に移動させるための移動情報を出力する出力手
段とを具備したことを特徴とする画像処理装置。
1. An image pickup means which is placed on a moving body which moves on a substantially flat surface in a state where the image pickup direction is fixed, and which sequentially picks up an image of an object existing on the flat surface during the movement, and an image pickup means obtained by this image pickup means. And a position of the object in the projection image for each projection image created by this projection image creating means And an output means for outputting movement information for moving the moving body to an object based on the position information obtained by the image processing means. Image processing device.
【請求項2】 上記画像処理手段は、予め設定しておい
た対象物の条件を基に局所相関演算を行なうことで投影
画像中から該条件を満たす領域を抽出して対象物の位置
を示す位置情報を算出することを特徴とする請求項1記
載の画像処理装置。
2. The image processing means indicates a position of an object by extracting a region satisfying the condition from a projected image by performing a local correlation calculation based on a condition of the object set in advance. The image processing apparatus according to claim 1, wherein position information is calculated.
JP7229039A 1995-09-06 1995-09-06 Moving object recognition method/device Pending JPH0973543A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7229039A JPH0973543A (en) 1995-09-06 1995-09-06 Moving object recognition method/device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7229039A JPH0973543A (en) 1995-09-06 1995-09-06 Moving object recognition method/device

Publications (1)

Publication Number Publication Date
JPH0973543A true JPH0973543A (en) 1997-03-18

Family

ID=16885793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7229039A Pending JPH0973543A (en) 1995-09-06 1995-09-06 Moving object recognition method/device

Country Status (1)

Country Link
JP (1) JPH0973543A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295416A (en) * 2003-03-26 2004-10-21 Matsushita Electric Works Ltd Image processing apparatus
JP2006221610A (en) * 2004-12-14 2006-08-24 Samsung Electronics Co Ltd Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device
JP2010101807A (en) * 2008-10-24 2010-05-06 Shimizu Corp Movable body position detection system
JP2013093738A (en) * 2011-10-26 2013-05-16 Nippon Hoso Kyokai <Nhk> Moving distance measuring device and photographing camera
JP2017503226A (en) * 2014-07-30 2017-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Goal tracking system, device and method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57129080A (en) * 1981-02-03 1982-08-10 Toshiba Corp Picture normalizing device
JPS62221077A (en) * 1986-03-24 1987-09-29 Agency Of Ind Science & Technol Pattern detector
JPS62286189A (en) * 1986-06-04 1987-12-12 Omron Tateisi Electronics Co High speed visual recognizing device
JPS63314622A (en) * 1987-06-17 1988-12-22 Nissan Motor Co Ltd Controller for self-traveling vehicle
JPH01188909A (en) * 1988-01-22 1989-07-28 Toyota Autom Loom Works Ltd Deciding method for traveling route of image type unmanned vehicle
JPH02129799A (en) * 1988-11-09 1990-05-17 Aisin Seiki Co Ltd Device for displaying target on mobile object
JPH05143156A (en) * 1991-11-21 1993-06-11 Mazda Motor Corp Device for recognizing environment
JPH05229758A (en) * 1992-02-20 1993-09-07 Hitachi Building Syst Eng & Service Co Ltd Information display device for elevator
JPH0674732A (en) * 1992-06-22 1994-03-18 Hamamatsu Photonics Kk Track recognizing apparatus
JPH0689085A (en) * 1992-09-08 1994-03-29 Fuji Xerox Co Ltd Electronic conference device
JPH06319141A (en) * 1993-05-10 1994-11-15 Toshiba Corp Supervisory equipment

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57129080A (en) * 1981-02-03 1982-08-10 Toshiba Corp Picture normalizing device
JPS62221077A (en) * 1986-03-24 1987-09-29 Agency Of Ind Science & Technol Pattern detector
JPS62286189A (en) * 1986-06-04 1987-12-12 Omron Tateisi Electronics Co High speed visual recognizing device
JPS63314622A (en) * 1987-06-17 1988-12-22 Nissan Motor Co Ltd Controller for self-traveling vehicle
JPH01188909A (en) * 1988-01-22 1989-07-28 Toyota Autom Loom Works Ltd Deciding method for traveling route of image type unmanned vehicle
JPH02129799A (en) * 1988-11-09 1990-05-17 Aisin Seiki Co Ltd Device for displaying target on mobile object
JPH05143156A (en) * 1991-11-21 1993-06-11 Mazda Motor Corp Device for recognizing environment
JPH05229758A (en) * 1992-02-20 1993-09-07 Hitachi Building Syst Eng & Service Co Ltd Information display device for elevator
JPH0674732A (en) * 1992-06-22 1994-03-18 Hamamatsu Photonics Kk Track recognizing apparatus
JPH0689085A (en) * 1992-09-08 1994-03-29 Fuji Xerox Co Ltd Electronic conference device
JPH06319141A (en) * 1993-05-10 1994-11-15 Toshiba Corp Supervisory equipment

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295416A (en) * 2003-03-26 2004-10-21 Matsushita Electric Works Ltd Image processing apparatus
JP2006221610A (en) * 2004-12-14 2006-08-24 Samsung Electronics Co Ltd Person tracking device and method, recording medium recording program for performing the method, and mobile electronic equipment equipped with the device
JP2010101807A (en) * 2008-10-24 2010-05-06 Shimizu Corp Movable body position detection system
JP2013093738A (en) * 2011-10-26 2013-05-16 Nippon Hoso Kyokai <Nhk> Moving distance measuring device and photographing camera
JP2017503226A (en) * 2014-07-30 2017-01-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Goal tracking system, device and method
US20170108877A1 (en) * 2014-07-30 2017-04-20 SZ DJI Technology Co., Ltd. Systems and methods for target tracking
US9846429B2 (en) 2014-07-30 2017-12-19 SZ DJI Technology Co., Ltd. Systems and methods for target tracking
US11106201B2 (en) 2014-07-30 2021-08-31 SZ DJI Technology Co., Ltd. Systems and methods for target tracking
US11194323B2 (en) * 2014-07-30 2021-12-07 SZ DJI Technology Co., Ltd. Systems and methods for target tracking

Similar Documents

Publication Publication Date Title
US10275649B2 (en) Apparatus of recognizing position of mobile robot using direct tracking and method thereof
US10133279B2 (en) Apparatus of updating key frame of mobile robot and method thereof
JP5122887B2 (en) Control method, apparatus, and medium for live-action base mobile device
US10399228B2 (en) Apparatus for recognizing position of mobile robot using edge based refinement and method thereof
JP2018522348A (en) Method and system for estimating the three-dimensional posture of a sensor
Feyrer et al. Detection, tracking, and pursuit of humans with an autonomous mobile robot
Nair et al. Moving obstacle detection from a navigating robot
JP2007333690A (en) Motion capture system, method, and program
KR20120014925A (en) Method for the real-time-capable, computer-assisted analysis of an image sequence containing a variable pose
KR20150144730A (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
EP3193229B1 (en) Mobile body control device and mobile body
US10991105B2 (en) Image processing device
JP2018119833A (en) Information processing device, system, estimation method, computer program, and storage medium
EP2851868A1 (en) 3D Reconstruction
JP2559939B2 (en) Three-dimensional information input device
JP3288086B2 (en) Animal extraction device
JPH1144533A (en) Preceding vehicle detector
CN113701750A (en) Fusion positioning system of underground multi-sensor
JP2001076128A (en) Device and method for detecting obstacle
JPH1137730A (en) Road shape estimating apparatus
JPH0973543A (en) Moving object recognition method/device
Vincze et al. Edge-projected integration of image and model cues for robust model-based object tracking
JP3063481B2 (en) Vehicle object detection device
US20020171757A1 (en) Adjustable image capturing system
JP2020076714A (en) Position attitude estimation device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050830