JPS6359670A - Off-position measuring instrument - Google Patents

Off-position measuring instrument

Info

Publication number
JPS6359670A
JPS6359670A JP61109577A JP10957786A JPS6359670A JP S6359670 A JPS6359670 A JP S6359670A JP 61109577 A JP61109577 A JP 61109577A JP 10957786 A JP10957786 A JP 10957786A JP S6359670 A JPS6359670 A JP S6359670A
Authority
JP
Japan
Prior art keywords
dimensional position
stereo
mobile robot
image
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61109577A
Other languages
Japanese (ja)
Other versions
JPH0661101B2 (en
Inventor
Mutsumi Watanabe
睦 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP61109577A priority Critical patent/JPH0661101B2/en
Publication of JPS6359670A publication Critical patent/JPS6359670A/en
Publication of JPH0661101B2 publication Critical patent/JPH0661101B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To simply obtain traveling control information by comparing the three-dimensional position of an object obtained from a stereoscopic picture at the time of traveling a moving robot with the three-dimensional position of the object obtained from a preset spot, obtaining a position coordinate converting matrix and obtaining an off-position from the set spot. CONSTITUTION:A three-dimensional position detection part 2 stereoscopically calculates and processes the three-dimensional position from the position of the moving robot on the object extracted in an object extracting part 1 according to the stereoscopic picture. A quantity of off-position calculating part 3 compares the three-dimensional position of the object obtained from the stereoscopic picture with the three dimensional position of object groups to the preset spot, respectively, and the quantity of the misregistration from the preset spot of the position of the moving robot at the time of inputting said streoscopic picture is calculated from the quantity of the off-position of the three- dimensional position on the same object. The quantity of the off-position obtained in the quantity of off-position calculating part 3 is applied to the movement control part of the moving robot and the traveling thereof is controlled.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、例えば移動ロボットに対して設定された走行
軌道からの位置ずれを該移動ロボットに搭載されたステ
レオカメラによる入力されるステレオ画像から効果的に
求め、その走行制御に用いることのでさる実用性の高い
位置ずれ測定装置に関する。
[Detailed Description of the Invention] [Object of the Invention] (Industrial Application Field) The present invention is directed to inputting, for example, a positional deviation from a travel trajectory set for a mobile robot using a stereo camera mounted on the mobile robot. The present invention relates to a highly practical positional deviation measuring device that can be effectively measured from stereo images and used for driving control.

(従来の技術) 近時、カメラの軽口・小形化と視覚情報処理技術の発展
に伴い、視覚v1能を備えた移動ロボットの開発が盛ん
に進められている。この種の視覚葭能を向えた移動ロボ
ットは、従来の近接センリな協えた移動ロボットに比較
して移vJ環境のみ2識やその走行経路の自vJ設定等
、高度な能力を持たせることが可能である。これ故、例
えば原子炉発電所における保守点検作業を行なうべく、
その自律走行が要求される分野l\の適用が期待されて
いる。
(Prior Art) In recent years, as cameras have become lighter and smaller and visual information processing technology has developed, the development of mobile robots with visual V1 ability is actively underway. Compared to conventional mobile robots that are close-sensory and cooperative, this type of mobile robot with visual ability can be equipped with advanced abilities such as being able to recognize only the moving VJ environment and setting its own VJ route. It is possible. Therefore, for example, in order to carry out maintenance inspection work at a nuclear power plant,
It is expected to be applied in fields where autonomous driving is required.

さて視覚機能を備えた移動ロボットとしては、例えばカ
メラにより入力された画像と予め設定された移動環境の
特徴モデルとを比較照合してその走行経路を制御するも
のが報告されている。また上記移動環境の特徴モデルを
用いることなく、ステレオ視カメラを用いて入力された
ステレオ画像を3次元処理してその移動経路を設定して
いくもの等が報告されている。
As a mobile robot equipped with a visual function, for example, one has been reported that controls its traveling route by comparing and comparing an image inputted by a camera with a preset feature model of the mobile environment. Furthermore, there have been reports of methods in which a stereo image input using a stereo camera is processed three-dimensionally to set a movement route without using the feature model of the movement environment.

然し乍ら、移動環境の特徴モデルを用いる前者の移動ロ
ボットにあっては、その特徴モデル化の容易な単純環境
に適用可能であるが、複雑な背景画像を含むような環境
下では、例えばその特徴モデル化や入力画像の比較照合
処理等が徒に複雑化する等の問題があった。
However, the former type of mobile robot that uses a feature model of the moving environment can be applied to a simple environment where the feature model can be easily modeled, but in an environment that includes a complex background image, for example, the feature model There were problems such as unnecessarily complicating the process of converting images and comparing and matching input images.

一方、ステレオ画像を入力して3次元処理する後者の移
動ロボットでは、予め環境モデルを作成しておく必要が
ないが、その反面、入力されたステレオ画像の各部に対
する対応付は等の複雑な針師処理を必要とする。しかも
様々な環境情報を入力するステレオ画像に対する3次元
計終には多大な98埋時間を必要とする。この為、該移
動ロボットの高速、且つ円滑な走行制御が困難であると
云う問題があった。
On the other hand, with the latter type of mobile robot that inputs stereo images and processes them in 3D, there is no need to create an environment model in advance. Requires manual processing. Furthermore, it takes a considerable amount of time to complete the three-dimensional calculation of a stereo image that inputs various environmental information. For this reason, there has been a problem in that it is difficult to control the mobile robot to move quickly and smoothly.

(発明が解決しようとする問題点) 本発明は、上述したように従来の移動ロボットに組込ま
れる視覚機能が単純環境にしか適合せず、或いはその処
理に多大な時間を必要とする等、該移動ロボットの円滑
な走行制御を望み得ないことに鑑みて、また同時に移動
ロボットが完全なる自由環境を走行することが極めて希
であることに着目してなされたもので、移動ロボッ1へ
のm電機能を用いてその走行制御に必要な情報、つまり
設定された走行軌道からの位置ずれを高速に検出し、そ
の走行制御に有効に利用することを可能とする位nずれ
測定表買を提供することを目的としている。
(Problems to be Solved by the Invention) As mentioned above, the present invention solves problems such as the visual function built into conventional mobile robots being only compatible with simple environments or requiring a large amount of time to process. This was done in view of the fact that it is impossible to expect smooth running control of a mobile robot, and at the same time, it is extremely rare for a mobile robot to run in a completely free environment. We provide a displacement measurement table that uses electric functions to quickly detect the information necessary for travel control, that is, positional deviation from the set travel trajectory, and use it effectively for travel control. It is intended to.

[発明の構成〕 (問題点を解決するための手段) 本発明は、移動ロボット等の走行体に搭載されたステレ
オカメラにより目標物を含む環境のステレオ画像を入力
し、この入力されたステレオ画像中から予め登録された
複数の目標物をそれぞれ抽出する。そしてこれらの各目
標物の現地点からの3次元位置、つまりステレオ画像を
入力した時め設定された走行軌道を示す位置からの前記
目標物群の3次元位置とをそれぞれ比較し、この比較結
果に従って前記走行体の前記ステレオ画像を入力した地
点と予め定められた地点との位置ずれを計算するように
したことを特徴とするものである。
[Structure of the Invention] (Means for Solving the Problems) The present invention inputs a stereo image of an environment including a target object using a stereo camera mounted on a running body such as a mobile robot, and uses the input stereo image. A plurality of pre-registered targets are each extracted from among them. The three-dimensional position of each of these targets from the local point, that is, the three-dimensional position of the target group from the position indicating the travel trajectory set when the stereo image was input, is then compared, and the comparison results are calculated. The present invention is characterized in that a positional shift between a point where the stereo image of the traveling object is input and a predetermined point is calculated according to the following.

(作用) 本発明によれば、移動ロボットの成る位置で入力された
ステレオ画像から求められる目標物の上記位置く現地点
)からの3次元位置と、上記移動ロボットの予め設定さ
れた地点からの目標物の3次元位置とを比較することに
よってその視点位置の異なりによる目標物の3次元位置
のずれが求められ、この3次元位置のずれに対応して上
記視点位yのずれ、つまり予め設定された走行経路に対
する自走式走行ロボットの現在位置のずれを高速に求め
ることが可能となる。従ってこの位置ずれの情報に従っ
て上記移動ロボットの走行経路に対する走行位置補正、
つまりその走行制御を効果的に行なうことが可能となる
(Operation) According to the present invention, the three-dimensional position of the target from the above-mentioned local point, which is determined from the stereo image input at the position of the mobile robot, and the three-dimensional position of the target from the preset point of the mobile robot. By comparing the three-dimensional position of the target object, the deviation of the three-dimensional position of the target object due to the difference in the viewpoint position is determined. This makes it possible to quickly determine the deviation of the current position of the self-propelled robot with respect to the travel route that has been taken. Therefore, according to this positional deviation information, the traveling position of the mobile robot is corrected with respect to the traveling route.
In other words, it becomes possible to carry out the driving control effectively.

(実線例) 以下、図面を参照して本発明の一実施例につよび位置ず
れ伍計陣部3に大別される。
(Example of Solid Lines) Hereinafter, an embodiment of the present invention will be described and roughly divided into positional deviation measuring units 3 with reference to the drawings.

目標物抽出部1は、移動ロボットが走行する環境の、例
えば作業空白の曲り角や隅部等の目標物を、該移動ロボ
ットに搭載されたステレオカメラにより搬像入力された
ステレオ画1争中から抽出するものである。3次元位置
検出部2は、上記目標物抽出部1にて抽出された目標物
について、前記ステレオ画像を入力した時点の前記移動
ロボットの位置からの3次元位置を前記ステレオ画像に
従ってステレオ計算処理、具体的には三角測量法の原理
に従って針環するものである。そして位置ずれは計算部
3は、上記ステレオ画像から求められた目標物の3次元
位置と、予め設定された地点に対する目標物群の3次元
位置とをそれぞれ比較し、同一の目標物に関する上記3
次元位置のずれ岳から前記ステレオ画像を入力した時点
の前記移動ロボットの位置の、予め設定された地点から
の位置ずれ市を計算するものとなっている。
The target object extraction unit 1 extracts a target object, such as a curved corner or a corner of a working space, in the environment in which the mobile robot runs from a stereo image inputted by a stereo camera mounted on the mobile robot. It is something to extract. The three-dimensional position detection unit 2 performs stereo calculation processing on the target object extracted by the target object extraction unit 1 from the position of the mobile robot at the time when the stereo image is input, according to the stereo image; Specifically, the needle ring is set according to the principle of triangulation method. Then, the calculation unit 3 compares the three-dimensional position of the target obtained from the stereo image with the three-dimensional position of the target object group with respect to a preset point, and calculates the positional deviation by
The displacement of the position of the mobile robot from a preset point at the time when the stereo image is input from the dimensional position displacement is calculated.

この位置ずれは計算部3で求められた位置ずれ量が移動
ロボットの移動制御部に与えられ、その走行が制御され
る。
The amount of positional deviation determined by the calculating section 3 is given to the movement control section of the mobile robot, and the movement of the robot is controlled.

さて第2図は上記目標物抽出部1の構成例を示す図であ
る。移動ロボットに搭載されるステレオカメラは、例え
ば水平方向に所定の距離を隔てて設けられた2台のカメ
ラ、つまり左カメラ5aと右カメラ5bとからなり、制
御部6の制御を受けるスイッチ回路7を介して1シーン
づつ画像入力部8に入力されるようになっている。画像
入力部8はこの記像入力された左右2枚のii!i像か
らなるステレオ画像を、その内部に準備された画像メモ
リに格納して以下に説明する画像処理に供するものであ
る。
Now, FIG. 2 is a diagram showing an example of the configuration of the target object extraction section 1. As shown in FIG. The stereo camera mounted on the mobile robot consists of, for example, two cameras installed at a predetermined distance apart in the horizontal direction, that is, a left camera 5a and a right camera 5b, and a switch circuit 7 controlled by a control unit 6. Each scene is inputted to the image input section 8 via. The image input unit 8 receives the two left and right images ii! A stereo image consisting of an i-image is stored in an image memory prepared inside and subjected to the image processing described below.

しかして前処理部11は、上記画像メモリに格納された
ステレオii!j像に対して、例えば空間フィルタリン
グによるランダムM音の除去やシェーディング補正処理
等を行なっている。特徴抽出部12はこの前処理が施さ
れたステレオ画像に対して、目標物の種類に応じた画像
の特徴を抽出している。
The preprocessing unit 11 then processes the stereo ii! stored in the image memory! For example, random M sound removal by spatial filtering, shading correction processing, etc. are performed on the J image. The feature extraction unit 12 extracts image features corresponding to the type of target object from the preprocessed stereo image.

例えば入力されたステレオ画像が第3図(a)に例示す
る廊下(通路)を示す環境からなる場合、目標物Aとし
ては壁と床との交点゛つ柱の角と床との交点等として設
定される。このような24合には、画像の特徴として線
分を抽出すればQいがら、その入力画像を微分処理し、
その微分出力を2)!化して第3図(1))に示す如き
線分画像を)qれば良い。
For example, if the input stereo image consists of an environment showing a corridor (passageway) as shown in Fig. 3(a), the target object A may be the intersection between the wall and the floor, the intersection between the corner of a pillar and the floor, etc. Set. For such 24 cases, if line segments are extracted as features of the image, then the input image is subjected to differential processing,
The differential output is 2)! The line segment image shown in FIG. 3(1)) may be obtained by

このようにして求められる画像の特1!l(N分画像ン
から、目標物位置検出部13にて予め設定された目標物
を第3図(C)に示すように検出する。
Feature 1 of images that can be obtained in this way! The target object position detection unit 13 detects a preset target object from the N-minute images as shown in FIG. 3(C).

この目標物の検出は、例えば第4図に示すような目標物
に関する特徴パターンを準備し、前記M3図(1))に
示す線分画像に対してマツチング処理を行なうようにす
れば良い。具体的には、第3図(b)に示す線分画像中
から部分画像を切出し、この部分画像が第4図に示す特
徴パターンに適合するか否かを調べる。この処理を上記
部分画像の切出し位置を順次変えながら繰返し行い、パ
ターンがマツチングしたときこれを目標物の検出とし、
且つそのときの部分画像の切出し位置を目標物の検圧位
置とすれば良い。
To detect this target object, for example, a characteristic pattern related to the target object as shown in FIG. 4 may be prepared, and matching processing may be performed on the line segment image shown in the above-mentioned M3 diagram (1)). Specifically, a partial image is cut out from the line segment image shown in FIG. 3(b), and it is examined whether this partial image conforms to the characteristic pattern shown in FIG. 4. This process is repeated while sequentially changing the cutout position of the partial images, and when the patterns match, this is determined as target object detection,
Moreover, the cutout position of the partial image at that time may be used as the pressure detection position of the target object.

このようにしてステレオ画像中から検出される目標物の
検出情報が目標物位置メモリ14に格納される。尚、目
標物は1つに限られるものではなく、?!数伸類あって
も良い。この場合には各目標物毎にその検出位置情報を
目標物位置メモリ14にそれぞれ格納するようにすれば
良い。
The target object detection information detected from the stereo image in this way is stored in the target object position memory 14. Furthermore, the number of targets is not limited to one. ! There may be an arithmetic class. In this case, the detected position information for each target object may be stored in the target object position memory 14, respectively.

一方、3次元位置検出部2は、例えば第5図に縁上 示すように構成される。この3次元位Rfft−J部2
(第5図に示すブロック)は、予め3次元位置のわかっ
ている基準目標(マーク)を用いて校正データを作成し
、この佼正データに従って前述した如く検出された目標
物Aの3次元位置を計算するものとなっている。
On the other hand, the three-dimensional position detecting section 2 is configured as shown in FIG. 5, for example. This three-dimensional position Rfft-J section 2
(The block shown in Fig. 5) creates calibration data using a reference target (mark) whose three-dimensional position is known in advance, and calculates the three-dimensional position of target A detected as described above according to this calibration data. It is to be calculated.

即ち、マーク位置検出部2)は前記画像入力部8の画像
メモリに格納された左右2枚のステレオ画像中から予め
設定された基準目標(マーク)をそれぞれ検出している
。このマークは、例えは入力画像中の識別容易な対象物
として複数箇所に亙っで定められる。そして上記左右の
2枚の画像における各マークの位11¥関係からそのマ
ークの対応付けを行い、校正計粋部22にて1)述する
3次元位置計算に必要なステレオパラメータを佼正デー
タとして求めている。
That is, the mark position detection section 2) detects preset reference targets (marks) from the two left and right stereo images stored in the image memory of the image input section 8. This mark is defined, for example, at a plurality of locations as an easily identifiable object in the input image. Then, the marks are correlated based on the 11 yen relationship between the marks in the left and right images, and the calibration section 22 calculates the stereo parameters necessary for the three-dimensional position calculation described in 1) as correction data. ing.

つまり上記各マークのステレオ画急における対応関係か
ら、そのステレオ画像における対応点間の3次元位置を
特定するステレオパラメータが求められている。この校
正データ(パラメータンが校正データメモリ23に格納
される。
In other words, from the correspondence of each mark in the stereo image, stereo parameters are determined that specify the three-dimensional positions between the corresponding points in the stereo image. This calibration data (parameters) is stored in the calibration data memory 23.

ステレオ計n部24は、このステレオパラメータを用い
て前記目標物メモリ14に格納された目標物の前記ステ
レオ画像における位置から、画素目標物の3次元位置を
計算するものであり、これによって求められた目標物の
3次元位置が3次元座標メモリ25に格納される。従っ
てこの3次元座標メモリ25に格納される前記目標物の
3次元位置は、約2ステレオ画像を入力した時点の移動
ロボットの位置く現地点)を14準とした3次元位置(
X、V、Z)となる。
The stereo calculation unit 24 uses the stereo parameters to calculate the three-dimensional position of the pixel target from the position of the target in the stereo image stored in the target object memory 14, and calculates the three-dimensional position of the pixel target. The three-dimensional position of the target object is stored in the three-dimensional coordinate memory 25. Therefore, the three-dimensional position of the target object stored in the three-dimensional coordinate memory 25 is the three-dimensional position (the current position of the mobile robot at the time when approximately 2 stereo images were input) as the 14th standard.
X, V, Z).

さて前記位置ずれ計算部3は、例えば第6図に示すよう
に構成される。
Now, the positional deviation calculating section 3 is configured as shown in FIG. 6, for example.

目標物モデル座標メモリ31には、予め設定された移動
ロボットの走行経路上の各地点から見た目標物の3次元
位置データが予め格納されている。
The target object model coordinate memory 31 stores in advance three-dimensional position data of the target object as seen from each point on a preset traveling route of the mobile robot.

この目標物モデル座標メモリ31に格納される目標物の
3次元位置データは、例えば移動ロボットを上記走行経
路上を準備走行させ、その時に求められる目標物の3次
元位置データ(X、Y、Z)等として与えられるもので
ある。
The three-dimensional position data of the target stored in the target object model coordinate memory 31 can be obtained by, for example, making a mobile robot run on the above-mentioned travel route, and calculating the three-dimensional position data (X, Y, Z) of the target that is obtained at that time. ) etc.

変換行列計n部32は、上記目標物モデル座標メモリ3
1に予め格納されている目標物の、予め定められた地点
からの3次元位[(X、Y、’;l>と、前記3次元座
標メモリ25に格納された移動ロボットの現地点から見
た目標物の3次元位置(x、y、z)とから、上記窓め
られた地点と現地点との座標変換行列下を計算している
The conversion matrix calculator n section 32 stores the target object model coordinate memory 3.
The three-dimensional position [(X, Y, '; Based on the three-dimensional position (x, y, z) of the object, a coordinate transformation matrix between the windowed point and the local point is calculated.

即ち、第7図に示すように平面上を動く移動ロボットに
対して定められた走行経路P上の成る地点をQとし、上
記移動ロボットが自走して前記ステレオ画像を得た現地
点をRとした場合、それらの間の平行移動ははV (p
、q、r )として与えられboまた目標物を撮像入力
するステレオ視カメラの向きがyi=備走行時と現地点
とで異なることから、そのZ軸回りの回転角度をθとす
る。
That is, as shown in FIG. 7, the point on the travel path P determined for the mobile robot moving on a plane is Q, and the local point where the mobile robot moves on its own and obtained the stereo image is R. , the translation between them is V (p
.

すると、同一の目標物に対して求められた上記3次元位
置の座標間には なる関係が成立する。但し、 α=−pcosθ−q  sinθ β=pSinθ−q  cosθ である。これらの座標値間の関係を示す行列が前記座標
変換行列Tである。
Then, the following relationship is established between the coordinates of the three-dimensional position determined for the same target object. However, α=−pcosθ−q sinθβ=pSinθ−qcosθ. A matrix indicating the relationship between these coordinate values is the coordinate transformation matrix T.

変換行列計算部32は、前記ステレオ画像から求められ
る最低2つの目標物に関する3次元位置情報から上述し
た式を連立させ、これを解いて座標変換行列Tを求めて
いる。そして位置ずれ缶出カ部33は、上記座標変換行
列Tから前記窓められた地点Qに対する移動ロボットの
現地点Rの位装置ずれ倒(p、 q、r、θ)を計算し
、これを移動ロボットの動作制御部34に出力するもの
となっている。
The transformation matrix calculation unit 32 calculates the coordinate transformation matrix T by combining the above-mentioned equations from the three-dimensional position information regarding at least two targets obtained from the stereo image and solving the equations. Then, the positional deviation output unit 33 calculates the positional deviation (p, q, r, θ) of the local point R of the mobile robot with respect to the windowed point Q from the coordinate transformation matrix T, and calculates the positional deviation (p, q, r, θ) It is output to the motion control section 34 of the mobile robot.

尚、ステレオ画像から2組以上の目標物が抽出される場
合には、例えば最小2乗法の原理を採用がステレオカメ
ラの視野から外れた場合であっても、少なくとも2組の
目標物が上記視野内に残れば、上jホした位置ずれを求
めることが可能なことは云うまでもない。
In addition, when two or more sets of targets are extracted from a stereo image, even if the principle of least squares method is adopted, for example, the least squares method is applied, even if the target objects are out of the field of view of the stereo camera, at least two sets of targets are extracted from the above field of view. Needless to say, if it remains within the range, it is possible to find the positional deviation as described above.

以上のように本発明によれば、移動ロボットに搭載され
たステレオカメラにより入力されたステレオ画像から、
該移動ロボットの本来の走行位置からの位置ずれ命を非
常に簡易に求めることができる。しかも、数個の目標物
に対するステレオ計算だけによって位置ずれを計算する
ので、従来装置のようにステレオ画像の各部の対応付番
ノや、これらの各部の全てに対するステレオ針師α理が
不要となる。この結果、その計算処理を高速に効率良く
実行することが可能となる。更に目標物として特徴抽出
の容易なものだけを選定することにより、その画像処理
が徒に複雑化することを防ぐことができ、その目標物に
対する計Ll 24度の向上、位置ずれ検出に対する信
頼性の向上を図ること等が可0ヒとなる。
As described above, according to the present invention, from stereo images input by a stereo camera mounted on a mobile robot,
The displacement of the mobile robot from its original traveling position can be determined very easily. Moreover, since the positional deviation is calculated only by stereo calculations for several targets, there is no need for the corresponding numbering of each part of the stereo image or the stereo needle calculation for all of these parts, which is required with conventional devices. . As a result, the calculation process can be executed efficiently and at high speed. Furthermore, by selecting only objects whose features can be easily extracted as targets, it is possible to prevent the image processing from becoming unnecessarily complicated, improving the total Ll 24 degrees for the target, and increasing the reliability of positional deviation detection. It will be possible to improve the level of performance.

故に移動ロボットの走行制御に効果的に適用することが
可能となり、その視覚殿能を十分に発揮のを適宜採用す
ることができる。その他、本発明はその要旨を逸脱しな
い範囲で種々変形して実論することができる。
Therefore, it can be effectively applied to the traveling control of a mobile robot, and it can be appropriately employed to fully utilize its visual abilities. In addition, the present invention can be modified and practiced in various ways without departing from the gist thereof.

C発明の効果〕 以上説明したように本発明によれば、移動ロボットの本
走行時にステレオ画像から求められる目標物の3次元位
置と、予め設定された地点から求められる目標物の3次
元位置とを比較し、その位置座標変換行列を求めて上記
ステレオ画像を(nだ時点の移動ロボットの現地点の前
記設定された地点からの位置ずれを求めるので、移動ロ
ボットの走17制陣に必要な情報を簡易に、且つ高速に
精度良く求めることができる。故に移動ロボットの視覚
機能として多大なる効果が奏せられる。
C. Effects of the Invention] As explained above, according to the present invention, the three-dimensional position of the target obtained from the stereo image during the actual running of the mobile robot and the three-dimensional position of the target obtained from the preset point , calculate the position coordinate transformation matrix, and convert the above stereo image to Information can be obtained easily, quickly, and with high precision.Therefore, a great effect can be achieved as a visual function of a mobile robot.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実茄例装置の概略構成図、第2図は
実7J!!例賃置における目標物抽出部の構成例を示す
図、第3図および第4図は目標物抽出処1里の概念を示
′vj図、第5図は実施例装置における3次元位置検出
部の構成例を示す図、第6図は実施例狡茸における位置
ずれ農計詐部の構成例を示“を図である。 1・・・目標物抽出部、2・・・3次元位置検出部、3
・・・位置ずれ屋St算部、5a、 5b・・・ステレ
オカメラ、8・・・画像入力部、11・・・前処理部、
12・・・待微抽出部、13・・・目標物位置検出部、
14・・・目標物位置メモリ、2)・・・マーク位置検
出部、22・・・構成み[篩部、23・・・校正データ
メモリ、24・・・ステレオ計算部、25・・・3次元
座標メモリ、31・・・目標物モデル座標メモリ、32
・・・変換行列計n部、33・・・位置ずれ酪出力部。 竹立出願人 工業技術院長 等々力 達第1図 七 第2図 第4図 第5図 /−第7図 手  続  補  正  書 (方式)昭和 62年 
lσ月 9日 持言′1庁長官 殿 1、事件の表示 特願昭61−109577号 2、発明の名称 位置ずれ測定装置 3、補正をする者 事件との関係 特許出願人 住所   同   上              ゛
氏名  工業技術院 研究開発宮家 電話 03(501)1511  内線4611〜24
、補正命令の日付 昭和62年 9月22日(発送日) 5、補正の対象 明細書の図面の簡単な説明の欄 6、補正の内容 明細書の第16頁、第9〜11行目の、「第6図は実施
例装置における位置ずれ量計算部の構成例を示す図であ
る。」との記載を、 「第6図は実施例装置における位置ずれ全計算部の構成
例を示す図、第7図は位置ずれの様子を説明するための
図である。」 と訂正する。 以上
Fig. 1 is a schematic diagram of the construction of a device for producing 7J! ! Figures 3 and 4 show the concept of the target object extraction process, and Figure 5 shows the three-dimensional position detection unit in the example device. FIG. 6 is a diagram showing an example of the configuration of the positional deviation agricultural bill fraud section in the embodiment. 1...Target extraction section, 2...Three-dimensional position detection Part, 3
... Position shifter St calculation section, 5a, 5b... Stereo camera, 8... Image input section, 11... Preprocessing section,
12... waiting microextraction section, 13... target position detection section,
14... Target position memory, 2)... Mark position detection section, 22... Configuration [sieve section, 23... Calibration data memory, 24... Stereo calculation section, 25... 3 Dimensional coordinate memory, 31...Target model coordinate memory, 32
. . . Transformation matrix total n parts, 33 . . . Position shift output part. Taketachi Applicant Director of the Agency of Industrial Science and Technology Tatsu Todoroki Figure 1, 7, 2, 4, 5/-Figure 7 Procedures Amendment (Method) 1988
lσ Month 9 Motion '1 Director-General of the Office 1, Indication of the case Japanese Patent Application No. 61-109577 2, Name of the invention positional deviation measuring device 3, Person making the amendment Relationship with the case Patent applicant's address Same as above ゛ Name Agency of Industrial Science and Technology Research and Development Miyake Telephone 03(501)1511 Extensions 4611-24
, Date of the amendment order: September 22, 1988 (shipment date) 5. Column 6 for a brief explanation of the drawings in the specification subject to the amendment, Page 16, lines 9 to 11 of the statement of contents of the amendment. , ``Figure 6 is a diagram showing an example of the configuration of the positional deviation amount calculating section in the embodiment device.'' , FIG. 7 is a diagram for explaining the state of positional deviation.''that's all

Claims (2)

【特許請求の範囲】[Claims] (1)走行体に搭載されたステレオカメラにより目標物
を含む環境のステレオ画像を入力する手段と、入力され
たステレオ画像中から予め登録された複数の目標物をそ
れぞれ抽出する手段と、前記走行体の上記ステレオ画像
を入力した地点からの上記各目標物の3次元位置をステ
レオ計算によつてそれぞれ求める手段と、予め定められ
た地点からの目標物群の3次元位置と上記ステレオ計算
によって求められた前記各目標物の3次元位置とをそれ
ぞれ比較する手段と、この比較結果に従つて前記走行体
の前記ステレオ画像を入力した地点と予め定められた地
点との位置ずれを計算する手段とを具備したことを特徴
とする位置ずれ測定装置。
(1) Means for inputting a stereo image of an environment including a target object using a stereo camera mounted on a traveling body; means for extracting a plurality of pre-registered targets from the input stereo image; means for determining the three-dimensional position of each target object from a point where the stereo image of the body is inputted by stereo calculation; means for comparing the three-dimensional positions of the respective targets, and means for calculating a positional deviation between a point where the stereo image of the traveling object is input and a predetermined point according to the comparison result. A positional deviation measuring device characterized by comprising:
(2)走行体は移動ロボットであつて、予め定められた
地点は該移動ロボットに対して設定された走行軌道上の
地点を示すものである特許請求の範囲第1項記載の位置
ずれ測定装置。
(2) The positional deviation measuring device according to claim 1, wherein the traveling object is a mobile robot, and the predetermined point indicates a point on a traveling trajectory set for the mobile robot. .
JP61109577A 1986-05-15 1986-05-15 Position shift measuring device Expired - Lifetime JPH0661101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61109577A JPH0661101B2 (en) 1986-05-15 1986-05-15 Position shift measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61109577A JPH0661101B2 (en) 1986-05-15 1986-05-15 Position shift measuring device

Publications (2)

Publication Number Publication Date
JPS6359670A true JPS6359670A (en) 1988-03-15
JPH0661101B2 JPH0661101B2 (en) 1994-08-10

Family

ID=14513788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61109577A Expired - Lifetime JPH0661101B2 (en) 1986-05-15 1986-05-15 Position shift measuring device

Country Status (1)

Country Link
JP (1) JPH0661101B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115533908A (en) * 2022-10-11 2022-12-30 江苏高倍智能装备有限公司 Alignment control method and system for multi-manipulator matched workpiece lifting

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5917103A (en) * 1982-07-20 1984-01-28 Kubota Ltd Position detector of moving body

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5917103A (en) * 1982-07-20 1984-01-28 Kubota Ltd Position detector of moving body

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115533908A (en) * 2022-10-11 2022-12-30 江苏高倍智能装备有限公司 Alignment control method and system for multi-manipulator matched workpiece lifting
CN115533908B (en) * 2022-10-11 2023-10-03 江苏高倍智能装备有限公司 Alignment control method and system for multi-manipulator matched workpiece lifting

Also Published As

Publication number Publication date
JPH0661101B2 (en) 1994-08-10

Similar Documents

Publication Publication Date Title
DE102015011914B4 (en) Contour line measuring device and robotic system
CN104057453B (en) The manufacture method of robot device and machined object
DE68926247T2 (en) METHOD AND SYSTEM FOR AUTOMATICALLY DETECTING THE LOCATION AND ORIENTATION OF AN OBJECT IN THE THREE-DIMENSIONAL SPACE
Chen et al. Acquisition of weld seam dimensional position information for arc welding robot based on vision computing
KR20080093460A (en) Mobile robot
KR900002509B1 (en) Apparatus for recognizing three demensional object
KR101379787B1 (en) An apparatus and a method for calibration of camera and laser range finder using a structure with a triangular hole
CN112288815B (en) Target die position measurement method, system, storage medium and device
Kim et al. Autonomous mobile robot localization and mapping for unknown construction environments
JPH03213251A (en) Workpiece position detecting device
CN113327283A (en) Automatic labeling method and system for image data target detection rectangular frame
Grudziński et al. Stereovision tracking system for monitoring loader crane tip position
Xu et al. A new monocular vision measurement method to estimate 3D positions of objects on floor
JP6420404B1 (en) Object recognition device
JPS6359670A (en) Off-position measuring instrument
CN110726402A (en) Laser point vision guiding method of non-orthogonal shafting laser total station
JPH11338532A (en) Teaching device
Li et al. Workpiece intelligent identification and positioning system based on binocular machine vision
JP2003271993A (en) Monitor image processing method, image monitoring system, and maintenance work system
JPH08261719A (en) Device and method for calculating amount of relative movement
Shilin et al. Application of a Depth Camera for Constructing Complex Three-Dimensional Models in Multiple Scanning Complexes
Yeh et al. A vision system for safe robot operation
RU2065133C1 (en) Method of automated measurement of coordinates of points of external medium to plot its three-dimensional model in stereo television system of technical vision
JP2001266129A (en) Navigation controller by picture of navigation body and navigation control method
Yang et al. Calibration of an integrated robotic multimodal range scanner

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term