JPH07116972A - Self-traveling robot for interior finish work - Google Patents

Self-traveling robot for interior finish work

Info

Publication number
JPH07116972A
JPH07116972A JP5267196A JP26719693A JPH07116972A JP H07116972 A JPH07116972 A JP H07116972A JP 5267196 A JP5267196 A JP 5267196A JP 26719693 A JP26719693 A JP 26719693A JP H07116972 A JPH07116972 A JP H07116972A
Authority
JP
Japan
Prior art keywords
work
manipulator
target
self
unmanned vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5267196A
Other languages
Japanese (ja)
Inventor
Masuo Asai
満寿雄 浅井
Teppei Yamashita
哲平 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinko Electric Co Ltd
Original Assignee
Shinko Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shinko Electric Co Ltd filed Critical Shinko Electric Co Ltd
Priority to JP5267196A priority Critical patent/JPH07116972A/en
Publication of JPH07116972A publication Critical patent/JPH07116972A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve working accuracy and reliability and to enable the field joining of interior finish work by carrying out a building work after the correction of a stop position at the time of stopping at a work position and the correction of the attitude of a manipulator at the work position. CONSTITUTION:In the case where the marking of the attaching position of a fluorescent lamp to the ceiling board 2 of a building is carried out by a working unmanned vehicle 10, first of all, a card is inserted into the work information input-output section 24 of the working unmanned vehicle 10 to read work position information. Next, a main control section 22 computes a distance from a reference position where the working unmanned vehicle 10 stops at the present time to the first work position and its direction on the work position information to control a running control section 24 for running the working unmanned vehicle 10 to the first work position. Next, a position correcting target article is photographed by a visual device 40 to carry out positional correction on the position and distance information of the target article, and then, a work object 2 is photographed by the visual device 40, and after the amendment of the attitude of a manipulator 30, a teaching work domain is corrected, and a fixed work is carried out by the manipulator 30.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、建築内装用自走式作業
ロボットに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a self-propelled working robot for building interior.

【0002】[0002]

【従来の技術】建築作業の職場は、労働環境の厳しい職
場であり、その自動化に対する要求には極めて強いもの
がある。
2. Description of the Related Art A workplace for construction work is a workplace with a severe working environment, and there is an extremely strong demand for automation.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、労働の
種別が多い上に、細かな作業も多く、作業の信頼性が要
求されるので、これらの条件を満足する自動化機器の開
発は難しいという問題がある。
However, since there are many types of labor and many detailed work is required, and reliability of work is required, it is difficult to develop an automated device that satisfies these conditions. is there.

【0004】特に、内装作業、例えば、天井ボード張り
や照明灯の取り付け等の天井作業は、厄介な作業で、設
計図面通りに仕上げることが難しい場合が多く、例え
ば、天井ボードのエッジラインが設計図面通りでない場
合に、蛍光灯取り付けラインの墨出しをロボット等で行
なうと、当該ロボット等は設計図面通りに作業するの
で、内装仕上がり後、蛍光灯ラインが天井ボードのエッ
ジラインに対して凹凸を描き、見栄えが良くない内装仕
上がりとなる。
In particular, interior work, for example, ceiling work such as ceiling board upholstery or installation of an illumination lamp, is a troublesome work, and it is often difficult to finish according to the design drawing. For example, the edge line of the ceiling board is designed. If it is not as shown in the drawing, and if the marking line of the fluorescent lamp installation line is done by a robot etc., the robot etc. will work according to the design drawing, so after the interior finish, the fluorescent lamp line will be uneven with respect to the edge line of the ceiling board. The interior finish is not as good as it looks.

【0005】本発明はこの問題を解消するためになされ
たもので、内装作業の現場合わせを自動的に可能にし、
かつ信頼性の高い建築内装用自走式作業ロボットを提供
することを目的とする。
The present invention has been made to solve this problem, and automatically enables on-site alignment of interior work.
It is an object of the present invention to provide a highly reliable self-propelled work robot for building interior.

【0006】[0006]

【課題を解決するための手段】本発明は上記目的を達成
するため、請求項1では、視覚装置とマニピュレータを
搭載し、距離計からの距離情報と方位測定器からの方位
情報から現在位置を検出しつつ作業情報で指定された位
置まで自走する横行かつスピンターン可能なバッテリ方
式の作業無人車と位置補正用の目標物とを備え、上記停
止時、上記視覚装置で位置補正用目標物を撮影して当該
目標物の位置と上記距離情報に基づき位置補正を行な
い、上記位置補正後、上記視覚装置により作業対象を撮
影し、撮影した画面内の上記作業対象の姿勢が基準姿勢
に対しずれている場合には、そのずれ分に応じて上記マ
ニピュレータもしくは/および作業無人車の姿勢を修正
し、この姿勢修正後、上記画面内の作業対象の位置に基
づき教示作業領域を修正し、修正された作業領域に対
し、上記マニピュレータが、所定作業を実行し、この作
業の終了後、上記作業無人車は、次の指定位置まで自走
する構成とした。
In order to achieve the above object, the present invention provides a visual device and a manipulator to determine the current position from distance information from a rangefinder and direction information from a direction measuring device. A battery-operated unmanned vehicle capable of traversing and spin-turning, which is self-propelled to the position specified by the work information while detecting, and a target object for position correction, and at the time of the stop, the target object for position correction by the visual device. The position of the target is corrected and the position of the target is corrected based on the distance information.After the position correction, the work target is photographed by the visual device, and the posture of the work target in the photographed screen is relative to the reference posture. If there is a deviation, the posture of the manipulator or / and the work unmanned vehicle is corrected according to the shift, and after this posture correction, the teaching work area is changed based on the position of the work target in the screen. Correct, modified workspace hand, the manipulator executes a predetermined operation after the work is completed, the work unmanned vehicle was configured to self to the next designated position.

【0007】請求項2では、作業対象は、天井または床
であり、マニピュレータが行なう作業は、墨出しまたは
切断作業であることを特徴とする。
According to a second aspect of the present invention, the work target is the ceiling or floor, and the work performed by the manipulator is marking or cutting work.

【0008】請求項3では、作業対象は、天井ボードで
あり、画面内の天井ボードエッジラインを基準に、教示
作業領域を修正することを特徴とする請求項1または2
記載の建築内装用自走式ロボット。
According to a third aspect of the present invention, the work target is a ceiling board, and the teaching work area is corrected with reference to the ceiling board edge line in the screen.
Self-propelled robot for building interior as described.

【0009】請求項4では、位置補正用目標物は、可搬
式の光源またはマーク、室内の柱または壁に記されたマ
ークである構成とした。
According to a fourth aspect of the present invention, the target object for position correction is a portable light source or mark, or a mark on a pillar or wall in the room.

【0010】請求項5では、視覚装置とマニピュレータ
は姿勢制御台上に配置され、当該姿勢制御台は、傾倒制
御可能である構成とした。
According to a fifth aspect of the present invention, the visual device and the manipulator are arranged on a posture control base, and the posture control base is capable of tilt control.

【0011】請求項6では、作業情報は、磁気カードま
たはICカードで与えられ、作業無人車は、当該カード
が格納している前記作業情報を読み取るリーダーを備え
ている構成とした。
In claim 6, the work information is given by a magnetic card or an IC card, and the work unmanned vehicle is provided with a reader for reading the work information stored in the card.

【0012】[0012]

【作用】本発明では、作業位置での停止時に、作業無人
車の位置補正が行なわれ、当該位置補正を行なったの
ち、作業対象に対するマニピュレータの位置もしくは姿
勢修正が行なわれ、この修正を行なったのちに、画面内
の作業対象の位置に基づき教示作業領域を修正し、修正
された作業領域に対し、上記マニピュレータが、所定作
業を実行する。
According to the present invention, the position of the working unmanned vehicle is corrected when the work unmanned vehicle is stopped, and then the position or posture of the manipulator with respect to the work target is corrected, and this correction is performed. After that, the teaching work area is corrected based on the position of the work target on the screen, and the manipulator executes a predetermined work on the corrected work area.

【0013】[0013]

【実施例】以下、本発明の1実施例を図面を参照して説
明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0014】図1において、1は床、10はバッテリ方
式の作業無人車である。作業無人車10は、その台車枠
11の上枠面上に、姿勢制御台12を設け、この姿勢制
御台12上に、マニピュレータ30とTVカメラのよう
な視覚装置40を搭載している。視覚装置40には投光
器(照明器)41が一体的に取り付けてある。この姿勢
制御台12は4本の伸縮脚13で四隅を支持されてい
る。マニピュレータ30は工具30Aを天井ボード2側
に向けて把持している。14は伸縮脚13を制御する制
御機構である。15は台車枠11の下面の四隅から垂下
している伸縮脚15で、台車姿勢固定部を構成し、常時
は、図示のように、その脚端の固定板15Aが床面から
離間した状態にある。16は駆動・操舵輪、17は自由
輪である。台車枠11内には、画像処理部21、主制御
部(CPU)22、駆動・操舵輪16を駆動・操舵する
走行制御部23、カード挿入口18から挿入されたIC
カード60(図2に示す)のデータを読み取る読取りユ
ニットを有する作業情報入出力部24、台車姿勢固定部
制御部25、を収納している。22Aは主制御部22の
演算部、22Bは主制御部22のメモリ部である。作業
情報入出力部24はキースイッチ26、モニタディスプ
レイ27を備えている。28はマニピュレータ制御部で
ある。19Aは駆動・操舵輪16の回転数を検出するエ
ンコーダ、19Bは作業無人車10の方位を測定するジ
ャイロである。50A、50Bはレーザ等の可搬式の光
源であり、床1を囲む壁側に、3個所以上間隔を隔て、
配置されている。光源50A、50Bは、作業無人車1
0の位置補正用の目標点P1、P2を与えるために設け
てある。
In FIG. 1, reference numeral 1 is a floor, and 10 is a battery type working unmanned vehicle. The work unmanned vehicle 10 is provided with an attitude control table 12 on the upper frame surface of the bogie frame 11, and a manipulator 30 and a visual device 40 such as a TV camera are mounted on the attitude control table 12. A light projector (illuminator) 41 is integrally attached to the visual device 40. The posture control table 12 is supported at its four corners by four telescopic legs 13. The manipulator 30 holds the tool 30A toward the ceiling board 2 side. Reference numeral 14 is a control mechanism for controlling the telescopic legs 13. Reference numeral 15 is a telescopic leg 15 hanging from the four corners of the lower surface of the bogie frame 11, which constitutes a bogie posture fixing portion, and as shown in the figure, the fixing plate 15A at the leg end thereof is always separated from the floor surface. is there. Reference numeral 16 is a drive / steering wheel, and 17 is a free wheel. An image processing unit 21, a main control unit (CPU) 22, a traveling control unit 23 for driving and steering the driving / steering wheels 16, and an IC inserted from the card insertion slot 18 in the bogie frame 11.
A work information input / output unit 24 having a reading unit for reading the data of the card 60 (shown in FIG. 2) and a carriage posture fixing unit control unit 25 are housed. 22A is an arithmetic unit of the main control unit 22, and 22B is a memory unit of the main control unit 22. The work information input / output unit 24 includes a key switch 26 and a monitor display 27. 28 is a manipulator control unit. Reference numeral 19A is an encoder that detects the number of rotations of the drive / steering wheels 16, and 19B is a gyro that measures the orientation of the working unmanned vehicle 10. 50A and 50B are portable light sources such as lasers, which are arranged on the wall side surrounding the floor 1 at three or more intervals.
It is arranged. The light sources 50A and 50B are the work unmanned vehicle 1
It is provided to provide target points P1 and P2 for position correction of zero.

【0015】ICカード60には、作業位置、作業種
別、作業領域、各作業位置におけるマニピュレータ30
の作業手順と作業プログラムと視覚装置40の動作プロ
グラムと位置補正用のための目標点座標等が書き込まれ
ている。
The IC card 60 includes a work position, a work type, a work area, and a manipulator 30 at each work position.
The work procedure, the work program, the operation program of the visual device 40, the target point coordinates for position correction, and the like are written.

【0016】図1において、O10は作業無人車10の旋
回中心を示し、この例では、マニピュレータ30の作業
点と一致している。
In FIG. 1, O 10 indicates the turning center of the working unmanned vehicle 10, and in this example, it coincides with the working point of the manipulator 30.

【0017】図2は、作業無人車の制御系をブロック図
で示したものである。
FIG. 2 is a block diagram showing the control system of the unmanned work vehicle.

【0018】今、作業無人車10が、建築物の天井ボー
ド2に対する蛍光灯の取り付け位置の墨だしを行なうも
のとする。
Now, it is assumed that the working unmanned vehicle 10 marks the mounting position of the fluorescent lamp on the ceiling board 2 of the building.

【0019】(1)先ず、作業無人車10の作業情報入
出力部24にカード60が挿入される。作業情報入出力
部24は、主制御部22からの指令により、ICカード
60に書き込まれている作業情報のうちの作業位置の位
置情報を読み取る。この位置情報は主制御部22のメモ
リ22Bに書き込まれる。
(1) First, the card 60 is inserted into the work information input / output unit 24 of the work unmanned vehicle 10. The work information input / output unit 24 reads the position information of the work position among the work information written in the IC card 60 according to a command from the main control unit 22. This position information is written in the memory 22B of the main control unit 22.

【0020】(2)主制御部22は、メモリ22Bに格
納した作業位置情報を読み出して、作業無人車10が現
在停止している基準位置Soから最初の作業位置S1ま
での距離L1と方位α1を演算し、演算した結果を走行
指令として、走行制御部24に与える。作業無人車10
は、エンコーダ19Aからの距離情報とジャイロ19B
からの方位情報をフィードバック情報として、上記指令
に従い走行し、最初の作業位置S1まで走行して停止す
る。
(2) The main control unit 22 reads the work position information stored in the memory 22B, and the distance L1 from the reference position So at which the unmanned work vehicle 10 is currently stopped to the first work position S1 and the azimuth α1. Is given and the calculated result is given to the running control unit 24 as a running command. Work drone 10
Is the distance information from the encoder 19A and the gyro 19B.
Based on the azimuth information as the feedback information, the vehicle travels according to the above command, travels to the first work position S1, and stops.

【0021】(3)作業無人車10は、上記指令された
方位α1へ指令された距離L1だけ走行すると、停止す
る。この時の停止位置をS1’とする。この時、視覚装
置40は視野中心O40を水平方向に向けており、光源5
0A、光源50Bを撮影する撮影動作を行う。視覚装置
40からの映像は画像処理部21に送られ、画像処理部
21は、映像中の目標点P1、P2の位置(座標)を検
出する。
(3) Work The unmanned vehicle 10 stops when it travels in the commanded direction α1 by the commanded distance L1. The stop position at this time is S1 '. At this time, the visual device 40 directs the visual field center O 40 in the horizontal direction, and
A shooting operation for shooting 0A and the light source 50B is performed. The image from the visual device 40 is sent to the image processing unit 21, and the image processing unit 21 detects the positions (coordinates) of the target points P1 and P2 in the image.

【0022】(4)主制御部22は、目標点P1、P2
の位置と停止位置S1’とから、三角測量法により、作
業無人車10の現在停止位置S1’を演算し、この演算
結果が、作業位置S1と一致しない場合は、位置補正量
(距離)を演算して、走行制御部23に位置補正を指令
する。
(4) The main controller 22 controls the target points P1 and P2.
From the position and the stop position S1 ′, the current stop position S1 ′ of the unmanned work vehicle 10 is calculated by the triangulation method. If the calculation result does not match the work position S1, the position correction amount (distance) is calculated. It calculates and commands the travel controller 23 to perform position correction.

【0023】位置補正が終わると、姿勢固定部制御部2
5が伸縮脚15を制御する。これにより、伸縮脚15の
固定板15Aは床1に圧接状に係合する。
When the position correction is completed, the posture fixing unit control unit 2
5 controls the telescopic leg 15. As a result, the fixed plate 15A of the telescopic leg 15 engages with the floor 1 in a pressure contact manner.

【0024】(5)作業無人車10の上記位置補正と固
定が終わると、図1に2点鎖線で示すように、視覚装置
40の撮像面を天井ボード2に向け、天井ボード2を撮
影する。この時の画面を図3に示す。Oは画面の中心、
XとYは画面基準線、実線で囲まれた斜線域は作業情報
で指定される作業領域を示している。また、2X、2Y
は単位天井ボード2aの横縁、縦縁を示し、x、yは作
業領域を区画する横線と縦線を示している。なお、Oは
教示上の作業中点でもある。
(5) When the position correction and fixing of the work unmanned vehicle 10 are completed, the ceiling board 2 is photographed with the image pickup surface of the visual device 40 facing the ceiling board 2 as shown by the chain double-dashed line in FIG. . The screen at this time is shown in FIG. O is the center of the screen,
X and Y indicate the screen reference line, and the shaded area surrounded by the solid line indicates the work area designated by the work information. Also, 2X, 2Y
Indicates a horizontal edge and a vertical edge of the unit ceiling board 2a, and x and y indicate a horizontal line and a vertical line that divide the work area. It should be noted that O is also the midpoint of work in teaching.

【0025】図3の画面では、天井ボード2に対し、視
覚装置40が水平面で角度θだけずれている。画像処理
装置21は、天井ボード2の継ぎ目2X、2Yの座標を
検出して主制御部22に送る。主制御部22は継ぎ目2
X、2Yの座標と画面基準線X、Yの座標から上記角度
θを演算し、走行制御部23に、角度θだけ、作業無人
車10を旋回させることを指令する。
In the screen of FIG. 3, the visual device 40 is displaced from the ceiling board 2 by an angle θ in the horizontal plane. The image processing device 21 detects the coordinates of the joints 2X and 2Y of the ceiling board 2 and sends them to the main control unit 22. The main control unit 22 has a seam 2
The angle θ is calculated from the coordinates of X, 2Y and the coordinates of the screen reference lines X, Y, and the traveling control unit 23 is instructed to turn the work unmanned vehicle 10 by the angle θ.

【0026】天井ボード2に対し、視覚装置40が上下
方向に角度γだけ傾倒している場合は、主制御部22
は、伸縮脚制御部14に角度γの補正を指令する。伸縮
脚制御部14は、与えられた補正量γに基づいて、4本
の伸縮脚13の各伸縮量を演算し、伸縮脚13を制御す
る。
When the visual device 40 is tilted with respect to the ceiling board 2 in the vertical direction by the angle γ, the main controller 22
Instructs the telescopic leg control unit 14 to correct the angle γ. The telescopic leg control unit 14 calculates the respective telescopic amounts of the four telescopic legs 13 based on the given correction amount γ, and controls the telescopic legs 13.

【0027】これらの姿勢修正動作を行なったのちの画
面を図4に示す。
FIG. 4 shows a screen after performing these posture correction operations.

【0028】(5)図4では、天井ボードの2Xライン
が、画面基準線Xに対して、Δ1だけずれており、作業
領域の横線xに対しては、Δ2だけずれている。
(5) In FIG. 4, the 2X line of the ceiling board is displaced from the screen reference line X by Δ1 and is displaced from the horizontal line x of the work area by Δ2.

【0029】主制御部22は、天井ボードの2Xライン
と画面基準線Xまたは作業領域のxラインとの間隔を演
算し、図5に示すように、作業中点OをΔ1だけずらす
か、図6に示すように、天井ボードの2Xラインが作業
領域の横線xに一致するように、作業中点OをΔ2だけ
ずらせる。
The main control unit 22 calculates the distance between the 2X line of the ceiling board and the screen reference line X or the x line of the work area, and as shown in FIG. As shown in 6, the working midpoint O is displaced by Δ2 so that the 2X line of the ceiling board coincides with the horizontal line x of the working area.

【0030】(6)主制御部22は、ICカード60か
ら、作業プログラムと作業手順を読み出し、この作業プ
ログラムに従い作業手順をマニピュレータ制御部28に
指令する。マニピュレータ30は、この指令に従い作業
を実行する。この例では、マニピュレータ30は原点座
標に復帰している工具30Aを作業始点である作業中点
(上記ずらせたのちの作業中点)へ位置制御し、作業を
開始させる。
(6) The main control unit 22 reads out the work program and work procedure from the IC card 60, and instructs the manipulator control unit 28 in accordance with this work program. The manipulator 30 executes the work according to this command. In this example, the manipulator 30 position-controls the tool 30A that has returned to the origin coordinates to the working start point (working point after the shifting), and starts the work.

【0031】(7)マニピュレータ30の上記作業が終
わると、主制御部22は、ICカード60から、次の作
業位置情報を読み出し、作業位置S1から次の作業位置
S2までの距離L2と方位α2を演算し、演算した結果
を走行指令として、走行制御部24に与える。作業無人
車10は、エンコーダ19Aからの距離情報とジャイロ
19Bからの方位情報をフィードバック情報として、上
記指令に従い走行し、作業位置S2まで走行して停止す
る。
(7) When the above-mentioned work of the manipulator 30 is completed, the main control section 22 reads the next work position information from the IC card 60, and the distance L2 from the work position S1 to the next work position S2 and the azimuth α2. Is given and the calculated result is given to the running control unit 24 as a running command. The operation unmanned vehicle 10 travels according to the above command using the distance information from the encoder 19A and the azimuth information from the gyro 19B as feedback information, travels to the work position S2, and stops.

【0032】そして、上記(2)〜(6)のシーケンス
が繰り返される。
Then, the above sequences (2) to (6) are repeated.

【0033】本実施例では、作業無人車10は、床面に
設置された磁気テープや光学テープおよびマーク等を検
知しつつ走行するのではないので、これらのガイド体は
不要である。
In the present embodiment, the working unmanned vehicle 10 does not travel while detecting the magnetic tape, optical tape, marks, etc. installed on the floor surface, and therefore these guide bodies are unnecessary.

【0034】また、作業位置での停止時に、作業無人車
10の位置補正を行い、当該位置補正を行なったのち、
作業対象に対するマニピュレータ30の位置もしくは姿
勢修正を行い、この修正を行なったのちに、教示作業領
域が実際の作業領域とがずれているか否かを判断し、ず
れている場合には、そのずれを補正したのち、マニピュ
レータ30が作業を行なうので、作業精度は極めて高く
なる。
Further, at the time of stopping at the work position, the position of the work unmanned vehicle 10 is corrected, and after performing the position correction,
The position or orientation of the manipulator 30 with respect to the work target is corrected, and after this correction, it is judged whether or not the teaching work area is deviated from the actual work area. After the correction, the manipulator 30 performs the work, so that the work accuracy becomes extremely high.

【0035】また、この教示作業領域と実際の作業領域
とのずれは、視覚装置が映像した実際の姿に基づいて行
なうから、内装工事が設計図面とずれていても、施工さ
れた内装に合った作業を行なうことができる。
Further, since the deviation between the teaching work area and the actual work area is carried out based on the actual appearance imaged by the visual device, even if the interior work is deviated from the design drawing, it is suitable for the constructed interior. Can perform the required work.

【0036】例えば、天井に複数個の蛍光灯を取り付け
る場合に、施工した天井ボードの継ぎ目が設計図面とず
れている場合、作業無人車10が設計図面の蛍光灯取り
付け位置に対し作業を行なうと、蛍光灯取り付けライン
が天井ボードの継ぎ目ラインに対して凹凸状となって、
見栄えが悪くなるが、本実施例では、蛍光灯ラインを天
井ボードの継ぎ目ラインに合わせることができ、見栄え
の良い内装仕上がりとなる。すなわち、本実施例では、
現場合わせの自動化を達成することができる。なお、上
記実施例では、天井作業について述べたが、床面作業用
のマニピュレータを台車枠下部に設けることにより、床
面作業も同様に可能である。
For example, when a plurality of fluorescent lamps are mounted on the ceiling and the seam of the constructed ceiling board is deviated from the design drawing, if the unmanned vehicle 10 carries out the work at the fluorescent lamp mounting position on the design drawing. , The fluorescent lamp mounting line is uneven with respect to the seam line of the ceiling board,
Although it does not look good, in this embodiment, the fluorescent lamp line can be aligned with the seam line of the ceiling board, resulting in a good-looking interior finish. That is, in this embodiment,
On-site automation can be achieved. In addition, although the ceiling work has been described in the above-mentioned embodiment, the floor work can be similarly performed by providing the manipulator for the floor work in the lower portion of the bogie frame.

【0037】また、作業無人車10の位置補正用の目標
点P1、P2を与えるために光源50A、50Bを使用
しているが、柱や壁に、マークを設けて、これを目標点
P1、P2としてもよい。
Further, although the light sources 50A and 50B are used to provide the target points P1 and P2 for position correction of the working unmanned vehicle 10, a mark is provided on a pillar or a wall, and this is used as the target point P1 and P2. It may be P2.

【0038】また、作業情報をICカード60で与えて
いるが、磁気カードてあってもよく、キースイッチ26
の操作により与えてもよい。
Although the work information is given by the IC card 60, a magnetic card may be used and the key switch 26 may be used.
It may be given by the operation of.

【0039】[0039]

【発明の効果】本発明は以上説明した通り、作業位置で
の停止時におけ停止位置の補正と、当該作業位置におけ
るマニピュレータの姿勢補正とを行なったのち、マニピ
ュレータが作業を行なうので、作業精度は極めて高く、
信頼性が向上する上、内装工事の現場合わせを可能にす
るので、内装を美麗に仕上げることができる。
As described above, according to the present invention, the manipulator performs the work after performing the correction of the rest position at the work position and the posture correction of the manipulator at the work position. Extremely high,
The reliability is improved and the interior work can be adjusted at the site, so the interior can be finished beautifully.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例を示す側面図である。FIG. 1 is a side view showing an embodiment of the present invention.

【図2】上記実施例の制御系を示すブロック図である。FIG. 2 is a block diagram showing a control system of the above embodiment.

【図3】上記実施例における視覚装置の画面の1例を示
す図である。
FIG. 3 is a diagram showing an example of a screen of the visual device according to the above embodiment.

【図4】上記実施例における視覚装置の画面の1例を示
す図である。
FIG. 4 is a diagram showing an example of a screen of the visual device according to the embodiment.

【図5】上記実施例における視覚装置の画面の1例を示
す図である。
FIG. 5 is a diagram showing an example of a screen of the visual device according to the embodiment.

【図6】上記実施例における視覚装置の画面の1例を示
す図である。
FIG. 6 is a diagram showing an example of a screen of the visual device according to the embodiment.

【符号の説明】[Explanation of symbols]

1 床 2 天井ボード 11 台車枠 18 カード挿入口 19A エンコーダ 19B ジャイロ 21 画像処理部 22 主制御部 23 走行制御部 24 入出力部 25 伸縮脚制御部 26 台車姿勢固定部制御部 28 マニピュレータ制御部 30 マニピュレータ 40 視覚装置 50A、50B 光源 60 ICカード 1 floor 2 ceiling board 11 bogie frame 18 card insertion slot 19A encoder 19B gyro 21 image processing unit 22 main control unit 23 traveling control unit 24 input / output unit 25 telescopic leg control unit 26 bogie posture fixing unit control unit 28 manipulator control unit 30 manipulator 40 Visual device 50A, 50B Light source 60 IC card

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 視覚装置とマニピュレータを搭載し、距
離計からの距離情報と方位測定器からの方位情報から現
在位置を検出しつつ作業情報で指定された位置まで自走
する横行かつスピンターン可能なバッテリ方式の作業無
人車と位置補正用の目標物とを備え、 上記停止時、上記視覚装置で位置補正用目標物を撮影し
て当該目標物の位置と上記距離情報に基づき位置補正を
行ない、 上記位置補正後、上記視覚装置により作業対象を撮影
し、撮影した画面内の上記作業対象の姿勢が基準姿勢に
対しずれている場合には、そのずれ分に応じて上記マニ
ピュレータもしくは/および作業無人車の姿勢を修正
し、 この姿勢修正後、上記画面内の作業対象の位置に基づき
教示作業領域を修正し、修正された作業領域に対し、上
記マニピュレータが、所定作業を実行し、 この作業の終了後、上記作業無人車は、次の指定位置ま
で自走することを特徴とする建築内装用自走式ロボッ
ト。
1. A visual device and a manipulator are mounted, and the vehicle can detect the current position from the distance information from the rangefinder and the direction information from the direction measuring device, and self-propelled to the position specified by the work information. Equipped with a battery-powered work unmanned vehicle and a target for position correction, and when the vehicle is stopped, the target for position correction is photographed by the visual device and position correction is performed based on the position of the target and the distance information. After the position correction, the work target is photographed by the visual device, and when the posture of the work target in the photographed screen is deviated from the reference posture, the manipulator or / and the work is performed according to the deviation. The posture of the unmanned vehicle is corrected, and after this posture correction, the teaching work area is corrected based on the position of the work target in the screen, and the manipulator makes a predetermined adjustment to the corrected work area. A self-propelled robot for building interior, characterized in that after performing work, the work unmanned vehicle is self-propelled to the next designated position after completion of this work.
【請求項2】 作業対象は、天井または床であり、マニ
ピュレータが行なう作業は、墨出しまたは切断作業であ
ることを特徴とする請求項1記載の建築内装用自走式ロ
ボット。
2. The self-propelled robot for interior building according to claim 1, wherein the work target is a ceiling or a floor, and the work performed by the manipulator is marking or cutting work.
【請求項3】 作業対象は、天井ボードであり、画面内
の天井ボードエッジラインを基準に、教示作業領域を修
正することを特徴とする請求項1または2記載の建築内
装用自走式ロボット。
3. The self-propelled robot for interior construction according to claim 1, wherein the work target is a ceiling board, and the teaching work area is modified based on the ceiling board edge line in the screen. .
【請求項4】 位置補正用目標物は、可搬式の光源また
はマーク、室内の柱または壁に記されたマークであるこ
とを特徴とする請求項1記載の建築内装用自走式ロボッ
ト。
4. The self-propelled robot for interior construction according to claim 1, wherein the position correction target is a portable light source or mark, or a mark written on a pillar or wall in the room.
【請求項5】 視覚装置とマニピュレータは姿勢制御台
上に配置され、当該姿勢制御台は、昇降および傾倒制御
可能であることを特徴とする請求項1記載の建築内装用
自走式ロボット。
5. The self-propelled robot for interior construction according to claim 1, wherein the visual device and the manipulator are arranged on an attitude control table, and the attitude control table can control elevation and tilting.
【請求項6】 作業情報は、磁気カードまたはICカー
ドで与えられ、作業無人車は、当該カードが格納してい
る前記作業情報を読み取るリーダーを備えていることを
特徴とする請求項1記載の建築内装用自走式作業ロボッ
ト。
6. The work information is given by a magnetic card or an IC card, and the work unmanned vehicle is equipped with a reader for reading the work information stored in the card. Self-propelled work robot for building interior.
JP5267196A 1993-10-26 1993-10-26 Self-traveling robot for interior finish work Pending JPH07116972A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5267196A JPH07116972A (en) 1993-10-26 1993-10-26 Self-traveling robot for interior finish work

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5267196A JPH07116972A (en) 1993-10-26 1993-10-26 Self-traveling robot for interior finish work

Publications (1)

Publication Number Publication Date
JPH07116972A true JPH07116972A (en) 1995-05-09

Family

ID=17441462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5267196A Pending JPH07116972A (en) 1993-10-26 1993-10-26 Self-traveling robot for interior finish work

Country Status (1)

Country Link
JP (1) JPH07116972A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003295949A (en) * 2002-03-29 2003-10-17 Fujita Corp Marking method
WO2007105755A1 (en) * 2006-03-15 2007-09-20 Bl Autotec, Ltd. Method of removing building material containing asbestos and apparatus for removing building material containing asbestos
JP2010162635A (en) * 2009-01-14 2010-07-29 Fanuc Ltd Method for correcting position and attitude of self-advancing robot
JP2018123645A (en) * 2017-02-03 2018-08-09 積水ハウス株式会社 Ceiling Board Construction Support System
JP2020024519A (en) * 2018-08-06 2020-02-13 積水ハウス株式会社 Program, construction robot and construction system
JP2020056277A (en) * 2018-10-04 2020-04-09 株式会社大林組 Construction work device and construction work method
WO2023053374A1 (en) * 2021-09-30 2023-04-06 ファナック株式会社 Control device and robot system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003295949A (en) * 2002-03-29 2003-10-17 Fujita Corp Marking method
WO2007105755A1 (en) * 2006-03-15 2007-09-20 Bl Autotec, Ltd. Method of removing building material containing asbestos and apparatus for removing building material containing asbestos
JP2010162635A (en) * 2009-01-14 2010-07-29 Fanuc Ltd Method for correcting position and attitude of self-advancing robot
JP2018123645A (en) * 2017-02-03 2018-08-09 積水ハウス株式会社 Ceiling Board Construction Support System
JP2020024519A (en) * 2018-08-06 2020-02-13 積水ハウス株式会社 Program, construction robot and construction system
JP2020056277A (en) * 2018-10-04 2020-04-09 株式会社大林組 Construction work device and construction work method
WO2023053374A1 (en) * 2021-09-30 2023-04-06 ファナック株式会社 Control device and robot system

Similar Documents

Publication Publication Date Title
CN100434221C (en) Method of controlling the welding of a three-dimensional construction
US4924153A (en) Apparatus for guiding movement of an unmanned moving body
US8812257B2 (en) Method for determining a virtual tool center point
JP2001289638A (en) Mobile working equipment
JPH07116972A (en) Self-traveling robot for interior finish work
JP7261644B2 (en) Board pick-up method and board pick-up device
JPS6215063A (en) Distance and attitude controller of ruled line followup device
JPH1158273A (en) Mobile robot device
JP2000194418A (en) Position correction system for ummanned carriage
JPH0479795B2 (en)
KR100194216B1 (en) Position Correction Device and Method of Mobile Robot Using Vision System
JPH03281182A (en) Coordinate correcting method for moving robot
WO2023171611A1 (en) Automatic travel robot
JP2021099681A (en) Position measurement system and position measurement method
JPH08110229A (en) Automatic marker
JPH0283183A (en) Setting method for position of articulated robot
JPH05337785A (en) Grinding path correcting device of grinder robot
WO2023226026A1 (en) Indoor construction robot and control method therefor
US20240066701A1 (en) Simulation device using three-dimensional position information obtained from output from vision sensor
JP7261643B2 (en) Apparatus for picking up board and method for picking up board
CN112327818B (en) Method for correcting pose deviation of guide graph and walking equipment
JPH09186489A (en) Work location coordinates calculating method in printed board and its device
JPH08110228A (en) Marking apparatus
JP3022445B2 (en) Positioning robot system and robot positioning method
JPH0651224B2 (en) Welding robot with sensor