JPH0373284A - ロボット制御方式 - Google Patents
ロボット制御方式Info
- Publication number
- JPH0373284A JPH0373284A JP20792489A JP20792489A JPH0373284A JP H0373284 A JPH0373284 A JP H0373284A JP 20792489 A JP20792489 A JP 20792489A JP 20792489 A JP20792489 A JP 20792489A JP H0373284 A JPH0373284 A JP H0373284A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- section
- scene
- unit
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 6
- 230000009471 action Effects 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000012806 monitoring device Methods 0.000 claims abstract description 9
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims 1
- 230000007613 environmental effect Effects 0.000 abstract 1
- 230000007246 mechanism Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 2
- 230000010391 action planning Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000009975 flexible effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
(産業上の利用分野)
この発明は、工場内等でロボットを作業させるための制
御方式に関するものである。
御方式に関するものである。
〔従来の技術)
従来からロボットを用いて各種の作業を行わせている。
通常、ロボットは各種のセンサと制御部を備え、センサ
から取り込んだ情報とあらかじめ定められたプログラム
により所要の行動を行えるようになっている。
から取り込んだ情報とあらかじめ定められたプログラム
により所要の行動を行えるようになっている。
従来のロボットを用いた作業では、作業環境と行動様式
が限定されており、例えば、作業環境内に人間が並存し
て両者が協調して作業を行うことは不可能であった。ま
た、このときロボットに持たせた視覚を用いて環境をあ
る程度把握させながら行動することも不可能ではないが
、限られた規模の処理装置を搭載したロボットに人間の
ような複雑な行動を認識させることは困難であり、また
、ロボットの眼には死角が存在するので、環境の完全な
把握はできないという問題点もある。
が限定されており、例えば、作業環境内に人間が並存し
て両者が協調して作業を行うことは不可能であった。ま
た、このときロボットに持たせた視覚を用いて環境をあ
る程度把握させながら行動することも不可能ではないが
、限られた規模の処理装置を搭載したロボットに人間の
ような複雑な行動を認識させることは困難であり、また
、ロボットの眼には死角が存在するので、環境の完全な
把握はできないという問題点もある。
この発明は、上記問題点を解決するために作業環境内に
存在する運動物体に関する情報をロボットに与えて、ロ
ボットに的確な行動をさせるようにしたものである。
存在する運動物体に関する情報をロボットに与えて、ロ
ボットに的確な行動をさせるようにしたものである。
この発明にかかるロボット制御方式は、情景を入力する
映像人力部と、この映像入力部から入力された入力情景
を解析する映像解析部と、この映像解析部の解析結果を
送信する送信部とを有する情景監視装置と、 前記情景の解析結果を受信する受信部と、周囲の状況を
検知する検知部と、自らの行動を計画制御する制御部と
、外界に働きかける機構部を有するロボットとよりなる
ものである。
映像人力部と、この映像入力部から入力された入力情景
を解析する映像解析部と、この映像解析部の解析結果を
送信する送信部とを有する情景監視装置と、 前記情景の解析結果を受信する受信部と、周囲の状況を
検知する検知部と、自らの行動を計画制御する制御部と
、外界に働きかける機構部を有するロボットとよりなる
ものである。
(作用)
この発明においては、情景監視装置によって情景が入力
され、人力された情景を解析してその属性や位置、姿勢
、運動方向、速度などを明らかにした後、ロボットに送
信する。ロボットはこの信号を受けてその信号によるデ
ータを参考(しながら自らの行動を制御部で決定し、行
動する。
され、人力された情景を解析してその属性や位置、姿勢
、運動方向、速度などを明らかにした後、ロボットに送
信する。ロボットはこの信号を受けてその信号によるデ
ータを参考(しながら自らの行動を制御部で決定し、行
動する。
第1図はこの発明の一実施例を示すブロック図であり、
1は作業環境、2はこの作業環境1内に入ってきた運動
物体、3は情景監視装置で、映像人力部4.映像解析部
5.送信部6からなる。
1は作業環境、2はこの作業環境1内に入ってきた運動
物体、3は情景監視装置で、映像人力部4.映像解析部
5.送信部6からなる。
次に動作について説明する。
まず、作業環境内1に、例えば、人間や他のロボットな
どのような運動物体2が侵入してきたとすると、この運
動物体2を情景監視装置3に装備されたテレビカメラの
ような映像入力部4が捕らえる。映像人力部4で捕らえ
た運動物体像を映像解析部5は解析し、人間であるとか
、他のロボットであるとかいう属性を認識するとともに
、その位置、姿勢、運動方向、速度などを時々刻々検出
する。認識された属性や各検出データは、送信部6から
ロボット7に送イ言される。ロボット7は)6載してい
る受信部8でこれを受信し、そのfW報を参考データと
して、自らが搭載している視覚センサなどの検知部9か
ら得られる情報と組合せ、搭載している制御部10で自
らの行動を決定し、実際に手足等の機構部11を動かし
て作業を行う。
どのような運動物体2が侵入してきたとすると、この運
動物体2を情景監視装置3に装備されたテレビカメラの
ような映像入力部4が捕らえる。映像人力部4で捕らえ
た運動物体像を映像解析部5は解析し、人間であるとか
、他のロボットであるとかいう属性を認識するとともに
、その位置、姿勢、運動方向、速度などを時々刻々検出
する。認識された属性や各検出データは、送信部6から
ロボット7に送イ言される。ロボット7は)6載してい
る受信部8でこれを受信し、そのfW報を参考データと
して、自らが搭載している視覚センサなどの検知部9か
ら得られる情報と組合せ、搭載している制御部10で自
らの行動を決定し、実際に手足等の機構部11を動かし
て作業を行う。
第2図は、第1図の制御部10の詳細を示す一実施例で
あり、101は受信データ格納部、102は検知データ
格納部、103は中央処理部、104は知識データベー
ス格納部、105は機構制御部である。
あり、101は受信データ格納部、102は検知データ
格納部、103は中央処理部、104は知識データベー
ス格納部、105は機構制御部である。
第2図の動作を第3図のフローチャートを参照して説明
する。なお、第3図の (1)〜 (6)は各ステップ
を示す。受信部8で受信したデータを取り込み (1)
、受信データ格納部101に一時的に蓄えられる (2
)。一方、検知部9からはロボット7の目前にある物体
の形や位置等のロボット7の周囲の限られた範囲の状況
に関するデータが得られるが、これを取り込み (3)
、検知データ格納部102(−時的に蓄える (4)。
する。なお、第3図の (1)〜 (6)は各ステップ
を示す。受信部8で受信したデータを取り込み (1)
、受信データ格納部101に一時的に蓄えられる (2
)。一方、検知部9からはロボット7の目前にある物体
の形や位置等のロボット7の周囲の限られた範囲の状況
に関するデータが得られるが、これを取り込み (3)
、検知データ格納部102(−時的に蓄える (4)。
中央処理部103は、行動の手順や色々な状況に応じた
動作など種々の知識が格納されている知識データベース
格納部104から得られる行動計画用の基本データに対
し、受信データ格納部101および検知データ格納部1
02に蓄えられた周囲の状況信号のデータを組み合せて
、その時刻時刻で適した行動を計画する(5)、その計
画に基づき中央処理部703は機構制御部105に機構
の動作手順を指示し、機構制御部105は具体的な制御
信号を機構部11に送り、ロボット7は所要の動作を行
う (6)。
動作など種々の知識が格納されている知識データベース
格納部104から得られる行動計画用の基本データに対
し、受信データ格納部101および検知データ格納部1
02に蓄えられた周囲の状況信号のデータを組み合せて
、その時刻時刻で適した行動を計画する(5)、その計
画に基づき中央処理部703は機構制御部105に機構
の動作手順を指示し、機構制御部105は具体的な制御
信号を機構部11に送り、ロボット7は所要の動作を行
う (6)。
(発明の効果)
以上説明したように、この発明は、情景を人力する映像
入力部と、この映像入力部から入力された入力情景を解
析する映像解析部と、この映像解析部の解析結果を送信
する送信部とを有する情景監視装置と、 前記情景の解析結果を受信する受信部と、周囲の状況を
検知する検知部と、自らの行動を計画制御する制御部と
、外界に働きかける機構部を有するロボットとよりなる
ので、作業環境内の運動物体の解析がロボットとは独立
した装置で行えるので、ロボットには処理上の大きな負
担を与えずに、またロボット自身のセンサでは把握しき
れないpA境部分の情報もロボットに与えることができ
るので、人間との協調作業等の高度で柔軟な行動をする
ロボットの実現が可能となる。
入力部と、この映像入力部から入力された入力情景を解
析する映像解析部と、この映像解析部の解析結果を送信
する送信部とを有する情景監視装置と、 前記情景の解析結果を受信する受信部と、周囲の状況を
検知する検知部と、自らの行動を計画制御する制御部と
、外界に働きかける機構部を有するロボットとよりなる
ので、作業環境内の運動物体の解析がロボットとは独立
した装置で行えるので、ロボットには処理上の大きな負
担を与えずに、またロボット自身のセンサでは把握しき
れないpA境部分の情報もロボットに与えることができ
るので、人間との協調作業等の高度で柔軟な行動をする
ロボットの実現が可能となる。
第1図はこの発明の一実施例の全体構成を示すブロック
図、第2図は、第1図中のロボット本体の制御部の詳細
を示すブロック図、第3図は、第2図の制御部の動作を
説明するためのフローチャートである。 図中、1は作業環境、2は運動物体、3は情景監視装置
、4は映像入力部、5は映像解析部、6は送信部、7は
ロボット、8は受信部、9は検知部、10は制御部、1
1は機構部、101は受信データ格納部、102は検知
データ格納部、103は中央処理部、104は知識デー
タベース格納部、105は機構制御部である。 第 図 し−J
図、第2図は、第1図中のロボット本体の制御部の詳細
を示すブロック図、第3図は、第2図の制御部の動作を
説明するためのフローチャートである。 図中、1は作業環境、2は運動物体、3は情景監視装置
、4は映像入力部、5は映像解析部、6は送信部、7は
ロボット、8は受信部、9は検知部、10は制御部、1
1は機構部、101は受信データ格納部、102は検知
データ格納部、103は中央処理部、104は知識デー
タベース格納部、105は機構制御部である。 第 図 し−J
Claims (1)
- 【特許請求の範囲】 情景を入力する映像入力部と、この映像入力部から入力
された入力情景を解析する映像解析部と、この映像解析
部の解析結果を送信する送信部とを有する情景監視装置
と、 前記情景の解析結果を受信する受信部と、周囲の状況を
検知する検知部と、自らの行動を計画制御する制御部と
、外界に働きかける機構部を有するロボットとよりなり
、 自分の行動空間内に存在する運動物体に関する情報を前
記情景監視装置より受信し、この受信情報と前記ロボッ
トの検知部で得られる周囲の状況信号とに基づいて前記
ロボットを自律的に行動させることを特徴とするロボッ
ト制御方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20792489A JPH0373284A (ja) | 1989-08-14 | 1989-08-14 | ロボット制御方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP20792489A JPH0373284A (ja) | 1989-08-14 | 1989-08-14 | ロボット制御方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0373284A true JPH0373284A (ja) | 1991-03-28 |
Family
ID=16547810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP20792489A Pending JPH0373284A (ja) | 1989-08-14 | 1989-08-14 | ロボット制御方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0373284A (ja) |
-
1989
- 1989-08-14 JP JP20792489A patent/JPH0373284A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114080583B (zh) | 视觉教导和重复移动操纵系统 | |
US6697707B2 (en) | Architecture for robot intelligence | |
CN109571513B (zh) | 一种沉浸式移动抓取服务机器人系统 | |
US20180243920A1 (en) | Industrial remote control robot system | |
US9300430B2 (en) | Latency smoothing for teleoperation systems | |
CN111055281A (zh) | 一种基于ros的自主移动抓取系统与方法 | |
CN111319039B (zh) | 机器人 | |
US11422625B2 (en) | Proxy controller suit with optional dual range kinematics | |
CN110539315B (zh) | 基于虚拟现实控制的建筑机器人 | |
Sriram et al. | Mobile robot assistance for disabled and senior citizens using hand gestures | |
CN110666820A (zh) | 一种高性能工业机器人控制器 | |
Cabrera et al. | Cohaptics: Development of human-robot collaborative system with forearm-worn haptic display to increase safety in future factories | |
Tsitos et al. | Real-time feasibility of a human intention method evaluated through a competitive human-robot reaching game | |
CN115958575A (zh) | 类人灵巧操作移动机器人 | |
KR20190091870A (ko) | 모션센서와 vr을 활용한 로봇 제어 시스템 | |
JPH0373284A (ja) | ロボット制御方式 | |
Ruiz et al. | Implementation of a sensor fusion based robotic system architecture for motion control using human-robot interaction | |
JPH02262991A (ja) | ロボット動作監視装置 | |
JP2019202354A (ja) | ロボット制御装置、ロボット制御方法及びロボット制御プログラム | |
Nelson et al. | Integrating force and vision feedback within virtual environments for telerobotic systems | |
CN111702759A (zh) | 示教系统及机器人的示教方法 | |
KR20020030526A (ko) | 자율이동 로봇을 이용한 홈 오토메이션 시스템 및 그 방법 | |
KR102497044B1 (ko) | 컴플라이언트 스페이스 자동 할당을 위한 원격 제어 장치 및 방법 | |
Deák et al. | Smartphone–controlled industrial robots: Design and user performance evaluation | |
Maeda et al. | Lighting-and occlusion-robust view-based teaching/playback for model-free robot programming |