JP2004122313A - Action notice device for manipulator - Google Patents

Action notice device for manipulator Download PDF

Info

Publication number
JP2004122313A
JP2004122313A JP2002291533A JP2002291533A JP2004122313A JP 2004122313 A JP2004122313 A JP 2004122313A JP 2002291533 A JP2002291533 A JP 2002291533A JP 2002291533 A JP2002291533 A JP 2002291533A JP 2004122313 A JP2004122313 A JP 2004122313A
Authority
JP
Japan
Prior art keywords
manipulator
robot
work
projection
projection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002291533A
Other languages
Japanese (ja)
Other versions
JP3843317B2 (en
Inventor
Masahito Wakita
脇田 優仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2002291533A priority Critical patent/JP3843317B2/en
Publication of JP2004122313A publication Critical patent/JP2004122313A/en
Application granted granted Critical
Publication of JP3843317B2 publication Critical patent/JP3843317B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To clearly indicate more intuitively action and work content of an actual robot for a person existing in a working environment, to jointly own and cooperate work information with the robot with no fear of the action of the robot and to carry out a daily work or the like. <P>SOLUTION: An image projection device 5 is mounted to the tip of a hand of the manipulator of the robot 2 and an object 6 on which the robot carries out the work is intuitively and clearly indicating for a human being by projecting a light to the object 6 before the robot 2 starts the work. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、人間と近接して共同作業を行なうロボットが、その動作の作業対象物にスポット光を照射することで人間にその動作を予告するロボットと人間の情報共有装置に関する。
【0002】
【従来の技術】
日常生活を支援するためのマニピュレータや移動機構を備えたロボットの研究開発が行われている。しかし、一般に人はロボットに馴染みがなく、その動作の予告が適切にされなければロボットに対して不安を感じる。日常生活にロボットを導入するためには、問題の解決が不可欠である。
【0003】
ロボットの動作を予告するために、警告灯や音声などによる動作の警告などが用いられているが、ロボットと同じ環境にいる人間に対して、実際のロボットの動作をわかりやすく表現することは難しかった。
【0004】
本発明者らは、上記問題解決手段として、すでに次のような提案を行っている(例えば、特許文献1〜3参照。)。マニピュレータと人との間にテーブルを設置し共有する作業空間として、マニピュレータの動作予告などのロボットが持っている作業に関する情報をその上の天井に吊したプロジェクタによってそのテーブル上に投影するものである。
【0005】
これは、例えば、人とロボットの間の物の受け渡し作業において、実際の動作をマニピュレータが行う前に、その動作のシミュレーションが実マニピュレータと同じ見かけの大きさのアニメーション映像としてテーブル上で実行されるものである。
【0006】
即ち、平面上の動作に関して、実際にロボットが動作する前に、その動作のシミュレーション画像を作業空間の床面にロボットの実際の大きさで表示し、共同作業を行なう人間にロボットの振舞いを直観的に理解させるシステムがある。
【0007】
さらに、遠隔操作マニピュレータの手先にレーザポインタを仕込んで、ピックアップ作業中のマニピュレータの手先の把持動作の前に把持対象物とハンドの相対位置をオペレータに確認させるという一種の動作予告の機能を宇宙用超遠距離テレロボットシステムもある。
【0008】
また、その作業を行うために必要な情報として、CCDカメラを用いて認識した人の手の座標を取得してマニピュレータの軌道の目標位置として用いているが、その手の位置に向けて手の形のキャラクタを投影することで、システムが正しく相手を認識しているという情報も、人に伝えている。
【0009】
共存する人は、これらの映像情報を見ることでそのロボットの次の動作を前もって容易に把握することができるので、安心してロボットと協調して作業を行うことができる。
【0010】
【特許文献1】
特許第2955654号公報
【特許文献2】
特許第3005715号公報
【特許文献3】
特許第3165824号公報
【0011】
【発明が解決しようとする課題】しかしながら、プロジェクション機能が想定するマニピュレータの動作予告の範囲は、人とマニピュレータの間に置いた何も物が乗っていない白色のクリアな面のテーブルの上に制限されている。また、この手段によって予告できるマニピュレータの動作は、テーブル上での2次元の動作に限定されていた。
【0012】
要するに、従来の技術では、棚に並んでいる対象物を取りに行くと言うような3次元的な動きを作業環境で人に伝えることはできなかった。このような3次元的な動きを含む作業の内容を人に提示する必要がある。
【0013】
例えば、マニピュレータが環境中に複数存在する肥持対象物のうちの一つにピックアップする作業を行うような場合、作業環境にいる人にとっての関心事は、マニピュレータの精密な軌道とともにそのマニピュレータがどの把持対象物に向かって動作を行うかという情報である。
【0014】
しかしながら、平面的なプロジェクション機能では、作業環境としてテーブルを想定していたので、ロボットが自由に動いて人の手の届かない物を取ってくると言うような状況には対応できない。
【0015】
レーザポインタによる把持対象物への投光は、人がいない環境でオペレータがカメラ越しにハンドと把持対象物の精密な相対位置の確認を行うには非常に効果的な手法であったが、日常生活で人と同じ環境で共存するロボットの動作の予告手段としては問題がある。まず、レーザポインタの投光位置はハンドの姿勢に拘束されているので、アプローチ動作の前に把持対象物を指定するためには、その動作の前にハンドの姿勢だけを動かす必要があり、マニピュレータが動作をする前にその動作を予告することができない。
【0016】
さらに、表示できる情報は一定の光量、色の光の点のみであって注意して見張っていないと発見できない。また、レーザポインタの光が共存する人の目に直接当るおそれがあるので、マニピュレータの制御を注意深く行う必要がある。
【0017】
本発明者らは、マニピュレータの手先に小型のプロジェクタを取りつけて動作の予告を行う。マニピュレータの動作に先立って、その動作の対象物にプロジェクタを通してスポットライトを当てることで、マニピュレータがその対象物に対し何らかの作業を行うことをその環境内で共存する人に対して予告することができるという新規な発想を想到するに至った。
【0018】
本発明は、従来の問題を解決することであり、上記新規な発想を具体化したマニピュレータの動作予告装置を実現することを課題とする。
【0019】
【問題を解決するための手段】
本発明は上記課題を解決するために、投影装置により、ロボットの動作予告を行うマニピュレータの動作予告装置であって、上記投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、上記ロボットが作業を行う前に、その作業対象物に投影光を照射することにより、上記ロボットが作業を行おうとする作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置を提供する。
【0020】
本発明は上記課題を解決するために、投影装置により、ロボットの動作予告を行うマニピュレータの動作予告装置であって、上記投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、上記ロボットが作業を行う前に、上記マニピュレータの制御を行うコンピュータで、上記マニピュレータの制御と関連して制御されて、上記ロボットが作業を行おうとする作業対象物に投影光を照射することにより、該作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置を提供する。
【0021】
上記マニピュレータは、人間の生活環境で共同して作業を行うロボットのマニピュレータに利用することが好ましい。
【0022】
【発明の実施の形態】
本発明に係る発明の実施の形態を実施例に基づいて図面を参照して説明する。
【0023】
(実施例1)
図1、2は、本発明に係るマニピュレータの動作予告装置の実施例を説明するための図である。図1、2に示すように、この実施例のマニピュレータの動作予告装置1は、ロボット2のマニピュレータ3の手先部4に取り付けられた画像投影装置5を有する。
【0024】
この画像投影装置4は、ロボット2が作業を行う対象物6(この実施例では、棚7の中央に置かれた瓶)にスポット光8を投影することにより、ロボット2がこれから作業を行おうとする対象物6の内容を近くにいる人に明示し、この対象物6とマニピュレータ3の現在の位置や姿勢からロボット2の動作軌道を人に類推させる機能を有するものである。
【0025】
マニピュレータ3の近く又は離れたところにワークステーションが設けられている。このワークステーションは、マニピュレータ3の動作を制御する制御装置を有する。この制御装置は、コンピュータ9(入出力装置10、CPU11及び記憶装置12を有する。)から成り、その記憶装置12には3次元モデラ(3次元幾何学的操作ソフト。具体的には、後述する試作例を参照。)が記憶されている。
【0026】
一方、マニピュレータ3の各関節等に付設された角度センサから、各関節等の回転角度に関する情報がコンピュータ9に入力され、この情報に基づいて、CPU11により、基本位置からの移動位置が算出され、マニピュレータ3(ロボット2)の現在位置、姿勢が取得されるように構成されている。
【0027】
なお、マニピュレータ3の基本位置は、マニピュレータ3の基本となる所定の位置を示すものであり、予め定められた3次元情報として記憶装置12に記憶されている。
【0028】
このマニピュレータの動作予告装置1の操作に際して、対象物6の座標が入力される。この対象物6の座標から、対象物6をマニピュレータ3(ロボット2)から仮想カメラで撮影し映像化した場合を仮定して、3次元モデラにより対象物6の幾何モデルが構築される。
【0029】
この仮想カメラの位置、姿勢、焦点距離などのパラメータと、マニピュレータ3の手先部4に取り付けた画像投影装置5の位置、姿勢、焦点距離などのパラメータとを一致させるように制御することで、3次元モデラ内で対象物の仮想の像を指定すると、この仮想の像は、対象物6の実際の座標と一致し、画像投影装置5から投影する投光対象範囲を確定するものとして用いることができる。
【0030】
本発明に係るマニピュレータの動作予告装置1のコンピュータ9による制御について、以下説明する。制御の手段として、画像投影装置5が投影するコンピュータ9の画面の出力全体に、作業環境の3次元モデラのビューワーが表示される。座標X=(x1,2,)の点は、ビューワー上で、(fx/x,fx/x)で表示される。
【0031】
但し、fはこの3次元モデラのカメラにおける焦点距離で、原点はカメラの位置である。一方、画像投影装置5の焦点距離をF、マニピュレータ3に取りつけられた座標をY=(y1,2,)とすると、原点からZ方向に距離x離れたスクリーンに投影される点Xの画像は、(F(x −y)/(x3  −y),F(x2 −y)/(x3 −y),x)である。
【0032】
3次元モデラ内の点が実環境の対応する位置に投影されるためには、f=Fで、3次元モデラにおけるカメラの位置を画像投影装置5の位置に一致させれば良い。適当なキヤリブレーションを行えば、3次元モデラ内で指定した対象物の仮想の像は、対象物6の実際の座標と一致し、画像投影装置5から投影される投光範囲として用いることができる。
【0033】
以下、実施例のマニピュレータの動作予告装置1の作用を図3に示すフロー図でさらに説明する。
(1)電源起動
本発明に係るマニピュレータの動作予告装置1のスイッチをONして電源を起動する。
【0034】
(2)対象物の座標入力(S10)
対象物6(実施例の瓶)の3次元座標が、コンピュータ9に入力される。この対象物6の入力手段は、本発明の要旨ではないのでその詳細な説明はここでは省略するが、その入力手段の一例としては、次の▲1▼〜▲3▼のような手段がある。
▲1▼棚7の位置に対応する3次元座標位置が予め決められており、その対応する3次元座標位置が使用者によりキー等の入力機器により入力される。
▲2▼マニピュレータの一部に位置を判別する光学センサー又は超音波センサーを付設し、マニピュレータの基本位置に対する対象物の位置を検出して、この検出位置がコンピュータに入力されてCPUで自動的に3次元座標位置に変換される。
▲3▼対象物6の作業位置、作業内容等予めコンピュータに記憶されている場合、その予設定値が入力値として利用される。
【0035】
この対象物6の座標から、対象物6をマニピュレータ3の手先の位置の仮想カメラで撮影し映像化したことを仮定して3次元モデラにおける対象物6の幾何モデルが構築される。
【0036】
(3)マニピュレータ(ロボット)の現在位置取得(S20)
記憶装置12に記憶されているマニピュレータ3の基本位置及び直前の動作履歴がCPU11に入力され、現在のマニピュレータ3の現在位置が算出し取得される。このマニピュレータの現在位置に関する情報により、3次元モデラ内における仮想カメラの位置、画像投影装置5の位置が算出される。
【0037】
(4)投影用イメージ合成(S30)
CPU11により、3次元モデラにおける、対象物6の仮想の像の位置座標と仮想カメラの位置座標とから、画像投影装置5の投影方向等の投影状態を示す投影用の仮想イメージが形成される。
(5)投影用イメージの出力(S40)
投影用のイメージが出力され、この出力により画像投影装置5が3次元的に操作され、実際の対象物6を投影する。
(6)マニピュレータ(ロボット)の移動(S50)
予めコンピュータ9に設定されたマニピュレータ3の作業内容に沿って、マニピュレータ3が移動し、所定の作業を行う。
【0038】
以上説明したように本発明によれば、3次元モデラ内で指定した対象物の仮想の像は、対象物6の実際の座標と一致し、画像投影装置5から投影される投光範囲と関連づけられているから、マニピュレータ3が作業を行おうとする対象物6を、画像投影装置によって投光する。これにより、その像を作業環境中にいる人に明示して伝えることができるから、その人はマニピュレータ3が操作対象としている対象物6を把握することができる。
【0039】
この把握された情報と、この対象物6とマニピュレータ3の現在の姿勢からロボット2の動作軌道を人に類推させることができ、ロボット2の動作を人に予告することができる。
【0040】
要するに、本発明によれば、対象物6を投光することで、作業環境中にいる人は、通常の警告内容などに較べて、作業内容をより具体的に把握でき、ロボット2の動作とその行おうとしている作業内容をより直感的に関連づけることができ、人とロボット2が作業情報を共有し、協調して作業を行うことを可能とする。
【0041】
(試作例)
本発明者らは、本発明に係るマニピュレータの動作予告装置1の作用効果を実証するために、試作機を製作しデモンストレーションを行ったので、これを試作例として、以下紹介する。この試作例は、図1に示す構成と同じであり、対象物6も図1と同様に、棚に並べた複数の対象物6のうちの棚上部中央の瓶を指定しアプローチするものである。
【0042】
マニピュレータ3には三菱重工のPA10を、画像投影装置5はPLUS社のV3−1080を用いた。PA10のフランジ面に、画像投影装置5を投光方向がハンドのZ軸と平行になるように取りつけた。PA10のコントローラにOSソフトとして、Linuxをインストールしてあり、マニピュレータ3の制御用のサーバプログラムがホストコンピュータ9からのソケット通信による指令に従いPA10を動作させる。
【0043】
ホストコンピュータ9では、euslisp(松井:幾何モデリング機能を備えたマルチスレッド並列オブジェクト指向言語Euslisp5、日本ロボット2学会誌、145、p。650−654(1996))を3次元モデラとして用いて、そのモニタ出力を画像投影装置5から投影した。
【0044】
この試作例を操作して、マニピュレータ3の前に設置した棚7に並べた瓶のうち対象物6として棚上部中央の瓶を指定してアプローチ動作を行うというデモンストレーションを行った。3次元モデラの表示の背景色は黒であり、モデラ内で指定した対象物6の白色の像はスポットライトとして十分な光量であった。この試作例によると、対象物6である棚上部中央の瓶にマニピュレータ3が投光しつつ接近することが、人に明らか観察できることが分かった。
【0045】
以上、実施例により本発明に係るマニピュレータの動作予告装置を説明したが、このような実施例に限定されることなく、特許請求の範囲記載の技術事項の範囲内でいろいろ実施例があることは言うまでもない。
【0046】
【発明の効果】
以上の構成を有する本発明によれば、次のような効果を有する。
(1)対象物に画像投影装置から投影された状態を作業環境中にいる人に明示し伝えることができるから、人はマニピュレータ(ロボット)が操作対象としている対象物を把握することができる。そして、この把握された情報と、この対象物6とマニピュレータの現在の姿勢からロボットの動作軌道を類推し、ロボットの動作を人に予告することができる。
【0047】
(2)作業環境中にいる人は、通常の警告内容などに較べて、作業内容をより具体的に把握でき、実ロボットの動作と作業内容をより直感的に関連づけることができる。この結果、人はロボットの動作をおそれることなく、ロボットと作業情報を共有することができ、両者は協調して、日常の作業等も行うことができる。
【図面の簡単な説明】
【図1】本発明に係るマニピュレータの動作予告装置の実施例を全体的に説明する斜視図である。
【図2】本発明の実施例の制御を説明する図である。
【図3】本発明の実施例の作用を説明するフロー図である。
【符号の説明】
1 マニピュレータの動作予告装置
2 ロボット
3 マニピュレータ
4 手先部
5 画像投影装置
6 対象物
7 棚
8 スポット光
9 コンピュータ
10 入出力装置
11 CPU
12 記憶装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a robot and a human information sharing device in which a robot performing a joint operation in close proximity to a human irradiates a spotlight to a work subject of the operation to notify the human of the operation.
[0002]
[Prior art]
Research and development of robots equipped with manipulators and moving mechanisms to support daily life have been conducted. However, humans are generally unfamiliar with the robot, and feel uneasy with the robot if the operation is not properly notified. Solving problems is indispensable for introducing robots into everyday life.
[0003]
In order to foresee the movement of the robot, warning lights and sound warnings are used, but it is difficult to express the actual movement of the robot to humans in the same environment as the robot. Was.
[0004]
The present inventors have already made the following proposals as a means for solving the above problems (for example, see Patent Documents 1 to 3). As a work space in which a table is set up and shared between a manipulator and a person, information related to the work held by the robot, such as a notice of the operation of the manipulator, is projected onto the table by a projector suspended from the ceiling above it. .
[0005]
This is, for example, in a work of transferring an object between a human and a robot, before the manipulator performs an actual operation, a simulation of the operation is executed on the table as an animation image of the same apparent size as the real manipulator. Things.
[0006]
In other words, regarding a motion on a plane, before the robot actually moves, a simulation image of the motion is displayed on the floor of the work space in the actual size of the robot, and the behavior of the robot is intuitive to a person who performs the joint work. There is a system that makes people understand.
[0007]
In addition, a laser pointer is installed at the tip of the remote-controlled manipulator, and a type of operation notice function for space is provided in which the operator confirms the relative position between the object to be gripped and the hand before the gripping operation of the hand of the manipulator during the pickup operation. There is also a super long-distance telerobot system.
[0008]
In addition, as information necessary for performing the work, the coordinates of a human hand recognized using a CCD camera are acquired and used as a target position of a manipulator trajectory. By projecting the shape of the character, the information that the system correctly recognizes the other party is also transmitted to the person.
[0009]
The coexisting person can easily grasp the next operation of the robot in advance by looking at the video information, and can work in cooperation with the robot with peace of mind.
[0010]
[Patent Document 1]
Japanese Patent No. 2955654 [Patent Document 2]
Japanese Patent No. 30057515 [Patent Document 3]
Japanese Patent No. 3165824
However, the range of the notice of the operation of the manipulator assumed by the projection function is limited to a white, clear surface table on which nothing is placed between the man and the manipulator. Have been. The operation of the manipulator that can be notified by this means is limited to a two-dimensional operation on a table.
[0012]
In short, in the conventional technology, it was impossible to transmit a three-dimensional movement such as going to pick up the objects arranged on the shelf to a person in the work environment. It is necessary to present the contents of the work including such three-dimensional movement to a person.
[0013]
For example, when a manipulator performs an operation of picking up one of a plurality of fertilizing objects existing in the environment, a concern for a person in the working environment is that the manipulator, along with the precise trajectory of the manipulator, This is information on whether to perform an operation toward the object to be grasped.
[0014]
However, the planar projection function assumes a table as a work environment, and cannot cope with a situation in which a robot moves freely and picks up objects that cannot be reached by humans.
[0015]
The projection of light onto the object to be gripped by the laser pointer was a very effective method for the operator to check the precise relative position of the hand and the object to be gripped through the camera in an environment where there are no people. There is a problem as a means for notifying the operation of a robot that coexists in the same environment as a human in life. First, since the projection position of the laser pointer is restricted by the posture of the hand, in order to specify the object to be grasped before the approach operation, it is necessary to move only the posture of the hand before that operation. Can not foresee the action before the action.
[0016]
Furthermore, the information that can be displayed is only a point of a certain amount of light and light of a certain color, and cannot be found without careful watch. In addition, since the light of the laser pointer may directly hit the eyes of a coexisting person, it is necessary to carefully control the manipulator.
[0017]
The present inventors attach a small projector to the tip of the manipulator and give an advance notice of the operation. By illuminating a spotlight on a target object through a projector prior to the operation of the manipulator, it is possible to notify a person coexisting in the environment that the manipulator will perform any operation on the target object. I came up with a new idea.
[0018]
An object of the present invention is to solve the conventional problem, and an object of the present invention is to realize a manipulator operation notification device that embodies the above-described novel idea.
[0019]
[Means to solve the problem]
In order to solve the above-mentioned problems, the present invention provides a motion notification device of a manipulator for performing a motion notification of a robot by a projection device, wherein the projection device is attached to a wrist of the manipulator of the robot, and the robot Irradiating the work object with projection light before performing the work, thereby intuitively indicating to the human the work object that the robot intends to perform the work. A notice device is provided.
[0020]
In order to solve the above-mentioned problems, the present invention provides a motion notification device of a manipulator for performing a motion notification of a robot by a projection device, wherein the projection device is attached to a wrist of the manipulator of the robot, and the robot Before the work is performed, the computer that controls the manipulator is controlled in association with the control of the manipulator, and irradiates the work object on which the robot is to perform work with projection light, thereby performing the work. Provided is a manipulator operation notice device characterized in that an object is intuitively specified to a human.
[0021]
It is preferable that the manipulator is used as a manipulator of a robot that works jointly in a human living environment.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiments of the present invention will be described based on examples with reference to the drawings.
[0023]
(Example 1)
1 and 2 are views for explaining an embodiment of a manipulator operation notification device according to the present invention. As shown in FIGS. 1 and 2, the operation notice device 1 of the manipulator of this embodiment has an image projection device 5 attached to the hand portion 4 of the manipulator 3 of the robot 2.
[0024]
The image projection device 4 projects a spot light 8 on an object 6 (in this embodiment, a bottle placed at the center of a shelf 7) on which the robot 2 performs work, so that the robot 2 will perform work from now on. It has a function of clearly indicating the contents of the object 6 to be performed to a nearby person, and estimating the motion trajectory of the robot 2 to the person from the current position and posture of the object 6 and the manipulator 3.
[0025]
A workstation is provided near or away from the manipulator 3. This workstation has a control device for controlling the operation of the manipulator 3. The control device includes a computer 9 (including an input / output device 10, a CPU 11, and a storage device 12). The storage device 12 has a three-dimensional modeler (three-dimensional geometric operation software. Specifically, it will be described later). Refer to the prototype example).
[0026]
On the other hand, information on the rotation angle of each joint or the like is input to the computer 9 from an angle sensor attached to each joint or the like of the manipulator 3, and based on this information, the CPU 11 calculates a movement position from the basic position, The present position and posture of the manipulator 3 (robot 2) are configured to be acquired.
[0027]
Note that the basic position of the manipulator 3 indicates a predetermined position that is the basis of the manipulator 3, and is stored in the storage device 12 as predetermined three-dimensional information.
[0028]
When operating the operation notice device 1 of the manipulator, the coordinates of the object 6 are input. From the coordinates of the object 6, a geometric model of the object 6 is constructed by the three-dimensional modeler, assuming that the object 6 is photographed by the virtual camera from the manipulator 3 (robot 2) and visualized.
[0029]
By controlling the parameters such as the position, posture, and focal length of the virtual camera so as to match the parameters such as the position, posture, and focal length of the image projection device 5 attached to the hand portion 4 of the manipulator 3, 3 When a virtual image of the object is specified in the dimensional modeler, the virtual image matches the actual coordinates of the object 6 and can be used as a device for determining the projection target range projected from the image projection device 5. it can.
[0030]
The control by the computer 9 of the operation notice device 1 of the manipulator according to the present invention will be described below. As a control unit, a viewer of the three-dimensional modeler of the working environment is displayed on the entire screen output of the computer 9 projected by the image projection device 5. Coordinates X = (x 1, x 2 , x 3) of the point on the viewer, it is displayed in (fx 1 / x 3, fx 2 / x 3).
[0031]
Here, f is the focal length of the three-dimensional modeler in the camera, and the origin is the position of the camera. On the other hand, the focal length of the image projection apparatus 5 F, when the coordinates attached to the manipulator 3 and Y = (y 1, y 2 , y 3), is projected onto the screen distance x 3 spaced in the Z-direction from the origin The image of the point X is (F (x 1 −y 1 ) / (x 3 −y 3 ), F (x 2 −y 2 ) / (x 3 −y 3 ), x 3 ).
[0032]
In order for a point in the three-dimensional modeler to be projected to a corresponding position in the real environment, the position of the camera in the three-dimensional modeler may be matched with the position of the image projection device 5 at f = F. If an appropriate calibration is performed, the virtual image of the target specified in the three-dimensional modeler matches the actual coordinates of the target 6 and can be used as a projection range projected from the image projection device 5. it can.
[0033]
Hereinafter, the operation of the operation notice device 1 of the manipulator of the embodiment will be further described with reference to a flowchart shown in FIG.
(1) Power supply activation The power supply is activated by turning on the switch of the operation notifying device 1 of the manipulator according to the present invention.
[0034]
(2) Input of coordinates of target object (S10)
The three-dimensional coordinates of the object 6 (the bottle in the embodiment) are input to the computer 9. Since the input means of the object 6 is not the gist of the present invention, its detailed description is omitted here, but examples of the input means include the following means (1) to (3). .
(1) A three-dimensional coordinate position corresponding to the position of the shelf 7 is determined in advance, and the corresponding three-dimensional coordinate position is input by a user using an input device such as a key.
(2) An optical sensor or an ultrasonic sensor for determining the position is attached to a part of the manipulator, and the position of the object with respect to the basic position of the manipulator is detected. It is converted to a three-dimensional coordinate position.
{Circle around (3)} When the work position, work content, etc. of the object 6 are stored in the computer in advance, the preset values are used as input values.
[0035]
From the coordinates of the object 6, a geometric model of the object 6 in the three-dimensional modeler is constructed on the assumption that the object 6 is photographed and imaged by the virtual camera at the position of the hand of the manipulator 3.
[0036]
(3) Acquisition of current position of manipulator (robot) (S20)
The basic position of the manipulator 3 and the previous operation history stored in the storage device 12 are input to the CPU 11, and the current position of the manipulator 3 is calculated and acquired. Based on the information on the current position of the manipulator, the position of the virtual camera and the position of the image projection device 5 in the three-dimensional modeler are calculated.
[0037]
(4) Image synthesis for projection (S30)
The CPU 11 forms a projection virtual image indicating a projection state such as a projection direction of the image projection device 5 from the position coordinates of the virtual image of the object 6 and the position coordinates of the virtual camera in the three-dimensional modeler.
(5) Output of projection image (S40)
An image for projection is output, and the image projection device 5 is three-dimensionally operated by this output, and projects the actual object 6.
(6) Movement of manipulator (robot) (S50)
The manipulator 3 moves according to the work content of the manipulator 3 set in the computer 9 in advance, and performs a predetermined work.
[0038]
As described above, according to the present invention, the virtual image of the target specified in the three-dimensional modeler matches the actual coordinates of the target 6 and is associated with the light projection range projected from the image projection device 5. Therefore, the object 6 on which the manipulator 3 is to work is projected by the image projection device. As a result, the image can be clearly transmitted to a person in the work environment, so that the person can grasp the object 6 which is the operation target of the manipulator 3.
[0039]
The movement trajectory of the robot 2 can be analogized to a person from the grasped information and the current postures of the object 6 and the manipulator 3, and the movement of the robot 2 can be notified to the person.
[0040]
In short, according to the present invention, by projecting the object 6, a person in the working environment can grasp the contents of the work more concretely than the usual warning contents and the like. The contents of the work to be performed can be more intuitively associated, and the human and the robot 2 can share the work information and work in cooperation.
[0041]
(Prototype example)
The present inventors have manufactured and demonstrated a prototype to demonstrate the operation and effect of the manipulator operation notification device 1 according to the present invention. This will be introduced below as a prototype. This prototype example is the same as the configuration shown in FIG. 1, and the object 6 is also a method of designating and approaching a bottle in the upper center of the shelf among the plurality of objects 6 arranged on the shelf as in FIG. 1. .
[0042]
As the manipulator 3, PA10 of Mitsubishi Heavy Industries was used, and as the image projection device 5, V3-1080 of PLUS was used. The image projection device 5 was mounted on the flange surface of the PA 10 so that the light projection direction was parallel to the Z axis of the hand. Linux is installed as OS software on a controller of the PA 10, and a server program for controlling the manipulator 3 operates the PA 10 in accordance with a socket communication instruction from the host computer 9.
[0043]
The host computer 9 uses euslisp (Matsui: a multi-thread parallel object-oriented language Euslisp5 having a geometric modeling function, Journal of the Robotics Society of Japan, 145, p. 650-654 (1996)) as a three-dimensional modeler and monitors it. The output was projected from the image projection device 5.
[0044]
By operating this prototype example, a demonstration was performed in which, among the bottles arranged on the shelf 7 placed in front of the manipulator 3, the bottle in the upper center of the shelf was designated as the target object 6 to perform the approach operation. The background color of the display of the three-dimensional modeler was black, and the white image of the target 6 specified in the modeler had a sufficient light amount as a spotlight. According to this prototype example, it was found that a person can clearly observe that the manipulator 3 approaches the bottle 6 in the upper center of the shelf as the object 6 while projecting light.
[0045]
As described above, the operation notification device of the manipulator according to the present invention has been described with the embodiments, but it is not limited to such embodiments, and there may be various embodiments within the scope of the technical matters described in the claims. Needless to say.
[0046]
【The invention's effect】
According to the present invention having the above configuration, the following effects can be obtained.
(1) Since the state of the object projected from the image projection device can be clearly and conveyed to a person in the work environment, the person can grasp the object that is manipulated by the manipulator (robot). Then, the motion trajectory of the robot can be inferred from the grasped information and the current posture of the object 6 and the manipulator, and the motion of the robot can be notified to a person.
[0047]
(2) The person in the work environment can grasp the work contents more specifically than the usual warning contents, and can more intuitively associate the operation of the actual robot with the work contents. As a result, a person can share work information with the robot without fear of the operation of the robot, and the two can cooperate with each other to perform daily work and the like.
[Brief description of the drawings]
FIG. 1 is a perspective view for generally explaining an embodiment of a manipulator operation notice device according to the present invention.
FIG. 2 is a diagram illustrating control of an embodiment of the present invention.
FIG. 3 is a flowchart illustrating the operation of the embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Manipulator operation notice device 2 Robot 3 Manipulator 4 Hand part 5 Image projection device 6 Object 7 Shelf 8 Spotlight 9 Computer 10 Input / output device 11 CPU
12 Storage device

Claims (3)

投影装置により、ロボットの動作予告を行うマニピュレータの動作予告装置であって、
上記投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、上記ロボットが作業を行う前に、その作業対象物に投影光を照射することにより、上記ロボットが作業を行おうとする作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置。
An operation notice device of a manipulator for giving a notice of operation of a robot by a projection device,
The projection device is attached to the wrist of the manipulator of the robot, and irradiates the work object with projection light before the robot performs a work, thereby allowing the robot to perform a work object to perform the work. An operation notification device for a manipulator, wherein an object is intuitively specified to a human.
投影装置により、ロボットの動作予告を行うマニピュレータの動作予告装置であって、
上記投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、上記ロボットが作業を行う前に、上記マニピュレータの制御を行うコンピュータで、上記マニピュレータの制御と関連して制御されて、上記ロボットが作業を行おうとする作業対象物に投影光を照射することにより、該作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置。
An operation notice device of a manipulator for giving a notice of operation of a robot by a projection device,
The projection device is attached to a wrist of a manipulator of the robot, and before the robot performs work, a computer that controls the manipulator, and is controlled in association with the control of the manipulator, thereby controlling the robot. A device for informing an operation of a manipulator, characterized in that the object to be worked is illuminated by projecting light onto the work object, thereby intuitively indicating the work object to a human.
上記マニピュレータは、人間の生活環境で共同して作業を行うロボットのマニピュレータであることを特徴とする請求項1又は2記載のマニピュレータの動作予告装置。3. The operation notice device for a manipulator according to claim 1, wherein the manipulator is a manipulator of a robot that works jointly in a human living environment.
JP2002291533A 2002-10-03 2002-10-03 Manipulator operation warning device Expired - Lifetime JP3843317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002291533A JP3843317B2 (en) 2002-10-03 2002-10-03 Manipulator operation warning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002291533A JP3843317B2 (en) 2002-10-03 2002-10-03 Manipulator operation warning device

Publications (2)

Publication Number Publication Date
JP2004122313A true JP2004122313A (en) 2004-04-22
JP3843317B2 JP3843317B2 (en) 2006-11-08

Family

ID=32283108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002291533A Expired - Lifetime JP3843317B2 (en) 2002-10-03 2002-10-03 Manipulator operation warning device

Country Status (1)

Country Link
JP (1) JP3843317B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010104397A (en) * 2008-10-28 2010-05-13 Toyota Motor Corp Walking assist device
WO2013152258A1 (en) * 2012-04-05 2013-10-10 Rethink Robotics, Inc. Visual indication of target tracking
JP2014180723A (en) * 2013-03-19 2014-09-29 Yaskawa Electric Corp Robot system and manufacturing method of work piece
US10140676B2 (en) 2015-11-18 2018-11-27 Soken, Inc. Operation advance indication apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010104397A (en) * 2008-10-28 2010-05-13 Toyota Motor Corp Walking assist device
JP4506890B2 (en) * 2008-10-28 2010-07-21 トヨタ自動車株式会社 Walking assist device
WO2013152258A1 (en) * 2012-04-05 2013-10-10 Rethink Robotics, Inc. Visual indication of target tracking
CN104349874A (en) * 2012-04-05 2015-02-11 睿信科机器人有限公司 Visual indication of target tracking
US9283677B2 (en) 2012-04-05 2016-03-15 Rethink Robotics, Inc. Visual indication of target tracking
JP2014180723A (en) * 2013-03-19 2014-09-29 Yaskawa Electric Corp Robot system and manufacturing method of work piece
US10140676B2 (en) 2015-11-18 2018-11-27 Soken, Inc. Operation advance indication apparatus

Also Published As

Publication number Publication date
JP3843317B2 (en) 2006-11-08

Similar Documents

Publication Publication Date Title
Matsas et al. Design of a virtual reality training system for human–robot collaboration in manufacturing tasks
US11986259B2 (en) Association processes and related systems for manipulators
JP5022868B2 (en) Information processing apparatus and information processing method
JP6567563B2 (en) Humanoid robot with collision avoidance and orbit return capability
CN106239516B (en) Robot control device, robot, and robot system
US20150097777A1 (en) 3D Motion Interface Systems and Methods
JP2018161692A (en) Information processing system, information processing method and program
EP3272473A1 (en) Teaching device and method for generating control information
JP2015182142A (en) Robot, robot system, and teaching method
US20200376657A1 (en) Teaching Method
JP2018111155A (en) Robot control device, robot and robot system
Gorjup et al. An intuitive, affordances oriented telemanipulation framework for a dual robot arm hand system: On the execution of bimanual tasks
JP2021157203A (en) Mobile control device, mobile control method, and program
US20240207000A1 (en) Association processes and related systems for manipulators
US20190366554A1 (en) Robot interaction system and method
JP3843317B2 (en) Manipulator operation warning device
Veras et al. Scaled telerobotic control of a manipulator in real time with laser assistance for ADL tasks
JP3940998B2 (en) Robot equipment
CN219662170U (en) Body surface laminating operation platform
TW201819126A (en) Non-contact gesture teaching robot enables the driving module to perform a motion instruction corresponding to a hand movement according to the user&#39;s hand movement
WO2016151667A1 (en) Teaching device and method for generating control information
WO2021251087A1 (en) Welding system, apparatus for preparing control program for welding robot, method for preparing control program for welding robot, and program for preparing control program for welding robot
WO2021256464A1 (en) Image capturing system and robot system
CN115317136A (en) Control method and control device for surgical robot and robot
TWM563585U (en) Motion capture system for virtual reality environment

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060718

R150 Certificate of patent or registration of utility model

Ref document number: 3843317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term