JP2004122313A - Action notice device for manipulator - Google Patents
Action notice device for manipulator Download PDFInfo
- Publication number
- JP2004122313A JP2004122313A JP2002291533A JP2002291533A JP2004122313A JP 2004122313 A JP2004122313 A JP 2004122313A JP 2002291533 A JP2002291533 A JP 2002291533A JP 2002291533 A JP2002291533 A JP 2002291533A JP 2004122313 A JP2004122313 A JP 2004122313A
- Authority
- JP
- Japan
- Prior art keywords
- manipulator
- robot
- work
- projection
- projection device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、人間と近接して共同作業を行なうロボットが、その動作の作業対象物にスポット光を照射することで人間にその動作を予告するロボットと人間の情報共有装置に関する。
【0002】
【従来の技術】
日常生活を支援するためのマニピュレータや移動機構を備えたロボットの研究開発が行われている。しかし、一般に人はロボットに馴染みがなく、その動作の予告が適切にされなければロボットに対して不安を感じる。日常生活にロボットを導入するためには、問題の解決が不可欠である。
【0003】
ロボットの動作を予告するために、警告灯や音声などによる動作の警告などが用いられているが、ロボットと同じ環境にいる人間に対して、実際のロボットの動作をわかりやすく表現することは難しかった。
【0004】
本発明者らは、上記問題解決手段として、すでに次のような提案を行っている(例えば、特許文献1〜3参照。)。マニピュレータと人との間にテーブルを設置し共有する作業空間として、マニピュレータの動作予告などのロボットが持っている作業に関する情報をその上の天井に吊したプロジェクタによってそのテーブル上に投影するものである。
【0005】
これは、例えば、人とロボットの間の物の受け渡し作業において、実際の動作をマニピュレータが行う前に、その動作のシミュレーションが実マニピュレータと同じ見かけの大きさのアニメーション映像としてテーブル上で実行されるものである。
【0006】
即ち、平面上の動作に関して、実際にロボットが動作する前に、その動作のシミュレーション画像を作業空間の床面にロボットの実際の大きさで表示し、共同作業を行なう人間にロボットの振舞いを直観的に理解させるシステムがある。
【0007】
さらに、遠隔操作マニピュレータの手先にレーザポインタを仕込んで、ピックアップ作業中のマニピュレータの手先の把持動作の前に把持対象物とハンドの相対位置をオペレータに確認させるという一種の動作予告の機能を宇宙用超遠距離テレロボットシステムもある。
【0008】
また、その作業を行うために必要な情報として、CCDカメラを用いて認識した人の手の座標を取得してマニピュレータの軌道の目標位置として用いているが、その手の位置に向けて手の形のキャラクタを投影することで、システムが正しく相手を認識しているという情報も、人に伝えている。
【0009】
共存する人は、これらの映像情報を見ることでそのロボットの次の動作を前もって容易に把握することができるので、安心してロボットと協調して作業を行うことができる。
【0010】
【特許文献1】
特許第2955654号公報
【特許文献2】
特許第3005715号公報
【特許文献3】
特許第3165824号公報
【0011】
【発明が解決しようとする課題】しかしながら、プロジェクション機能が想定するマニピュレータの動作予告の範囲は、人とマニピュレータの間に置いた何も物が乗っていない白色のクリアな面のテーブルの上に制限されている。また、この手段によって予告できるマニピュレータの動作は、テーブル上での2次元の動作に限定されていた。
【0012】
要するに、従来の技術では、棚に並んでいる対象物を取りに行くと言うような3次元的な動きを作業環境で人に伝えることはできなかった。このような3次元的な動きを含む作業の内容を人に提示する必要がある。
【0013】
例えば、マニピュレータが環境中に複数存在する肥持対象物のうちの一つにピックアップする作業を行うような場合、作業環境にいる人にとっての関心事は、マニピュレータの精密な軌道とともにそのマニピュレータがどの把持対象物に向かって動作を行うかという情報である。
【0014】
しかしながら、平面的なプロジェクション機能では、作業環境としてテーブルを想定していたので、ロボットが自由に動いて人の手の届かない物を取ってくると言うような状況には対応できない。
【0015】
レーザポインタによる把持対象物への投光は、人がいない環境でオペレータがカメラ越しにハンドと把持対象物の精密な相対位置の確認を行うには非常に効果的な手法であったが、日常生活で人と同じ環境で共存するロボットの動作の予告手段としては問題がある。まず、レーザポインタの投光位置はハンドの姿勢に拘束されているので、アプローチ動作の前に把持対象物を指定するためには、その動作の前にハンドの姿勢だけを動かす必要があり、マニピュレータが動作をする前にその動作を予告することができない。
【0016】
さらに、表示できる情報は一定の光量、色の光の点のみであって注意して見張っていないと発見できない。また、レーザポインタの光が共存する人の目に直接当るおそれがあるので、マニピュレータの制御を注意深く行う必要がある。
【0017】
本発明者らは、マニピュレータの手先に小型のプロジェクタを取りつけて動作の予告を行う。マニピュレータの動作に先立って、その動作の対象物にプロジェクタを通してスポットライトを当てることで、マニピュレータがその対象物に対し何らかの作業を行うことをその環境内で共存する人に対して予告することができるという新規な発想を想到するに至った。
【0018】
本発明は、従来の問題を解決することであり、上記新規な発想を具体化したマニピュレータの動作予告装置を実現することを課題とする。
【0019】
【問題を解決するための手段】
本発明は上記課題を解決するために、投影装置により、ロボットの動作予告を行うマニピュレータの動作予告装置であって、上記投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、上記ロボットが作業を行う前に、その作業対象物に投影光を照射することにより、上記ロボットが作業を行おうとする作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置を提供する。
【0020】
本発明は上記課題を解決するために、投影装置により、ロボットの動作予告を行うマニピュレータの動作予告装置であって、上記投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、上記ロボットが作業を行う前に、上記マニピュレータの制御を行うコンピュータで、上記マニピュレータの制御と関連して制御されて、上記ロボットが作業を行おうとする作業対象物に投影光を照射することにより、該作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置を提供する。
【0021】
上記マニピュレータは、人間の生活環境で共同して作業を行うロボットのマニピュレータに利用することが好ましい。
【0022】
【発明の実施の形態】
本発明に係る発明の実施の形態を実施例に基づいて図面を参照して説明する。
【0023】
(実施例1)
図1、2は、本発明に係るマニピュレータの動作予告装置の実施例を説明するための図である。図1、2に示すように、この実施例のマニピュレータの動作予告装置1は、ロボット2のマニピュレータ3の手先部4に取り付けられた画像投影装置5を有する。
【0024】
この画像投影装置4は、ロボット2が作業を行う対象物6(この実施例では、棚7の中央に置かれた瓶)にスポット光8を投影することにより、ロボット2がこれから作業を行おうとする対象物6の内容を近くにいる人に明示し、この対象物6とマニピュレータ3の現在の位置や姿勢からロボット2の動作軌道を人に類推させる機能を有するものである。
【0025】
マニピュレータ3の近く又は離れたところにワークステーションが設けられている。このワークステーションは、マニピュレータ3の動作を制御する制御装置を有する。この制御装置は、コンピュータ9(入出力装置10、CPU11及び記憶装置12を有する。)から成り、その記憶装置12には3次元モデラ(3次元幾何学的操作ソフト。具体的には、後述する試作例を参照。)が記憶されている。
【0026】
一方、マニピュレータ3の各関節等に付設された角度センサから、各関節等の回転角度に関する情報がコンピュータ9に入力され、この情報に基づいて、CPU11により、基本位置からの移動位置が算出され、マニピュレータ3(ロボット2)の現在位置、姿勢が取得されるように構成されている。
【0027】
なお、マニピュレータ3の基本位置は、マニピュレータ3の基本となる所定の位置を示すものであり、予め定められた3次元情報として記憶装置12に記憶されている。
【0028】
このマニピュレータの動作予告装置1の操作に際して、対象物6の座標が入力される。この対象物6の座標から、対象物6をマニピュレータ3(ロボット2)から仮想カメラで撮影し映像化した場合を仮定して、3次元モデラにより対象物6の幾何モデルが構築される。
【0029】
この仮想カメラの位置、姿勢、焦点距離などのパラメータと、マニピュレータ3の手先部4に取り付けた画像投影装置5の位置、姿勢、焦点距離などのパラメータとを一致させるように制御することで、3次元モデラ内で対象物の仮想の像を指定すると、この仮想の像は、対象物6の実際の座標と一致し、画像投影装置5から投影する投光対象範囲を確定するものとして用いることができる。
【0030】
本発明に係るマニピュレータの動作予告装置1のコンピュータ9による制御について、以下説明する。制御の手段として、画像投影装置5が投影するコンピュータ9の画面の出力全体に、作業環境の3次元モデラのビューワーが表示される。座標X=(x1,x2,x3)の点は、ビューワー上で、(fx1/x3,fx2/x3)で表示される。
【0031】
但し、fはこの3次元モデラのカメラにおける焦点距離で、原点はカメラの位置である。一方、画像投影装置5の焦点距離をF、マニピュレータ3に取りつけられた座標をY=(y1,y2,y3)とすると、原点からZ方向に距離x3離れたスクリーンに投影される点Xの画像は、(F(x1 −y1)/(x3 −y3),F(x2 −y2)/(x3 −y3),x3)である。
【0032】
3次元モデラ内の点が実環境の対応する位置に投影されるためには、f=Fで、3次元モデラにおけるカメラの位置を画像投影装置5の位置に一致させれば良い。適当なキヤリブレーションを行えば、3次元モデラ内で指定した対象物の仮想の像は、対象物6の実際の座標と一致し、画像投影装置5から投影される投光範囲として用いることができる。
【0033】
以下、実施例のマニピュレータの動作予告装置1の作用を図3に示すフロー図でさらに説明する。
(1)電源起動
本発明に係るマニピュレータの動作予告装置1のスイッチをONして電源を起動する。
【0034】
(2)対象物の座標入力(S10)
対象物6(実施例の瓶)の3次元座標が、コンピュータ9に入力される。この対象物6の入力手段は、本発明の要旨ではないのでその詳細な説明はここでは省略するが、その入力手段の一例としては、次の▲1▼〜▲3▼のような手段がある。
▲1▼棚7の位置に対応する3次元座標位置が予め決められており、その対応する3次元座標位置が使用者によりキー等の入力機器により入力される。
▲2▼マニピュレータの一部に位置を判別する光学センサー又は超音波センサーを付設し、マニピュレータの基本位置に対する対象物の位置を検出して、この検出位置がコンピュータに入力されてCPUで自動的に3次元座標位置に変換される。
▲3▼対象物6の作業位置、作業内容等予めコンピュータに記憶されている場合、その予設定値が入力値として利用される。
【0035】
この対象物6の座標から、対象物6をマニピュレータ3の手先の位置の仮想カメラで撮影し映像化したことを仮定して3次元モデラにおける対象物6の幾何モデルが構築される。
【0036】
(3)マニピュレータ(ロボット)の現在位置取得(S20)
記憶装置12に記憶されているマニピュレータ3の基本位置及び直前の動作履歴がCPU11に入力され、現在のマニピュレータ3の現在位置が算出し取得される。このマニピュレータの現在位置に関する情報により、3次元モデラ内における仮想カメラの位置、画像投影装置5の位置が算出される。
【0037】
(4)投影用イメージ合成(S30)
CPU11により、3次元モデラにおける、対象物6の仮想の像の位置座標と仮想カメラの位置座標とから、画像投影装置5の投影方向等の投影状態を示す投影用の仮想イメージが形成される。
(5)投影用イメージの出力(S40)
投影用のイメージが出力され、この出力により画像投影装置5が3次元的に操作され、実際の対象物6を投影する。
(6)マニピュレータ(ロボット)の移動(S50)
予めコンピュータ9に設定されたマニピュレータ3の作業内容に沿って、マニピュレータ3が移動し、所定の作業を行う。
【0038】
以上説明したように本発明によれば、3次元モデラ内で指定した対象物の仮想の像は、対象物6の実際の座標と一致し、画像投影装置5から投影される投光範囲と関連づけられているから、マニピュレータ3が作業を行おうとする対象物6を、画像投影装置によって投光する。これにより、その像を作業環境中にいる人に明示して伝えることができるから、その人はマニピュレータ3が操作対象としている対象物6を把握することができる。
【0039】
この把握された情報と、この対象物6とマニピュレータ3の現在の姿勢からロボット2の動作軌道を人に類推させることができ、ロボット2の動作を人に予告することができる。
【0040】
要するに、本発明によれば、対象物6を投光することで、作業環境中にいる人は、通常の警告内容などに較べて、作業内容をより具体的に把握でき、ロボット2の動作とその行おうとしている作業内容をより直感的に関連づけることができ、人とロボット2が作業情報を共有し、協調して作業を行うことを可能とする。
【0041】
(試作例)
本発明者らは、本発明に係るマニピュレータの動作予告装置1の作用効果を実証するために、試作機を製作しデモンストレーションを行ったので、これを試作例として、以下紹介する。この試作例は、図1に示す構成と同じであり、対象物6も図1と同様に、棚に並べた複数の対象物6のうちの棚上部中央の瓶を指定しアプローチするものである。
【0042】
マニピュレータ3には三菱重工のPA10を、画像投影装置5はPLUS社のV3−1080を用いた。PA10のフランジ面に、画像投影装置5を投光方向がハンドのZ軸と平行になるように取りつけた。PA10のコントローラにOSソフトとして、Linuxをインストールしてあり、マニピュレータ3の制御用のサーバプログラムがホストコンピュータ9からのソケット通信による指令に従いPA10を動作させる。
【0043】
ホストコンピュータ9では、euslisp(松井:幾何モデリング機能を備えたマルチスレッド並列オブジェクト指向言語Euslisp5、日本ロボット2学会誌、145、p。650−654(1996))を3次元モデラとして用いて、そのモニタ出力を画像投影装置5から投影した。
【0044】
この試作例を操作して、マニピュレータ3の前に設置した棚7に並べた瓶のうち対象物6として棚上部中央の瓶を指定してアプローチ動作を行うというデモンストレーションを行った。3次元モデラの表示の背景色は黒であり、モデラ内で指定した対象物6の白色の像はスポットライトとして十分な光量であった。この試作例によると、対象物6である棚上部中央の瓶にマニピュレータ3が投光しつつ接近することが、人に明らか観察できることが分かった。
【0045】
以上、実施例により本発明に係るマニピュレータの動作予告装置を説明したが、このような実施例に限定されることなく、特許請求の範囲記載の技術事項の範囲内でいろいろ実施例があることは言うまでもない。
【0046】
【発明の効果】
以上の構成を有する本発明によれば、次のような効果を有する。
(1)対象物に画像投影装置から投影された状態を作業環境中にいる人に明示し伝えることができるから、人はマニピュレータ(ロボット)が操作対象としている対象物を把握することができる。そして、この把握された情報と、この対象物6とマニピュレータの現在の姿勢からロボットの動作軌道を類推し、ロボットの動作を人に予告することができる。
【0047】
(2)作業環境中にいる人は、通常の警告内容などに較べて、作業内容をより具体的に把握でき、実ロボットの動作と作業内容をより直感的に関連づけることができる。この結果、人はロボットの動作をおそれることなく、ロボットと作業情報を共有することができ、両者は協調して、日常の作業等も行うことができる。
【図面の簡単な説明】
【図1】本発明に係るマニピュレータの動作予告装置の実施例を全体的に説明する斜視図である。
【図2】本発明の実施例の制御を説明する図である。
【図3】本発明の実施例の作用を説明するフロー図である。
【符号の説明】
1 マニピュレータの動作予告装置
2 ロボット
3 マニピュレータ
4 手先部
5 画像投影装置
6 対象物
7 棚
8 スポット光
9 コンピュータ
10 入出力装置
11 CPU
12 記憶装置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a robot and a human information sharing device in which a robot performing a joint operation in close proximity to a human irradiates a spotlight to a work subject of the operation to notify the human of the operation.
[0002]
[Prior art]
Research and development of robots equipped with manipulators and moving mechanisms to support daily life have been conducted. However, humans are generally unfamiliar with the robot, and feel uneasy with the robot if the operation is not properly notified. Solving problems is indispensable for introducing robots into everyday life.
[0003]
In order to foresee the movement of the robot, warning lights and sound warnings are used, but it is difficult to express the actual movement of the robot to humans in the same environment as the robot. Was.
[0004]
The present inventors have already made the following proposals as a means for solving the above problems (for example, see
[0005]
This is, for example, in a work of transferring an object between a human and a robot, before the manipulator performs an actual operation, a simulation of the operation is executed on the table as an animation image of the same apparent size as the real manipulator. Things.
[0006]
In other words, regarding a motion on a plane, before the robot actually moves, a simulation image of the motion is displayed on the floor of the work space in the actual size of the robot, and the behavior of the robot is intuitive to a person who performs the joint work. There is a system that makes people understand.
[0007]
In addition, a laser pointer is installed at the tip of the remote-controlled manipulator, and a type of operation notice function for space is provided in which the operator confirms the relative position between the object to be gripped and the hand before the gripping operation of the hand of the manipulator during the pickup operation. There is also a super long-distance telerobot system.
[0008]
In addition, as information necessary for performing the work, the coordinates of a human hand recognized using a CCD camera are acquired and used as a target position of a manipulator trajectory. By projecting the shape of the character, the information that the system correctly recognizes the other party is also transmitted to the person.
[0009]
The coexisting person can easily grasp the next operation of the robot in advance by looking at the video information, and can work in cooperation with the robot with peace of mind.
[0010]
[Patent Document 1]
Japanese Patent No. 2955654 [Patent Document 2]
Japanese Patent No. 30057515 [Patent Document 3]
Japanese Patent No. 3165824
However, the range of the notice of the operation of the manipulator assumed by the projection function is limited to a white, clear surface table on which nothing is placed between the man and the manipulator. Have been. The operation of the manipulator that can be notified by this means is limited to a two-dimensional operation on a table.
[0012]
In short, in the conventional technology, it was impossible to transmit a three-dimensional movement such as going to pick up the objects arranged on the shelf to a person in the work environment. It is necessary to present the contents of the work including such three-dimensional movement to a person.
[0013]
For example, when a manipulator performs an operation of picking up one of a plurality of fertilizing objects existing in the environment, a concern for a person in the working environment is that the manipulator, along with the precise trajectory of the manipulator, This is information on whether to perform an operation toward the object to be grasped.
[0014]
However, the planar projection function assumes a table as a work environment, and cannot cope with a situation in which a robot moves freely and picks up objects that cannot be reached by humans.
[0015]
The projection of light onto the object to be gripped by the laser pointer was a very effective method for the operator to check the precise relative position of the hand and the object to be gripped through the camera in an environment where there are no people. There is a problem as a means for notifying the operation of a robot that coexists in the same environment as a human in life. First, since the projection position of the laser pointer is restricted by the posture of the hand, in order to specify the object to be grasped before the approach operation, it is necessary to move only the posture of the hand before that operation. Can not foresee the action before the action.
[0016]
Furthermore, the information that can be displayed is only a point of a certain amount of light and light of a certain color, and cannot be found without careful watch. In addition, since the light of the laser pointer may directly hit the eyes of a coexisting person, it is necessary to carefully control the manipulator.
[0017]
The present inventors attach a small projector to the tip of the manipulator and give an advance notice of the operation. By illuminating a spotlight on a target object through a projector prior to the operation of the manipulator, it is possible to notify a person coexisting in the environment that the manipulator will perform any operation on the target object. I came up with a new idea.
[0018]
An object of the present invention is to solve the conventional problem, and an object of the present invention is to realize a manipulator operation notification device that embodies the above-described novel idea.
[0019]
[Means to solve the problem]
In order to solve the above-mentioned problems, the present invention provides a motion notification device of a manipulator for performing a motion notification of a robot by a projection device, wherein the projection device is attached to a wrist of the manipulator of the robot, and the robot Irradiating the work object with projection light before performing the work, thereby intuitively indicating to the human the work object that the robot intends to perform the work. A notice device is provided.
[0020]
In order to solve the above-mentioned problems, the present invention provides a motion notification device of a manipulator for performing a motion notification of a robot by a projection device, wherein the projection device is attached to a wrist of the manipulator of the robot, and the robot Before the work is performed, the computer that controls the manipulator is controlled in association with the control of the manipulator, and irradiates the work object on which the robot is to perform work with projection light, thereby performing the work. Provided is a manipulator operation notice device characterized in that an object is intuitively specified to a human.
[0021]
It is preferable that the manipulator is used as a manipulator of a robot that works jointly in a human living environment.
[0022]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiments of the present invention will be described based on examples with reference to the drawings.
[0023]
(Example 1)
1 and 2 are views for explaining an embodiment of a manipulator operation notification device according to the present invention. As shown in FIGS. 1 and 2, the
[0024]
The
[0025]
A workstation is provided near or away from the
[0026]
On the other hand, information on the rotation angle of each joint or the like is input to the
[0027]
Note that the basic position of the
[0028]
When operating the
[0029]
By controlling the parameters such as the position, posture, and focal length of the virtual camera so as to match the parameters such as the position, posture, and focal length of the
[0030]
The control by the
[0031]
Here, f is the focal length of the three-dimensional modeler in the camera, and the origin is the position of the camera. On the other hand, the focal length of the image projection apparatus 5 F, when the coordinates attached to the
[0032]
In order for a point in the three-dimensional modeler to be projected to a corresponding position in the real environment, the position of the camera in the three-dimensional modeler may be matched with the position of the
[0033]
Hereinafter, the operation of the
(1) Power supply activation The power supply is activated by turning on the switch of the
[0034]
(2) Input of coordinates of target object (S10)
The three-dimensional coordinates of the object 6 (the bottle in the embodiment) are input to the
(1) A three-dimensional coordinate position corresponding to the position of the
(2) An optical sensor or an ultrasonic sensor for determining the position is attached to a part of the manipulator, and the position of the object with respect to the basic position of the manipulator is detected. It is converted to a three-dimensional coordinate position.
{Circle around (3)} When the work position, work content, etc. of the
[0035]
From the coordinates of the
[0036]
(3) Acquisition of current position of manipulator (robot) (S20)
The basic position of the
[0037]
(4) Image synthesis for projection (S30)
The
(5) Output of projection image (S40)
An image for projection is output, and the
(6) Movement of manipulator (robot) (S50)
The
[0038]
As described above, according to the present invention, the virtual image of the target specified in the three-dimensional modeler matches the actual coordinates of the
[0039]
The movement trajectory of the
[0040]
In short, according to the present invention, by projecting the
[0041]
(Prototype example)
The present inventors have manufactured and demonstrated a prototype to demonstrate the operation and effect of the manipulator
[0042]
As the
[0043]
The
[0044]
By operating this prototype example, a demonstration was performed in which, among the bottles arranged on the
[0045]
As described above, the operation notification device of the manipulator according to the present invention has been described with the embodiments, but it is not limited to such embodiments, and there may be various embodiments within the scope of the technical matters described in the claims. Needless to say.
[0046]
【The invention's effect】
According to the present invention having the above configuration, the following effects can be obtained.
(1) Since the state of the object projected from the image projection device can be clearly and conveyed to a person in the work environment, the person can grasp the object that is manipulated by the manipulator (robot). Then, the motion trajectory of the robot can be inferred from the grasped information and the current posture of the
[0047]
(2) The person in the work environment can grasp the work contents more specifically than the usual warning contents, and can more intuitively associate the operation of the actual robot with the work contents. As a result, a person can share work information with the robot without fear of the operation of the robot, and the two can cooperate with each other to perform daily work and the like.
[Brief description of the drawings]
FIG. 1 is a perspective view for generally explaining an embodiment of a manipulator operation notice device according to the present invention.
FIG. 2 is a diagram illustrating control of an embodiment of the present invention.
FIG. 3 is a flowchart illustrating the operation of the embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF
12 Storage device
Claims (3)
上記投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、上記ロボットが作業を行う前に、その作業対象物に投影光を照射することにより、上記ロボットが作業を行おうとする作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置。An operation notice device of a manipulator for giving a notice of operation of a robot by a projection device,
The projection device is attached to the wrist of the manipulator of the robot, and irradiates the work object with projection light before the robot performs a work, thereby allowing the robot to perform a work object to perform the work. An operation notification device for a manipulator, wherein an object is intuitively specified to a human.
上記投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、上記ロボットが作業を行う前に、上記マニピュレータの制御を行うコンピュータで、上記マニピュレータの制御と関連して制御されて、上記ロボットが作業を行おうとする作業対象物に投影光を照射することにより、該作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置。An operation notice device of a manipulator for giving a notice of operation of a robot by a projection device,
The projection device is attached to a wrist of a manipulator of the robot, and before the robot performs work, a computer that controls the manipulator, and is controlled in association with the control of the manipulator, thereby controlling the robot. A device for informing an operation of a manipulator, characterized in that the object to be worked is illuminated by projecting light onto the work object, thereby intuitively indicating the work object to a human.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002291533A JP3843317B2 (en) | 2002-10-03 | 2002-10-03 | Manipulator operation warning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002291533A JP3843317B2 (en) | 2002-10-03 | 2002-10-03 | Manipulator operation warning device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004122313A true JP2004122313A (en) | 2004-04-22 |
JP3843317B2 JP3843317B2 (en) | 2006-11-08 |
Family
ID=32283108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002291533A Expired - Lifetime JP3843317B2 (en) | 2002-10-03 | 2002-10-03 | Manipulator operation warning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3843317B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010104397A (en) * | 2008-10-28 | 2010-05-13 | Toyota Motor Corp | Walking assist device |
WO2013152258A1 (en) * | 2012-04-05 | 2013-10-10 | Rethink Robotics, Inc. | Visual indication of target tracking |
JP2014180723A (en) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | Robot system and manufacturing method of work piece |
US10140676B2 (en) | 2015-11-18 | 2018-11-27 | Soken, Inc. | Operation advance indication apparatus |
-
2002
- 2002-10-03 JP JP2002291533A patent/JP3843317B2/en not_active Expired - Lifetime
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010104397A (en) * | 2008-10-28 | 2010-05-13 | Toyota Motor Corp | Walking assist device |
JP4506890B2 (en) * | 2008-10-28 | 2010-07-21 | トヨタ自動車株式会社 | Walking assist device |
WO2013152258A1 (en) * | 2012-04-05 | 2013-10-10 | Rethink Robotics, Inc. | Visual indication of target tracking |
CN104349874A (en) * | 2012-04-05 | 2015-02-11 | 睿信科机器人有限公司 | Visual indication of target tracking |
US9283677B2 (en) | 2012-04-05 | 2016-03-15 | Rethink Robotics, Inc. | Visual indication of target tracking |
JP2014180723A (en) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | Robot system and manufacturing method of work piece |
US10140676B2 (en) | 2015-11-18 | 2018-11-27 | Soken, Inc. | Operation advance indication apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP3843317B2 (en) | 2006-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Matsas et al. | Design of a virtual reality training system for human–robot collaboration in manufacturing tasks | |
US11986259B2 (en) | Association processes and related systems for manipulators | |
JP5022868B2 (en) | Information processing apparatus and information processing method | |
JP6567563B2 (en) | Humanoid robot with collision avoidance and orbit return capability | |
CN106239516B (en) | Robot control device, robot, and robot system | |
US20150097777A1 (en) | 3D Motion Interface Systems and Methods | |
JP2018161692A (en) | Information processing system, information processing method and program | |
EP3272473A1 (en) | Teaching device and method for generating control information | |
JP2015182142A (en) | Robot, robot system, and teaching method | |
US20200376657A1 (en) | Teaching Method | |
JP2018111155A (en) | Robot control device, robot and robot system | |
Gorjup et al. | An intuitive, affordances oriented telemanipulation framework for a dual robot arm hand system: On the execution of bimanual tasks | |
JP2021157203A (en) | Mobile control device, mobile control method, and program | |
US20240207000A1 (en) | Association processes and related systems for manipulators | |
US20190366554A1 (en) | Robot interaction system and method | |
JP3843317B2 (en) | Manipulator operation warning device | |
Veras et al. | Scaled telerobotic control of a manipulator in real time with laser assistance for ADL tasks | |
JP3940998B2 (en) | Robot equipment | |
CN219662170U (en) | Body surface laminating operation platform | |
TW201819126A (en) | Non-contact gesture teaching robot enables the driving module to perform a motion instruction corresponding to a hand movement according to the user's hand movement | |
WO2016151667A1 (en) | Teaching device and method for generating control information | |
WO2021251087A1 (en) | Welding system, apparatus for preparing control program for welding robot, method for preparing control program for welding robot, and program for preparing control program for welding robot | |
WO2021256464A1 (en) | Image capturing system and robot system | |
CN115317136A (en) | Control method and control device for surgical robot and robot | |
TWM563585U (en) | Motion capture system for virtual reality environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3843317 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |