JP3843317B2 - マニピュレータの動作予告装置 - Google Patents
マニピュレータの動作予告装置 Download PDFInfo
- Publication number
- JP3843317B2 JP3843317B2 JP2002291533A JP2002291533A JP3843317B2 JP 3843317 B2 JP3843317 B2 JP 3843317B2 JP 2002291533 A JP2002291533 A JP 2002291533A JP 2002291533 A JP2002291533 A JP 2002291533A JP 3843317 B2 JP3843317 B2 JP 3843317B2
- Authority
- JP
- Japan
- Prior art keywords
- manipulator
- robot
- work
- image
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
【発明の属する技術分野】
本発明は、人間と近接して共同作業を行なうロボットが、その動作の作業対象物にスポット光を照射することで人間にその動作を予告するロボットと人間の情報共有装置に関する。
【0002】
【従来の技術】
日常生活を支援するためのマニピュレータや移動機構を備えたロボットの研究開発が行われている。しかし、一般に人はロボットに馴染みがなく、その動作の予告が適切にされなければロボットに対して不安を感じる。日常生活にロボットを導入するためには、問題の解決が不可欠である。
【0003】
ロボットの動作を予告するために、警告灯や音声などによる動作の警告などが用いられているが、ロボットと同じ環境にいる人間に対して、実際のロボットの動作をわかりやすく表現することは難しかった。
【0004】
本発明者らは、上記問題解決手段として、すでに次のような提案を行っている(例えば、特許文献1〜3参照。)。マニピュレータと人との間にテーブルを設置し共有する作業空間として、マニピュレータの動作予告などのロボットが持っている作業に関する情報をその上の天井に吊したプロジェクタによってそのテーブル上に投影するものである。
【0005】
これは、例えば、人とロボットの間の物の受け渡し作業において、実際の動作をマニピュレータが行う前に、その動作のシミュレーションが実マニピュレータと同じ見かけの大きさのアニメーション映像としてテーブル上で実行されるものである。
【0006】
即ち、平面上の動作に関して、実際にロボットが動作する前に、その動作のシミュレーション画像を作業空間の床面にロボットの実際の大きさで表示し、共同作業を行なう人間にロボットの振舞いを直観的に理解させるシステムがある。
【0007】
さらに、遠隔操作マニピュレータの手先にレーザポインタを仕込んで、ピックアップ作業中のマニピュレータの手先の把持動作の前に把持対象物とハンドの相対位置をオペレータに確認させるという一種の動作予告の機能を宇宙用超遠距離テレロボットシステムもある。
【0008】
また、その作業を行うために必要な情報として、CCDカメラを用いて認識した人の手の座標を取得してマニピュレータの軌道の目標位置として用いているが、その手の位置に向けて手の形のキャラクタを投影することで、システムが正しく相手を認識しているという情報も、人に伝えている。
【0009】
共存する人は、これらの映像情報を見ることでそのロボットの次の動作を前もって容易に把握することができるので、安心してロボットと協調して作業を行うことができる。
【0010】
【特許文献1】
特許第2955654号公報
【特許文献2】
特許第3005715号公報
【特許文献3】
特許第3165824号公報
【0011】
【発明が解決しようとする課題】
しかしながら、プロジェクション機能が想定するマニピュレータの動作予告の範囲は、人とマニピュレータの間に置いた何も物が乗っていない白色のクリアな面のテーブルの上に制限されている。また、この手段によって予告できるマニピュレータの動作は、テーブル上での2次元の動作に限定されていた。
【0012】
要するに、従来の技術では、棚に並んでいる対象物を取りに行くと言うような3次元的な動きを作業環境で人に伝えることはできなかった。このような3次元的な動きを含む作業の内容を人に提示する必要がある。
【0013】
例えば、マニピュレータが環境中に複数存在する把持対象物のうちの一つにピックアップする作業を行うような場合、作業環境にいる人にとっての関心事は、マニピュレータの精密な軌道とともにそのマニピュレータがどの把持対象物に向かって動作を行うかという情報である。
【0014】
しかしながら、平面的なプロジェクション機能では、作業環境としてテーブルを想定していたので、ロボットが自由に動いて人の手の届かない物を取ってくると言うような状況には対応できない。
【0015】
レーザポインタによる把持対象物への投光は、人がいない環境でオペレータがカメラ越しにハンドと把持対象物の精密な相対位置の確認を行うには非常に効果的な手法であったが、日常生活で人と同じ環境で共存するロボットの動作の予告手段としては問題がある。まず、レーザポインタの投光位置はハンドの姿勢に拘束されているので、アプローチ動作の前に把持対象物を指定するためには、その動作の前にハンドの姿勢だけを動かす必要があり、マニピュレータが動作をする前にその動作を予告することができない。
【0016】
さらに、表示できる情報は一定の光量、色の光の点のみであって注意して見張っていないと発見できない。また、レーザポインタの光が共存する人の目に直接当るおそれがあるので、マニピュレータの制御を注意深く行う必要がある。
【0017】
本発明者らは、マニピュレータの手先に小型のプロジェクタを取りつけて動作の予告を行う。マニピュレータの動作に先立って、その動作の対象物にプロジェクタを通してスポットライトを当てることで、マニピュレータがその対象物に対し何らかの作業を行うことをその環境内で共存する人に対して予告することができるという新規な発想を想到するに至った。
【0018】
本発明は、従来の問題を解決することであり、上記新規な発想を具体化したマニピュレータの動作予告装置を実現することを課題とする。
【0019】
【問題を解決するための手段】
本発明は上記課題を解決するために、投影装置により、ロボットの動作予告を行うマニピュレータの動作予告装置であって、上記投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、上記ロボットが作業を行う前に、その作業対象物に投影光を照射することにより、上記ロボットが作業を行おうとする作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置を提供する。
【0020】
本発明は上記課題を解決するために、投影装置により、ロボットの動作予告を行うマニピュレータの動作予告装置であって、上記投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、上記ロボットが作業を行う前に、上記マニピュレータの制御を行うコンピュータで、上記マニピュレータの制御と関連して制御されて、上記ロボットが作業を行おうとする作業対象物に投影光を照射することにより、該作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置を提供する。
【0021】
上記マニピュレータは、人間の生活環境で共同して作業を行うロボットのマニピュレータに利用することが好ましい。
【0022】
【発明の実施の形態】
本発明に係る発明の実施の形態を実施例に基づいて図面を参照して説明する。
【0023】
(実施例1)
図1、2は、本発明に係るマニピュレータの動作予告装置の実施例を説明するための図である。図1、2に示すように、この実施例のマニピュレータの動作予告装置1は、ロボット2のマニピュレータ3の手先部4に取り付けられた画像投影装置5を有する。
【0024】
この画像投影装置4は、ロボット2が作業を行う対象物6(この実施例では、棚7の中央に置かれた瓶)にスポット光8を投影することにより、ロボット2がこれから作業を行おうとする対象物6の内容を近くにいる人に明示し、この対象物6とマニピュレータ3の現在の位置や姿勢からロボット2の動作軌道を人に類推させる機能を有するものである。
【0025】
マニピュレータ3の近く又は離れたところにワークステーションが設けられている。このワークステーションは、マニピュレータ3の動作を制御する制御装置を有する。この制御装置は、コンピュータ9(入出力装置10、CPU11及び記憶装置12を有する。)から成り、その記憶装置12には3次元モデラ(3次元幾何学的操作ソフト。具体的には、後述する試作例を参照。)が記憶されている。
【0026】
一方、マニピュレータ3の各関節等に付設された角度センサから、各関節等の回転角度に関する情報がコンピュータ9に入力され、この情報に基づいて、CPU11により、基本位置からの移動位置が算出され、マニピュレータ3(ロボット2)の現在位置、姿勢が取得されるように構成されている。
【0027】
なお、マニピュレータ3の基本位置は、マニピュレータ3の基本となる所定の位置を示すものであり、予め定められた3次元情報として記憶装置12に記憶されている。
【0028】
このマニピュレータの動作予告装置1の操作に際して、対象物6の座標が入力される。この対象物6の座標から、対象物6をマニピュレータ3(ロボット2)から仮想カメラで撮影し映像化した場合を仮定して、3次元モデラにより対象物6の幾何モデルが構築される。
【0029】
この仮想カメラの位置、姿勢、焦点距離などのパラメータと、マニピュレータ3の手先部4に取り付けた画像投影装置5の位置、姿勢、焦点距離などのパラメータとを一致させるように制御することで、3次元モデラ内で対象物の仮想の像を指定すると、この仮想の像は、対象物6の実際の座標と一致し、画像投影装置5から投影する投光対象範囲を確定するものとして用いることができる。
【0030】
本発明に係るマニピュレータの動作予告装置1のコンピュータ9による制御について、以下説明する。制御の手段として、画像投影装置5が投影するコンピュータ9の画面の出力全体に、作業環境の3次元モデラのビューワーが表示される。座標X=(x1,x2,x3)の点は、ビューワー上で、(fx1/x3,fx2/x3)で表示される。
【0031】
但し、fはこの3次元モデラのカメラにおける焦点距離で、原点はカメラの位置である。一方、画像投影装置5の焦点距離をF、マニピュレータ3に取りつけられた座標をY=(y1,y2,y3)とすると、原点からZ方向に距離x3離れたスクリーンに投影される点Xの画像は、(F(x1 −y1)/(x3 −y3),F(x2 −y2)/(x3 −y3),x3)である。
【0032】
3次元モデラ内の点が実環境の対応する位置に投影されるためには、f=Fで、3次元モデラにおけるカメラの位置を画像投影装置5の位置に一致させれば良い。適当なキヤリブレーションを行えば、3次元モデラ内で指定した対象物の仮想の像は、対象物6の実際の座標と一致し、画像投影装置5から投影される投光範囲として用いることができる。
【0033】
以下、実施例のマニピュレータの動作予告装置1の作用を図3に示すフロー図でさらに説明する。
(1)電源起動
本発明に係るマニピュレータの動作予告装置1のスイッチをONして電源を起動する。
【0034】
(2)対象物の座標入力(S10)
対象物6(実施例の瓶)の3次元座標が、コンピュータ9に入力される。この対象物6の入力手段は、本発明の要旨ではないのでその詳細な説明はここでは省略するが、その入力手段の一例としては、次の▲1▼〜▲3▼のような手段がある。
▲1▼棚7の位置に対応する3次元座標位置が予め決められており、その対応する3次元座標位置が使用者によりキー等の入力機器により入力される。
▲2▼マニピュレータの一部に位置を判別する光学センサー又は超音波センサーを付設し、マニピュレータの基本位置に対する対象物の位置を検出して、この検出位置がコンピュータに入力されてCPUで自動的に3次元座標位置に変換される。
▲3▼対象物6の作業位置、作業内容等予めコンピュータに記憶されている場合、その予設定値が入力値として利用される。
【0035】
この対象物6の座標から、対象物6をマニピュレータ3の手先の位置の仮想カメラで撮影し映像化したことを仮定して3次元モデラにおける対象物6の幾何モデルが構築される。
【0036】
(3)マニピュレータ(ロボット)の現在位置取得(S20)
記憶装置12に記憶されているマニピュレータ3の基本位置及び直前の動作履歴がCPU11に入力され、現在のマニピュレータ3の現在位置が算出し取得される。このマニピュレータの現在位置に関する情報により、3次元モデラ内における仮想カメラの位置、画像投影装置5の位置が算出される。
【0037】
(4)投影用イメージ合成(S30)
CPU11により、3次元モデラにおける、対象物6の仮想の像の位置座標と仮想カメラの位置座標とから、画像投影装置5の投影方向等の投影状態を示す投影用の仮想イメージが形成される。
(5)投影用イメージの出力(S40)
投影用のイメージが出力され、この出力により画像投影装置5が3次元的に操作され、実際の対象物6を投影する。
(6)マニピュレータ(ロボット)の移動(S50)
予めコンピュータ9に設定されたマニピュレータ3の作業内容に沿って、マニピュレータ3が移動し、所定の作業を行う。
【0038】
以上説明したように本発明によれば、3次元モデラ内で指定した対象物の仮想の像は、対象物6の実際の座標と一致し、画像投影装置5から投影される投光範囲と関連づけられているから、マニピュレータ3が作業を行おうとする対象物6を、画像投影装置によって投光する。これにより、その像を作業環境中にいる人に明示して伝えることができるから、その人はマニピュレータ3が操作対象としている対象物6を把握することができる。
【0039】
この把握された情報と、この対象物6とマニピュレータ3の現在の姿勢からロボット2の動作軌道を人に類推させることができ、ロボット2の動作を人に予告することができる。
【0040】
要するに、本発明によれば、対象物6を投光することで、作業環境中にいる人は、通常の警告内容などに較べて、作業内容をより具体的に把握でき、ロボット2の動作とその行おうとしている作業内容をより直感的に関連づけることができ、人とロボット2が作業情報を共有し、協調して作業を行うことを可能とする。
【0041】
(試作例)
本発明者らは、本発明に係るマニピュレータの動作予告装置1の作用効果を実証するために、試作機を製作しデモンストレーションを行ったので、これを試作例として、以下紹介する。この試作例は、図1に示す構成と同じであり、対象物6も図1と同様に、棚に並べた複数の対象物6のうちの棚上部中央の瓶を指定しアプローチするものである。
【0042】
マニピュレータ3には三菱重工のPA10を、画像投影装置5はPLUS社のV3−1080を用いた。PA10のフランジ面に、画像投影装置5を投光方向がハンドのZ軸と平行になるように取りつけた。PA10のコントローラにOSソフトとして、Linuxをインストールしてあり、マニピュレータ3の制御用のサーバプログラムがホストコンピュータ9からのソケット通信による指令に従いPA10を動作させる。
【0043】
ホストコンピュータ9では、euslisp(松井:幾何モデリング機能を備えたマルチスレッド並列オブジェクト指向言語Euslisp5、日本ロボット2学会誌、145、p。650−654(1996))を3次元モデラとして用いて、そのモニタ出力を画像投影装置5から投影した。
【0044】
この試作例を操作して、マニピュレータ3の前に設置した棚7に並べた瓶のうち対象物6として棚上部中央の瓶を指定してアプローチ動作を行うというデモンストレーションを行った。3次元モデラの表示の背景色は黒であり、モデラ内で指定した対象物6の白色の像はスポットライトとして十分な光量であった。この試作例によると、対象物6である棚上部中央の瓶にマニピュレータ3が投光しつつ接近することが、人に明らか観察できることが分かった。
【0045】
以上、実施例により本発明に係るマニピュレータの動作予告装置を説明したが、このような実施例に限定されることなく、特許請求の範囲記載の技術事項の範囲内でいろいろ実施例があることは言うまでもない。
【0046】
【発明の効果】
以上の構成を有する本発明によれば、次のような効果を有する。
(1)対象物に画像投影装置から投影された状態を作業環境中にいる人に明示し伝えることができるから、人はマニピュレータ(ロボット)が操作対象としている対象物を把握することができる。そして、この把握された情報と、この対象物6とマニピュレータの現在の姿勢からロボットの動作軌道を類推し、ロボットの動作を人に予告することができる。
【0047】
(2)作業環境中にいる人は、通常の警告内容などに較べて、作業内容をより具体的に把握でき、実ロボットの動作と作業内容をより直感的に関連づけることができる。この結果、人はロボットの動作をおそれることなく、ロボットと作業情報を共有することができ、両者は協調して、日常の作業等も行うことができる。
【図面の簡単な説明】
【図1】本発明に係るマニピュレータの動作予告装置の実施例を全体的に説明する斜視図である。
【図2】本発明の実施例の制御を説明する図である。
【図3】本発明の実施例の作用を説明するフロー図である。
【符号の説明】
1 マニピュレータの動作予告装置
2 ロボット
3 マニピュレータ
4 手先部
5 画像投影装置
6 対象物
7 棚
8 スポット光
9 コンピュータ
10 入出力装置
11 CPU
12 記憶装置
Claims (2)
- コンピュータによりマニピュレータの制御を行い、画像投影装置により、ロボットが作業を行おうとする対象物に対するロボットの動作予告を行うマニピュレータの動作予告装置であって、
上記画像投影装置は、上記ロボットのマニピュレータの手首部に取り付けられており、
上記コンピュータは、該コンピュータに記憶されているマニピュレータの基本位置及び直前の動作履歴からマニピュレータの現在位置を算出するとともに、該マニピュレータの現在位置と、予め入力された対象物の3次元座標とから、上記画像投影装置の投影方向を示す投影用の仮想イメージを算出し、
上記ロボットが作業を行う前に、上記仮想イメージに基づいて、上記画像投影装置によって上記作業対象物に投影光を照射することにより、上記ロボットが作業を行おうとする作業対象物を人間に直観的に明示するものであることを特徴とするマニピュレータの動作予告装置。 - 上記マニピュレータは、人間の生活環境で共同して作業を行うロボットのマニピュレータであることを特徴とする請求項1記載のマニピュレータの動作予告装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002291533A JP3843317B2 (ja) | 2002-10-03 | 2002-10-03 | マニピュレータの動作予告装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002291533A JP3843317B2 (ja) | 2002-10-03 | 2002-10-03 | マニピュレータの動作予告装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004122313A JP2004122313A (ja) | 2004-04-22 |
JP3843317B2 true JP3843317B2 (ja) | 2006-11-08 |
Family
ID=32283108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002291533A Expired - Lifetime JP3843317B2 (ja) | 2002-10-03 | 2002-10-03 | マニピュレータの動作予告装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3843317B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4506890B2 (ja) * | 2008-10-28 | 2010-07-21 | トヨタ自動車株式会社 | 歩行補助装置 |
US9283677B2 (en) * | 2012-04-05 | 2016-03-15 | Rethink Robotics, Inc. | Visual indication of target tracking |
JP5673716B2 (ja) * | 2013-03-19 | 2015-02-18 | 株式会社安川電機 | ロボットシステム及び被加工物の製造方法 |
JP2017094409A (ja) | 2015-11-18 | 2017-06-01 | 株式会社日本自動車部品総合研究所 | 動作予告装置 |
-
2002
- 2002-10-03 JP JP2002291533A patent/JP3843317B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004122313A (ja) | 2004-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Matsas et al. | Prototyping proactive and adaptive techniques for human-robot collaboration in manufacturing using virtual reality | |
JP5022868B2 (ja) | 情報処理装置、情報処理方法 | |
Krupke et al. | Comparison of multimodal heading and pointing gestures for co-located mixed reality human-robot interaction | |
JP6567563B2 (ja) | 衝突回避および軌道復帰能力を有する人型ロボット | |
JP5246672B2 (ja) | ロボットシステム | |
US20150097777A1 (en) | 3D Motion Interface Systems and Methods | |
JP4850984B2 (ja) | 動作空間提示装置、動作空間提示方法およびプログラム | |
Frank et al. | Mobile mixed-reality interfaces that enhance human–robot interaction in shared spaces | |
BR102013009830A2 (pt) | Sistema de ensino de robô e método de ensino de robô | |
WO2008047872A1 (fr) | Manipulateur | |
Khatib et al. | Human-robot contactless collaboration with mixed reality interface | |
Gorjup et al. | An intuitive, affordances oriented telemanipulation framework for a dual robot arm hand system: On the execution of bimanual tasks | |
GB2575096A (en) | Motion restriction system and method | |
JP3843317B2 (ja) | マニピュレータの動作予告装置 | |
JP2021157203A (ja) | 移動体制御装置および移動体制御方法、並びにプログラム | |
US20190366554A1 (en) | Robot interaction system and method | |
JP2011125991A (ja) | 生活支援ロボットアームの操作トレーニング装置 | |
Juelg et al. | Efficient, collaborative screw assembly in a shared workspace | |
Wakita et al. | Information sharing via projection function for coexistence of robot and human | |
US20230088582A1 (en) | Welding system, welding robot control program creation device, and welding robot control program creation method | |
JP5659787B2 (ja) | 操作環境モデル構築システム、および操作環境モデル構築方法 | |
Hietanen et al. | Proof of concept of a projection-based safety system for human-robot collaborative engine assembly | |
KR20180064821A (ko) | 경계면 설정 장치 및 방법 | |
JP2022163836A (ja) | ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム | |
Wakita et al. | Projection function and hand pointer for user-interface of daily service robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3843317 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |