JP2013094944A - 移動体操作装置 - Google Patents

移動体操作装置 Download PDF

Info

Publication number
JP2013094944A
JP2013094944A JP2011242822A JP2011242822A JP2013094944A JP 2013094944 A JP2013094944 A JP 2013094944A JP 2011242822 A JP2011242822 A JP 2011242822A JP 2011242822 A JP2011242822 A JP 2011242822A JP 2013094944 A JP2013094944 A JP 2013094944A
Authority
JP
Japan
Prior art keywords
light source
image
imaging device
light
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011242822A
Other languages
English (en)
Other versions
JP5855425B2 (ja
Inventor
Shigeo Sano
成夫 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2011242822A priority Critical patent/JP5855425B2/ja
Publication of JP2013094944A publication Critical patent/JP2013094944A/ja
Application granted granted Critical
Publication of JP5855425B2 publication Critical patent/JP5855425B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】操作者が、移動体と対象物との距離感を掴みやすい移動体操作装置を提供することを目的としている。
【解決手段】移動体に設けられている撮像装置と、撮像装置の両側に等間隔で設けられている第1光源及び第2光源と、撮像装置で撮像された第1光源及び第2光源により照射された各々の光線を含む領域の画像を表示する画像表示装置と、を備える。
【選択図】図3

Description

本発明は、移動体操作装置に関する。
近年、人が立ち入って直接作業を行えないような環境下では、ロボット等に作業を行わせている。このような環境下では、例えば作業の対象物に関する情報が予め得られていない場合もある。このため、ロボット等の操作者は、カメラが撮像した画像を用いて作業環境を確認しながら、マニュピュレータを遠隔操作して、マニュピュレータに作業を行わせる。
特許文献1に記載の技術では、対象物とマニュピュレータとの位置を、ロボット本体の頭部に相当する位置に取り付けられている光ビームと、光ビームの反射光を検出するカメラを用いて検出していた。特許文献1に記載の技術では、対象物の位置を検出するカメラを2台用いている。
カメラ1台によるシステムでは、ロボットのハンドに内蔵されたレーザー光を対象物に対して照射し、ハンドの外部または内部に設置されたカメラで対象物を撮像する。位置検出装置は、このように、撮像された画像からハンドと対象物との設定位置とのずれ量を算出していた(例えば、特許文献2参照)。
特開平5−126521号公報 特許第2808274号公報
しかしながら、特許文献2に記載の技術では、カメラ1台で撮像して対象物とエンドエフェクタとの位置を位置検出装置が検出している。このため、カメラにより撮像された画像を操作者が見ても、エンドエフェクタと対象物との距離感が掴みにくいという課題があった。
本発明は、上記の問題点に鑑みてなされたものであって、操作者が、移動体と対象物との距離感を掴みやすい移動体操作装置を提供することを目的としている。
上記目的を達成するため、本発明の一態様に係る移動体操作装置は、移動体に設けられている撮像装置と、前記撮像装置の両側に等間隔で設けられている第1光源及び第2光源と、前記撮像装置で撮像された前記第1光源及び前記第2光源により照射された各々の光線を含む領域の画像を表示する画像表示装置と、を備えることを特徴としている。
これにより、操作者は、撮像装置により撮像された2つの光線が照射されている画像領域の間隔を確認することで、移動体と対象物との距離間隔を適切に確認することができる。
また、本発明に係る移動体操作装置において、前記移動体は、エンドエフェクタであり、前記撮像装置は、前記エンドエフェクタの中心に設けられ、前記第1光源の光線と前記第2光源の光線とは、互いに非平行であるようにしてもよい。
これにより、操作者は、撮像装置により撮像された2つの光線が照射されている画像領域の間隔を確認することで、エンドエフェクタと対象物との距離間隔を適切に確認することができる。また、2つの光線が照射されている画像領域が、エンドエフェクタと対象物との距離間隔に応じて異なるため、操作者は、エンドエフェクタと対象物との距離間隔を適切に確認することができる。
また、本発明に係る移動体操作装置において、前記第1光源の光線と前記第2光源の光線とは、前記撮像装置の光軸で交わり、前記撮像装置の光軸に対して線対称であるようにしてもよい。
これにより、画像表示装置に表示される第1光源と第2光源との間隔の変化が、移動体と対象物との間隔に応じて大きいため、操作者は、移動体と対象物との距離間隔を適切に確認することができる。
また、本発明に係る移動体操作装置において、前記第1光源の光線と前記撮像装置の光軸とのなす角の角度は、前記撮像装置の画角と光軸とのなす角の角度より大きく、前記第2光源の光線と前記撮像装置の光軸とのなす角の角度は、前記撮像装置の画角と光軸とのなす角の角度より大きいようにしてもよい。
これにより、画像表示装置に表示される第1光源と第2光源との間隔の変化が、移動体と対象物との間隔に応じて大きいため、操作者は、移動体と対象物との距離間隔を適切に確認することができる。
また、本発明に係る移動体操作装置において、前記第1光源と前記第2光源とを制御する制御部を備え、前記制御部は、前記第1光源の光線と前記第2光源の光線とを、前記撮像装置の光軸に対して垂直な面において、平行に照射するように制御するようにしてもよい。
これにより、第1光源と第2光源の光線は、撮像装置の光軸に対して垂直な面において、平行に走査されるため、画像表示装置に表示された2本の光線による画像領域の間隔を確認することで、操作者は、移動体と対象物との距離間隔を適切に確認することができる。
また、本発明に係る移動体操作装置において、前記第1光源と前記第2光源とは、波長、光量、発光状態、及び光線の形状のうち少なくとも1つが異なるようにしてもよい。
これにより、第1光源と第2光源の光線の位置が、観測位置に応じて垂直方向、または水平方向で入れ替わっても、操作者は、画像表示装置に表示される光線の色、形状、明るさの違いにより、操作者は、移動体の姿勢や、移動体の対象物との距離間隔を適切に確認することができる。
また、本発明に係る移動体操作装置において、前記移動体であるエンドエフェクタは、少なくとも2つの長さが等しい凸部を備え、前記第1光源の光線と前記第2光源の光線は、前記2つの凸部が前記エンドエフェクタとは接していない端面を結ぶ平面で交わるようにしてもよい。
これにより、第1光源及び第2光源から照射された光線の位置関係は、移動体であるエンドエフェクタの先端部と対象物との間で、水平方向または垂直方向で入れ替わらないため、操作者は、エンドエフェクタと対象物との距離間隔を適切に確認することができる。
また、本発明に係る移動体操作装置において、前記第1光源の光線と前記第2光源の光線は、前記撮像装置の光軸に対して垂直な面の方向に向けて指向性を有しているようにしてもよい。
これにより、第1光源及び第2光源の光線は、移動体から対象物に向けて直進するため、操作者は、これらの光線が照射された対象物と移動体との距離間隔を適切に確認することができる。
上記目的を達成するため、本発明の一態様に係る移動体操作装置において、脚部の先端に取り付けられている足平であって、前記足平における足裏の中心に設けられている撮像装置と、前記撮像装置の両側に等間隔で設けられている第1光源及び第2光源と、前記撮像装置で撮像された前記第1光源及び前記第2光源により照射された各々の光線を含む領域の画像を表示する画像表示装置と、を備えることを特徴としている。
これにより、操作者は、撮像装置により撮像された2つの光線が照射されている画像領域の間隔を確認することで、足平と接地面、または対象物との距離間隔を適切に確認することができる。
また、本発明に係る移動体操作装置において、前記第1光源の光線と前記第2光源の光線とは、互いに非平行であるようにしてもよい。
これにより、2つの光線が照射されている画像領域が、足平と接地面との距離間隔に応じて異なるため、操作者は、足平と接地面との距離間隔を適切に確認することができる。操作者は、足平と接地面との距離間隔を適切に確認できるため、接地面の凹凸状態を適切に確認することができる。
本発明においては、操作者は、画像表示装置に表示された2つの光源の光線を含む画像により、移動体と対象物との距離感を掴みやすい移動体操作装置を提供できる。
第1実施形態実施形態に係る移動体操作装置1の概略構成を示す斜視図である。 第1実施形態実施形態に係るエンドエフェクタ120の断面図と第2撮像装置124の画角、及び光源125と126の光路を説明する図である。 第1実施形態実施形態に係る制御装置20のブロック図の一例である。 対象物50aの三面図である。 第2撮像装置124が対象物50aを、図2に示したx軸の位置x2及び位置x3で撮像したときの画像の一例である。 第1実施形態実施形態に係る第2撮像装置124の光軸と光源125の光線のなす角がβ1の場合の画角と光源125の光線との関係を説明する図である。 第1実施形態実施形態に係る第2撮像装置124の光軸と光源125の光線のなす角がβ2の場合の画角と光源125の光線との関係を説明する図である。 図6Aにおける画角と光源125の光線との関係の場合の画像データの一例を説明する図である。 図6Bにおける画角と光源125の光線との関係の場合の画像データの一例を説明する図である。 第1実施形態に係る移動体操作装置1の操作手順のフローチャートである。 第2実施形態に係る第2撮像装置124の画角と光源125の光線との関係を説明する図である。 第2実施形態に係る画像表示装置40に表示される画像の一例を説明する図である。 第3実施形態に係るエンドエフェクタ12dの平面図である。 第3実施形態に係る画像表示装置40に表示される画像の一例を説明する図である。 第3実施形態に係る移動体操作装置1aの操作手順のフローチャートである。 第4実施形態に係る画像表示装置40に表示される画像の一例を説明する図である。 第4実施形態に係るエンドエフェクタ120eの断面図である。 第4実施形態に係る3つの光源による第1の画像の一例を説明する図である。 第4実施形態に係る3つの光源による第2の画像の一例を説明する図である。 光源をミラーで反射させて照射させるエンドエフェクタ120hの断面図と光線を説明する図である。
まず、本発明の概要について説明する。
本発明では、移動体は、撮像装置と、該撮像装置の両側に2つの発光部を備えている。なお、移動体とは、車両、人型ロボット、腕型のマニュピュレータ、脚型のマニュピュレータ、腕型のマニュピュレータの先端に取り付けられているエンドエフェクタ、及び脚型のマニュピュレータの先端に取り付けられているエンドエフェクタ(例えば足平)等である。そして、この移動体に取り付けられている2つの発光部が、対象物に対してレーザー光を照射し、対象物に発光部が照射された画像を撮像装置で撮像する。操作者は、このように移動体に取り付けられている2つの発光部の光線を含む画像を確認することで、対象物と移動体との距離間隔を容易に知覚することができる。
以下、図面を用いて、本発明の実施形態について説明する。
[第1実施形態]
第1実施形態では、移動体は、腕型のマニュピュレータの先端に取り付けられているエンドエフェクタ(手先効果器)であって、エンドエフェクタが第2撮像装置及び2つの光源を備える。第2撮像装置が撮像した、この2つの光源から照射された光線の軌跡を含む画像を画像表示装置で見ることで、操作者は、エンドエフェクタと対象物の距離間隔等を確認する。
図1は、本実施形態に係る移動体操作装置1の概略構成を示す斜視図である。
図1に示すように、移動体操作装置1は、ロボット10、制御装置20、操作部30、及び画像表示装置40を備えている。
図1に示すように、ロボット10は、移動部101、回転部102、第1リンク103、旋回部104、第2リンク105、旋回部106、第3リンク107、回転部108、第4リンク109、旋回部110、エンドエフェクタ120(移動体)、及び第1撮像装置150を備えている。
なお、本発明では、図1に示したような操作者が操作部30等から操作するロボット10をマニュピュレータと称する。図1に示した例では、ロボット10は、アームであり、アームの先端にエンドエフェクタ120が取り付けられている。
ロボット10は、制御装置20の制御により動作する。また、対象物50は、例えば建物(図示せず)の床面にある。
移動部101は、例えば、移動可能な台車である。
ロボット10は、移動部101、第1リンク103、第2リンク105、第3リンク107、第4リンク109、及びエンドエフェクタ120がこの順に連結されたものである。
回転部102は、移動部101と第1リンク103との間に設けられている。旋回部104は、第1リンク103と第2リンク105との間に設けられている。旋回部106は、第2リンク105と第3リンク107との間に設けられている。回転部108は、第3リンク107と第4リンク109との間に設けられている。旋回部110は、第4リンク109とエンドエフェクタ120との間に設けられている。
ロボット10は、5自由度を有する多関節型マニュピュレータである。このため、エンドエフェクタ120は、これらの各軸の回転部と屈折部の動作により、移動する。なお、本実施形態では、5自由度を有する多関節型マニュピュレータの例を説明したが、本実施形態のエンドエフェクタ120を、例えば、スカラーロボットが備えるようにしてもよい。または、本実施形態のエンドエフェクタ120を、6自由度、7自由度、または10自由度を有する多関節型マニュピュレータが備えるようにしても、本実施形態と同様の効果が得られる。
旋回部104、106及び110と、回転部102、及び108は、図示しない各々エンコーダを備えている。例えば、旋回部106が備えるエンコーダは、回転角度、速度を検出し、検出した回転角度および速度を示す情報を制御装置20に出力する。
エンコーダは、例えば光学式エンコーダであり、アブソリュート(絶対値)エンコーダまたはインクリメンタル(相対値)エンコーダである。
第1撮像装置150は、エンドエフェクタ120の上部に取り付けられている。第1撮像装置150は、例えばCCD(Charge Coupled Device)カメラ、またはCMOS(相補型金属酸化膜半導体)カメラである。第1撮像装置150は、対象物50を撮影し、撮影した画像データを制御装置20に出力する。
制御装置20は、ロボット10を制御する。制御装置20は、第1撮像装置150が出力した画像データを、画像表示装置40に出力する。制御装置20は、後述するエンドエフェクタ120が備える発光部の発光状態と走査を制御する。制御装置20は、後述するエンドエフェクタ120が備える第2撮像装置が出力した画像データを記憶し、記憶した画像データを画像表示装置40に出力する。
操作者は、画像表示装置40に表示された画像を見ながら、ロボット10を制御装置20に接続されている操作部30を用いて遠隔操作する。
次に、エンドエフェクタ120について、図2を用いて説明する。
図2は、本実施形態に係るエンドエフェクタ120の断面図と第2撮像装置124の画角、及び第1光源125−1と第2光源125−2の光路を説明する図である。
図2において、第2撮像装置124の光軸方向をx軸方向とし、x軸方向と垂直な方向をy軸方向とし、奥行き方向をz軸方向とする。
まず、エンドエフェクタ120の構成について説明する。
図2に示すように、エンドエフェクタ120は、基部121、第1凸部122−1及び第2凸部122−2から構成されている。エンドエフェクタ120は、第2撮像装置124(撮像装置)、第1光源125−1及び第2光源125−2を備えている。以下、第1光源125−1及び第2光源125−2を総称して、光源125と称する。また、第1凸部122−1及び第2凸部122−2を総称して、凸部122と称する。
凸部122は、制御装置20の制御により、対象物50が例えば配管の弁の場合、弁を回転させるように制御される。このため、凸部122は、例えば、対象物50の形状に合わせた形状に形成されている。また、図2に示した例では、第1凸部122−1と第2凸部122−2のx軸方向の長さは等しい。このため、第1凸部122−1と第2凸部122−2が、基部121と接していない端面のx軸方向の位置は同じである。
第2撮像装置124は、y軸方向における第1凸部122−1と第2凸部122−2との中心の基部121に設けられている。なお、エンドエフェクタ120における中心とは、基部121において、第1凸部122−1と第2凸部122−2とに囲まれた領域内である。
第1光源125−1は、第1凸部122−1と第2撮像装置124との間に設けられている。
第2光源125−2は、第2凸部122−2と第2撮像装置124との間に設けられている。第1光源125−1及び第2光源125−2は、例えば半導体レーザーである。また、第1光源125−1及び第2光源125−2は、例えば、対象物に向かって指向性を有している光源である。
また、図2に示すように、第1光源125−1と第2撮像装置124のy軸方向の間隔はdであり、第2光源125−2と第2撮像装置124のy軸方向の間隔はdである。すなわち、第1光源125−1と第2光源125−2とは、第2撮像装置124の両側に等間隔で設けられている。
次に、第2撮像装置124の画角、及び光源125の光路を説明する
図2において、破線c1は、第2撮像装置124の光軸を表し、破線c21及びc22は、第2撮像装置124の画角を表している。また、実線c11は、第1光源125−1の光線を表し、実線c12は、第2光源125−2の光線を表している。
図2に示すように、第2撮像装置124の画角は、光軸c1に対して、なす角は各々角度αである。光線c11と光軸c1とのなす角、及び光線c12と光軸c1とのなす角は、各々角度βである。
図2の例では、光線c11と光軸c1とのなす角の角度βは、画角を表す破線c21と光軸c1とのなす角の角度αより大きい。同様に、光線c12と光軸c1とのなす角の角度βは、画角を表す破線c22と光軸c1とのなす角の角度αより大きい。
また、図2に示すように、光線c11とc12とは、第1凸部122−1及び第2凸部122−2のx軸方向の基部121に接していない端面を含む平面を結んだ位置x1で交差している。すなわち、光線c11及びc12は、第2撮像装置124の光軸c1に対して線対称である。
後述するように、操作者は、例えば、x軸方向の位置x2、及びx3において光源125を対象物50に照射することにより、対象物50とエンドエフェクタ120の位置関係を画像表示装置40に表示された画像に基づいて確認する。
次に、制御装置20の構成について、図3を用いて説明する。
図3は、本実施形態に係る制御装置20のブロック図の一例である。
図3に示すように、制御装置20は、制御部201、駆動部202、画像取得部203、画像表示部204、レーザー駆動部205、及び画像記憶部206を備えている。
制御部201は、操作部30からの指示に基づいて、ロボット10(移動体)の各部(含むエンドエフェクタ120)を制御する情報を駆動部202に出力する。制御部201は、操作部30からの指示に基づいて、光源125の発光状態を制御する情報をレーザー駆動部205に出力する。制御部201は、操作部30からの指示に基づいて、第1画像取得部231または第2画像取得部232が画像を取得するように切り替える情報を画像取得部203に出力する。制御部201は、光源125を照射しながら操作する場合、後述する画像上における水平方向の位置を画像取得部203に出力する。
駆動部202は、制御部201が出力するロボット10を制御する情報に基づいて、ロボット10の移動部101、各リンク(103、105、107、109)、旋回部(104、106、110)、回転部(102、108)、及びエンドエフェクタ120を駆動する。
画像取得部203は、第1画像取得部231及び第2画像取得部232を備えている。画像取得部203は、制御部201が出力する第1画像取得部231または第2画像取得部232が画像を取得するように切り替える情報に基づいて、第1画像取得部231または第2画像取得部232が画像を取得するように切り替える。
第1画像取得部231は、第1撮像装置150から出力された第1画像データを取得し、取得した第1画像データを画像表示部204に出力する。
第2画像取得部232は、第2撮像装置124から出力された第2画像データと、制御部201が出力する画像上における水平方向の位置を取得する。第2画像取得部232は、取得した第2画像データと取得した撮像された画像(以下、撮像画像という)における水平方向の位置とを関連付けて画像記憶部206に記憶させる。
画像表示部204は、第1画像取得部231が出力した第1画像データを画像表示装置40に出力する。画像表示部204は、画像記憶部206に記憶されている第2画像データを1走査分読み出し、読み出した1走査分の画像データを合成する。画像表示部204は、合成した1走査分の画像データを画像表示装置40に出力する。なお、1走査分の画像データとは、後述するように、例えば、撮像画像において、光源125を画像の水平方向へ1走査した画像データである。
レーザー駆動部205は、制御部201が出力する光源125を制御する情報に基づいて、光源125の発光状態を制御する。発光状態とは、光源が照射されている状態、光源が照射していない状態、光源の強度の状態などである。また、レーザー駆動部205は、制御部201が出力する光源125を制御する情報に基づいて、光源125が照射する光線を例えば、撮像画像において水平方向に走査するように駆動する。
画像記憶部206には、第2画像データと撮像画像における水平方向の位置とが関連付けられて記憶されている。
次に、エンドエフェクタ120の第2撮像装置124が撮像した第2画像データについて、図2、図4及び図5を用いて説明する。
図4は、対象物50aの三面図である。
図4に示しように、対象物50aは、縦が長さLであり、横が長さWであり、最大の高さがHである。高さが最大であるのは、縦の長さが2/Lの位置である。縦方向は、図2に示したy軸方向に対応し、横方向は、図2に示したz軸方向に対応している。
図5は、第2撮像装置124が対象物50aを、図2に示したx軸の位置x2及び位置x3で撮像したときの画像の一例である。図5において、画像の水平方向がz軸方向であり、垂直方向がy軸方向である。
図5において、符号300は、画像表示装置40に表示される画像である。画像300において、符号301は、撮像された対象物50aの画像を表し、符号302は、撮像された背景の画像を表している。また、画像300は、エンドエフェクタ120に取り付けられている光源125の各光線を、制御部201がz軸方向のz1からz4に向けて走査した後の画像である。
図5に示すように、画像300内において、対象物50aの画像301は、y軸方向のy1からy3の間、z軸方向のz2からz3の間に表示されている。
まず、図2のz軸方向の位置x3で撮像された画像について説明する。位置x3で撮像された画像300には、対象物50aの画像301、背景の画像302、第1光源125−1が照射した光線の軌跡による画像領域(以下、第1光源125−1による画像領域という)321a、321b、321c、第2光源125−2が照射した光線の軌跡による画像領域(以下、第2光源125−1による画像領域という)311a、311b、311cを含んでいる。また、画像領域311a及び311bと、画像領域311cとは、y軸方向において、長さΔy1ずれている。同様に、画像領域321a及び321bと、画像領域321cとは、y軸方向において、長さΔy1ずれている。
このように、画像領域321a、321b、321cが不連続なのは、対象物50aと背景とに高さの差が生じているためである。
次に、図2のz軸方向の位置x2で撮像された画像について説明する。位置x2で撮像された画像300には、対象物50aの画像301、背景の画像302、第1光源125−1による画像領域341a、341b、341c、第2光源125−2による画像領域331a、331b、331cを含んでいる。また、画像領域331a及び331bと、画像領域331cとは、y軸方向において、長さΔy2ずれている。同様に、画像領域341a及び341bと、画像領域341cとは、y軸方向において、長さΔy2ずれている。
図5に示したように、画像300上の光源125の光線による画像領域は、対象物50aとエンドエフェクタ120との間隔に応じて、変化する。
具体的には、z軸の位置x3で撮像された画像において、背景の画像302上の第1光源125−1による画像領域321a及び321bに対して、対象物50aの画像301上の第1光源125−1による画像領域321cは、長さΔy1だけ、y軸の正方向に表示される。同様に、z軸の位置x3で撮像された画像において、背景の画像302上の第2光源125−2による画像領域311a及び311bに対して、対象物50aの画像301上の第2光源125−2による画像領域311cは、長さΔy1だけ、y軸の負方向に表示される。
また、z軸の位置x2で撮像された画像において、背景の画像302上の第1光源125−1による画像領域341a及び341bに対して、対象物50aの画像301上の第1光源125−1による画像領域341cは、長さΔy2だけ、y軸の正方向に表示される。同様に、z軸の位置x2で撮像された画像において、背景の画像302上の第2光源125−2による画像領域331a及び331bに対して、対象物50aの画像301上の第2光源125−2による画像領域331cは、長さΔy2だけ、y軸の負方向に表示される。
この場合、y軸方向の光源125の画像位置のずれ量Δy2は、Δy1より大きい。
すなわち、対象物50aが最大の高さHを有しているため、エンドエフェクタ120と対象物50aとの距離に応じて、背景の画像302上に写る光源125のy軸方向の位置と、対象物50aの画像301に写る光源125のy軸方向の位置とのずれ量Δyが変化する。操作者は、このずれ量を、画像表示装置40で確認することで、エンドエフェクタ120が対象物50aに近づいているのか遠ざかっているのかを容易に確認することができる。
具体的には、図2のx軸方向の位置x3で撮像した後、位置x2で撮像した画像が画像表示装置40に表示された場合、図5に示したように、操作者には、矢印351のように、対象物50aの画像301が、y軸のy3からy2に向かって高くなっているように見える。同様に、操作者には、矢印352のように、対象物50aの画像301が、y軸のy1からy2に向かって高くなっているように見える。この結果、操作者は、対象物50aが、図4に示したような形状であることも画像300から確認することができる。
次に、第2撮像装置124の画角と、光源125の光軸に対するなす角の関係について、図6A、図6B、図7、及び図8を用いて説明する。なお、図7及び図8は、表面の高さが均等な対象物に光源125を照射したときに、第2撮像装置124が撮像した画像である。
図6Aは、本実施形態に係る第2撮像装置124の光軸と光源125の光線のなす角がβ1の場合の画角と光源125の光線との関係を説明する図である。図6Bは、本実施形態に係る第2撮像装置124の光軸と光源125の光線のなす角がβ2の場合の画角と光源125の光線との関係を説明する図である。図7は、図6Aにおける画角と光源125の光線との関係の場合の画像データの一例を説明する図である。図8は、図6Bにおける画角と光源125の光線との関係の場合の画像データの一例を説明する図である。
図6A及び図6Bにおいて、図2と同様に、第2撮像装置124の画角は2αであり、第2撮像装置124の光軸c1に対して、なす角は各々角度αである。また、図6A及び図6Bにおいて、第2撮像装置124の光軸方向をx軸方向とし、x軸方向と垂直な方向をy軸方向とする。また、図6A及び図6Bに示すように、第1光源125−1aの光線c11aと、第2光源125−2aの光線c12aとは、x軸方向の位置x11で交差している。
図6Aに示すように、エンドエフェクタ120aにおいて、第2撮像装置124と第1光源125−1a(または第2光源125−2a)とは、y軸方向に距離d1離れて配置されている。また、第1光源125−1a(または第2光源125−2a)の光線c11a(またはc12a)と第2撮像装置124の光軸c1とのなす角はβ1である。なお、なす角β1は、光軸c1と画角とのなす角αより大きい。
図6Bに示すように、エンドエフェクタ120bにおいて、第2撮像装置124と第1光源125−1b(または第2光源125−2b)とは、y軸方向に距離d2離れて配置されている。この間隔d2は、図6Aに示した間隔d1より短い。また、第1光源125−1b(または第2光源125−2b)の光線c11b(またはc12b)と第2撮像装置124の光軸c1とのなす角はβ2である。なお、なす角β2は、光軸c1と画角とのなす角αとほぼ等しい。また、なす角β2は、図6Aに示したなす角β1より小さい。すなわち、第1光源125−1bの光線c11bと画角を示す破線c21とはほぼ平行である。同様に、第2光源125−2bの光線c12bと画角を示す破線c22とはほぼ平行である。
次に、図6Aのx軸方向の位置x12及びx13において、第2撮像装置124が撮像した画像について図7を用いて説明する。
図7においては、図5と同様に、画像300aの水平方向をz軸方向とし、画像300aの垂直方向をy軸方向とする。
図7において、画像領域311d及び322dは、図6Aにおけるx軸方向の位置x13において第2撮像装置124により撮像された画像領域である。また、図7において、画像領域331d及び342dは、図6Aにおけるx軸方向の位置x12において第2撮像装置124により撮像された画像領域である。
図7に示すように、位置x13で撮像された光源125による画像領域311dと322dとのy軸方向の間隔はh1である。また、位置x12で撮像された光源125による画像領域331dと341dとのy軸方向の間隔はh2である。間隔h1は、間隔h2より十分大きい。すなわち、間隔h1と間隔h2との差は大きい。このため、図7に示したような画像が画像表示装置40上に表示された場合、操作者は、エンドエフェクタ120が対象物に対して近づいているのか遠ざかっているのかを、間隔の変化により確認しやすい。具体的には、図6A及び図7に示したように、光源125による画像領域311dと322dの間隔が広がった場合、エンドエフェクタ120は対象物から遠ざかっていると、操作者は知覚する。逆に、光源125の光線による画像領域331dと341dの間隔が狭まった場合、エンドエフェクタ120は対象物から近づいていると、操作者は知覚する。
次に、図6Bのx軸方向の位置x12及びx13において、第2撮像装置124が撮像した画像について図8を用いて説明する。
図8において、図5と同様に、画像300bの水平方向をz軸方向とし、画像300bの垂直方向をy軸方向とする。
図8において、画像領域311e及び322eは、図6Bにおけるx軸方向の位置x13において第2撮像装置124により撮像された画像である。また、図8において、画像領域331e及び342eは、図6Bにおけるx軸方向の位置x12において第2撮像装置124により撮像された画像である。
図8に示すように、位置x13で撮像された光源125による画像領域311deと322eとのy軸方向の間隔はh3である。また、位置x12で撮像された光源125による画像領域331eと341eとのy軸方向の間隔はh4である。間隔h3と間隔h4との差は少ない。このため、図8に示したように、操作者は、画像表示装置40上で、エンドエフェクタ120が対象物に対して近づいているのか遠ざかっているのかを、光源125による画像の間隔の変化により知覚しにくい。
図6A、図6B、図7、及び図8を用いて説明したように、第2撮像装置124の光軸c1に対する画角のなす角と、光源125と光軸c1に対する画角のなす角とは離れている方が、エンドエフェクタ120と対象物との距離感を画像表示装置40の画像により操作者が確認しやすい効果がある。
次に、移動体操作装置1の操作手順の一例を、図9を用いて説明する。
図9は、本実施形態に係る移動体操作装置1の操作手順のフローチャートである。
(ステップS1)操作者は、第1撮像装置150が撮像した画像を画像表示装置40に表示するように操作部30を操作して切り替える。ステップS1終了後、ステップS2に進む。
(ステップS2)操作者は、画像表示装置40に表示された第1撮像装置150が撮像した画像を見ながら、ロボット10を対象物50に近づけるように操作部30を操作する。次に、制御装置20は、操作部30からの指示に基づいて、移動部101を駆動してロボット10を対象物50に近づけるように制御する。ステップS2終了後、ステップS3に進む。
(ステップS3)操作者は、画像表示装置40上の画像を確認しながら、ロボット10が対象物50に近づいたか判断する。ロボット10が対象物50に近づいたと判断した場合(ステップS3;Yes)、ステップS4に進む。
ロボット10が対象物50に近づいていないと判断した場合、操作者は、ステップS2とS3の操作を繰り返す。
(ステップS4)操作者は、操作部30を操作して、ロボット10を停止させる。ステップS4終了後、ステップS5に進む。
(ステップS5)操作者は、画像表示装置40上の画像を確認しながら、エンドエフェクタ120を対象物50に向ける。ステップS5終了後、ステップS6に進む。
(ステップS6)操作者は、第2撮像装置124が撮像した画像を画像表示装置40に表示するように操作部30を操作して切り替える。ステップS6終了後、ステップS7に進む。
(ステップS7)操作者は、画像表示装置40に表示された第2撮像装置124が撮像した画像を見ながら、エンドエフェクタ120を対象物50に近づけるように操作部30を操作する。次に、制御装置20は、操作部30からの指示に基づいて、ロボット10の各部(リンク、回転部、及び屈折部)を駆動してエンドエフェクタ120を対象物50に近づけるように制御する。この場合、制御装置20は、エンドエフェクタ120を、予め定められている間隔、例えば5[cm]間隔で移動させる。具体的には、制御装置20は、図2に示したx軸方向の位置x3に対象物50が位置するように制御する。ステップS7終了後、ステップS8に進む。
(ステップS8)制御装置20は、位置x3において、エンドエフェクタ120に取り付けられている光源125を発光させ、例えば第2撮像装置124における水平方向の画像範囲で光源125の光線を第2撮像装置124の画像の水平方向に走査する。具体的には、図5に示したように、制御装置20は、光源125の光線をz軸方向の位置z1からz4に向けて走査するように制御する。
次に、制御装置20は、光源125の走査完了後、画像記憶部206に記憶されている画像を1走査分だけ合成した位置x3の画像を、画像表示装置40に出力する。ステップS8終了後、ステップS9に進む。
(ステップS9)操作者は、画像表示装置40に表示された第2撮像装置124が撮像した画像を見ながら、エンドエフェクタ120を対象物50に近づけるように操作部を介して操作する。操作者は、エンドエフェクタ120が、目標位置に達したと判断するまで、ステップS7からS9を繰り返す。エンドエフェクタ120が目標位置に達したと判断した場合(ステップS9;Yes)、ステップS10に進む。
(ステップS10)操作者は、エンドエフェクタ120を操作して、所定の作業を行う。なお、所定の作業とは、例えば、配管の弁を開ける作業、弁を閉じる作業、部品を取る付ける作業、部品を取り外す作業、異物を取り除く作業、サンプルを取得する作業等である。
以上で、移動体操作装置1の操作を終了する。
以上のように、本実施形態では、エンドエフェクタ120の基部121の中心に第2撮像装置124を設けた。そして、この第2撮像装置124の両側に2つの光源125を設けた。そして、第2撮像装置124の光軸と画角とのなす角αと、第2撮像装置の光軸と光源125の光線とのなす角βとを異なるように設定した。また、2つの光源125の光線を、エンドエフェクタ120の凸部122の基部121とは接していない端面を含む平面で交差するようにした。
この結果、第2撮像装置124が撮像した画像において、2つの光源125による画像の変化を確認することで、操作者は、エンドエフェクタ120と対象物50との距離間隔を容易に確認することができる。
[第2実施形態]
第1実施形態では、光源125の光線の交点を、エンドエフェクタ120の凸部122の基部121とは接していない一端を結ぶ位置になるように構成した例を説明した。本実施形態では、光源125の光線の交点が、エンドエフェクタ120の凸部122の基部121とは接していない一端を結ぶ位置以外に構成した例を説明する。
図10は、本実施形態に係る第2撮像装置124の画角と光源125の光線との関係を説明する図である。図11は、本実施形態に係る画像表示装置40に表示される画像の一例を説明する図である。図10において、第2撮像装置124の光軸方向をx軸方向とし、x軸に垂直な方向をy軸方向とする。図11において、画面の水平方向をz軸方向とし、垂直方向をy軸方向とする。
図10において、第1実施形態の図2と同様に第2撮像装置124の画角は2αである。一方、第1光源125−1cの光線c301と、第2発光部の光線c302の交点は、凸部の基部121とは接していない一端を結ぶ位置x21ではなく、位置x21よりx軸の正方向の位置x23に設定されている。
図11に示すように、位置x21と位置x23との間の位置x22で撮像した場合、画像表示装置40に表示される画像300cにおいて、画像領域401が第1光源125−1cの光線c301の軌跡に対応し、画像領域402が第2光源125−2cの光線c302の軌跡に対応する。
次に、交点の位置x23より離れている位置x24で撮像した場合、画像表示装置40に表示される画像300cにおいて、画像領域401が第2光源125−2cの光線c302の軌跡に対応し、画像領域402が第1光源125−1cの光線c301の軌跡に対応する。
すなわち、撮像する位置が交点の位置x23より手前の位置か、離れている位置かによって、画像表示装置40に表示される第1光源125−1cの光線c301に対応する画像領域と、第2光源125−2の光線に対応する画像領域との位置関係が入れ替わってしまう。この結果、操作者は、エンドエフェクタ120cが目的の位置に近づいているのか遠ざかっているのか知覚しづらくなる。
このため、本実施形態に係るエンドエフェクタ120cでは、第1光源125−1cの波長と第2光源125−2cの波長が異なるように構成する。例えば、第1光源125−1cの波長は、660[nm]であり、第2光源125−2cの波長は、530[nm]である。第1光源125−1cと第2光源125−2cとの各波長は、人が異なる色であると識別できる波長の組み合わせであればよい。
以上のように、本実施形態では、エンドエフェクタ120cが備える第1光源125−1cと第2光源125−2cとの発光状態である波長を異なるようにした。この結果、操作者は、画像表示装置40上に映し出された画像により、エンドエフェクタ120cが、目的の位置に近づいているのか遠ざかっているのか適切に確認できる。
なお、本実施形態では、第1光源125−1cと第2光源125−2cの発光状態を異なる状態とするため、波長を異なるようにしたが、これに限られない。例えば、第1光源125−1cと第2光源125−2cの発光強度を異なるようにしてもよい。または、第1光源125−1cと第2光源125−2cのスポットサイズを異なるように発光させるようにしてもよい。または、制御装置20は、第1光源125−1cを連続発光するように制御し、第2光源125−2cによる画像を画像表示装置40で走査者が見た時に、点線または破線となるような発光状態に制御するようにしてもよい。すなわち、第1光源125−1cと第2光源125−2cの発光状態を、画像表示装置40上で見た時に、操作者が、異なる状態と知覚できる状態であればよい。
なお、本実施形態では、第1光源及び第2光源を、z軸の正方向に走査する例を説明したが、z軸の負方向に走査するようにしてもよい。
[第3実施形態]
第1実施形態及び第2実施形態では、エンドエフェクタが光源を2つ備える例を説明した。次に、本実施形態では、エンドエフェクタが3個以上の光源を備える例を説明する。
図12は、本実施形態に係るエンドエフェクタ120dの平面図である。図12において、横方向をz軸方向とし、縦方向をy軸方向とする。
図12に示すように、第2撮像装置124は、エンドエフェクタ120dの基部121dの中心に配置されている。第1光源125−1dは、第2撮像装置124に対してy軸の正方向に距離d3離れて配置されている。第2光源125−2dは、第2撮像装置124に対してy軸の負方向に距離d3離れて配置されている。
さらに、第3光源125−3dは、第2撮像装置124に対してz軸の負方向に距離d4離れて配置されている。第4光源125−4dは、第2撮像装置124に対してz軸の正方向に距離d4離れて配置されている。
図13は、本実施形態に係る画像表示装置40に表示される画像の一例を説明する図である。図13において、画面の水平方向をz軸方向とし、垂直方向をy軸方向とする。また、図13において、画像領域401及び402は、第1及び第2光源による画像領域であり、画像領域411及び412は、第3及び第4光源による画像領域である。
まず、図13に示した画像300dが表示されるまでに、制御装置20が行う処理手順を、図14を用いて説明する。
図14は、第3実施形態に係る移動体操作装置1aの操作手順のフローチャートである。
制御装置20は、第1実施形態で説明したステップS1からS6までの処理を同様に行う。なお、以下の各処理は、各々操作者が操作部30から行った操作に基づいて行われる。
(ステップS101)制御装置20は、エンドエフェクタ120dを所望の位置に移動させる。ステップS101終了後、ステップS102に進む。
(ステップS102)制御装置20は、第1光源125−1d及び第2光源125−2dの照射を開始する。次に、制御装置20は、z軸の位置z401から位置z404の正方向に、第1光源125−1d及び第2光源125−2dを走査するように制御する。ステップS102終了後、ステップS103に進む。
(ステップS103)制御装置20は、走査中の画像データを画像記憶部206に記憶させる。ステップS103終了後、ステップS104に進む。
(ステップS104)第1光源125−1d及び第2光源125−2dを走査した位置のまま、制御装置20は、第1光源125−1d及び第2光源125−2dを消灯する。次に、制御装置20は、第3光源125−3d及び第4光源125−4dの照射を開始する。次に、制御装置20は、y軸の位置y401から位置y404の正方向に、第3光源125−3d及び第4光源125−4dを走査するように制御する。ステップS104終了後、ステップS105に進む。
(ステップS105)制御装置20は、走査中の画像データを画像記憶部206に記憶させる。ステップS105終了後、ステップS106に進む。
(ステップS106)制御装置20は、画像記憶部206に記憶されている画像データを読み出し、読み出した画像情報を合成する。なお、読み出して合成する画像データは、第1光源125−1d及び第2光源125−2dの1走査分の画像データと、第3光源125−3d及び第4光源125−4dの1走査分の画像データである。次に、制御装置20は、合成した画像データを画像表示装置40に出力する。
このようにして、画像表示装置40に表示された画像300dが図13である。
以下、ステップS101からS106、及びS9を繰り返して、操作者は、エンドエフェクタ120dを目的の位置まで移動させて(ステップS9;Yes)、所望の処理を行わせる(ステップS10)。
操作者は、第1光源125−1d及び第2光源125−2dによる画像領域401及び画像領域402に基づき、対象物50のy軸方向に関する距離間隔や対象物50の高さを知覚できる。また、操作者は、第3光源125−3d及び第4光源125−4dによる画像領域411及び画像領域412に基づき、対象物50のz軸方向に関する距離間隔や対象物50の高さを知覚できる。
以上のように、本実施形態では、第1光源125−1d及び第2光源125−2dに加え、さらに2つの第3光源125−3d及び第4光源125−4dをエンドエフェクタ120dが有するようにした。そして、本実施形態では、制御装置20が、第1光源125−1d及び第2光源125−2dを水平方向に走査させ、第3光源125−3d及び第4光源125−4dを垂直方向に走査させるように制御する。この結果、操作者は、画像表示装置40に表示される水平方向(図13のz軸方向)、垂直方向(図13のy軸方向)の両方向について、画像表示装置40上に映し出された画像により、エンドエフェクタ120cが、目的の位置に近づいているのか遠ざかっているのか適切に確認できる。
なお、本実施形態において、エンドエフェクタ120dが、図2に示したような第1凸部122−1及び第2凸部122−2を備えている場合、第3光源125−3dの光線と第4光源125−4dの光線とは、第1凸部122−1及び第2凸部122−2の基部121とは接していない端面を結ぶ平面且つ第2撮像装置124の光軸上で交わるようにしてもよい。また、第3光源125−3dの光線と第4光源125−4dの光線と第2撮像装置124の光軸とのなす角は、第1実施形態で説明したように、第2撮像装置124の光軸と画角とのなす角と異なっているようにしてもよい。
さらに、制御装置20は、第3光源125−3dと第4光源125−4dの発光状態を、第2実施形態と同様に異なる発光状態に制御するようにしてもよい。この場合、例えば、4つの光源の波長を全て異なるようにしてもよい。または、第1光源125−1dと第2光源125−2dの波長を異なる波長にし、第3光源125−3dと第4光源125−4dの輝度を異なるようにしてもよい。
[第4実施形態]
第3実施形態では、エンドエフェクタ120dが、第1光源125−1d及び第2光源125−2dに加え、第3光源125−3d及び第4光源125−4dを備えることで水平方向に加え垂直方向の距離間隔も確認できるようにした例を説明した。本実施形態では、対象物の傾きを知覚できるようにした例を説明する。
図15は、本実施形態に係る画像表示装置40に表示される画像の一例を説明する図である。図16は、本実施形態に係るエンドエフェクタ120eの断面図である。
図15に示すように、画像表示装置40に表示される画像300eは、図13に示した第1から第4光源による画像領域401、402、411及び412に加え画像300eの中心に十字422が表示されている。
十字422は、図15に示すように、z軸方向の位置z405とz406の間に表示され、y軸方向の位置y405とy406の間に表示される。
次に、本実施形態に係るエンドエフェクタ120eの構造を説明する。
図16に示すようにエンドエフェクタ120eは、第2撮像装置124e、第5光源125−5e、及びハーフミラーを有するキューブ126を備えている。なお、エンドエフェクタ120eは、第3実施形態と同様に図示しない4つの光源も備えている。
第2撮像装置124eは、キューブ126のハーフミラーを介して撮像する。このため、第2撮像装置124eの光軸は、第1から第3実施形態と同様に、エンドエフェクタ120eの基部121e中心にある。
第5光源125−5eは、キューブ126を介して第2撮像装置124eの光軸上に光線を照射する。
次に、図15に示した画像300eが表示されるまでに、制御装置20が行う処理手順を説明する。
制御装置20は、第3実施形態同様に、ステップS1からS6、S101からS105の処理を行う。
ステップS105終了後、制御装置20は、第3光源及び第4光源を消灯する。次に、制御装置20は、第5光源125−5eの照射を開始する。次に、制御装置20は、z軸の位置z405から位置z406の正方向に、第5光源125−5eを走査するように制御する。次に、制御装置20は、走査中の画像データを画像記憶部206に記憶させる。
次に、制御装置20は、y軸の位置z405から位置z406の正方向に、第5光源125−5eを走査するように制御する。次に、制御装置20は、走査中の画像データを画像記憶部206に記憶させる。
次に、制御装置20は、画像記憶部206に記憶されている1走査分の画像情報を読み出し、読み出した画像情報を合成する。読み出す1走査分の画像データは、第3実施形態の画像データに加え、第5光源125−5eをz軸方向及びy軸方向に走査したときの画像データも含む画像データである。次に、制御装置20は、合成した画像データを画像表示装置40に出力する。
このようにして、画像表示装置40に表示された画像300eが図14である。
以上のように、本実施形態では、第2撮像装置124の光軸と同じ軸上に第5光源125−5eの光線を照射し、照射した光線を操作して画像300eの中心に十字422が表示されるように制御装置20が制御する。この結果、操作者は、画像300e中心における十字422の形状の変化を確認することで、例えば対象物50の傾きを知覚することができる。
なお、本実施形態では、第3光源及び第4光源の走査完了後、第3光源及び第4光源を消灯させ、その後に第5光源125−5eを照射させて走査する例を説明したが、これに限られない。例えば、制御装置20は、垂直方向に配置された第1光源及び第2光源をz軸方向の走査中、位置z405からz406に区間のみ第5光源125−5eを照射させて走査させるように制御するようにしてもよい。さらに、水平方向に配置された第3光源及び第4光源をy軸方向の走査中、位置y405からy406に区間のみ第5光源125−5eを照射させて走査させるように制御するようにしてもよい。
なお、本実施形態では、エンドエフェクタ120eが、5つの光源を備える例を説明したが、第3光源と第4光源を備えなくてもよい。図17は、本実施形態に係る3つの光源による第1の画像の一例を説明する図である。図18は、本実施形態に係る3つの光源による第2の画像の一例を説明する図である。図17及び図18において、画像300f及び画像300gの水平方向をz軸とし、画像300f及び画像300gの垂直方向をy方向とする。また、図17及び図18において、画像領域401は、第2光源による画像であり、画像領域402は、第1光源による画像である。図17において、画像領域431は、第5光源による画像である。図18において、丸441は、第5光源の光線のスポットに対応する画像領域である。
図17及び図18に示した例では、エンドエフェクタは、第1実施形態と同様に第2撮像装置124の両側に第1光源及び第2光源を備え、さらに第2撮像装置の光軸と同じ軸上に照射する第5光源を備えている。この場合、制御装置20は、第1実施形態で説明したステップS8において、第1光源、第2光源、及び第3光源の照射を開始する。
次に、ステップS8において、第1光源、第2光源、及び第3光源の光線をz軸の正方向に走査するように制御する。この結果、画像表示装置40上には、第1光源による画像領域402、第2光源による画像領域401、及び第5光源による画像領域431を含む画像300fが表示される。
操作者は、この第5光源による画像領域431の傾きを確認することで、撮像された箇所のz軸方向の傾きを確認することができる。
また、図18に示した例では、制御装置20は、第1実施形態で説明したステップS8(図9)において、第1光源及び第2光源を開始する。そして、制御装置20は、第1光源及び第2光源をz軸方向に走査中、z軸方向の中心で第5光源の照射するように制御する。この場合、例えば、図16において第5光源125−5eとキューブ126との間に、第5光源のスポット径が大きくなるように、図示しないレンズや拡散板などを設置するようにしてもよい。
操作者は、この第5光源の光線のスポットに対応する画像領域441の形状のゆがみを確認することで、撮像された箇所のz軸方向の傾きを知覚することができる。
また、図18の例では、画像300gの中心に、第5光源が照射した光線による丸441が表示される例を説明したが、これに限られない。例えば、画像300gの中心に、ランダムドットパターンが表示されるように、第2撮像装置124の周辺に複数の光源を配置して、照射させるようにしてもよい。または、図16において、第5光源125−5eとキューブ126との間に、拡散板(図示せず)を配置し、拡散板とキューブ126との間にランダムドットパターンを発生させるようなランダムな穴があいている板を配置するようにしてもよい。
なお、第1〜第4実施形態では、エンドエフェクタが備える第2撮像装置124、複数の光源125を基部121上に備える例を説明したが、第2撮像装置124、複数の光源125は、基部121に埋め込むようにしてもよい。または、第2撮像装置124、複数の光源125は、基部121の内部に配置するようにしてもよい。
なお、第1〜第4実施形態では、エンドエフェクタ120(含む120a、〜120g)が凸部122を備える例を説明したが、これに限られない。凸部122は、1つでも、あるいは3つ以上でもよい。さらに、エンドエフェクタ120(含む120a、〜120g)は、凸部122の代わりに、対象物50の形状に合わせて凹部(図示せず)を備えるようにしてもよく、凸部と凹部を備えるようにしてもよい。さらに、操作目的に応じて、エンドエフェクタ120は、凸部122を備えなくてもよい。
なお、第1〜第4実施形態では、第1光源及び第2光源は、第2撮像装置の光軸方向に、直接、照射する例を説明したが、これに限られない。
図19は、光源をミラーで反射させて照射させるエンドエフェクタ120hの断面図と光線を説明する図である。図19に示したように、エンドエフェクタ120hは、第2撮像装置124h、第1光源125−1h、第2光源125−2h、第1ミラー127−1、第2ミラー127−2、第1アクチュエータ128−1、及び第2アクチュエータ128−2を備えている。
図19に示したように、第1光源125−1hの光線c501を、第1ミラー127−1を用いて反射させて照射させ、第2光源125−2hの光線c502を、第2ミラー127−2を用いて反射させて照射させるようにしてもよい。
エンドエフェクタ120hを図19のように構成した場合、制御装置20は、対象物や環境に合わせて、第1ミラー127−1の角度を第1アクチュエータ128−1で制御し、第2ミラー127−2の角度を第2アクチュエータ128−2で制御するようにしてもよい。
また、第1凸部122−1と第2凸部122−2で囲まれた内側において、第1光源及び第2光源の光線を、第1凸部122−1と第2凸部122−2に照射させた反射光を照射するようにしてもよい。
なお、第1〜第4実施形態では、光源125として点発光の光源を用いる例を説明したが、ライン状に発光する発光部を用いるようにしてもよい。または、光源125の光線を、スリットを介して照射するようにしてもよい。この場合、制御部201は、光源125を走査せずに1走査分の画像を取得できる。また、画像記憶部206に記憶させずに、画像取得部203が取得した画像を、そのまま画像表示部に出力することができる。
なお、第1〜第4実施形態では、第1光源124−1と第2光源124−2の光線を、エンドエフェクタ120と対象物50との間で交わるように照射する例を説明したが、これに限られない。第1光源124−1と第2光源124−2の光線を、エンドエフェクタ120と対象物50との間で交わらないように照射するようにしてもよい。この場合、第1光源124−1と第2光源124−2の光線とは、互いに非平行な光線であり、さらに互いに第2撮像装置124の光軸に対して互いに広がっていく光線であるようにしてもよい。
なお、第1〜第4実施形態では、第1光源124−1と第2光源124−2の光線を、画像表示装置40の水平方向に対して平行に走査する例を説明したが、目的に応じて、例えば、画像表示装置40の対角線方向に対して平行に走査するようにしてもよい。
なお、第1〜第4実施形態では、移動体は、腕型のマニュピュレータの先端に取り付けられているエンドエフェクタである例を説明したが、これに限られない。例えば、移動体は、脚を有するロボット、脚状のロボット、及び脚状のロボットの先端に取り付けられているエンドエフェクタ(例えば)足平等であってもよい。この場合、この足平(移動体)の足裏に、第2撮像装置124、及び2撮像装置の両側に等間隔で設けられている2つの光源125を備えるようにしてもよい。第2撮像装置124は、例えば接地面を撮像する方向に取り付けられている。また、2つの光源125による光線は、第1〜第4実施形態と同様に、互いに非平行、第2撮像装置124の光軸上で交差するようにしてもよい。
この場合においても、操作者は、画像表示装置40に表示された第2撮像装置が撮像した第1及び第2光源の光線の軌跡に対応する画像により、対象物との距離間隔及び接地面等の凹凸状態等を知覚することができる。そして、作業を行いたい対象物が、床に近い高さ、または床に設置されているような場合、操作者は、脚の先端に取り付けられているエンドエフェクタを、制御装置20を介して制御することで、所望の作業を行わせるようにしてもよい。また、第2撮像装置124は、足裏の中心、または重心の位置に取り付けられているようにしてもよい。
また、人型ロボット(移動体)において、手平、または足平の先が撮像される位置に、本実施形態に係る第2撮像装置124、及び第2撮像装置の両側に等間隔で設けられている2つの光源125を備えるようにしてもよい。手平、または足平の先が撮像される位置とは、例えば、人型ロボットの腹部前面、または、脚部の膝部等である。
なお、第1〜第4実施形態では、移動体は、第2撮像装置124、及び2つの光源125を備えるエンドエフェクタ120である例を説明したが、これに限られない。移動体は、車両であってもよく、第1〜第4実施形態で説明した第2撮像装置124、及び2つの光源125を、例えば車両の前方に取り付けられていてもよい。
この場合においても、車両(移動体)を操作する操作者は、例えば車両内に設置されている画像表示装置40に表示される第2撮像装置124が撮像した画像を確認する。これにより、操作者は、車両と対象物との距離間隔を適切に確認することができる。
なお、車両または人型ロボットが、第2撮像装置124、及び2つの光源125を備える場合、2つの光源125による光線は、第1〜第4実施形態と同様に、互いに非平行、第2撮像装置124の光軸上で交差するようにしてもよい。
なお、実施形態の図3に示した制御装置20の各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD−ROM等の可搬媒体、USB(Universal Serial Bus) I/F(インタフェース)を介して接続されるUSBメモリ、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、サーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
1・・・移動体操作装置、10・・・ロボット、20・・・制御装置、30・・・操作部、40・・・画像表示装置、50、50a・・・対象物、移動部101、エンドエフェクタ120、122−1、122−2・・・凸部、第2撮像装置124、125・・・発光部、125−1・・・第1光源、125−2・・・第2光源、125−3・・・第3光源、125−4・・・第4光源、125−5・・・第5光源、126・・・キューブ、127・・・ミラー、128・・・アクチュエータ、150・・・第1撮像装置、201・・・制御部201、202・・・駆動部、203・・・画像取得部、204・・・画像表示部、205・・・レーザー駆動部、206・・・画像記憶部、α・・・第2撮像装置124の光軸と画角とのなす角、β・・・第2撮像装置124の光軸と光源125の光線とのなす角

Claims (10)

  1. 移動体に設けられている撮像装置と、
    前記撮像装置の両側に等間隔で設けられている第1光源及び第2光源と、
    前記撮像装置で撮像された前記第1光源及び前記第2光源により照射された各々の光線を含む領域の画像を表示する画像表示装置と、
    を備えることを特徴とする移動体操作装置。
  2. 前記移動体は、
    エンドエフェクタであり、
    前記撮像装置は、
    前記エンドエフェクタの中心に設けられ、
    前記第1光源の光線と前記第2光源の光線とは、
    互いに非平行である
    ことを特徴とする請求項1に記載の移動体操作装置。
  3. 前記第1光源の光線と前記第2光源の光線とは、
    前記撮像装置の光軸で交わり、前記撮像装置の光軸に対して線対称である
    ことを特徴とする請求項1または請求項2に記載の移動体操作装置。
  4. 前記第1光源の光線と前記撮像装置の光軸とのなす角の角度は、前記撮像装置の画角と光軸とのなす角の角度より大きく、
    前記第2光源の光線と前記撮像装置の光軸とのなす角の角度は、前記撮像装置の画角と光軸とのなす角の角度より大きい
    ことを特徴とする請求項1から請求項3のいずれか1項に記載の移動体操作装置。
  5. 前記第1光源と前記第2光源とを制御する制御部
    を備え、
    前記制御部は、
    前記第1光源の光線と前記第2光源の光線とを、前記撮像装置の光軸に対して垂直な面において、平行に照射するように制御する
    ことを特徴とする請求項1から請求項4のいずれか1項に記載の移動体操作装置。
  6. 前記第1光源と前記第2光源とは、
    波長、光量、発光状態、及び光線の形状のうち少なくとも1つが異なる
    ことを特徴とする請求項1から請求項5のいずれか1項に記載の移動体操作装置。
  7. 前記移動体であるエンドエフェクタは、
    少なくとも長さが等しい2つの凸部
    を備え、
    前記第1光源の光線と前記第2光源の光線は、
    前記2つの凸部が前記エンドエフェクタとは接していない端面を結ぶ平面で交わる
    ことを特徴とする請求項1から請求項6のいずれか1項に記載の移動体操作装置。
  8. 前記第1光源の光線と前記第2光源の光線は、
    前記撮像装置の光軸に対して垂直な面の方向に向けて指向性を有している
    ことを特徴とする請求項1から請求項7のいずれか1項に記載の移動体操作装置。
  9. 脚部の先端に取り付けられている足平であって、前記足平における足裏の中心に設けられている撮像装置と、
    前記撮像装置の両側に等間隔で設けられている第1光源及び第2光源と、
    前記撮像装置で撮像された前記第1光源及び前記第2光源により照射された各々の光線を含む領域の画像を表示する画像表示装置と、
    を備えることを特徴とする移動体操作装置。
  10. 前記第1光源の光線と前記第2光源の光線とは、
    互いに非平行である
    ことを特徴とする請求項9に記載の移動体操作装置。
JP2011242822A 2011-11-04 2011-11-04 移動体操作装置 Active JP5855425B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011242822A JP5855425B2 (ja) 2011-11-04 2011-11-04 移動体操作装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011242822A JP5855425B2 (ja) 2011-11-04 2011-11-04 移動体操作装置

Publications (2)

Publication Number Publication Date
JP2013094944A true JP2013094944A (ja) 2013-05-20
JP5855425B2 JP5855425B2 (ja) 2016-02-09

Family

ID=48617441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011242822A Active JP5855425B2 (ja) 2011-11-04 2011-11-04 移動体操作装置

Country Status (1)

Country Link
JP (1) JP5855425B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59143681U (ja) * 1983-03-18 1984-09-26 トキコ株式会社 塗装用ロボツトのテイ−チング装置
JPS62192603A (ja) * 1986-02-14 1987-08-24 ユニメーション・インコーポレーテッド 位置探知/追跡装置
US4724480A (en) * 1985-05-02 1988-02-09 Robotic Vision Systems, Inc. Method for optical alignment of one object with respect to another
JPH07132472A (ja) * 1993-11-09 1995-05-23 Mitsubishi Heavy Ind Ltd 複数距離センサによる接近手法
JP2001277159A (ja) * 2000-04-03 2001-10-09 Sony Corp 脚式移動ロボット及びその制御方法、並びに、脚式移動ロボット用相対移動測定センサ
JP2003150219A (ja) * 2001-11-12 2003-05-23 Fanuc Ltd 作業機械のシミュレーション装置
JP2003200372A (ja) * 2001-10-23 2003-07-15 Fuji Electric Co Ltd 遠隔制御型切断ロボット
JP2005297100A (ja) * 2004-04-08 2005-10-27 Fujinon Corp ロボット用マニピュレータ

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59143681U (ja) * 1983-03-18 1984-09-26 トキコ株式会社 塗装用ロボツトのテイ−チング装置
US4724480A (en) * 1985-05-02 1988-02-09 Robotic Vision Systems, Inc. Method for optical alignment of one object with respect to another
JPS62192603A (ja) * 1986-02-14 1987-08-24 ユニメーション・インコーポレーテッド 位置探知/追跡装置
JPH07132472A (ja) * 1993-11-09 1995-05-23 Mitsubishi Heavy Ind Ltd 複数距離センサによる接近手法
JP2001277159A (ja) * 2000-04-03 2001-10-09 Sony Corp 脚式移動ロボット及びその制御方法、並びに、脚式移動ロボット用相対移動測定センサ
JP2003200372A (ja) * 2001-10-23 2003-07-15 Fuji Electric Co Ltd 遠隔制御型切断ロボット
JP2003150219A (ja) * 2001-11-12 2003-05-23 Fanuc Ltd 作業機械のシミュレーション装置
JP2005297100A (ja) * 2004-04-08 2005-10-27 Fujinon Corp ロボット用マニピュレータ

Also Published As

Publication number Publication date
JP5855425B2 (ja) 2016-02-09

Similar Documents

Publication Publication Date Title
CN109940267B (zh) 校准方法和校准装置
JP7155660B2 (ja) ロボット制御装置およびロボットシステム
JP2017100240A (ja) 制御装置、ロボットおよびロボットシステム
JP7135496B2 (ja) 三次元計測装置、制御装置およびロボットシステム
US20140218480A1 (en) Hand held portable three dimensional scanner
US20160073091A1 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US20130133168A1 (en) Profile measuring apparatus, structure manufacturing system, method for measuring profile, method for manufacturing structure, and non-transitory computer readable medium
JP2008116919A (ja) 撮像システム、方法及びこれらのアクセサリ
JP2014055810A (ja) 形状測定装置及びこれに組み込まれるプログラム並びにこれを記憶した記録媒体
JP2011251384A (ja) 移載装置
US20190320886A1 (en) Endoscope apparatus
JP6279048B2 (ja) 形状測定装置
CN111982010A (zh) 一种孔的光学成像和扫描装置
JP5855425B2 (ja) 移動体操作装置
CN111163683A (zh) 眼科设备
JP2011062786A (ja) レーザセンサ制御装置及びレーザセンサ制御方法
JP5775533B2 (ja) チップダイを取り上げて載置するシステムおよび方法
JP3941631B2 (ja) 三次元撮像装置および方法
US20190290384A1 (en) Medical observation system
US11074689B2 (en) Medical image processing device and medical observation system
JP2000263273A (ja) Yagレーザ加工機のティーチング方法及びその装置
JP6702343B2 (ja) 形状測定装置、構造物製造システム、及び形状測定方法
US20180281192A1 (en) Autonomous mobile system
JP5378966B2 (ja) ロボット
US20040017886A1 (en) Method and apparatus for three-dimensional surface morphometry

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150507

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151209

R150 Certificate of patent or registration of utility model

Ref document number: 5855425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250