JP2018130819A - 表示制御装置およびロボット制御装置 - Google Patents
表示制御装置およびロボット制御装置 Download PDFInfo
- Publication number
- JP2018130819A JP2018130819A JP2017042192A JP2017042192A JP2018130819A JP 2018130819 A JP2018130819 A JP 2018130819A JP 2017042192 A JP2017042192 A JP 2017042192A JP 2017042192 A JP2017042192 A JP 2017042192A JP 2018130819 A JP2018130819 A JP 2018130819A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- movement information
- information
- control unit
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】簡単な操作で遠隔操作が可能な安価なロボット制御装置、およびそのようなロボット制御装置に好適に適用可能な表示制御装置を提供する。【解決手段】表示制御装置は、一定の速度で所定の方向に移動する複数の物体を含む映像が画面に映し出されている時にユーザが画面の一部を選択すると、画面上の選択位置またはその近傍にマーカを映像に重ねて表示させる映像信号を生成し、さらに、画面上での物体の移動速度と同じ速度で、画面上での物体の移動方向と同じ方向に、マーカを画面上で移動させる映像信号を生成する表示制御部を備えている。【選択図】図9
Description
本発明は、表示制御装置およびロボット制御装置に関する。
建設および建物解体の工事現場では、不要なコンクリート塊が排出される。排出されたコンクリート塊は、所定の破砕施設に受け入れられ、施設内の破砕プラントによって破砕される。破砕物の粒度の調節や、破砕物に含まれる混入物の除去がなされたものが、再生砕石として販売される。再生砕石については、例えば、下記の国土交通省のホームページなどに記載されている。
http://www.mlit.go.jp/kowan/recycle/2/04.pdf
破砕プラントにおいて、コンクリート塊は一次破砕処理装置に投入され、一次破砕処理がなされたコンクリート塊は、ベルトコンベアに乗って、混入物除去工程に向かう。混入物除去工程は、再生砕石の品質管理工程において最も重要な工程である。そのため、混入物除去工程では、人の目と手で、破砕物に含まれる混入物の除去が行われる。
このように、混入物の除去には、人手が不可欠である。しかし、混入物除去工程では、採光、風除、雨避けが考慮された建物内での作業となる。作業場としての建物は、例えば、鉄骨に、塩化ビニール製の波板トタンが貼り付けられた程度の貧弱なものであることが多い。そのため、夏には、建物内がサウナに近い暑さとなり、冬には、鉄材の冷えで建物内が底冷えする。さらに、粉じん抑制のために、散水が常に行われているので、濡れた混入物で手が冷えやすい。このように、混入物除去工程では、作業環境が良くない。
将来の人材確保の観点からは、良好な作業環境下で混入物除去を行えるようにすることが好ましい。良好な作業環境を実現するためには、例えば、混入物除去をロボットによる遠隔操作によって行うことが考えられる。しかし、従来のロボット制御装置は、操作が複雑であったり、高価格であったりと、混入物除去工程にはあまり適していなかった。
また、混入物除去とは全く別の分野であっても、操作が複雑であったり、高価格であったりと、目的にあまり適さないロボット制御装置しか提供されていないという問題があった。
従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置、およびそのようなロボット制御装置に好適に適用可能な表示制御装置を提供することが望ましい。
本発明の一実施形態に係る表示制御装置は、一定の速度で所定の方向に移動する複数の物体を含む映像が画面に映し出されている時にユーザが画面の一部を選択すると、画面上の選択位置またはその近傍にマーカを映像に重ねて表示させる映像信号を生成する表示制御部を備えている。この表示制御部は、さらに、画面上での物体の移動速度と同じ速度で、画面上での物体の移動方向と同じ方向に、マーカを画面上で移動させる映像信号を生成する。
本発明の一実施形態に係る表示制御装置では、映像が画面に映し出されている時にユーザが画面の一部を選択すると、画面上の選択位置またはその近傍にマーカを映像に重ねて表示させる映像信号が生成される。これにより、ユーザは、例えば、映像中に発見した対象物に目印を付けることができる。また、この表示制御装置では、画面上での物体の移動速度と同じ速度で、画面上での物体の移動方向と同じ方向に、マーカを画面上で移動させる映像信号が生成される。これにより、ユーザは、例えば、目印を付けた対象物が画面上のどこにあるかをリアルタイムに把握することができる。なお、この表示制御装置で得られた、画面上の選択位置の座標と、物体の移動情報とに基づいて、ロボットアームを制御することで、ロボットアームによって対象物を回収したり、この表示制御装置から出力された映像信号に基づいて得られる映像をユーザが見ながら、ロボットアームを操作することで、ロボットアームによって対象物を回収したりすることが可能となる。
本発明の一実施形態に係るロボット制御装置は、表示制御部と、ロボットアーム制御部とを備えている。表示制御部は、一定の速度で所定の方向に移動する複数の物体を含む映像が画面に映し出されている時にユーザが画面の一部を選択すると、画面上の選択位置またはその近傍にマーカを映像に重ねて表示させる映像信号を生成する。表示制御部は、さらに、画面上での物体の移動速度と同じ速度で、画面上での物体の移動方向と同じ方向に、マーカを画面上で移動させる映像信号を生成する。ロボットアーム制御部は、前記画面上の選択位置の座標と、物体の移動情報とに基づいて、複数の物体のうち実位置にあった対象物をロボットアームによって回収する制御信号を生成する。
本発明の一実施形態に係るロボット制御装置では、映像が画面に映し出されている時にユーザが画面の一部を選択すると、画面上の選択位置またはその近傍にマーカを映像に重ねて表示させる映像信号が生成される。これにより、ユーザは、例えば、映像中に発見した対象物に目印を付けることができる。また、このロボット制御装置では、画面上での物体の移動速度と同じ速度で、画面上での物体の移動方向と同じ方向に、マーカを画面上で移動させる映像信号が生成される。これにより、ユーザは、例えば、目印を付けた対象物が画面上のどこにあるかをリアルタイムに把握することができる。また、このロボット制御装置では、画面上の選択位置の座標と、物体の移動情報とに基づいて、複数の物体のうち実位置にあった対象物をロボットアームによって回収する制御信号が生成される。これにより、ユーザは、例えば、画面に触れて、映像中の対象物に目印を付けることで、ロボットアームに対して、対象物の回収を指示することができる。このように、このロボット制御装置では、例えば、ユーザに画面をタッチさせたり、マウス操作をさせたり、トラックボール操作をさせたりするだけで、ロボットアームに対して、対象物の回収を指示することができる。
本発明の一実施形態に係る表示制御装置およびロボット制御装置が、あらかじめ設定された移動情報を記憶する記憶部をさらに備えていてもよい。この場合に、記憶部内の移動情報が物体の画面上での移動情報と等価であるときには、表示制御部は、画面上の選択位置の座標と、記憶部から読み出した移動情報とを用いることによりマーカの画面上での位置を導出してもよい。このようにした場合には、映像中の対象物の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、映像中で移動する対象物にマーカを追従させることができる。なお、このとき、記憶部内の移動情報は、例えば、物体の画面上での移動速度もしくは移動距離と等価である。
また、記憶部内の移動情報が物体の実位置での移動情報と等価であるときには、表示制御部は、画面上の選択位置の座標と、記憶部から読み出した移動情報に基づいて導出した物体の画面上での移動情報とを用いることによりマーカの画面上での位置を導出してもよい。このようにした場合には、映像中の対象物の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、映像中で移動する対象物にマーカを追従させることができる。なお、このとき、記憶部内の移動情報は、例えば、物体の実位置での移動速度もしくは移動距離と等価である。
また、本発明の一実施形態に係るロボット制御装置において、記憶部内の移動情報が物体の画面上での移動情報と等価であるときには、ロボットアーム制御部は、画面上の選択位置に基づいて導出した画面上の選択位置に対応する実位置の座標と、記憶部から読み出した移動情報に基づいて導出した物体の実位置での移動情報とを用いることにより制御信号を生成してもよい。このようにした場合には、映像中の対象物の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、対象物をロボットアームによって回収することができる。なお、このとき、記憶部内の移動情報は、例えば、物体の画面上での移動速度もしくは移動距離と等価である。
また、本発明の一実施形態に係るロボット制御装置において、記憶部内の移動情報が物体の実位置での移動情報と等価であるときには、ロボットアーム制御部は、画面上の選択位置に基づいて導出した画面上の選択位置に対応する実位置の座標と、記憶部から読み出した移動情報とを用いることにより制御信号を生成してもよい。このようにした場合には、映像中の対象物の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、対象物をロボットアームによって回収することができる。なお、このとき、記憶部内の移動情報は、例えば、物体の実位置での移動速度もしくは移動距離と等価である。
本発明の一実施形態に係るロボット制御装置において、ロボットアーム制御部は、ユーザが画面内でスライド動作を行ったとき、もしくは、ユーザが画面内でフリック動作を行ったときに、スライド動作の延在方向と交差する方向、もしくは、フリック動作のフリック方向と交差する方向から、対象物を挟む制御信号を生成してもよい。このようにした場合には、簡単な操作で、映像中の対象物の形状もしくは長軸方向の向きを入力することができる。
本発明の一実施形態に係るロボット制御装置において、ロボットアーム制御部は、画面上の選択位置と、物体の移動情報とに基づいて、対象物が目標位置に到達する到達時刻を推定し、推定した到達時刻に対象物を目標位置でロボットアームによって回収してもよい。このようにした場合には、映像中の対象物の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、対象物を回収することができる。
本発明の一実施形態に係る表示制御装置によれば、例えば、この表示制御装置で得られた、画面上の選択位置の座標と、物体の移動情報とに基づいて、ロボットアームを制御することで、ロボットアームによって対象物を回収したり、この表示制御装置から出力された映像信号に基づいて得られる映像をユーザが見ながら、ロボットアームを操作することで、ロボットアームによって対象物を回収したりすることができるようにしたので、簡単な操作で遠隔操作が可能な安価なロボット制御装置を提供することができる。また、各請求項に記載の構成とすることによっても、簡単な操作で遠隔操作が可能な安価なロボット制御装置を提供することができる。
本発明の一実施形態に係るロボット制御装置によれば、例えば、ユーザに画面をタッチさせたり、マウス操作をさせたり、トラックボール操作をさせたりするだけで、ロボットアームに対して、対象物の回収を指示することができるようにしたので、簡単な操作で遠隔操作が可能な安価なロボット制御装置を提供することができる。また、各請求項に記載の構成とすることによっても、簡単な操作で遠隔操作が可能な安価なロボット制御装置を提供することができる。
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
[構成]
図1は、破砕施設100の概略構成の一例を表したものである。破砕施設100は、建設および建物解体の工事現場から排出された不要なコンクリート塊111を受け入れ、受け入れたコンクリート塊111を、一次破砕処理装置130および二次破砕処理装置150によって破砕し、それによって生成された砕石113を、再生砕石として販売する。
図1は、破砕施設100の概略構成の一例を表したものである。破砕施設100は、建設および建物解体の工事現場から排出された不要なコンクリート塊111を受け入れ、受け入れたコンクリート塊111を、一次破砕処理装置130および二次破砕処理装置150によって破砕し、それによって生成された砕石113を、再生砕石として販売する。
コンクリート塊111は、コンクリート集積場110で一時、保管される。一次破砕処理装置130には、コンクリート塊111の投入口であるホッパー131が設けられている。ホッパー131には、例えば、パワーショベル120によって、コンクリート塊111が投入される。ホッパー131に投入されたコンクリート塊111は、一次破砕処理装置130によって細かく砕かれ、砕石112となる。砕石112は、一次破砕処理装置130の排出口から排出される。一次破砕処理装置130の排出口には、ベルトコンベア140が配置されており、一次破砕処理装置130から排出された砕石112は、ベルトコンベア140を介して、二次破砕処理装置150のホッパー151に投入される。ホッパー151に投入された砕石112は、二次破砕処理装置150によってさらに細かく砕かれ、砕石113となる。二次破砕処理装置150の排出口には、ベルトコンベア160が配置されており、二次破砕処理装置150から排出された砕石113は、ベルトコンベア160を介して、砕石集積場170で一時、保管される。このようにして製造された砕石113が、再生砕石として販売される。
ところで、破砕施設100は、砕石113の品質が所定の基準を満たすようにするための品質管理工程を備えている。この品質管理工程は、破砕施設100における混入物除去建屋180および遠隔操作建屋190内で行われる。
混入物除去建屋180は、ベルトコンベア140の中途に設けられている。混入物除去建屋180内には、例えば、図2に示したように、複数台(例えば3台)のカメラ210と、ロボットアーム220とが設けられている。複数台のカメラ210は、ベルトコンベア140に沿って一列に並んで配置されている。ベルトコンベア140のベルトは、図2中の矢印の向きに一定の速度で移動する。ベルトコンベア140のベルト上には、砕石112が載置されている。砕石112は、ベルトコンベア140のベルトの移動に伴って、図2中の矢印の向きに一定の速度で移動する。ベルトコンベア140のベルト上には、砕石112とは異なる物体である対象物114が混入している。対象物114は、ベルトコンベア140のベルトの移動に伴って、図2中の矢印の向きに一定の速度で移動する。対象物114としては、例えば、木の根、木の切れ端、ゴムシート片、プラスチック片、非鉄金属片、ロープ片などが挙げられる。
各カメラ210は、ベルトコンベア140上の所定の箇所を動画撮影し、撮影により得られた映像211を出力する。それぞれのカメラ210での撮影により得られた複数の映像211をつなぎあわせると、連続した1つの映像となる。ロボットアーム220は、後述のロボットアーム制御部270から出力される制御信号271に従って動作する。ロボットアーム220は、例えば、制御信号271に基づいて、対象物114が目標位置Ltに到達したときに、対象物114を回収する(例えば、つかみ取る)。なお、連続した1つの映像の中に目標位置Ltが含まれるように、各カメラ210が配置されていてもよい。
遠隔操作建屋190は、混入物除去建屋180とは別の建物である。遠隔操作建屋190内には、例えば、図2に示したように、ロボット制御装置200Aと、複数台(例えば3台)の表示部230とが設けられている。表示部230の数は、カメラ210の数と同じである。複数台の表示部230は、横一列に並んで配置されている。各表示部230は、映像211を表示する画面231を有している。各表示部230は、後述の表示制御部250から出力される映像信号251に基づいて、映像211を画面231に表示する。画面231は、タッチ検出機能を有している。各表示部230は、ユーザによる画面231へのタッチ動作により、所望の入力を受け付ける。タッチ機能は、例えば、抵抗膜方式、静電容量方式、電磁誘導方式、超音波表面弾性波方式、赤外線走査方式、TFT液晶セル内蔵方式等のタッチ検出機構により構成されている。各表示部230は、後述のタッチ検出部260から出力される駆動信号によってタッチ検出機構が駆動されている時に、ユーザが指やタッチペンなどで画面231に触れることにより、画面231へのタッチ位置およびタッチ方法に応じた検出信号232を出力する。なお、ロボット制御装置200Aについては、後に詳述する。
図2は、ロボット制御システム200の概略構成の一例を表したものである。ロボット制御システム200は、例えば、混入物除去建屋180内に設けられた複数台のカメラ210およびロボットアーム220と、遠隔操作建屋190内に設けられたロボット制御装置200Aおよび複数台の表示部230とを備えている。つまり、ロボット制御システム200は、破砕施設100における品質管理工程を実現するための設備である。
複数台のカメラ210、ロボットアーム220およびロボット制御装置200Aは、ネットワーク290を介して相互に接続される。ネットワーク290は、例えば、インターネットで標準的に利用されている通信プロトコル(TCP/IP)を用いて通信を行うネットワークである。ネットワーク290は、例えば、そのネットワーク独自の通信プロトコルを用いて通信を行うセキュアなネットワークであってもよい。ネットワーク290は、例えば、インターネット、イントラネット、または、ローカルエリアネットワークである。ネットワーク100と、複数台のカメラ210、ロボットアーム220またはロボット制御装置200Aとの接続は、例えば、有線LAN(Local Area Network)であってもよいし、Wi−Fi等の無線LANや、携帯電話回線などであってもよい。
ロボット制御装置200Aは、例えば、記憶部240、表示制御部250、タッチ検出部260、ロボットアーム制御部270および通信部280を備えている。
記憶部240は、あらかじめ設定された速度情報を記憶している。記憶部240に記憶された速度情報は、砕石112の画面231上での移動速度としてあらかじめ設定された値である。つまり、記憶部240に記憶された速度情報は、砕石112の画面231上での移動速度と等価である。記憶部240に記憶された速度情報は、砕石112の画面231上での移動方向についての情報(方向情報)も含んでいる。記憶部240に記憶された速度情報は、例えば、速度のx方向成分およびy方向成分を含む。記憶部240は、記憶部240に記憶された速度情報を、表示制御部250に対して設定情報241として出力する。
表示制御部250は、複数台の表示部230における映像表示を制御する。表示制御部250は、複数台のカメラ211からの映像データ(映像211)に基づいて映像信号251を生成する。表示制御部250は、それぞれのカメラ210での撮影により得られた複数の映像211を複数台の表示部230に表示させたときに、連続した1つの映像となるように、複数台の表示部230に対して映像信号251を出力する。
表示制御部250は、例えば、ベルトコンベア140における相対的に一番上流の位置を撮影するカメラ210からの映像データ(映像211)に基づいて生成した映像信号251を、複数台の表示部230のうち一番左にある表示部230に出力する。表示制御部250は、例えば、ベルトコンベア140における相対的に一番下流の位置を撮影するカメラ210からの映像データ(映像211)に基づいて生成した映像信号251を、複数台の表示部230のうち一番右にある表示部230に出力する。表示制御部250は、例えば、ベルトコンベア140における相対的に真ん中の位置を撮影するカメラ210からの映像データ(映像211)に基づいて生成した映像信号251を、複数台の表示部230のうち真ん中にある表示部230に出力する。
表示制御部250は、一定の速度で所定の方向に移動する複数の物体(砕石112および対象物114)を含む映像211が画面231に映し出されている時にユーザが画面231の一部を選択すると、画面231上の選択位置またはその近傍にマーカ233を映像211に重ねて表示させる映像信号251(映像信号251’)を生成する。表示制御部250は、例えば、一定の速度で所定の方向に移動する複数の物体(砕石112および対象物114)を含む映像211が画面231に映し出されている時にユーザが画面231の一部に触れると、例えば、図3(A)に示したように、画面231上の接触位置またはその近傍にマーカ233を有する映像211Aを、ユーザが画面231に触れた時(時刻t1)に得られた映像211に重ねて表示させる映像信号251(映像信号251’)を生成する。表示制御部250は、例えば、図4に示したように、映像信号251(映像信号251’)に基づいて生成した映像を時刻t1の映像として表示部230に表示させる。マーカ233は、例えば、図4に示したように、映像211の中で映える色(例えば、赤色)の二重丸で表現されている。なお、図4には、マーカ233が対象物114上に配置されている様子が例示されている。
表示制御部250は、例えば、タッチ検出部260から取得したタッチ情報261と、複数台のカメラ211からの映像データ(映像211)とに基づいて、映像信号251(映像信号251’)を生成する。タッチ情報261は、ユーザが画面231に触れたときの、画面231上での接触位置についての情報(例えば、座標データ)を含む、タッチ情報261は、画面231上での接触位置についての情報として、例えば、x座標データ(x0)と、y座標データ(y0)とを含む。
表示制御部250は、さらに、物体(砕石112)の画面231上での移動速度と同じ速度で、物体(砕石112)の画面231上での移動方向と同じ方向に、マーカ233を画面231上で移動させる映像信号251(映像信号251’’)を生成する。表示制御部250は、例えば、図3(B)に示したように、時刻t1のマーカ233を、物体(砕石112)の画面231上での移動速度と同じ速度で、物体(砕石112)の画面231上での移動方向と同じ方向に時刻t2(時刻t1よりも後の時刻)まで移動させた映像211Aを映像211に重ねて表示させる映像信号251(映像信号251’’)を生成する。表示制御部250は、例えば、図5に示したように、映像信号251(映像信号251’’)に基づいて生成した映像を時刻t2に表示部230に表示させる。なお、図5には、マーカ233が対象物114に追従して移動している様子が例示されている。
表示制御部250は、例えば、タッチ情報261に基づいて生成したマーカ移動情報252と、複数台のカメラ211からの映像データ(映像211)とに基づいて、映像信号251(映像信号251’’)を生成する。マーカ移動情報252は、マーカ233を画面231上に表示させた後、マーカ233を画面231上で移動させるために必要となる情報(例えば、座標データ)である。つまり、マーカ移動情報252は、マーカ233を画面231上に表示させた後の、マーカ233の画面231上での位置情報(例えば、座標データ)である。
表示制御部250は、例えば、記憶部240から読み出した設定情報241と、タッチ検出部260から取得したタッチ情報261と、時刻情報251とを用いることにより、マーカ移動情報252を生成する。マーカ移動情報252は、例えば、x座標データ(x)と、y座標データ(y)とを含む。時刻情報251は、例えば、ユーザが画面231に触れた時刻と、映像信号251’’に基づいて映像211が画面231に表示される時刻との差分を表す時刻データΔtを含む。マーカ移動情報252に含まれる座標データ(x,y)は、例えば、以下のようにして導出される。
x=x0+Vx×Δt
y=y0+Vy×Δt
x:マーカ移動情報252に含まれるx座標データ
y:マーカ移動情報252に含まれるy座標データ
x0:タッチ情報261に含まれるx座標データ
y0:タッチ情報261に含まれるy座標データ
Vx:設定情報241に含まれる速度情報におけるx方向成分
Vy:設定情報241に含まれる速度情報におけるy方向成分
Δt:時刻情報251に含まれる時刻データ
x=x0+Vx×Δt
y=y0+Vy×Δt
x:マーカ移動情報252に含まれるx座標データ
y:マーカ移動情報252に含まれるy座標データ
x0:タッチ情報261に含まれるx座標データ
y0:タッチ情報261に含まれるy座標データ
Vx:設定情報241に含まれる速度情報におけるx方向成分
Vy:設定情報241に含まれる速度情報におけるy方向成分
Δt:時刻情報251に含まれる時刻データ
タッチ情報261に含まれる座標データが時刻t1におけるマーカ233の座標データに相当する場合、表示制御部250は、時刻t1からΔt1経過した後の時刻t2におけるマーカ233の座標データ(x1,y1)(図3(B)参照)を、例えば、以下のようにして導出する。
x1=x0+Vx×Δt1
y1=y0+Vy×Δt1
x1=x0+Vx×Δt1
y1=y0+Vy×Δt1
タッチ情報261が、ユーザによる画面231へのタッチ方法についての情報(例えば、向きデータ)を含んでいてもよい。この場合には、表示制御部250は、ユーザによる画面231へのタッチ方法に応じた態様のマーカ233を含む映像信号251(映像信号251’,映像信号251’’)を生成してもよい。タッチ方法の種類としては、例えば、タップ、スライド、フリックなどが挙げられる。
表示制御部250は、ユーザによる画面231へのタッチ方法についての情報として、タップを示す情報がタッチ情報261に含まれていた場合には、例えば、図3〜図5に示したように、マーカ233を二重丸で表現した映像信号251を生成する。表示制御部250は、ユーザによる画面231へのタッチ方法についての情報として、スライドまたはフリックを示す情報がタッチ情報261に含まれていた場合には、例えば、図6に示したように、二重丸と、スライド動作またはフリック動作の方向に対応する線分とが互いに重ね合わされた記号で表現した映像信号251を生成する。
タッチ情報261は、ユーザによる画面231へのタッチ方法についての情報として、例えば、x座標データ(xd)と、y座標データ(yd)とを含む。x座標データ(xd)は、ユーザによる画面231へのタッチが終了したときの、画面231上でのx座標データである。y座標データ(yd)は、ユーザによる画面231へのタッチが終了したときの、画面231上でのy座標データである。
ユーザによる画面231へのタッチ方法がタップであった場合には、向きデータは、例えば、x座標データ(x0)から所定の閾値を超えない範囲の値のx座標データ(xd)と、y座標データ(y0)から所定の閾値を超えない範囲の値のy座標データ(yd)とを含む。ユーザによる画面231へのタッチ方法がスライドまたはフリックであった場合には、向きデータは、例えば、x座標データ(x0)から所定の閾値以上離れた値のx座標データ(xd)と、y座標データ(y0)から所定の閾値以上離れた値のy座標データ(yd)とを含む。
表示制御部250は、例えば、x座標データ(x0)とx座標データ(xd)との差分、および、y座標データ(y0)とy座標データ(yd)との差分が所定の閾値を超えない場合には、タップを示す記号で表現されたマーカ233を含む映像信号251を生成する。表示制御部250は、x座標データ(x0)とx座標データ(xd)との差分、および、y座標データ(y0)とy座標データ(yd)との差分が所定の閾値以上の値となっている場合には、スライドまたはフリックを示す記号で表現されたマーカ233を含む映像信号251を生成する。
表示制御部250は、さらに、画面231上の接触位置(選択位置)に対応する実位置についての情報(実位置情報253)を導出する。実位置情報253は、対象物114の実位置についての情報に相当する。表示制御部250は、例えば、タッチ情報261に含まれる座標データ(x0,y0)に対応する実位置の座標データ(X0,Y0)(例えば図3(A)参照)を、実位置情報253として導出する。表示制御部250は、導出した実位置情報253と、設定情報241とをロボットアーム制御部270に出力する。なお、表示制御部250は、実位置情報253の代わりに、ユーザによる画面231上の接触位置についての情報をロボットアーム制御部270に出力してもよい。
表示制御部250は、さらに、スライドまたはフリックを示す情報がタッチ情報261に含まれていた場合には、例えば、タッチ情報261に基づいて、映像211内における、スライド動作の延在方向と交差する方向、もしくは、フリック動作のフリック方向と交差する方向を導出する。表示制御部250は、このようにして導出した方向を、対象物114をロボットアーム270で挟み込む矜持方向254として、ロボットアーム制御部270に出力する。
次に、タッチ検出部260について説明する。タッチ検出部260は、駆動信号を各表示部230のタッチ検出機構に出力することにより、各表示部230のタッチ検出機能を発現させる。タッチ検出部260は、タッチ検出機構を駆動している時に、各表示部230のタッチ検出機構から検出信号232を取得する。ユーザが指やタッチペンなどで画面231に触れると、触れた位置に応じた変位が検出信号232に現れる。タッチ検出部260は、検出信号232の変位を検知することにより、ユーザが触れた画面231上での接触位置についての情報(例えば、座標データ)を取得する。タッチ検出部260は、取得した情報を、タッチ情報261として、表示制御部250に出力する。タッチ情報261は、画面231上での接触位置についての情報として、例えば、x座標データ(x0)と、y座標データ(y0)とを含む。
次に、ロボットアーム制御部270について説明する。ロボットアーム制御部270は、表示制御部250から、実位置情報253と、設定情報241とを取得する。すると、ロボットアーム制御部270は、実位置情報253と、設定情報241とに基づいて、複数の物体(砕石112および対象物114)のうち実位置(実位置情報253に含まれる座標データ)にあった対象物114をロボットアーム220によって回収する制御信号271を生成する。ロボットアーム制御部270は、例えば、画面231上での接触位置についての情報(例えば、座標データ)と、設定情報241とに基づいて、対象物114が目標位置Ltに到達する到達時刻t0を推定する。ロボットアーム制御部270は、例えば、実位置情報253に含まれる座標データと、設定情報241に対応する実位置での移動速度とを用いることにより、対象物114が目標位置Ltに到達する到達時刻t0を推定する。ロボットアーム制御部270は、さらに、例えば、推定した到達時刻t0に対象物114を目標位置Ltでロボットアーム220によって回収する制御信号271を生成する。
なお、表示制御部250が、実位置情報253の代わりに、接触位置(選択位置)についての情報をロボットアーム制御部270に出力する場合には、ロボットアーム制御部270は、表示制御部250から、接触位置(選択位置)についての情報と、設定情報241とを取得する。このとき、ロボットアーム制御部270は、接触位置(選択位置)についての情報に基づいて、接触位置(選択位置)に対応する実位置についての情報(実位置情報253)を導出する。さらに、ロボットアーム制御部270は、導出した実位置情報253と、設定情報241とに基づいて、複数の物体(砕石112および対象物114)のうち実位置にあった対象物114をロボットアーム220によって回収する制御信号271を生成する。
ロボットアーム制御部270は、画面211上でスライドされたとき、もしくは、画面211がフリックされたときに、スライド動作の延在方向と交差する方向、もしくは、フリック動作のフリック方向と交差する方向から、対象物114を挟む制御信号271を生成してもよい。
ロボットアーム制御部270は、画面231上でスライドされたとき、もしくは、画面231がフリックされたときに、スライド動作の延在方向と交差する方向、もしくは、フリック動作のフリック方向と交差する方向から、対象物114を挟む制御信号271を生成する。ロボットアーム制御部270は、例えば、表示制御部250から矜持方向254が入力された場合には、矜持方向254に基づいて、対象物114を挟む制御信号271を生成する。
[動作]
次に、ロボット制御装置200Aの動作について説明する。図6は、ロボット制御装置200Aにおけるロボット制御手順の一例を表したものである。
次に、ロボット制御装置200Aの動作について説明する。図6は、ロボット制御装置200Aにおけるロボット制御手順の一例を表したものである。
表示制御部250は、あらかじめ、記憶部240から設定情報241を読み出しておく(ステップS101)。表示制御部250は、さらに、複数台のカメラ211からの映像データ(映像211)に基づいて映像信号251を生成し、生成した映像信号251を各表示部230に送信する。各表示部230は、映像信号251に基づく映像211を画面231に表示する。
その後、タッチ検出部260は、各表示部230のタッチ検出機構を駆動している時に、各表示部230のタッチ検出機構から検出信号232を取得すると、取得した検出信号232をタッチ情報261として表示制御部250に送信する(ステップS102)。表示制御部250は、タッチ情報261をタッチ検出部260から受信する(ステップS103)。
このとき、表示制御部250は、一定の速度で所定の方向に移動する複数の物体(砕石112および対象物114)を含む映像211が画面231に映し出されている時に、タッチ情報261を受信したとする。すると、表示制御部250は、受信したタッチ情報261と、複数台のカメラ211からの映像データ(映像211)とに基づいて、画面231上の接触位置またはその近傍にマーカ233を映像211に重ねて表示させる映像信号251(映像信号251’)を生成する(ステップS104)。表示制御部250は、生成した映像信号251(映像信号251’)を各表示部230に送信する(ステップS105)。
各表示部230は、映像信号251(映像信号251’)を表示制御部250から受信する(ステップS106)。各表示部230は、受信した映像信号251(映像信号251’)に基づいて、映像211を表示する(ステップS107)。
その後、表示制御部250は、ユーザによる画面231上の接触位置に対応する映像211内の実位置についての情報(実位置情報253)を導出する(ステップS108)。表示制御部250は、導出した実位置情報253と、設定情報241とをロボットアーム制御部270に送信する(ステップS109)。ロボットアーム制御部270は、実位置情報253と、設定情報241とを表示制御部250から受信する(ステップS110)。表示制御部250は、実位置情報253に含まれる座標データと、設定情報241とに基づいて、対象物114が目標位置Ltに到達する到達時刻t0を推定する(ステップS111)。ロボットアーム制御部270は、さらに、推定した到達時刻t0に対象物114を目標位置Ltでロボットアーム220によって回収する制御信号271を生成する(ステップS112)。ロボットアーム制御部270は、生成した制御信号271をロボットアーム220に送信する(ステップS113)。ロボットアーム220は、制御信号271をロボットアーム制御部270から受信する(ステップS114)。すると、ロボットアーム220は、制御信号271に基づいて、対象物114が目標位置Ltに到達したときに、対象物114を回収する(ステップS115)。このようにして、ユーザは、遠隔操作によってロボットアーム220を制御することによって、対象物114を回収することができる。
[効果]
次に、ロボット制御装置200Aの効果について説明する。
次に、ロボット制御装置200Aの効果について説明する。
建設および建物解体の工事現場では、不要なコンクリート塊が排出される。排出されたコンクリート塊は、所定の破砕施設に受け入れられ、施設内の破砕プラントによって破砕される。破砕物の粒度の調節や、破砕物に含まれる混入物の除去がなされたものが、再生砕石として販売される。破砕プラントにおいて、コンクリート塊は一次破砕処理装置に投入され、一次破砕処理がなされたコンクリート塊は、ベルトコンベアに乗って、混入物除去工程に向かう。混入物除去工程は、再生砕石の品質管理工程において最も重要な工程である。そのため、混入物除去工程では、人の目と手で、破砕物に含まれる混入物の除去が行われる。
このように、混入物の除去には、人手が不可欠である。しかし、混入物除去工程では、採光、風除、雨避けが考慮された建物内での作業となる。作業場としての建物は、例えば、鉄骨に、塩化ビニール製の波板トタンが貼り付けられた程度の貧弱なものであることが多い。そのため、夏には、建物内がサウナに近い暑さとなり、冬には、鉄材の冷えで建物内が底冷えする。さらに、粉じん抑制のために、散水が常に行われているので、濡れた混入物で手が冷えやすい。このように、混入物除去工程では、作業環境が良くない。
将来の人材確保の観点からは、良好な作業環境下で混入物除去を行えるようにすることが好ましい。良好な作業環境を実現するためには、例えば、混入物除去をロボットによる遠隔操作によって行うことが考えられる。しかし、従来のロボット制御装置は、操作が複雑であったり、高価格であったりと、混入物除去工程にはあまり適していなかった。
一方、本実施の形態に係るロボット制御装置200Aでは、映像211が各画面231に映し出されている時にユーザが画面231に触れると、画面231上の接触位置またはその近傍にマーカ233を映像211に重ねて表示させる映像信号251(映像信号251’)が生成される。これにより、ユーザは、例えば、映像211中に発見した対象物114(ゴミ)に目印を付けることができる。また、このロボット制御装置200Aでは、画面231上での砕石112の移動速度と同じ速度で、画面231上での砕石112の移動方向と同じ方向に、マーカ233を画面231上で移動させる映像信号251(映像信号251’’)が生成される。これにより、ユーザは、例えば、目印を付けた対象物114(ゴミ)が画面231上のどこにあるかをリアルタイムに把握することができる。また、このロボット制御装置200Aでは、画面231上の接触位置に対応する映像211内の実位置の座標(実位置情報253)と、移動速度(設定情報241)とに基づいて、複数の物体(砕石112および対象物114)のうち実位置にあった対象物114(ゴミ)をロボットアーム220によって回収する制御信号271が生成される。これにより、ユーザは、例えば、画面231に触れて、映像211中の対象物114に目印を付けることで、ロボットアーム220に対して、対象物114(ゴミ)の回収を指示することができる。このように、このロボット制御装置200Aでは、例えば、ユーザに画面231をタッチさせるだけで、ロボットアーム220に対して、対象物114の回収を指示することができる。従って、本実施の形態では、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
また、本実施の形態に係るロボット制御装置200Aでは、記憶部240から読み出した設定情報241を用いて、マーカ233の画面241上での位置が導出される。これにより、映像211中の対象物114の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、映像211中で移動する対象物114にマーカ233を追従させることができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
また、本実施の形態に係るロボット制御装置200Aでは、記憶部240から読み出した設定情報241に対応する実位置での速度情報を用いて、ロボットアーム220を制御する制御信号271が生成される。これにより、映像211中の対象物114の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、ロボットアーム220を制御することができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
また、本実施の形態に係るロボット制御装置200Aにおいて、ロボットアーム制御部270は、画面231上でスライドされたとき、もしくは、画面231がフリックされたときに、スライド動作の延在方向と交差する方向、もしくは、フリック動作のフリック方向と交差する方向から、対象物114を挟む制御信号271を生成する場合には、簡単な操作で、映像211中の対象物114の形状もしくは長軸方向の向きを入力することができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
また、本実施の形態に係るロボット制御装置200Aにおいて、ロボットアーム制御部270は、画面231上の接触位置に対応する映像211内の(実位置情報253)と、と、記憶部240から読み出した移動速度(設定情報241)とに基づいて、対象物114が目標位置Ltに到達する到達時刻t0を推定し、推定した到達時刻t0に対象物114を目標位置Ltでロボットアーム270によって回収する場合には、映像211中の対象物114の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、対象物114を回収することができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
<2.変形例>
[変形例A]
本実施の形態に係るロボット制御装置200Aにおいて、表示制御部250は、ロボットアーム270による回収が行われた際に、マーカ233を画面231から消去する映像信号251、または、マーカ233の表示色を別の色に変えた映像信号251を生成してもよい。この場合には、複雑な作業をしなくても画面231を見ているだけで、対象物114の回収の完了を知ることができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
[変形例A]
本実施の形態に係るロボット制御装置200Aにおいて、表示制御部250は、ロボットアーム270による回収が行われた際に、マーカ233を画面231から消去する映像信号251、または、マーカ233の表示色を別の色に変えた映像信号251を生成してもよい。この場合には、複雑な作業をしなくても画面231を見ているだけで、対象物114の回収の完了を知ることができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
[変形例B]
また、本実施の形態に係るロボット制御装置200Aにおいて、表示制御部250は、ロボットアーム270による回収が行われる前に、対象物114が移動により画面231から消えてしまった場合に、画面231から消えた対象物114に対応して表示されていたマーカ233を画面231のどこかに表示させておき、ロボットアーム270による回収が行われた際に、マーカ233を画面231から消去する映像信号251を生成してもよい。この場合には、複雑な作業をしなくても画面231を見ているだけで、対象物114の回収の完了を知ることができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
また、本実施の形態に係るロボット制御装置200Aにおいて、表示制御部250は、ロボットアーム270による回収が行われる前に、対象物114が移動により画面231から消えてしまった場合に、画面231から消えた対象物114に対応して表示されていたマーカ233を画面231のどこかに表示させておき、ロボットアーム270による回収が行われた際に、マーカ233を画面231から消去する映像信号251を生成してもよい。この場合には、複雑な作業をしなくても画面231を見ているだけで、対象物114の回収の完了を知ることができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
[変形例C]
上記実施の形態およびその変形例では、表示部230の数が、カメラ210の数と同じとなっていた。しかし、表示部230の数が、カメラ210の数と異なっていてもよい。表示部230の数が、カメラ210の数よりも少ない場合には、表示制御部250は、ある表示部230に対して、複数のカメラ210から得られた複数の映像211を連結させた状態で画面231に表示させる映像信号251を出力してもよい。また、表示部230の数が、カメラ210の数よりも多い場合には、表示制御部250は、特定の表示部230に対して、特定のカメラ210から得られた映像211の一部を画面231に表示させる映像信号251を出力するとともに、特定の表示部230に隣接する表示部230に対して、特定のカメラ210から得られた映像211の残りの部分を画面231に表示させる映像信号251を出力してもよい。
上記実施の形態およびその変形例では、表示部230の数が、カメラ210の数と同じとなっていた。しかし、表示部230の数が、カメラ210の数と異なっていてもよい。表示部230の数が、カメラ210の数よりも少ない場合には、表示制御部250は、ある表示部230に対して、複数のカメラ210から得られた複数の映像211を連結させた状態で画面231に表示させる映像信号251を出力してもよい。また、表示部230の数が、カメラ210の数よりも多い場合には、表示制御部250は、特定の表示部230に対して、特定のカメラ210から得られた映像211の一部を画面231に表示させる映像信号251を出力するとともに、特定の表示部230に隣接する表示部230に対して、特定のカメラ210から得られた映像211の残りの部分を画面231に表示させる映像信号251を出力してもよい。
[変形例D]
上記実施の形態およびその変形例では、ユーザインターフェースとして表示部230のタッチ機能が用いられていた。しかし、上記実施の形態およびその変形例において、ユーザインターフェースとして他の機能が用いられてもよい。例えば、上記実施の形態およびその変形例において、ロボット制御装置200Aが、例えば、マウスやトラックボールなどの、ユーザが手を動かすことによって情報入力可能なデバイスを備えていてよい。
上記実施の形態およびその変形例では、ユーザインターフェースとして表示部230のタッチ機能が用いられていた。しかし、上記実施の形態およびその変形例において、ユーザインターフェースとして他の機能が用いられてもよい。例えば、上記実施の形態およびその変形例において、ロボット制御装置200Aが、例えば、マウスやトラックボールなどの、ユーザが手を動かすことによって情報入力可能なデバイスを備えていてよい。
この場合、表示制御部250は、一定の速度で所定の方向に移動する複数の物体(砕石112および対象物114)を含む映像211が画面231に映し出されている時にユーザが、上述のデバイスを用いて、画面231の一部を選択すると、画面231上の選択位置またはその近傍にマーカ233を映像211に重ねて表示させる映像信号251(映像信号251’)を生成する。表示制御部250は、例えば、図4に示したように、映像信号251(映像信号251’)に基づいて生成した映像を時刻t1に表示部230に表示させる。
表示制御部250は、例えば、上述のデバイスから取得した位置情報262と、複数台のカメラ211からの映像データ(映像211)とに基づいて、映像信号251(映像信号251’)を生成する。位置情報262は、ユーザが上述のデバイスを用いて、画面231の一部を選択したときの、画面231上での選択位置についての情報(例えば、座標データ)を含む。位置情報262は、画面231上での選択位置についての情報として、例えば、x座標データ(x0)と、y座標データ(y0)とを含む。
表示制御部250は、例えば、記憶部240から読み出した設定情報241と、上述のデバイスから取得した位置情報262と、時刻情報251とを用いることにより、マーカ移動情報252を生成する。時刻情報251は、例えば、ユーザが画面231の一部を選択した時刻と、映像信号251’’に基づいて映像211が画面231に表示される時刻との差分を表す時刻データΔtを含む。マーカ移動情報252に含まれる座標データ(x,y)は、例えば、以下のようにして導出される。
x=x0+Vx×Δt
y=y0+Vy×Δt
x:マーカ移動情報252に含まれるx座標データ
y:マーカ移動情報252に含まれるy座標データ
x0:位置情報262に含まれるx座標データ
y0:位置情報262に含まれるy座標データ
Vx:設定情報241に含まれる速度情報におけるx方向成分
Vy:設定情報241に含まれる速度情報におけるy方向成分
Δt:時刻情報251に含まれる時刻データ
x=x0+Vx×Δt
y=y0+Vy×Δt
x:マーカ移動情報252に含まれるx座標データ
y:マーカ移動情報252に含まれるy座標データ
x0:位置情報262に含まれるx座標データ
y0:位置情報262に含まれるy座標データ
Vx:設定情報241に含まれる速度情報におけるx方向成分
Vy:設定情報241に含まれる速度情報におけるy方向成分
Δt:時刻情報251に含まれる時刻データ
位置情報262が、ユーザによる画面231の一部の選択方法についての情報(例えば、向きデータ)を含んでいてもよい。この場合には、表示制御部250は、ユーザによる画面231の一部の選択方法に応じた態様のマーカ233を含む映像信号251(映像信号251’,映像信号251’’)を生成してもよい。選択方法の種類としては、例えば、クリック、スライド、フリックなどが挙げられる。
表示制御部250は、ユーザによる画面231の一部の選択方法についての情報として、クリックを示す情報が位置情報262に含まれていた場合には、例えば、図3〜図5に示したように、マーカ233を二重丸で表現した映像信号251を生成する。表示制御部250は、ユーザによる画面231の一部の選択方法についての情報として、スライドまたはフリックを示す情報が位置情報262に含まれていた場合には、例えば、図6に示したように、二重丸と、スライド動作またはフリック動作の方向に対応する線分とが互いに重ね合わされた記号で表現した映像信号251を生成する。
位置情報262は、ユーザによる画面231の一部の選択方法についての情報として、例えば、x座標データ(xd)と、y座標データ(yd)とを含む。x座標データ(xd)は、ユーザによる画面231の一部の選択が終了したときの、画面231上でのx座標データである。y座標データ(yd)は、ユーザによる画面231の一部の選択が終了したときの、画面231上でのy座標データである。
ユーザによる画面231の一部の選択方法がクリックであった場合には、向きデータは、例えば、x座標データ(x0)から所定の閾値を超えない範囲の値のx座標データ(xd)と、y座標データ(y0)から所定の閾値を超えない範囲の値のy座標データ(yd)とを含む。ユーザによる画面231の一部の選択方法がスライドおよびフリックであった場合には、向きデータは、例えば、x座標データ(x0)から所定の閾値以上離れた値のx座標データ(xd)と、y座標データ(y0)から所定の閾値以上離れた値のy座標データ(yd)とを含む。
表示制御部250は、x座標データ(x0)とx座標データ(xd)との差分、および、y座標データ(y0)とy座標データ(yd)との差分が所定の閾値を超えない場合には、クリックを示す記号で表現されたマーカ233を含む映像信号251を生成する。表示制御部250は、x座標データ(x0)とx座標データ(x1)との差分、および、y座標データ(y0)とy座標データ(yd)との差分が所定の閾値以上の値となっている場合には、スライドまたはフリックを示す記号で表現されたマーカ233を含む映像信号251を生成する。
表示制御部250は、さらに、ユーザによる画面231の選択位置に対応する実位置についての情報(実位置情報253)を導出する。実位置情報253は、対象物114の実位置についての情報に相当する。表示制御部250は、例えば、位置情報262に含まれる座標データ(x0,y0)に対応する実位置の座標データ(X0,Y0)を、実位置情報253として導出する。表示制御部250は、導出した実位置情報253と、設定情報241とをロボットアーム制御部270に出力する。なお、表示制御部250は、実位置情報253の代わりに、ユーザによる画面231上の選択位置についての情報をロボットアーム制御部270に出力してもよい。
表示制御部250は、さらに、スライドまたはフリックを示す情報が位置情報262に含まれていた場合には、例えば、位置情報262に基づいて、映像211内における、スライド動作の延在方向と交差する方向、もしくは、フリック動作のフリック方向と交差する方向を導出する。表示制御部250は、このようにして導出した方向を、対象物114をロボットアーム270で挟み込む矜持方向254として、ロボットアーム制御部270に出力する。
このように、本変形例では、ユーザインターフェースとして、マウスやトラックボールなどの、ユーザが手を動かすことによって情報入力可能なデバイスが用いられる。このようにした場合であっても、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
[変形例E]
上記実施の形態およびその変形例では、記憶部240には、砕石112の画面231上での移動速度と等価な情報が速度情報として記憶されていた。しかし、上記実施の形態およびその変形例において、記憶部240には、砕石112の実位置での移動速度と等価な情報が速度情報として記憶されていてもよい。つまり、この場合は、記憶部240に記憶された速度情報は、砕石112の実位置での移動速度と等価である。
上記実施の形態およびその変形例では、記憶部240には、砕石112の画面231上での移動速度と等価な情報が速度情報として記憶されていた。しかし、上記実施の形態およびその変形例において、記憶部240には、砕石112の実位置での移動速度と等価な情報が速度情報として記憶されていてもよい。つまり、この場合は、記憶部240に記憶された速度情報は、砕石112の実位置での移動速度と等価である。
ただし、この場合には、マーカ移動情報252に含まれる座標データ(x,y)は、例えば、以下のようにして導出される。
x=x0+Vx×Δt
y=y0+Vy×Δt
x:マーカ移動情報252に含まれるx座標データ
y:マーカ移動情報252に含まれるy座標データ
x0:タッチ情報261に含まれるx座標データ
y0:タッチ情報261に含まれるy座標データ
Vx:設定情報241に含まれる速度情報に基づいて導出した砕石112の画面231上での速度情報におけるx方向成分
Vy:設定情報241に含まれる速度情報に基づいて導出した砕石112の画面231上での速度情報におけるy方向成分
Δt:時刻情報251に含まれる時刻データ
x=x0+Vx×Δt
y=y0+Vy×Δt
x:マーカ移動情報252に含まれるx座標データ
y:マーカ移動情報252に含まれるy座標データ
x0:タッチ情報261に含まれるx座標データ
y0:タッチ情報261に含まれるy座標データ
Vx:設定情報241に含まれる速度情報に基づいて導出した砕石112の画面231上での速度情報におけるx方向成分
Vy:設定情報241に含まれる速度情報に基づいて導出した砕石112の画面231上での速度情報におけるy方向成分
Δt:時刻情報251に含まれる時刻データ
さらに、本変形例では、ロボットアーム制御部270は、例えば、実位置情報253に含まれる座標データと、設定情報241に含まれる実位置での移動速度とを用いることにより、対象物114が目標位置Ltに到達する到達時刻t0を推定する。
このように、本変形例では、記憶部240から読み出した設定情報241を用いて、マーカ移動情報252が生成される。これにより、映像211中の対象物114の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、映像211中で移動する対象物114にマーカ233を追従させることができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
また、本変形例では、記憶部240から読み出した設定情報241を用いて、ロボットアーム220を制御する制御信号271が生成される。これにより、映像211中の対象物114の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、ロボットアーム220を制御することができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
[変形例F]
上記実施の形態およびその変形例では、記憶部240には、物体(砕石112)の画面231上での移動速度と等価な情報が記憶されていたが、物体(砕石112)の画面231上での移動距離と等価な情報が記憶されていてもよい。記憶部240には、例えば、図8に記載したようなテーブル240Aが記憶されていてもよい。テーブル240Aは、時刻データΔtと、距離データxa,yaとの関係を表したものである。距離データxaは、物体(砕石112)が時刻データΔtの間、画面231上を移動するx軸方向の距離と等価な値である。距離データyaは、物体(砕石112)が時刻データΔtの間、画面231上を移動するy軸方向の距離と等価な値である。
上記実施の形態およびその変形例では、記憶部240には、物体(砕石112)の画面231上での移動速度と等価な情報が記憶されていたが、物体(砕石112)の画面231上での移動距離と等価な情報が記憶されていてもよい。記憶部240には、例えば、図8に記載したようなテーブル240Aが記憶されていてもよい。テーブル240Aは、時刻データΔtと、距離データxa,yaとの関係を表したものである。距離データxaは、物体(砕石112)が時刻データΔtの間、画面231上を移動するx軸方向の距離と等価な値である。距離データyaは、物体(砕石112)が時刻データΔtの間、画面231上を移動するy軸方向の距離と等価な値である。
表示制御部250は、例えば、時刻情報251に含まれる時刻データΔtに対応する距離データxa,yaをテーブル240Aから読み出す。次に、表示制御部250は、例えば、読み出した距離データxaと、タッチ情報261に含まれるx座標データx0とを互いに足し合わせることにより、時刻t1から時刻データΔtだけ経過した時のマーカ233のx座標データを導出する。表示制御部250は、例えば、読み出した距離データyaと、タッチ情報261に含まれるy座標データy0とを互いに足し合わせることにより、時刻t1から時刻データΔtだけ経過した時のマーカ233のy座標データを導出する。表示制御部250は、例えば、このようにして導出した座標データをマーカ移動情報252とする。
また、ロボットアーム制御部270は、例えば、画面231上での接触位置についての情報(例えば、座標データ)と、テーブル240Aとに基づいて、対象物114が目標位置Ltに到達する到達時刻t0を推定する。ロボットアーム制御部270は、例えば、実位置情報253に含まれる座標データと、テーブル240Aに対応する実位置とを用いることにより、対象物114が目標位置Ltに到達する到達時刻t0を推定する。
このように、本変形例では、記憶部240から読み出したテーブル240Aを用いて、マーカ移動情報252が生成される。これにより、映像211中の対象物114の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、映像211中で移動する対象物114にマーカ233を追従させることができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
また、本変形例では、記憶部240から読み出したテーブル240Aを用いて、ロボットアーム220を制御する制御信号271が生成される。これにより、映像211中の対象物114の位置や速度を検出する複雑かつ高価なシステムを導入しなくても、ロボットアーム220を制御することができる。従って、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
なお、本変形例において、記憶部240に、物体(砕石112)の実位置での移動距離と等価な情報が記憶されていてもよい。この場合、テーブル240A内の距離データxaは、物体(砕石112)が時刻データΔtの間、実位置を移動するx軸方向の距離と等価な値である。距離データyaは、物体(砕石112)が時刻データΔtの間、実位置を移動するy軸方向の距離と等価な値である。このような場合であっても、本変形例と同様、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
[変形例G]
上記実施の形態およびその変形例において、記憶部240に記憶された移動速度(Vx,Vy)が、テストモード下で得られたものであってもよい。テストモードとは、記憶部240内に記憶させる移動速度を導出するためのモードである。例えば、ベルトコンベア140の縁に、テスト用のマーカが設けられているとする。このテスト用のマーカは、ベルトコンベア140のベルトの移動に伴って移動する。テストモードでは、ベルトコンベア140のマーカが画面231に表示されたとき、ユーザは、例えば、画面231に映し出されたテスト用のマーカを2回、互いに異なる時間に選択する。ユーザは、例えば、ある時刻に画面231に映し出されているテスト用のマーカに触れ、その後、所定の時間が経過した後に、画面231に依然として映し出されているテスト用のマーカに再度、触れる。
上記実施の形態およびその変形例において、記憶部240に記憶された移動速度(Vx,Vy)が、テストモード下で得られたものであってもよい。テストモードとは、記憶部240内に記憶させる移動速度を導出するためのモードである。例えば、ベルトコンベア140の縁に、テスト用のマーカが設けられているとする。このテスト用のマーカは、ベルトコンベア140のベルトの移動に伴って移動する。テストモードでは、ベルトコンベア140のマーカが画面231に表示されたとき、ユーザは、例えば、画面231に映し出されたテスト用のマーカを2回、互いに異なる時間に選択する。ユーザは、例えば、ある時刻に画面231に映し出されているテスト用のマーカに触れ、その後、所定の時間が経過した後に、画面231に依然として映し出されているテスト用のマーカに再度、触れる。
これにより、表示制御部250は、ユーザによる画面231上の2つの接触位置(選択位置)と、接触(選択)をしたときの2つの時刻(選択時刻)とを得る。そこで、表示制御部250は、テストモードで取得した2つの接触位置(選択位置)および2つの選択時刻に基づいて、テスト用のマーカの移動速度Vtestを導出する。移動速度Vtestは、テスト用のマーカの画面231上での移動速度であってもよいし、テスト用のマーカの実位置での移動速度であってもよい。表示制御部250は、導出した移動速度Vtestを記憶部240に記憶する。
なお、記憶部240のテーブル240Aに記憶された移動距離(距理データxa,ya)が、テストモード下で得られたものであってもよい。この場合、表示制御部250は、例えば、あらかじめ用意した時刻データΔt(Δt1〜Δtn)に対して、上述のようにして導出した移動速度Vtestを乗算し、それによって得られた距理データxb,ybを、距理データxa,yaとしてテーブル240Aに格納してもよい。
このように、本変形例では、記憶部240に記憶された移動速度または移動距離が、テストモード下で得られたものとなっている。これにより、例えば、ベルトコンベア140の速度が経年変化した場合であっても、経年変化の影響を受けずに正確に、マーカ233表示や、ロボット制御を行うことができる。
[変形例H]
上記実施の形態およびその変形例では、マーカ233は、画面231上の選択位置(例えば接触位置)のごく近くに配置されていた。しかし、上記実施の形態およびその変形例において、例えば、画面231において、画面231上の選択位置(例えば接触位置)のX座標(マーカ233の移動方向の座標)と同じX座標上の所定位置にマーカ233が配置されてもよい。このとき、上記所定位置は、画面231上の選択位置(例えば接触位置)の近傍と言える。このようにした場合であっても、ユーザによる選択(例えば接触)がロボット制御装置200Aによって認識されたことをユーザに示すことができる。
上記実施の形態およびその変形例では、マーカ233は、画面231上の選択位置(例えば接触位置)のごく近くに配置されていた。しかし、上記実施の形態およびその変形例において、例えば、画面231において、画面231上の選択位置(例えば接触位置)のX座標(マーカ233の移動方向の座標)と同じX座標上の所定位置にマーカ233が配置されてもよい。このとき、上記所定位置は、画面231上の選択位置(例えば接触位置)の近傍と言える。このようにした場合であっても、ユーザによる選択(例えば接触)がロボット制御装置200Aによって認識されたことをユーザに示すことができる。
[変形例I]
上記実施の形態およびその変形例では、ロボットアーム制御部270がロボットアーム220を制御していた。しかし、上記実施の形態およびその変形例において、ユーザがロボットアーム300を制御してもよい。例えば、図9に示したように、ロボット制御システム200において、ロボット制御装置200Aの代わりに、表示制御装置200Bが設けられていてもよい。表示制御装置200Bは、ロボット制御装置200Aにおいて、ロボット制御部270が省略されたものに相当する。さらに、例えば、図9に示したように、ロボット制御システム200において、ロボットアーム制御部300が設けられていてもよい。ロボットアーム制御部300は、ネットワーク290を介してロボットアーム220を制御するものであり、ユーザによる操作によってロボットアーム220を制御するものである。ロボットアーム制御部300は、例えば、ユーザの手および腕に取り付けられ、ユーザの手および腕の動きを検出するセンサと、そのセンサの出力に基づいて、ロボットアーム220を制御する制御信号を生成する制御部とを有している。
上記実施の形態およびその変形例では、ロボットアーム制御部270がロボットアーム220を制御していた。しかし、上記実施の形態およびその変形例において、ユーザがロボットアーム300を制御してもよい。例えば、図9に示したように、ロボット制御システム200において、ロボット制御装置200Aの代わりに、表示制御装置200Bが設けられていてもよい。表示制御装置200Bは、ロボット制御装置200Aにおいて、ロボット制御部270が省略されたものに相当する。さらに、例えば、図9に示したように、ロボット制御システム200において、ロボットアーム制御部300が設けられていてもよい。ロボットアーム制御部300は、ネットワーク290を介してロボットアーム220を制御するものであり、ユーザによる操作によってロボットアーム220を制御するものである。ロボットアーム制御部300は、例えば、ユーザの手および腕に取り付けられ、ユーザの手および腕の動きを検出するセンサと、そのセンサの出力に基づいて、ロボットアーム220を制御する制御信号を生成する制御部とを有している。
本変形例では、映像211が画面231に映し出されている時にユーザが画面231の一部を選択すると、画面231上の選択位置またはその近傍にマーカ233を映像211に重ねて表示させる映像信号251(映像信号251’)が生成される。これにより、ユーザは、例えば、映像211中に発見した対象物114(ゴミ)に目印を付けることができる。また、本変形例では、画面231上での砕石112の移動速度と同じ速度で、画面231上での物体砕石112の移動方向と同じ方向に、マーカ233を画面231上で移動させる映像信号251(映像信号251’’)が生成される。これにより、ユーザは、例えば、目印を付けた対象物114(ゴミ)が画面231上のどこにあるかをリアルタイムに把握することができる。さらに、ユーザは、表示制御装置200Bから出力された映像信号251(映像信号251’’)に基づいて得られる映像211を見ながら、ロボットアーム制御部300を介して、ロボットアーム220を操作することで、ロボットアーム220によって対象物114(ゴミ)を回収することが可能となる。従って、本変形例では、簡単な操作で遠隔操作が可能な安価なロボット制御装置200Aを提供することができる。
[変形例J]
上記実施の形態およびその変形例では、ロボット制御装置200Aおよびロボット制御システム200が、破砕施設100の混入物除去工程で用いられていた。しかし、制御装置200Aおよびロボット制御システム200は、混入物除去とは全く別の分野で用いられてもよい。例えば、制御装置200Aおよびロボット制御システム200が、ベルトコンベア140のベルト上を流れる景品を、ロボットアーム220を用いて回収する用途に用いられてもよい。
上記実施の形態およびその変形例では、ロボット制御装置200Aおよびロボット制御システム200が、破砕施設100の混入物除去工程で用いられていた。しかし、制御装置200Aおよびロボット制御システム200は、混入物除去とは全く別の分野で用いられてもよい。例えば、制御装置200Aおよびロボット制御システム200が、ベルトコンベア140のベルト上を流れる景品を、ロボットアーム220を用いて回収する用途に用いられてもよい。
100…破砕施設、110…コンクリート塊集積場、111…コンクリート塊、112,113…砕石、114…対象物、120…パワーショベル、130…一次破砕処理装置、131…ホッパー、140…ベルトコンベア、150…二次破砕処理装置、151…ホッパー、160…ベルトコンベア、170…砕石集積場、180…混合物除去建屋、190…遠隔操作建屋、200…ロボット制御システム、200A…ロボット制御装置、200B…表示制御装置、210…カメラ、211…映像、220…ロボットアーム、230…表示部、231…画面、232…検出信号、240…記憶部、240A…テーブル、241…設定情報、250…表示制御部、251,251’,251’’…映像信号、252…マーカ移動情報、253…実位置情報、260…タッチ検出部、261…タッチ情報、262…位置情報、270…ロボットアーム制御部、271…制御信号、280…通信部、290…ネットワーク、300…ロボットアーム制御部、Lt…目標位置、t0,t1,t2…時刻。
Claims (8)
- 一定の速度で所定の方向に移動する複数の物体を含む映像が画面に映し出されている時にユーザが前記画面の一部を選択すると、前記画面上の選択位置またはその近傍にマーカを前記映像に重ねて表示させる映像信号を生成し、さらに、前記画面上の前記物体の移動速度と同じ速度で、前記画面上の前記物体の移動方向と同じ方向に、前記マーカを前記画面上で移動させる映像信号を生成する表示制御部を備えた
表示制御装置。 - あらかじめ設定された移動情報を記憶する記憶部をさらに備え、
前記記憶部内の移動情報は、前記物体の前記画面上での移動情報と等価であり、
前記表示制御部は、前記画面上の選択位置の座標と、前記記憶部から読み出した前記移動情報とを用いることにより前記マーカの前記画面上での位置を導出する
請求項1に記載の表示制御装置。 - あらかじめ設定された移動情報を記憶する記憶部をさらに備え、
前記記憶部内の移動情報は、前記物体の実位置での移動情報と等価であり、
前記表示制御部は、前記画面上の選択位置の座標と、前記記憶部から読み出した前記移動情報に基づいて導出した前記物体の前記画面上での移動情報とを用いることにより前記マーカの前記画面上での位置を導出する
請求項1に記載の表示制御装置。 - 一定の速度で所定の方向に移動する複数の物体を含む映像が画面に映し出されている時にユーザが前記画面の一部を選択すると、前記画面上の選択位置またはその近傍にマーカを前記映像に重ねて表示させる映像信号を生成し、さらに、前記画面上の前記物体の移動速度と同じ速度で、前記画面上の前記物体の移動方向と同じ方向に、前記マーカを前記画面上で移動させる映像信号を生成する表示制御部と、
前記画面上の選択位置の座標と、前記物体の移動情報とに基づいて、前記複数の物体のうち前記実位置にあった対象物をロボットアームによって回収する制御信号を生成するロボットアーム制御部と
を備えた
ロボット制御装置。 - あらかじめ設定された移動情報を記憶する記憶部をさらに備え、
前記記憶部内の移動情報は、前記物体の前記画面上での移動情報と等価であり、
前記表示制御部は、前記画面上の選択位置の座標と、前記記憶部から読み出した前記移動情報とを用いることにより前記マーカの前記画面上での位置を導出する
請求項4に記載のロボット制御装置。 - あらかじめ設定された移動情報を記憶する記憶部をさらに備え、
前記記憶部内の移動情報は、前記物体の実位置での移動情報と等価であり、
前記表示制御部は、前記画面上の選択位置の座標と、前記記憶部から読み出した前記移動情報に基づいて導出した前記物体の前記画面上での移動情報とを用いることにより前記マーカの前記画面上での位置を導出する
請求項4に記載のロボット制御装置。 - あらかじめ設定された移動情報を記憶する記憶部をさらに備え、
前記記憶部内の移動情報は、前記物体の前記画面上での移動情報と等価であり、
前記ロボットアーム制御部は、前記画面上の選択位置に対応する実位置の座標と、前記記憶部から読み出した前記移動情報に対応する実位置での移動情報とを用いることにより前記制御信号を生成する
請求項4に記載のロボット制御装置。 - あらかじめ設定された移動情報を記憶する記憶部をさらに備え、
前記記憶部内の移動情報は、前記物体の実位置での移動情報と等価であり、
前記ロボットアーム制御部は、前記画面上の選択位置に対応する実位置の座標と、前記記憶部から読み出した前記移動情報とを用いることにより前記制御信号を生成する
請求項4に記載のロボット制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042192A JP2018130819A (ja) | 2017-02-16 | 2017-02-16 | 表示制御装置およびロボット制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042192A JP2018130819A (ja) | 2017-02-16 | 2017-02-16 | 表示制御装置およびロボット制御装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018130819A true JP2018130819A (ja) | 2018-08-23 |
Family
ID=63249317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017042192A Pending JP2018130819A (ja) | 2017-02-16 | 2017-02-16 | 表示制御装置およびロボット制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018130819A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0740273A (ja) * | 1993-07-12 | 1995-02-10 | Miike Tekkosho:Kk | ロボットによる廃棄物の選別システム |
JPH10180667A (ja) * | 1996-12-26 | 1998-07-07 | Nkk Corp | 廃棄物中の特定物を選別するロボットシステム |
JPH10180668A (ja) * | 1996-12-26 | 1998-07-07 | Nkk Corp | 廃棄物中の特定物を選別するロボットシステム |
JPH10202571A (ja) * | 1997-01-17 | 1998-08-04 | Nkk Corp | 廃棄物中の特定物を選別するロボットシステム |
WO2013118191A1 (ja) * | 2012-02-10 | 2013-08-15 | 三菱電機株式会社 | 運転支援装置及び運転支援方法 |
-
2017
- 2017-02-16 JP JP2017042192A patent/JP2018130819A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0740273A (ja) * | 1993-07-12 | 1995-02-10 | Miike Tekkosho:Kk | ロボットによる廃棄物の選別システム |
JPH10180667A (ja) * | 1996-12-26 | 1998-07-07 | Nkk Corp | 廃棄物中の特定物を選別するロボットシステム |
JPH10180668A (ja) * | 1996-12-26 | 1998-07-07 | Nkk Corp | 廃棄物中の特定物を選別するロボットシステム |
JPH10202571A (ja) * | 1997-01-17 | 1998-08-04 | Nkk Corp | 廃棄物中の特定物を選別するロボットシステム |
WO2013118191A1 (ja) * | 2012-02-10 | 2013-08-15 | 三菱電機株式会社 | 運転支援装置及び運転支援方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10818099B2 (en) | Image processing method, display device, and inspection system | |
US10001912B2 (en) | Robot operation apparatus, robot system, and robot operation program | |
CN103354996A (zh) | 显示装置、计算机程序及计算机实施方法 | |
JP2020075354A5 (ja) | 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体 | |
CN104827457B (zh) | 机器手臂的教导装置及方法 | |
JP2013105253A5 (ja) | ||
CN103869946A (zh) | 一种显示控制方法和电子设备 | |
CN105045520A (zh) | 一种触摸屏响应方法及装置 | |
JP4802012B2 (ja) | カメラ制御装置およびカメラ制御方法 | |
CN103108170A (zh) | 一种视频监控云台控制方法和装置 | |
JP5326794B2 (ja) | 遠隔操作システム及び遠隔操作方法 | |
CN102591450A (zh) | 信息处理装置及其操作方法 | |
CN103425409A (zh) | 投影显示的控制方法和装置 | |
CN103578220B (zh) | 一种为用户反馈地面信息的方法及手持设备 | |
JP2019195751A (ja) | 廃棄物選別システム、教師データ生成装置、教師データ生成システム、および教師データ生成プログラム | |
KR101749070B1 (ko) | 사용자 인터페이스 평가 장치 및 그 평가 방법 | |
CN105808129A (zh) | 一种利用手势快速开启软件功能的方法和装置 | |
JP2018130819A (ja) | 表示制御装置およびロボット制御装置 | |
JP2014115876A5 (ja) | ||
CN108345377A (zh) | 一种基于Kinect的自适应用户身高的交互方法 | |
WO2017155005A1 (en) | Image processing method, display device, and inspection system | |
JP5658618B2 (ja) | 操作入力装置、プログラム | |
WO2015127731A1 (zh) | 软键盘布局调整方法及装置 | |
JP6379902B2 (ja) | ロボット操作装置、ロボットシステム、及びロボット操作プログラム | |
Charoenseang et al. | Human–robot collaboration with augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210810 |