JP2009531184A - 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法 - Google Patents
操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法 Download PDFInfo
- Publication number
- JP2009531184A JP2009531184A JP2009502046A JP2009502046A JP2009531184A JP 2009531184 A JP2009531184 A JP 2009531184A JP 2009502046 A JP2009502046 A JP 2009502046A JP 2009502046 A JP2009502046 A JP 2009502046A JP 2009531184 A JP2009531184 A JP 2009531184A
- Authority
- JP
- Japan
- Prior art keywords
- clamp
- move
- display screen
- cameras
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000000007 visual effect Effects 0.000 claims description 7
- 230000004888 barrier function Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 238000012790 confirmation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F4/00—Methods or devices enabling patients or disabled persons to operate an apparatus or a device not forming part of the body
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Vascular Medicine (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
- Image Input (AREA)
Abstract
本発明は、物体を入力するための知的インターフェース装置に関し、本装置は、自由端にクランプ(21)を有し、一つ以上のカメラ(22)が装着されたヒンジ式アーム(20)を備える操作ロボットと、表示画面(25)と入力ユニット(24)とを備えるコンピュータ(23)と、前記クランプを制御する手段と、前記カメラが取得した物体のビデオ画像を前記表示画面に表示する手段と、入力ユニットを使用して画像内の物体を囲む選択領域を図形により特定する手段とを備える。本発明はこの装置を操作する方法にも関する。
【選択図】図2
【選択図】図2
Description
技術分野
本発明は、操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法に関する。
本発明の分野は、身体的に補助を必要とする人、特に身体障害者の補助に関する。また本発明の分野は、水中、核環境等の厳しい環境における物体の操作を補助することにより操作者の負担を軽減する、フォースフィードバック可能な補助に関する。
以降の説明において、例として身体障害者の補助を考慮する。
本発明は、操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法に関する。
本発明の分野は、身体的に補助を必要とする人、特に身体障害者の補助に関する。また本発明の分野は、水中、核環境等の厳しい環境における物体の操作を補助することにより操作者の負担を軽減する、フォースフィードバック可能な補助に関する。
以降の説明において、例として身体障害者の補助を考慮する。
先行技術
潜在的な有益性と最近数十年間の開発にもかかわらず、ロボットは、一般社会、具体的には身体障害者の補助の分野では、特にそのコストが高いため、加えてその複雑さのために、依然として使用頻度が低い。複雑であることにより、ロボットの技術に慣れていない人々にとってロボットの使用は難しく、些細な問題がとたんに克服できないものとなる。
ロボット、例えばクランプを備えた操作アームを介して物体を把持することは、二つの段階、即ち物体に接近することと、次にクランプを使用してこの物体を把持することに分けることができる。接近段階は自由空間における移動に相当し、その目的はクランプを物体に対して幾何学的に配置することである。把持段階における課題は、物体の安定な保持を確実にすることである。
潜在的な有益性と最近数十年間の開発にもかかわらず、ロボットは、一般社会、具体的には身体障害者の補助の分野では、特にそのコストが高いため、加えてその複雑さのために、依然として使用頻度が低い。複雑であることにより、ロボットの技術に慣れていない人々にとってロボットの使用は難しく、些細な問題がとたんに克服できないものとなる。
ロボット、例えばクランプを備えた操作アームを介して物体を把持することは、二つの段階、即ち物体に接近することと、次にクランプを使用してこの物体を把持することに分けることができる。接近段階は自由空間における移動に相当し、その目的はクランプを物体に対して幾何学的に配置することである。把持段階における課題は、物体の安定な保持を確実にすることである。
産業ロボット工学では、操作アームの再現性、即ち以前学習した動きを繰り返す能力を利用して、開ループで把持動作を実行させることが可能である。この場合、把持する又は置く対象物の位置と種類は予め完全に分かっている。把持対象物の位置が予め分かっていない場合、このような手法は使用できない。精度の低い従来の操作アームは通常、把持対象物へのアームの動きを導くため、ビデオカメラ等のセンサーを必要とする。
把持対象物体が分かっている場合、サーボ技術を使用して把持動作をうまく実行することが可能である。視覚サーボは、到達すべき基準位置と、視覚システムによって提供される現在情報との間に観察される差に応じてアームの動きを制御することからなる。視覚サーボは通常、観察される物体のモデルとその画像とに基づいて再処理された3D情報を使用する3D(三次元)サーボと、画像情報だけを使用する2Dサーボとに分類される。制御法則を繰返す度に、目標物の基準面に対して現在画像と所望の画像との相同関係を推定する2D1/2サーボを使用してもよい。
把持対象物体が分かっている場合、サーボ技術を使用して把持動作をうまく実行することが可能である。視覚サーボは、到達すべき基準位置と、視覚システムによって提供される現在情報との間に観察される差に応じてアームの動きを制御することからなる。視覚サーボは通常、観察される物体のモデルとその画像とに基づいて再処理された3D情報を使用する3D(三次元)サーボと、画像情報だけを使用する2Dサーボとに分類される。制御法則を繰返す度に、目標物の基準面に対して現在画像と所望の画像との相同関係を推定する2D1/2サーボを使用してもよい。
把持対象物体が分かっていない場合、クランプと把持対象物とを観察する視覚システムを使用する解決法と、ロボットのクランプに装着されたセンサーを使用する解決法とを区別することができる。この場合、これら従来の解決法は、把持対象物のマーキング又は幾何学モデルを必要とする。
従来技術による特許文献1は、アームの移動中に物体を含む環境の画像を取得するカメラを備えたロボットアームを使用して物体を把持する方法を記載している。この方法は、複数の画像内の物体の決定された地点の位置に従って、ロボットアームに対する環境内の前記決定された点の座標を計算することにより、物体の位置を特定するステップを含む。図1に例示するように、カメラ12を備え、先端にクランプ13を有するロボットアーム11は、テーブル15上に置かれた物体14に到達して把持することを可能にする。操作者は、画面とキーボードを備えた、アームを制御するためのコンピュータ16を有している。カメラ12は、目の前の環境の画像を取得する。このような位置特定法は、画像上に特定数の点を選択することを含む。
仏国特許第0451452号明細書
欧州特許第1178875号明細書
従来技術による特許文献1は、アームの移動中に物体を含む環境の画像を取得するカメラを備えたロボットアームを使用して物体を把持する方法を記載している。この方法は、複数の画像内の物体の決定された地点の位置に従って、ロボットアームに対する環境内の前記決定された点の座標を計算することにより、物体の位置を特定するステップを含む。図1に例示するように、カメラ12を備え、先端にクランプ13を有するロボットアーム11は、テーブル15上に置かれた物体14に到達して把持することを可能にする。操作者は、画面とキーボードを備えた、アームを制御するためのコンピュータ16を有している。カメラ12は、目の前の環境の画像を取得する。このような位置特定法は、画像上に特定数の点を選択することを含む。
本発明の目的は、操作ロボットにより物体を把持するための知的インターフェース装置を提案することにより、このような物体の把持方法を改良することである。物体のマーキング又は物体のモデルの使用を必要とせず、操作が容易で使用に必要な作業が最少化されており、且つ多用途を有する本装置の操作方法は、非常に多種多様な物体に適用することができ、使用される機器の技術が隠れているので短い学習時間しか必要としない。
発明の開示
本発明は、
−自由端にクランプを有し、一つ以上のカメラが装着されたヒンジ式アームを備える操作ロボットと、
−表示画面と入力ユニットとを備えたコンピュータと、
−クランプを制御する手段と、
−カメラが取得した物体のビデオ画像を表示画面に表示する手段と
を備えた、対象を把持するための知的インターフェース装置に関し、本装置は、更に
−入力ユニットを使用して前記画像内の物体を囲む選択領域を図形により特定する手段
を備えること、並びに、
前記クランプを制御する手段が、表示画面から作動可能な図形のコントロールボタンを備え、当該ボタンが、
・クランプを左へ移動させる、
・クランプを右へ移動させる、
・クランプを下方へ移動させる、
・クランプを上方へ移動させる、
・クランプを前方へ移動させる、
・クランプを後方へ移動させる、
・クランプを開閉する、
・クランプを時計回りに回転させる、
・クランプを反時計回りに回転させる、
・確認する、
・取り消す、
・緊急停止
といった命令のうちの一つ以上に対応することを特徴とする。
本発明は、
−自由端にクランプを有し、一つ以上のカメラが装着されたヒンジ式アームを備える操作ロボットと、
−表示画面と入力ユニットとを備えたコンピュータと、
−クランプを制御する手段と、
−カメラが取得した物体のビデオ画像を表示画面に表示する手段と
を備えた、対象を把持するための知的インターフェース装置に関し、本装置は、更に
−入力ユニットを使用して前記画像内の物体を囲む選択領域を図形により特定する手段
を備えること、並びに、
前記クランプを制御する手段が、表示画面から作動可能な図形のコントロールボタンを備え、当該ボタンが、
・クランプを左へ移動させる、
・クランプを右へ移動させる、
・クランプを下方へ移動させる、
・クランプを上方へ移動させる、
・クランプを前方へ移動させる、
・クランプを後方へ移動させる、
・クランプを開閉する、
・クランプを時計回りに回転させる、
・クランプを反時計回りに回転させる、
・確認する、
・取り消す、
・緊急停止
といった命令のうちの一つ以上に対応することを特徴とする。
好適な一実施形態では、本装置は立体映像センサーを構成する二つのカメラを備える。前記入力ユニットは特に、マウス、ヘッドトラッキング、接触器、仮想キーボード、ジョイスティック、或いは、視標追跡又は音声合成システムとすることができる。
各コントロールボタンは、表示画面に表示されたアイコンのワンクリックに相当させることができる。有利には、クランプは光学バリアを備える。
各コントロールボタンは、表示画面に表示されたアイコンのワンクリックに相当させることができる。有利には、クランプは光学バリアを備える。
一実施形態では、ロボットは車椅子のアームに固定されている。別の実施形態では、ロボットは可動な台の上に固定されている。
本発明の装置は、低価格で小型の機器を使用するので、広く応用できる。更に、本装置の学習に必要な時間は、適格なユーザの場合数分である。
本発明の装置は、低価格で小型の機器を使用するので、広く応用できる。更に、本装置の学習に必要な時間は、適格なユーザの場合数分である。
本発明はまた、
−自由端にクランプを有し、一つ以上のカメラが装着されたヒンジ式アームを備える操作ロボットと、
−表示画面と入力ユニットとを備えたコンピュータと
を備えた、物体を把持するための知的インターフェース装置の操作方法に関し、本方法は、
−カメラが取得したビデオ画像を表示画面に表示させながら、クランプの移動を制御することにより物体をカメラの視界内に持ってくるステップと、
−入力ユニットを使用して物体を囲む選択領域を特定するステップと、
−物体とその環境を区別し、クランプと物体の間の距離を推定するステップと、
−画像中の物体の重心を計算するステップと、
−物体に到達するためにクランプが移動すべき距離に応じて設定速度を計算するステップと、
−物体の近傍へクランプを移動するステップと、
−視覚情報を使用せずにクランプを移動し、クランプで物体を挟むステップと、
−物体をユーザの方へ持って戻るステップと
を含むことを特徴とする。
−自由端にクランプを有し、一つ以上のカメラが装着されたヒンジ式アームを備える操作ロボットと、
−表示画面と入力ユニットとを備えたコンピュータと
を備えた、物体を把持するための知的インターフェース装置の操作方法に関し、本方法は、
−カメラが取得したビデオ画像を表示画面に表示させながら、クランプの移動を制御することにより物体をカメラの視界内に持ってくるステップと、
−入力ユニットを使用して物体を囲む選択領域を特定するステップと、
−物体とその環境を区別し、クランプと物体の間の距離を推定するステップと、
−画像中の物体の重心を計算するステップと、
−物体に到達するためにクランプが移動すべき距離に応じて設定速度を計算するステップと、
−物体の近傍へクランプを移動するステップと、
−視覚情報を使用せずにクランプを移動し、クランプで物体を挟むステップと、
−物体をユーザの方へ持って戻るステップと
を含むことを特徴とする。
物体を囲む選択領域は、矩形領域、ユーザによって選択された複数の点によって画定される投げ縄図形、又は物体を囲んで描かれた閉曲線とすることができる。
この方法では、立体映像センサーを構成する二つのカメラを使用することができる。次に、二つのカメラによって得られた二つの画像内における複数の注目点を選択し、これらの点を二つずつ組にすることができる。また、両方のカメラによって得られた画像を補正することができる。
この方法では、立体映像センサーを構成する二つのカメラを使用することができる。次に、二つのカメラによって得られた二つの画像内における複数の注目点を選択し、これらの点を二つずつ組にすることができる。また、両方のカメラによって得られた画像を補正することができる。
発明の実施形態
図2に示すように、物体19を把持するための本発明による知的インターフェース装置は、
−自由端にクランプ21を有し、一つ以上のカメラ22、例えば立体映像センサーを構成する二つのカメラを装備したヒンジ式アーム20を備えた操作ロボットと、
−表示画面25と入力ユニット24とを備えたコンピュータ23と、
−クランプ21の移動と開閉を制御する手段と、
−カメラ22によって取得された物体のビデオ画像を表示画面25に表示する手段と
を備える。
図2に示すように、アーム20は、例えば身体障害者の、車椅子のアームに固定することができる。或いは、アーム20は可動な台に固定することもでき、この場合、コンピュータはこの台の上に配置され、操作者は表示画面と入力ユニットにアクセスできる。
図2に示すように、物体19を把持するための本発明による知的インターフェース装置は、
−自由端にクランプ21を有し、一つ以上のカメラ22、例えば立体映像センサーを構成する二つのカメラを装備したヒンジ式アーム20を備えた操作ロボットと、
−表示画面25と入力ユニット24とを備えたコンピュータ23と、
−クランプ21の移動と開閉を制御する手段と、
−カメラ22によって取得された物体のビデオ画像を表示画面25に表示する手段と
を備える。
図2に示すように、アーム20は、例えば身体障害者の、車椅子のアームに固定することができる。或いは、アーム20は可動な台に固定することもでき、この場合、コンピュータはこの台の上に配置され、操作者は表示画面と入力ユニットにアクセスできる。
図3に示すように、本発明の装置は、更に
−入力ユニット24を使用して、この画像内の物体19を囲む、例えば矩形の選択領域35を、図形により特定する手段を更に備える。
クランプを制御する手段は、下記の命令を含むことができる。
−クランプを左へ移動させる
−クランプを右へ移動させる
−クランプを下方へ移動させる
−クランプを上方へ移動させる
−クランプを前方へ移動させる
−クランプを後方へ移動させる
−クランプを開閉する
−選択された物体を確認し、物体の自動把持を起動する
−選択された物体を取り消すか又はアームを停止させる
−緊急停止させる
−入力ユニット24を使用して、この画像内の物体19を囲む、例えば矩形の選択領域35を、図形により特定する手段を更に備える。
クランプを制御する手段は、下記の命令を含むことができる。
−クランプを左へ移動させる
−クランプを右へ移動させる
−クランプを下方へ移動させる
−クランプを上方へ移動させる
−クランプを前方へ移動させる
−クランプを後方へ移動させる
−クランプを開閉する
−選択された物体を確認し、物体の自動把持を起動する
−選択された物体を取り消すか又はアームを停止させる
−緊急停止させる
図3に示す実施形態では、表示画面の対応するアイコンを単に「クリック」又は連続「クリック」することにより、これらの機能の一つを有効にすることができる。本実施形態では、図形による特定手段は、物体19を囲む矩形領域35を描くための四つの命令30(上方へ移動)、31(下方へ移動)、32(左へ移動)、及び33(右へ移動)と、確認命令34とにより操作される。このように、本発明による装置は最小数の命令を有する。本装置は直観的で使い易く、技術的な面を完全に覆い隠す。本装置は、カメラからの映像を表示するウィンドウと、クランプの移動を可能にする四つのコントロールボタンと、確認命令とからなる。本装置は、問題が発生した時のために、アームの移動を止める停止命令を更に含んでもよい。
この装置の操作方法は、図4に示す以下のステップを含む。
−クランプの移動を制御することにより、物体をカメラの視界内に持ってくる。このカメラが取得したビデオ画像が表示画面に表示される(ステップ40)。
−入力ユニットを使用して、物体を囲む、例えば矩形の選択領域を特定する(ステップ41)。
−指定された物体とその環境を区別し、クランプと物体の間の距離を推定する(ステップ42)。
−画像中の物体の重心を計算する(ステップ43)。
−物体に到達するためにクランプが移動すべき距離に応じて設定速度を計算する(ステップ44)。
−物体から約10センチメートルまでクランプを移動する(ステップ45)。
−視覚情報を使用せずにクランプを移動し、クランプで物体を挟む(ステップ46)。
−物体をユーザの方へ持って戻る(ステップ47)。
−クランプの移動を制御することにより、物体をカメラの視界内に持ってくる。このカメラが取得したビデオ画像が表示画面に表示される(ステップ40)。
−入力ユニットを使用して、物体を囲む、例えば矩形の選択領域を特定する(ステップ41)。
−指定された物体とその環境を区別し、クランプと物体の間の距離を推定する(ステップ42)。
−画像中の物体の重心を計算する(ステップ43)。
−物体に到達するためにクランプが移動すべき距離に応じて設定速度を計算する(ステップ44)。
−物体から約10センチメートルまでクランプを移動する(ステップ45)。
−視覚情報を使用せずにクランプを移動し、クランプで物体を挟む(ステップ46)。
−物体をユーザの方へ持って戻る(ステップ47)。
一実施形態では、使用されるロボットは、特許文献2に記載されたExactDyanmics社のARM(MANUS)操作アーム(コントローラによって制御される)である。カメラはウェブカメラである。カメラは視覚サーボによりロボットの移動を案内するため、及びユーザに情報を提供するための両方に使用される。クランプは、クランプのあご部が物体を把持する瞬間を正確に検出することを可能にする光学バリアを備える。コンピュータは2.8GHzのPC(パーソナルコンピュータ)型コンピュータである。このコンピュータはCAN(コントローラ・エリア・ネットワーク)バスを介してロボットのコントローラに接続される。
本発明による装置は、全ての入手可能な入力ユニット、例えばマウス、ヘッドトラッキング、接触器、仮想キーボード、肘掛椅子ジョイスティック、視標追跡システム、音声合成システム等とインターフェースすることができる。
本発明による装置は、全ての入手可能な入力ユニット、例えばマウス、ヘッドトラッキング、接触器、仮想キーボード、肘掛椅子ジョイスティック、視標追跡システム、音声合成システム等とインターフェースすることができる。
焦点軸が平行な二つのカメラを備える立体映像センサーを使用する一実施形態のステップ41以降では、選択領域が画像内の物体の周囲に画定された後、ユーザによって指定された物体の位置を特定し、物体を認識することが可能である。このような位置特定は、表示されている決定された物体が、他の物体及びシーンの背景に対して目立っているという推測に基づいている。
次に、本装置により、二つのカメラから得られた二つの画像内の注目点を自動的に選択できる。これらの点を接続するために使用される技術は、カメラまでの距離が最も近似している点の組を選択することからなる投票法である。
次に、本装置により、二つのカメラから得られた二つの画像内の注目点を自動的に選択できる。これらの点を接続するために使用される技術は、カメラまでの距離が最も近似している点の組を選択することからなる投票法である。
両方の画像において抽出された点は、二つの画像間で発生した変換の情報を使用してエピポーラ幾何に基づいて接続される。例えば、右へ平行移動する場合、本装置はこれらの点が水平な線上を移動すると予想する。同様に物体の方へ平行移動する場合、これらの点がズームの中心から、この中心から出ていく直線に沿って離れていくと予想する。これはエピポーラ制約と呼ばれるものである。
各ペアリングは距離の仮定に貢献する。全てのペアリング仮定を実行した後、物体の選択は最も近似する距離を選択することからなる。次に、本装置は、この距離が指定された物体に対応すると仮定する。次に、これらの接続された点の共通重心を使用して、物体が見つかる方向を特定する。このような位置特定を実行後、ロボットの移動中、この処理を繰り返すことにより、物体への正しい接近を確実にする。
各ペアリングは距離の仮定に貢献する。全てのペアリング仮定を実行した後、物体の選択は最も近似する距離を選択することからなる。次に、本装置は、この距離が指定された物体に対応すると仮定する。次に、これらの接続された点の共通重心を使用して、物体が見つかる方向を特定する。このような位置特定を実行後、ロボットの移動中、この処理を繰り返すことにより、物体への正しい接近を確実にする。
二つのカメラの内部パラメータと外部パラメータを更に使用して、結果を改善することができる。これは画像補正と呼ばれるものである。これにより、ゆがみ効果を補正し、エピポーラ幾何を真直ぐにしてエピポーラ線を水平線にする。
安全対策として、ロボットの移動は、ユーザインターフェース上に表示された「緊急停止」ボタンを起動することにより、いつでも中断できる。
安全対策として、ロボットの移動は、ユーザインターフェース上に表示された「緊急停止」ボタンを起動することにより、いつでも中断できる。
本発明の一変形例では、本装置はカメラを一つだけ備え、二つ以上のずれた画像を取得することにより物体の立体画像を得る。この方法の進行は、装置が二つのカメラを備える立体映像センサーを備える場合と同様である。
本発明の一変形例では、物体を囲む注目領域の選択は必ずしも矩形領域によってではなく、ユーザによって選択された複数の点によって画定される投げ縄図形の形によっても、又は物体を囲む閉曲線を描いても同様に決定できる。
本発明の一変形例では、物体を囲む注目領域の選択は必ずしも矩形領域によってではなく、ユーザによって選択された複数の点によって画定される投げ縄図形の形によっても、又は物体を囲む閉曲線を描いても同様に決定できる。
別の変形例では、アームの移動速度は、物体とロボットのクランプとの間の距離との比例を利用する方法以外の方法で計算されてもよい。例えば、速度は、ロボットアームの急な移動を防ぐために、最小速度と最大速度を持った連続する加速減速曲線に沿うようプログラムすることができる。
本発明の別の変形例では、ロボットアームの移動の、速度ではなく位置をサーボ制御してもよい。即ち、物体とロボットアームとを隔てる距離を推定することにより、ロボットアームが、例えば一定の速度で、移動するべき方向と距離が分かる。
本発明の別の変形例では、ロボットアームの移動の、速度ではなく位置をサーボ制御してもよい。即ち、物体とロボットアームとを隔てる距離を推定することにより、ロボットアームが、例えば一定の速度で、移動するべき方向と距離が分かる。
本発明の別の変形例では、インターフェースは、クランプの角度方向に関する追加の命令(例えば、時計回りの方向命令と反時計回りの方向命令)を含んでもよい。
本発明の別の変形例では、物体を安定して把持するための、画像の点を選択した後、物体の形を評価し、次いで物体の最小の幅へクランプを向ける任意の追加ステップを含んでもよい。
本発明の別の変形例では、本方法は、クランプが物体を把持する前に、ロボットアームのクランプを使って物体を掴みたいという望みをユーザが確認するために、確認ステップを更に含んでもよい。
本発明の別の変形例では、物体を安定して把持するための、画像の点を選択した後、物体の形を評価し、次いで物体の最小の幅へクランプを向ける任意の追加ステップを含んでもよい。
本発明の別の変形例では、本方法は、クランプが物体を把持する前に、ロボットアームのクランプを使って物体を掴みたいという望みをユーザが確認するために、確認ステップを更に含んでもよい。
本発明は、ロボットアームにより物体を掴んで移動させ、ユーザの方へ持って戻る以外の用途に容易に適用することができる。ロボットの遠隔操作の分野(例えば水中)では、本発明により、遠隔操作者は、図形ユーザインターフェースに画像を送信する立体視システムを備えたロボットアームの端を把持対象のハンドルに接近させ、次いで当該ハンドルと整列させることにより、ロボットをハンドルのそばへ移動させることができる。
核の分野等の厳しい環境内における遠隔操作の分野では、操作者は通常、マスターアームの保持を通してスレーブアーム全てを動かさなければならない。本発明は、画面上で把持対象物を特定及び指定した後、所定の動きの終了まで、ロボットアームに全ての動きを単独で実行させることができる。
Claims (13)
- −自由端にクランプ(21)を有し、一つ以上のカメラ(22)が装着されたヒンジ式アーム(20)を備えた操作ロボットと、
−表示画面(25)と入力ユニット(24)とを備えたコンピュータ(23)と、
−クランプ(21)を制御する手段と、
−カメラが取得した物体のビデオ画像を表示画面に表示する手段と
を備えた、物体を把持するための知的インターフェース装置であって、
−入力ユニット(24)を使用して前記画像内の物体(19)を囲む選択領域(35)を図形により特定する手段
を更に備えること、並びに
クランプ(21)を制御する前記手段が、表示画面から作動可能な一つ以上の図形式コントロールボタンであって、
・クランプを左へ移動させる(32)、
・クランプを右へ移動させる(33)、
・クランプを下方へ移動させる(31)、
・クランプを上方へ移動させる(30)、
・クランプを前方へ移動させる、
・クランプを後方へ移動させる、
・クランプを開閉する、
・クランプを時計回りに回転させる、
・クランプを反時計回りに回転させる、
・確認する(34)、
・取り消す、
・緊急停止する
といった命令のうちの一つ以上に対応するコントロールボタンを備えることを特徴とする、知的インターフェース装置。 - 立体映像センサーを構成する二つのカメラを備える、請求項1に記載の装置。
- 入力ユニット(24)が、マウス、ヘッドトラッキング、接触器、仮想キーボード、ジョイスティック、或いは視標追跡又は音声合成システムである、請求項1に記載の装置。
- 命令の各々が、表示画面に表示されたアイコン上のワンクリックに対応する、請求項1に記載の装置。
- クランプが、光学バリア、又は接近検出器を備える、請求項1に記載の装置。
- ロボットが、車椅子のアームに固定されている、請求項1ないし5のいずれか一項に記載の装置。
- ロボットが、可動な台の上に固定されている、請求項1ないし5のいずれか一項に記載の装置。
- −自由端にクランプ(21)を有し、一つ以上のカメラ(22)が装着されたヒンジ式アーム(20)を備えた操作ロボットと、
−表示画面(25)と入力ユニット(24)とを備えたコンピュータ(23)と
を備えた、物体を把持するための知的インターフェース装置の操作方法であって、
−カメラが取得したビデオ画像を表示画面に表示させながら、クランプの移動を制御することにより、物体をカメラの視界内に持ってくるステップ(40)と、
−入力ユニットを使用して、物体を囲む選択領域を特定するステップ(41)と、
−物体とその環境を区別し、クランプと物体の間の距離を推定するステップ(42)と、
−画像中の物体の重心を計算するステップ(43)と、
−物体に到達するためにクランプが移動すべき距離に応じて設定速度を計算するステップ(44)と、
−物体の近傍へクランプを移動するステップ(45)と、
−視覚情報を使用せずにクランプを移動し、クランプを閉じるステップ(46)と、
−物体をユーザの方へ持って戻るステップ(47)と
を含むことを特徴とする方法。 - 物体を囲む選択領域が、矩形領域、ユーザによって選択された複数の点によって画定される投げ縄図形、又は物体を囲んで描かれた閉曲線である、請求項8に記載の方法。
- 立体映像センサーを構成する二つのカメラを使用する、請求項8に記載の方法。
- 二つのカメラによって取得された二つの画像内の複数の注目点を選択する、請求項10に記載の方法。
- 複数の点を二つずつペアにする、請求項11に記載の方法。
- 二つのカメラによって取得された画像を補正する、請求項10に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0651045A FR2898824B1 (fr) | 2006-03-27 | 2006-03-27 | Dispositif interface intelligent pour la saisie d'un objet par un robot manipulateur et procede de mise en oeuvre de ce dispositif |
PCT/EP2007/052816 WO2007110391A2 (fr) | 2006-03-27 | 2007-03-23 | Dispositif interface intelligent pour la saisie d'un objet par un robot manipulateur et procede de mise en œuvre de ce dispositif |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009531184A true JP2009531184A (ja) | 2009-09-03 |
Family
ID=37671997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009502046A Pending JP2009531184A (ja) | 2006-03-27 | 2007-03-23 | 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8155787B2 (ja) |
EP (1) | EP1998936A2 (ja) |
JP (1) | JP2009531184A (ja) |
CA (1) | CA2647435A1 (ja) |
FR (1) | FR2898824B1 (ja) |
WO (1) | WO2007110391A2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010228064A (ja) * | 2009-03-27 | 2010-10-14 | National Institute Of Advanced Industrial Science & Technology | 福祉用ロボット装置のロボットアーム操作方法、ロボットアーム操作プログラム、及び、記録媒体 |
JP2012066378A (ja) * | 2010-09-22 | 2012-04-05 | Toyota Motor Engineering & Manufacturing North America Inc | ロボットを制御するためのヒューマン・ロボット・インターフェース装置及び方法 |
JP2019012527A (ja) * | 2018-07-20 | 2019-01-24 | ソニー株式会社 | 移動体、制御方法、およびプログラム |
WO2019087738A1 (ja) * | 2017-10-31 | 2019-05-09 | 川崎重工業株式会社 | ロボットシステム |
JP2020049653A (ja) * | 2018-07-20 | 2020-04-02 | ソニー株式会社 | 移動体、制御方法、およびプログラム |
US10890884B2 (en) | 2011-08-02 | 2021-01-12 | Sony Corporation | Control device, control method, computer program product, and robot control system |
JP2021166106A (ja) * | 2019-12-24 | 2021-10-14 | ソニーグループ株式会社 | 移動体、制御方法、およびプログラム |
WO2022091333A1 (ja) * | 2020-10-30 | 2022-05-05 | 株式会社Plasma | プログラム、ロボット操作支援方法、及び、ロボット操作支援装置 |
KR20230115547A (ko) * | 2022-01-27 | 2023-08-03 | 수원대학교산학협력단 | 휠체어 장착형 로봇팔 제어시스템 |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2008015978A1 (ja) * | 2006-08-02 | 2009-12-24 | パナソニック株式会社 | 映像表示装置および映像表示方法 |
JP5158808B2 (ja) * | 2009-02-23 | 2013-03-06 | 独立行政法人科学技術振興機構 | ロボット制御システム及びロボット制御方法 |
FR2944402B1 (fr) * | 2009-04-08 | 2013-03-01 | Inst Nat Rech Inf Automat | Terminal mobile communicant, dispositif et procede de reconnaissance de forme pour robot |
US8954194B2 (en) * | 2010-05-12 | 2015-02-10 | Irobot Corporation | Remote vehicle control system and method |
JP5895337B2 (ja) | 2010-09-15 | 2016-03-30 | セイコーエプソン株式会社 | ロボット |
JP5682810B2 (ja) * | 2010-09-15 | 2015-03-11 | セイコーエプソン株式会社 | ロボット |
US8918215B2 (en) | 2011-01-19 | 2014-12-23 | Harris Corporation | Telematic interface with control signal scaling based on force sensor feedback |
US8918214B2 (en) | 2011-01-19 | 2014-12-23 | Harris Corporation | Telematic interface with directional translation |
US9205555B2 (en) | 2011-03-22 | 2015-12-08 | Harris Corporation | Manipulator joint-limit handling algorithm |
WO2012142587A1 (en) * | 2011-04-15 | 2012-10-18 | Irobot Corporation | Method for path generation for an end effector of a robot |
US8694134B2 (en) | 2011-05-05 | 2014-04-08 | Harris Corporation | Remote control interface |
US8639386B2 (en) | 2011-05-20 | 2014-01-28 | Harris Corporation | Haptic device for manipulator and vehicle control |
JP5892360B2 (ja) * | 2011-08-02 | 2016-03-23 | ソニー株式会社 | ロボット指示装置、ロボット指示方法、プログラム、及び通信システム |
US9026250B2 (en) * | 2011-08-17 | 2015-05-05 | Harris Corporation | Haptic manipulation system for wheelchairs |
US9305361B2 (en) * | 2011-09-12 | 2016-04-05 | Qualcomm Incorporated | Resolving homography decomposition ambiguity based on orientation sensors |
US8996244B2 (en) | 2011-10-06 | 2015-03-31 | Harris Corporation | Improvised explosive device defeat system |
US9044857B2 (en) | 2012-02-14 | 2015-06-02 | Jerry Neal Sommerville | Control system that guides a robot or articulated device with a laser distance meter for 3D motion, or guides a robot or articulated device with a computer pointing device (such as a mouse) for 2D motion |
US8954195B2 (en) | 2012-11-09 | 2015-02-10 | Harris Corporation | Hybrid gesture control haptic system |
US9044863B2 (en) * | 2013-02-06 | 2015-06-02 | Steelcase Inc. | Polarized enhanced confidentiality in mobile camera applications |
US8965620B2 (en) | 2013-02-07 | 2015-02-24 | Harris Corporation | Systems and methods for controlling movement of unmanned vehicles |
JP5672326B2 (ja) * | 2013-03-19 | 2015-02-18 | 株式会社安川電機 | ロボットシステム |
KR101573458B1 (ko) * | 2013-11-22 | 2015-12-04 | 대한민국 | 중증 장애인을 위한 로보틱 암 |
US9128507B2 (en) | 2013-12-30 | 2015-09-08 | Harris Corporation | Compact haptic interface |
US9844871B2 (en) | 2014-03-05 | 2017-12-19 | BlueSky Designs, Inc. | Automated mounting and positioning apparatus for increased user independence |
FR3018894B1 (fr) * | 2014-03-19 | 2016-12-30 | Commissariat Energie Atomique | Dispositif de camera portative a fixer a une pince de telemanipulateur |
CN103932828B (zh) * | 2014-04-04 | 2015-12-09 | 东北大学 | 一种多功能助残机械手 |
US20150306770A1 (en) * | 2014-04-25 | 2015-10-29 | Mittal Nimish | Detachable robotic arm having interference detection system |
PT107937B (pt) | 2014-10-02 | 2017-08-16 | Introsys - Integration For Robotic Systems - Integração De Sist Roboticos S A | Robô móvel de serviço com capacidade de recolha de amostras de solo e biológicas para monitorização ambiental |
ITUB20153680A1 (it) * | 2015-09-16 | 2017-03-16 | Liquidweb Srl | Sistema di controllo di tecnologie assistive e relativo metodo |
DE102016208811B3 (de) * | 2016-05-20 | 2017-10-05 | Kuka Roboter Gmbh | Mobile Sicherheits-Grundsteuervorrichtung mit einer Kodiervorrichtung für ein mobiles Endgerät mit Multi-Touchscreen |
US11612446B2 (en) * | 2016-06-03 | 2023-03-28 | Covidien Lp | Systems, methods, and computer-readable program products for controlling a robotically delivered manipulator |
US10383485B2 (en) * | 2016-09-20 | 2019-08-20 | Attaoulaye Diallo | Systems for mimicking arm and hand movement |
JP6534126B2 (ja) * | 2016-11-22 | 2019-06-26 | パナソニックIpマネジメント株式会社 | ピッキングシステム及びその制御方法 |
US11833684B2 (en) | 2017-02-25 | 2023-12-05 | Diligent Robotics, Inc. | Systems, apparatus, and methods for robotic learning and execution of skills |
JP2020508888A (ja) * | 2017-02-25 | 2020-03-26 | ディリジェント ロボティクス,インコーポレイテッド | ロボットが技能を学習し実行するシステム、装置及び方法 |
US11148288B2 (en) | 2017-02-25 | 2021-10-19 | Diligent Robotics, Inc. | Systems, apparatus, and methods for robotic learning and execution of skills |
JP6770025B2 (ja) * | 2018-07-12 | 2020-10-14 | ファナック株式会社 | ロボット |
US11020858B2 (en) * | 2018-08-23 | 2021-06-01 | Toyota Researching Institute, Inc. | Lifting robot systems |
CN113168611A (zh) * | 2018-11-22 | 2021-07-23 | 匹克八西普科技股份有限公司 | 货物运输车辆及货物物流系统 |
CN110142767B (zh) * | 2019-06-19 | 2022-04-12 | 斯瑞而(苏州)智能技术有限公司 | 一种集成视觉系统的夹爪控制方法、装置及夹爪控制设备 |
CN110840666B (zh) * | 2019-11-19 | 2022-09-09 | 华南理工大学 | 一种基于眼电和机器视觉的轮椅机械臂集成系统及其控制方法 |
DE202020102438U1 (de) | 2020-04-30 | 2021-08-02 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Assistenzroboter |
EP4288254A1 (en) | 2021-02-08 | 2023-12-13 | Diligent Robotics, Inc. | Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions |
TWI782709B (zh) * | 2021-09-16 | 2022-11-01 | 財團法人金屬工業研究發展中心 | 手術機械臂控制系統以及手術機械臂控制方法 |
WO2024118041A1 (en) * | 2022-11-28 | 2024-06-06 | Juvenal Suarez | Wheelchair comprising a mechanical arm for assisting a user |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6147112A (ja) * | 1984-08-10 | 1986-03-07 | 株式会社クボタ | 果実収穫装置 |
JPH0847881A (ja) * | 1994-08-05 | 1996-02-20 | Ishikawajima Harima Heavy Ind Co Ltd | ロボットの遠隔操作方法 |
JPH10146782A (ja) * | 1996-11-13 | 1998-06-02 | Mitsubishi Heavy Ind Ltd | ロボットの教示操作方法 |
JP2000094371A (ja) * | 1998-09-18 | 2000-04-04 | Yaskawa Electric Corp | ロボットの最短時間制御装置 |
JP2000135689A (ja) * | 1998-10-30 | 2000-05-16 | Fanuc Ltd | ロボット用画像処理装置 |
JP2004188562A (ja) * | 2002-12-13 | 2004-07-08 | Fanuc Ltd | ワーク取出し装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04229167A (ja) | 1990-12-26 | 1992-08-18 | Shimadzu Corp | マイクロマニピュレータ |
JP2555530B2 (ja) * | 1993-07-12 | 1996-11-20 | 株式会社御池鐵工所 | ロボットによる廃棄物の選別システム |
JP3269005B2 (ja) | 1997-05-12 | 2002-03-25 | 川崎重工業株式会社 | ロボット制御装置 |
US6184868B1 (en) * | 1998-09-17 | 2001-02-06 | Immersion Corp. | Haptic feedback control devices |
EP1279081B1 (en) * | 2000-05-01 | 2012-01-04 | iRobot Corporation | Method and system for remote control of mobile robot |
US7210890B2 (en) * | 2003-10-16 | 2007-05-01 | John M. Curotto | Front-loadable refuse container having side-loading robotic arm with motors and other mass mounted at rear of container and use of same with front-loading waste-hauling vehicle having hydraulic front forks or other retractably engageable lift means |
-
2006
- 2006-03-27 FR FR0651045A patent/FR2898824B1/fr not_active Expired - Fee Related
-
2007
- 2007-03-23 CA CA002647435A patent/CA2647435A1/en not_active Abandoned
- 2007-03-23 JP JP2009502046A patent/JP2009531184A/ja active Pending
- 2007-03-23 EP EP07727290A patent/EP1998936A2/fr not_active Withdrawn
- 2007-03-23 WO PCT/EP2007/052816 patent/WO2007110391A2/fr active Application Filing
- 2007-03-23 US US12/294,892 patent/US8155787B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6147112A (ja) * | 1984-08-10 | 1986-03-07 | 株式会社クボタ | 果実収穫装置 |
JPH0847881A (ja) * | 1994-08-05 | 1996-02-20 | Ishikawajima Harima Heavy Ind Co Ltd | ロボットの遠隔操作方法 |
JPH10146782A (ja) * | 1996-11-13 | 1998-06-02 | Mitsubishi Heavy Ind Ltd | ロボットの教示操作方法 |
JP2000094371A (ja) * | 1998-09-18 | 2000-04-04 | Yaskawa Electric Corp | ロボットの最短時間制御装置 |
JP2000135689A (ja) * | 1998-10-30 | 2000-05-16 | Fanuc Ltd | ロボット用画像処理装置 |
JP2004188562A (ja) * | 2002-12-13 | 2004-07-08 | Fanuc Ltd | ワーク取出し装置 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010228064A (ja) * | 2009-03-27 | 2010-10-14 | National Institute Of Advanced Industrial Science & Technology | 福祉用ロボット装置のロボットアーム操作方法、ロボットアーム操作プログラム、及び、記録媒体 |
JP2012066378A (ja) * | 2010-09-22 | 2012-04-05 | Toyota Motor Engineering & Manufacturing North America Inc | ロボットを制御するためのヒューマン・ロボット・インターフェース装置及び方法 |
US10890884B2 (en) | 2011-08-02 | 2021-01-12 | Sony Corporation | Control device, control method, computer program product, and robot control system |
KR102403716B1 (ko) | 2017-10-31 | 2022-05-30 | 카와사키 주코교 카부시키 카이샤 | 로봇 시스템 |
WO2019087738A1 (ja) * | 2017-10-31 | 2019-05-09 | 川崎重工業株式会社 | ロボットシステム |
JP2019081239A (ja) * | 2017-10-31 | 2019-05-30 | 川崎重工業株式会社 | ロボットシステム |
KR20200067880A (ko) * | 2017-10-31 | 2020-06-12 | 카와사키 주코교 카부시키 카이샤 | 로봇 시스템 |
JP7041492B2 (ja) | 2017-10-31 | 2022-03-24 | 川崎重工業株式会社 | ロボットシステム |
US11850758B2 (en) | 2017-10-31 | 2023-12-26 | Kawasaki Jukogyo Kabushiki Kaisha | System for correcting robot operations among simultaneously automatically operated robots |
JP2019012527A (ja) * | 2018-07-20 | 2019-01-24 | ソニー株式会社 | 移動体、制御方法、およびプログラム |
JP2020049653A (ja) * | 2018-07-20 | 2020-04-02 | ソニー株式会社 | 移動体、制御方法、およびプログラム |
JP2021166106A (ja) * | 2019-12-24 | 2021-10-14 | ソニーグループ株式会社 | 移動体、制御方法、およびプログラム |
JP7338662B2 (ja) | 2019-12-24 | 2023-09-05 | ソニーグループ株式会社 | 移動体、制御方法、およびプログラム |
WO2022091333A1 (ja) * | 2020-10-30 | 2022-05-05 | 株式会社Plasma | プログラム、ロボット操作支援方法、及び、ロボット操作支援装置 |
KR20230115547A (ko) * | 2022-01-27 | 2023-08-03 | 수원대학교산학협력단 | 휠체어 장착형 로봇팔 제어시스템 |
KR102618198B1 (ko) | 2022-01-27 | 2023-12-27 | 수원대학교 산학협력단 | 휠체어 장착형 로봇팔 제어시스템 |
Also Published As
Publication number | Publication date |
---|---|
US20100172733A1 (en) | 2010-07-08 |
EP1998936A2 (fr) | 2008-12-10 |
US8155787B2 (en) | 2012-04-10 |
CA2647435A1 (en) | 2007-10-04 |
WO2007110391A3 (fr) | 2008-03-27 |
FR2898824A1 (fr) | 2007-09-28 |
FR2898824B1 (fr) | 2009-02-13 |
WO2007110391A2 (fr) | 2007-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009531184A (ja) | 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法 | |
US20230200923A1 (en) | Systems, methods, and computer-readable program products for controlling a robotically delivered manipulator | |
Park et al. | Hands-free human–robot interaction using multimodal gestures and deep learning in wearable mixed reality | |
JP6810093B2 (ja) | ロボットのシミュレーション装置 | |
CN110977931B (zh) | 使用了增强现实和混合现实的机器人控制装置及显示装置 | |
Tölgyessy et al. | Foundations of visual linear human–robot interaction via pointing gesture navigation | |
Fritsche et al. | First-person tele-operation of a humanoid robot | |
KR20190136962A (ko) | 역각 시각화 장치, 로봇 및 역각 시각화 프로그램 | |
JP6150429B2 (ja) | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 | |
US20150281640A1 (en) | Telepresence Device | |
CN113103230A (zh) | 一种基于处置机器人遥操作的人机交互系统及方法 | |
KR102573687B1 (ko) | 원격 조작 시스템 및 원격 조작 방법 | |
Chen et al. | A human–robot interface for mobile manipulator | |
Mišković et al. | CADDY project, year 3: The final validation trials | |
CN113478491B (zh) | 一种机械臂的摆位控制方法、系统、机器人及存储介质 | |
Lopez et al. | Taichi algorithm: Human-like arm data generation applied on non-anthropomorphic robotic manipulators for demonstration | |
JP2020082282A (ja) | 把持ロボットおよび把持ロボットの制御プログラム | |
JP6142306B2 (ja) | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 | |
Chen et al. | View-based multi-touch gesture interface for furniture manipulation robots | |
Elarbi-Boudihir et al. | Eye-in-hand/eye-to-hand configuration for a wmra control based on visual servoing | |
Sopon et al. | Mixed Reality Framework for Eye-in-Hand Collaborative Robot-Human Interaction | |
Ratsamee et al. | Object search framework based on gaze interaction | |
US20240208065A1 (en) | Method and apparatus for providing input device repositioning reminders | |
JP2023009642A (ja) | 遠隔操作システム、操作器及び遠隔操作支援方法 | |
JP2024135097A (ja) | 遠隔操作制御システム、遠隔制御装置、遠隔制御方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111004 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120314 |