JP2009531184A - 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法 - Google Patents

操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法 Download PDF

Info

Publication number
JP2009531184A
JP2009531184A JP2009502046A JP2009502046A JP2009531184A JP 2009531184 A JP2009531184 A JP 2009531184A JP 2009502046 A JP2009502046 A JP 2009502046A JP 2009502046 A JP2009502046 A JP 2009502046A JP 2009531184 A JP2009531184 A JP 2009531184A
Authority
JP
Japan
Prior art keywords
clamp
move
display screen
cameras
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009502046A
Other languages
English (en)
Inventor
ジェラール シャリュベール,
クリストフ ルルー,
Original Assignee
コミッサリア タ レネルジー アトミーク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コミッサリア タ レネルジー アトミーク filed Critical コミッサリア タ レネルジー アトミーク
Publication of JP2009531184A publication Critical patent/JP2009531184A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F4/00Methods or devices enabling patients or disabled persons to operate an apparatus or a device not forming part of the body 
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Vascular Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)

Abstract

本発明は、物体を入力するための知的インターフェース装置に関し、本装置は、自由端にクランプ(21)を有し、一つ以上のカメラ(22)が装着されたヒンジ式アーム(20)を備える操作ロボットと、表示画面(25)と入力ユニット(24)とを備えるコンピュータ(23)と、前記クランプを制御する手段と、前記カメラが取得した物体のビデオ画像を前記表示画面に表示する手段と、入力ユニットを使用して画像内の物体を囲む選択領域を図形により特定する手段とを備える。本発明はこの装置を操作する方法にも関する。
【選択図】図2

Description

技術分野
本発明は、操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法に関する。
本発明の分野は、身体的に補助を必要とする人、特に身体障害者の補助に関する。また本発明の分野は、水中、核環境等の厳しい環境における物体の操作を補助することにより操作者の負担を軽減する、フォースフィードバック可能な補助に関する。
以降の説明において、例として身体障害者の補助を考慮する。
先行技術
潜在的な有益性と最近数十年間の開発にもかかわらず、ロボットは、一般社会、具体的には身体障害者の補助の分野では、特にそのコストが高いため、加えてその複雑さのために、依然として使用頻度が低い。複雑であることにより、ロボットの技術に慣れていない人々にとってロボットの使用は難しく、些細な問題がとたんに克服できないものとなる。
ロボット、例えばクランプを備えた操作アームを介して物体を把持することは、二つの段階、即ち物体に接近することと、次にクランプを使用してこの物体を把持することに分けることができる。接近段階は自由空間における移動に相当し、その目的はクランプを物体に対して幾何学的に配置することである。把持段階における課題は、物体の安定な保持を確実にすることである。
産業ロボット工学では、操作アームの再現性、即ち以前学習した動きを繰り返す能力を利用して、開ループで把持動作を実行させることが可能である。この場合、把持する又は置く対象物の位置と種類は予め完全に分かっている。把持対象物の位置が予め分かっていない場合、このような手法は使用できない。精度の低い従来の操作アームは通常、把持対象物へのアームの動きを導くため、ビデオカメラ等のセンサーを必要とする。
把持対象物体が分かっている場合、サーボ技術を使用して把持動作をうまく実行することが可能である。視覚サーボは、到達すべき基準位置と、視覚システムによって提供される現在情報との間に観察される差に応じてアームの動きを制御することからなる。視覚サーボは通常、観察される物体のモデルとその画像とに基づいて再処理された3D情報を使用する3D(三次元)サーボと、画像情報だけを使用する2Dサーボとに分類される。制御法則を繰返す度に、目標物の基準面に対して現在画像と所望の画像との相同関係を推定する2D1/2サーボを使用してもよい。
把持対象物体が分かっていない場合、クランプと把持対象物とを観察する視覚システムを使用する解決法と、ロボットのクランプに装着されたセンサーを使用する解決法とを区別することができる。この場合、これら従来の解決法は、把持対象物のマーキング又は幾何学モデルを必要とする。
従来技術による特許文献1は、アームの移動中に物体を含む環境の画像を取得するカメラを備えたロボットアームを使用して物体を把持する方法を記載している。この方法は、複数の画像内の物体の決定された地点の位置に従って、ロボットアームに対する環境内の前記決定された点の座標を計算することにより、物体の位置を特定するステップを含む。図1に例示するように、カメラ12を備え、先端にクランプ13を有するロボットアーム11は、テーブル15上に置かれた物体14に到達して把持することを可能にする。操作者は、画面とキーボードを備えた、アームを制御するためのコンピュータ16を有している。カメラ12は、目の前の環境の画像を取得する。このような位置特定法は、画像上に特定数の点を選択することを含む。
仏国特許第0451452号明細書 欧州特許第1178875号明細書
本発明の目的は、操作ロボットにより物体を把持するための知的インターフェース装置を提案することにより、このような物体の把持方法を改良することである。物体のマーキング又は物体のモデルの使用を必要とせず、操作が容易で使用に必要な作業が最少化されており、且つ多用途を有する本装置の操作方法は、非常に多種多様な物体に適用することができ、使用される機器の技術が隠れているので短い学習時間しか必要としない。
発明の開示
本発明は、
−自由端にクランプを有し、一つ以上のカメラが装着されたヒンジ式アームを備える操作ロボットと、
−表示画面と入力ユニットとを備えたコンピュータと、
−クランプを制御する手段と、
−カメラが取得した物体のビデオ画像を表示画面に表示する手段と
を備えた、対象を把持するための知的インターフェース装置に関し、本装置は、更に
−入力ユニットを使用して前記画像内の物体を囲む選択領域を図形により特定する手段
を備えること、並びに、
前記クランプを制御する手段が、表示画面から作動可能な図形のコントロールボタンを備え、当該ボタンが、
・クランプを左へ移動させる、
・クランプを右へ移動させる、
・クランプを下方へ移動させる、
・クランプを上方へ移動させる、
・クランプを前方へ移動させる、
・クランプを後方へ移動させる、
・クランプを開閉する、
・クランプを時計回りに回転させる、
・クランプを反時計回りに回転させる、
・確認する、
・取り消す、
・緊急停止
といった命令のうちの一つ以上に対応することを特徴とする。
好適な一実施形態では、本装置は立体映像センサーを構成する二つのカメラを備える。前記入力ユニットは特に、マウス、ヘッドトラッキング、接触器、仮想キーボード、ジョイスティック、或いは、視標追跡又は音声合成システムとすることができる。
各コントロールボタンは、表示画面に表示されたアイコンのワンクリックに相当させることができる。有利には、クランプは光学バリアを備える。
一実施形態では、ロボットは車椅子のアームに固定されている。別の実施形態では、ロボットは可動な台の上に固定されている。
本発明の装置は、低価格で小型の機器を使用するので、広く応用できる。更に、本装置の学習に必要な時間は、適格なユーザの場合数分である。
本発明はまた、
−自由端にクランプを有し、一つ以上のカメラが装着されたヒンジ式アームを備える操作ロボットと、
−表示画面と入力ユニットとを備えたコンピュータと
を備えた、物体を把持するための知的インターフェース装置の操作方法に関し、本方法は、
−カメラが取得したビデオ画像を表示画面に表示させながら、クランプの移動を制御することにより物体をカメラの視界内に持ってくるステップと、
−入力ユニットを使用して物体を囲む選択領域を特定するステップと、
−物体とその環境を区別し、クランプと物体の間の距離を推定するステップと、
−画像中の物体の重心を計算するステップと、
−物体に到達するためにクランプが移動すべき距離に応じて設定速度を計算するステップと、
−物体の近傍へクランプを移動するステップと、
−視覚情報を使用せずにクランプを移動し、クランプで物体を挟むステップと、
−物体をユーザの方へ持って戻るステップと
を含むことを特徴とする。
物体を囲む選択領域は、矩形領域、ユーザによって選択された複数の点によって画定される投げ縄図形、又は物体を囲んで描かれた閉曲線とすることができる。
この方法では、立体映像センサーを構成する二つのカメラを使用することができる。次に、二つのカメラによって得られた二つの画像内における複数の注目点を選択し、これらの点を二つずつ組にすることができる。また、両方のカメラによって得られた画像を補正することができる。
発明の実施形態
図2に示すように、物体19を把持するための本発明による知的インターフェース装置は、
−自由端にクランプ21を有し、一つ以上のカメラ22、例えば立体映像センサーを構成する二つのカメラを装備したヒンジ式アーム20を備えた操作ロボットと、
−表示画面25と入力ユニット24とを備えたコンピュータ23と、
−クランプ21の移動と開閉を制御する手段と、
−カメラ22によって取得された物体のビデオ画像を表示画面25に表示する手段と
を備える。
図2に示すように、アーム20は、例えば身体障害者の、車椅子のアームに固定することができる。或いは、アーム20は可動な台に固定することもでき、この場合、コンピュータはこの台の上に配置され、操作者は表示画面と入力ユニットにアクセスできる。
図3に示すように、本発明の装置は、更に
−入力ユニット24を使用して、この画像内の物体19を囲む、例えば矩形の選択領域35を、図形により特定する手段を更に備える。
クランプを制御する手段は、下記の命令を含むことができる。
−クランプを左へ移動させる
−クランプを右へ移動させる
−クランプを下方へ移動させる
−クランプを上方へ移動させる
−クランプを前方へ移動させる
−クランプを後方へ移動させる
−クランプを開閉する
−選択された物体を確認し、物体の自動把持を起動する
−選択された物体を取り消すか又はアームを停止させる
−緊急停止させる
図3に示す実施形態では、表示画面の対応するアイコンを単に「クリック」又は連続「クリック」することにより、これらの機能の一つを有効にすることができる。本実施形態では、図形による特定手段は、物体19を囲む矩形領域35を描くための四つの命令30(上方へ移動)、31(下方へ移動)、32(左へ移動)、及び33(右へ移動)と、確認命令34とにより操作される。このように、本発明による装置は最小数の命令を有する。本装置は直観的で使い易く、技術的な面を完全に覆い隠す。本装置は、カメラからの映像を表示するウィンドウと、クランプの移動を可能にする四つのコントロールボタンと、確認命令とからなる。本装置は、問題が発生した時のために、アームの移動を止める停止命令を更に含んでもよい。
この装置の操作方法は、図4に示す以下のステップを含む。
−クランプの移動を制御することにより、物体をカメラの視界内に持ってくる。このカメラが取得したビデオ画像が表示画面に表示される(ステップ40)。
−入力ユニットを使用して、物体を囲む、例えば矩形の選択領域を特定する(ステップ41)。
−指定された物体とその環境を区別し、クランプと物体の間の距離を推定する(ステップ42)。
−画像中の物体の重心を計算する(ステップ43)。
−物体に到達するためにクランプが移動すべき距離に応じて設定速度を計算する(ステップ44)。
−物体から約10センチメートルまでクランプを移動する(ステップ45)。
−視覚情報を使用せずにクランプを移動し、クランプで物体を挟む(ステップ46)。
−物体をユーザの方へ持って戻る(ステップ47)。
一実施形態では、使用されるロボットは、特許文献2に記載されたExactDyanmics社のARM(MANUS)操作アーム(コントローラによって制御される)である。カメラはウェブカメラである。カメラは視覚サーボによりロボットの移動を案内するため、及びユーザに情報を提供するための両方に使用される。クランプは、クランプのあご部が物体を把持する瞬間を正確に検出することを可能にする光学バリアを備える。コンピュータは2.8GHzのPC(パーソナルコンピュータ)型コンピュータである。このコンピュータはCAN(コントローラ・エリア・ネットワーク)バスを介してロボットのコントローラに接続される。
本発明による装置は、全ての入手可能な入力ユニット、例えばマウス、ヘッドトラッキング、接触器、仮想キーボード、肘掛椅子ジョイスティック、視標追跡システム、音声合成システム等とインターフェースすることができる。
焦点軸が平行な二つのカメラを備える立体映像センサーを使用する一実施形態のステップ41以降では、選択領域が画像内の物体の周囲に画定された後、ユーザによって指定された物体の位置を特定し、物体を認識することが可能である。このような位置特定は、表示されている決定された物体が、他の物体及びシーンの背景に対して目立っているという推測に基づいている。
次に、本装置により、二つのカメラから得られた二つの画像内の注目点を自動的に選択できる。これらの点を接続するために使用される技術は、カメラまでの距離が最も近似している点の組を選択することからなる投票法である。
両方の画像において抽出された点は、二つの画像間で発生した変換の情報を使用してエピポーラ幾何に基づいて接続される。例えば、右へ平行移動する場合、本装置はこれらの点が水平な線上を移動すると予想する。同様に物体の方へ平行移動する場合、これらの点がズームの中心から、この中心から出ていく直線に沿って離れていくと予想する。これはエピポーラ制約と呼ばれるものである。
各ペアリングは距離の仮定に貢献する。全てのペアリング仮定を実行した後、物体の選択は最も近似する距離を選択することからなる。次に、本装置は、この距離が指定された物体に対応すると仮定する。次に、これらの接続された点の共通重心を使用して、物体が見つかる方向を特定する。このような位置特定を実行後、ロボットの移動中、この処理を繰り返すことにより、物体への正しい接近を確実にする。
二つのカメラの内部パラメータと外部パラメータを更に使用して、結果を改善することができる。これは画像補正と呼ばれるものである。これにより、ゆがみ効果を補正し、エピポーラ幾何を真直ぐにしてエピポーラ線を水平線にする。
安全対策として、ロボットの移動は、ユーザインターフェース上に表示された「緊急停止」ボタンを起動することにより、いつでも中断できる。
本発明の一変形例では、本装置はカメラを一つだけ備え、二つ以上のずれた画像を取得することにより物体の立体画像を得る。この方法の進行は、装置が二つのカメラを備える立体映像センサーを備える場合と同様である。
本発明の一変形例では、物体を囲む注目領域の選択は必ずしも矩形領域によってではなく、ユーザによって選択された複数の点によって画定される投げ縄図形の形によっても、又は物体を囲む閉曲線を描いても同様に決定できる。
別の変形例では、アームの移動速度は、物体とロボットのクランプとの間の距離との比例を利用する方法以外の方法で計算されてもよい。例えば、速度は、ロボットアームの急な移動を防ぐために、最小速度と最大速度を持った連続する加速減速曲線に沿うようプログラムすることができる。
本発明の別の変形例では、ロボットアームの移動の、速度ではなく位置をサーボ制御してもよい。即ち、物体とロボットアームとを隔てる距離を推定することにより、ロボットアームが、例えば一定の速度で、移動するべき方向と距離が分かる。
本発明の別の変形例では、インターフェースは、クランプの角度方向に関する追加の命令(例えば、時計回りの方向命令と反時計回りの方向命令)を含んでもよい。
本発明の別の変形例では、物体を安定して把持するための、画像の点を選択した後、物体の形を評価し、次いで物体の最小の幅へクランプを向ける任意の追加ステップを含んでもよい。
本発明の別の変形例では、本方法は、クランプが物体を把持する前に、ロボットアームのクランプを使って物体を掴みたいという望みをユーザが確認するために、確認ステップを更に含んでもよい。
本発明は、ロボットアームにより物体を掴んで移動させ、ユーザの方へ持って戻る以外の用途に容易に適用することができる。ロボットの遠隔操作の分野(例えば水中)では、本発明により、遠隔操作者は、図形ユーザインターフェースに画像を送信する立体視システムを備えたロボットアームの端を把持対象のハンドルに接近させ、次いで当該ハンドルと整列させることにより、ロボットをハンドルのそばへ移動させることができる。
核の分野等の厳しい環境内における遠隔操作の分野では、操作者は通常、マスターアームの保持を通してスレーブアーム全てを動かさなければならない。本発明は、画面上で把持対象物を特定及び指定した後、所定の動きの終了まで、ロボットアームに全ての動きを単独で実行させることができる。
従来の装置を示す。 本発明による装置を示す。 本発明による装置を示す。 本発明による方法のステップを示す。

Claims (13)

  1. −自由端にクランプ(21)を有し、一つ以上のカメラ(22)が装着されたヒンジ式アーム(20)を備えた操作ロボットと、
    −表示画面(25)と入力ユニット(24)とを備えたコンピュータ(23)と、
    −クランプ(21)を制御する手段と、
    −カメラが取得した物体のビデオ画像を表示画面に表示する手段と
    を備えた、物体を把持するための知的インターフェース装置であって、
    −入力ユニット(24)を使用して前記画像内の物体(19)を囲む選択領域(35)を図形により特定する手段
    を更に備えること、並びに
    クランプ(21)を制御する前記手段が、表示画面から作動可能な一つ以上の図形式コントロールボタンであって、
    ・クランプを左へ移動させる(32)、
    ・クランプを右へ移動させる(33)、
    ・クランプを下方へ移動させる(31)、
    ・クランプを上方へ移動させる(30)、
    ・クランプを前方へ移動させる、
    ・クランプを後方へ移動させる、
    ・クランプを開閉する、
    ・クランプを時計回りに回転させる、
    ・クランプを反時計回りに回転させる、
    ・確認する(34)、
    ・取り消す、
    ・緊急停止する
    といった命令のうちの一つ以上に対応するコントロールボタンを備えることを特徴とする、知的インターフェース装置。
  2. 立体映像センサーを構成する二つのカメラを備える、請求項1に記載の装置。
  3. 入力ユニット(24)が、マウス、ヘッドトラッキング、接触器、仮想キーボード、ジョイスティック、或いは視標追跡又は音声合成システムである、請求項1に記載の装置。
  4. 命令の各々が、表示画面に表示されたアイコン上のワンクリックに対応する、請求項1に記載の装置。
  5. クランプが、光学バリア、又は接近検出器を備える、請求項1に記載の装置。
  6. ロボットが、車椅子のアームに固定されている、請求項1ないし5のいずれか一項に記載の装置。
  7. ロボットが、可動な台の上に固定されている、請求項1ないし5のいずれか一項に記載の装置。
  8. −自由端にクランプ(21)を有し、一つ以上のカメラ(22)が装着されたヒンジ式アーム(20)を備えた操作ロボットと、
    −表示画面(25)と入力ユニット(24)とを備えたコンピュータ(23)と
    を備えた、物体を把持するための知的インターフェース装置の操作方法であって、
    −カメラが取得したビデオ画像を表示画面に表示させながら、クランプの移動を制御することにより、物体をカメラの視界内に持ってくるステップ(40)と、
    −入力ユニットを使用して、物体を囲む選択領域を特定するステップ(41)と、
    −物体とその環境を区別し、クランプと物体の間の距離を推定するステップ(42)と、
    −画像中の物体の重心を計算するステップ(43)と、
    −物体に到達するためにクランプが移動すべき距離に応じて設定速度を計算するステップ(44)と、
    −物体の近傍へクランプを移動するステップ(45)と、
    −視覚情報を使用せずにクランプを移動し、クランプを閉じるステップ(46)と、
    −物体をユーザの方へ持って戻るステップ(47)と
    を含むことを特徴とする方法。
  9. 物体を囲む選択領域が、矩形領域、ユーザによって選択された複数の点によって画定される投げ縄図形、又は物体を囲んで描かれた閉曲線である、請求項8に記載の方法。
  10. 立体映像センサーを構成する二つのカメラを使用する、請求項8に記載の方法。
  11. 二つのカメラによって取得された二つの画像内の複数の注目点を選択する、請求項10に記載の方法。
  12. 複数の点を二つずつペアにする、請求項11に記載の方法。
  13. 二つのカメラによって取得された画像を補正する、請求項10に記載の方法。
JP2009502046A 2006-03-27 2007-03-23 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法 Pending JP2009531184A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0651045A FR2898824B1 (fr) 2006-03-27 2006-03-27 Dispositif interface intelligent pour la saisie d'un objet par un robot manipulateur et procede de mise en oeuvre de ce dispositif
PCT/EP2007/052816 WO2007110391A2 (fr) 2006-03-27 2007-03-23 Dispositif interface intelligent pour la saisie d'un objet par un robot manipulateur et procede de mise en œuvre de ce dispositif

Publications (1)

Publication Number Publication Date
JP2009531184A true JP2009531184A (ja) 2009-09-03

Family

ID=37671997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009502046A Pending JP2009531184A (ja) 2006-03-27 2007-03-23 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法

Country Status (6)

Country Link
US (1) US8155787B2 (ja)
EP (1) EP1998936A2 (ja)
JP (1) JP2009531184A (ja)
CA (1) CA2647435A1 (ja)
FR (1) FR2898824B1 (ja)
WO (1) WO2007110391A2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010228064A (ja) * 2009-03-27 2010-10-14 National Institute Of Advanced Industrial Science & Technology 福祉用ロボット装置のロボットアーム操作方法、ロボットアーム操作プログラム、及び、記録媒体
JP2012066378A (ja) * 2010-09-22 2012-04-05 Toyota Motor Engineering & Manufacturing North America Inc ロボットを制御するためのヒューマン・ロボット・インターフェース装置及び方法
JP2019012527A (ja) * 2018-07-20 2019-01-24 ソニー株式会社 移動体、制御方法、およびプログラム
WO2019087738A1 (ja) * 2017-10-31 2019-05-09 川崎重工業株式会社 ロボットシステム
JP2020049653A (ja) * 2018-07-20 2020-04-02 ソニー株式会社 移動体、制御方法、およびプログラム
US10890884B2 (en) 2011-08-02 2021-01-12 Sony Corporation Control device, control method, computer program product, and robot control system
JP2021166106A (ja) * 2019-12-24 2021-10-14 ソニーグループ株式会社 移動体、制御方法、およびプログラム
WO2022091333A1 (ja) * 2020-10-30 2022-05-05 株式会社Plasma プログラム、ロボット操作支援方法、及び、ロボット操作支援装置
KR20230115547A (ko) * 2022-01-27 2023-08-03 수원대학교산학협력단 휠체어 장착형 로봇팔 제어시스템

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2008015978A1 (ja) * 2006-08-02 2009-12-24 パナソニック株式会社 映像表示装置および映像表示方法
JP5158808B2 (ja) * 2009-02-23 2013-03-06 独立行政法人科学技術振興機構 ロボット制御システム及びロボット制御方法
FR2944402B1 (fr) * 2009-04-08 2013-03-01 Inst Nat Rech Inf Automat Terminal mobile communicant, dispositif et procede de reconnaissance de forme pour robot
US8954194B2 (en) * 2010-05-12 2015-02-10 Irobot Corporation Remote vehicle control system and method
JP5895337B2 (ja) 2010-09-15 2016-03-30 セイコーエプソン株式会社 ロボット
JP5682810B2 (ja) * 2010-09-15 2015-03-11 セイコーエプソン株式会社 ロボット
US8918215B2 (en) 2011-01-19 2014-12-23 Harris Corporation Telematic interface with control signal scaling based on force sensor feedback
US8918214B2 (en) 2011-01-19 2014-12-23 Harris Corporation Telematic interface with directional translation
US9205555B2 (en) 2011-03-22 2015-12-08 Harris Corporation Manipulator joint-limit handling algorithm
WO2012142587A1 (en) * 2011-04-15 2012-10-18 Irobot Corporation Method for path generation for an end effector of a robot
US8694134B2 (en) 2011-05-05 2014-04-08 Harris Corporation Remote control interface
US8639386B2 (en) 2011-05-20 2014-01-28 Harris Corporation Haptic device for manipulator and vehicle control
JP5892360B2 (ja) * 2011-08-02 2016-03-23 ソニー株式会社 ロボット指示装置、ロボット指示方法、プログラム、及び通信システム
US9026250B2 (en) * 2011-08-17 2015-05-05 Harris Corporation Haptic manipulation system for wheelchairs
US9305361B2 (en) * 2011-09-12 2016-04-05 Qualcomm Incorporated Resolving homography decomposition ambiguity based on orientation sensors
US8996244B2 (en) 2011-10-06 2015-03-31 Harris Corporation Improvised explosive device defeat system
US9044857B2 (en) 2012-02-14 2015-06-02 Jerry Neal Sommerville Control system that guides a robot or articulated device with a laser distance meter for 3D motion, or guides a robot or articulated device with a computer pointing device (such as a mouse) for 2D motion
US8954195B2 (en) 2012-11-09 2015-02-10 Harris Corporation Hybrid gesture control haptic system
US9044863B2 (en) * 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
US8965620B2 (en) 2013-02-07 2015-02-24 Harris Corporation Systems and methods for controlling movement of unmanned vehicles
JP5672326B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム
KR101573458B1 (ko) * 2013-11-22 2015-12-04 대한민국 중증 장애인을 위한 로보틱 암
US9128507B2 (en) 2013-12-30 2015-09-08 Harris Corporation Compact haptic interface
US9844871B2 (en) 2014-03-05 2017-12-19 BlueSky Designs, Inc. Automated mounting and positioning apparatus for increased user independence
FR3018894B1 (fr) * 2014-03-19 2016-12-30 Commissariat Energie Atomique Dispositif de camera portative a fixer a une pince de telemanipulateur
CN103932828B (zh) * 2014-04-04 2015-12-09 东北大学 一种多功能助残机械手
US20150306770A1 (en) * 2014-04-25 2015-10-29 Mittal Nimish Detachable robotic arm having interference detection system
PT107937B (pt) 2014-10-02 2017-08-16 Introsys - Integration For Robotic Systems - Integração De Sist Roboticos S A Robô móvel de serviço com capacidade de recolha de amostras de solo e biológicas para monitorização ambiental
ITUB20153680A1 (it) * 2015-09-16 2017-03-16 Liquidweb Srl Sistema di controllo di tecnologie assistive e relativo metodo
DE102016208811B3 (de) * 2016-05-20 2017-10-05 Kuka Roboter Gmbh Mobile Sicherheits-Grundsteuervorrichtung mit einer Kodiervorrichtung für ein mobiles Endgerät mit Multi-Touchscreen
US11612446B2 (en) * 2016-06-03 2023-03-28 Covidien Lp Systems, methods, and computer-readable program products for controlling a robotically delivered manipulator
US10383485B2 (en) * 2016-09-20 2019-08-20 Attaoulaye Diallo Systems for mimicking arm and hand movement
JP6534126B2 (ja) * 2016-11-22 2019-06-26 パナソニックIpマネジメント株式会社 ピッキングシステム及びその制御方法
US11833684B2 (en) 2017-02-25 2023-12-05 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
JP2020508888A (ja) * 2017-02-25 2020-03-26 ディリジェント ロボティクス,インコーポレイテッド ロボットが技能を学習し実行するシステム、装置及び方法
US11148288B2 (en) 2017-02-25 2021-10-19 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
JP6770025B2 (ja) * 2018-07-12 2020-10-14 ファナック株式会社 ロボット
US11020858B2 (en) * 2018-08-23 2021-06-01 Toyota Researching Institute, Inc. Lifting robot systems
CN113168611A (zh) * 2018-11-22 2021-07-23 匹克八西普科技股份有限公司 货物运输车辆及货物物流系统
CN110142767B (zh) * 2019-06-19 2022-04-12 斯瑞而(苏州)智能技术有限公司 一种集成视觉系统的夹爪控制方法、装置及夹爪控制设备
CN110840666B (zh) * 2019-11-19 2022-09-09 华南理工大学 一种基于眼电和机器视觉的轮椅机械臂集成系统及其控制方法
DE202020102438U1 (de) 2020-04-30 2021-08-02 Deutsches Zentrum für Luft- und Raumfahrt e.V. Assistenzroboter
EP4288254A1 (en) 2021-02-08 2023-12-13 Diligent Robotics, Inc. Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions
TWI782709B (zh) * 2021-09-16 2022-11-01 財團法人金屬工業研究發展中心 手術機械臂控制系統以及手術機械臂控制方法
WO2024118041A1 (en) * 2022-11-28 2024-06-06 Juvenal Suarez Wheelchair comprising a mechanical arm for assisting a user

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6147112A (ja) * 1984-08-10 1986-03-07 株式会社クボタ 果実収穫装置
JPH0847881A (ja) * 1994-08-05 1996-02-20 Ishikawajima Harima Heavy Ind Co Ltd ロボットの遠隔操作方法
JPH10146782A (ja) * 1996-11-13 1998-06-02 Mitsubishi Heavy Ind Ltd ロボットの教示操作方法
JP2000094371A (ja) * 1998-09-18 2000-04-04 Yaskawa Electric Corp ロボットの最短時間制御装置
JP2000135689A (ja) * 1998-10-30 2000-05-16 Fanuc Ltd ロボット用画像処理装置
JP2004188562A (ja) * 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04229167A (ja) 1990-12-26 1992-08-18 Shimadzu Corp マイクロマニピュレータ
JP2555530B2 (ja) * 1993-07-12 1996-11-20 株式会社御池鐵工所 ロボットによる廃棄物の選別システム
JP3269005B2 (ja) 1997-05-12 2002-03-25 川崎重工業株式会社 ロボット制御装置
US6184868B1 (en) * 1998-09-17 2001-02-06 Immersion Corp. Haptic feedback control devices
EP1279081B1 (en) * 2000-05-01 2012-01-04 iRobot Corporation Method and system for remote control of mobile robot
US7210890B2 (en) * 2003-10-16 2007-05-01 John M. Curotto Front-loadable refuse container having side-loading robotic arm with motors and other mass mounted at rear of container and use of same with front-loading waste-hauling vehicle having hydraulic front forks or other retractably engageable lift means

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6147112A (ja) * 1984-08-10 1986-03-07 株式会社クボタ 果実収穫装置
JPH0847881A (ja) * 1994-08-05 1996-02-20 Ishikawajima Harima Heavy Ind Co Ltd ロボットの遠隔操作方法
JPH10146782A (ja) * 1996-11-13 1998-06-02 Mitsubishi Heavy Ind Ltd ロボットの教示操作方法
JP2000094371A (ja) * 1998-09-18 2000-04-04 Yaskawa Electric Corp ロボットの最短時間制御装置
JP2000135689A (ja) * 1998-10-30 2000-05-16 Fanuc Ltd ロボット用画像処理装置
JP2004188562A (ja) * 2002-12-13 2004-07-08 Fanuc Ltd ワーク取出し装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010228064A (ja) * 2009-03-27 2010-10-14 National Institute Of Advanced Industrial Science & Technology 福祉用ロボット装置のロボットアーム操作方法、ロボットアーム操作プログラム、及び、記録媒体
JP2012066378A (ja) * 2010-09-22 2012-04-05 Toyota Motor Engineering & Manufacturing North America Inc ロボットを制御するためのヒューマン・ロボット・インターフェース装置及び方法
US10890884B2 (en) 2011-08-02 2021-01-12 Sony Corporation Control device, control method, computer program product, and robot control system
KR102403716B1 (ko) 2017-10-31 2022-05-30 카와사키 주코교 카부시키 카이샤 로봇 시스템
WO2019087738A1 (ja) * 2017-10-31 2019-05-09 川崎重工業株式会社 ロボットシステム
JP2019081239A (ja) * 2017-10-31 2019-05-30 川崎重工業株式会社 ロボットシステム
KR20200067880A (ko) * 2017-10-31 2020-06-12 카와사키 주코교 카부시키 카이샤 로봇 시스템
JP7041492B2 (ja) 2017-10-31 2022-03-24 川崎重工業株式会社 ロボットシステム
US11850758B2 (en) 2017-10-31 2023-12-26 Kawasaki Jukogyo Kabushiki Kaisha System for correcting robot operations among simultaneously automatically operated robots
JP2019012527A (ja) * 2018-07-20 2019-01-24 ソニー株式会社 移動体、制御方法、およびプログラム
JP2020049653A (ja) * 2018-07-20 2020-04-02 ソニー株式会社 移動体、制御方法、およびプログラム
JP2021166106A (ja) * 2019-12-24 2021-10-14 ソニーグループ株式会社 移動体、制御方法、およびプログラム
JP7338662B2 (ja) 2019-12-24 2023-09-05 ソニーグループ株式会社 移動体、制御方法、およびプログラム
WO2022091333A1 (ja) * 2020-10-30 2022-05-05 株式会社Plasma プログラム、ロボット操作支援方法、及び、ロボット操作支援装置
KR20230115547A (ko) * 2022-01-27 2023-08-03 수원대학교산학협력단 휠체어 장착형 로봇팔 제어시스템
KR102618198B1 (ko) 2022-01-27 2023-12-27 수원대학교 산학협력단 휠체어 장착형 로봇팔 제어시스템

Also Published As

Publication number Publication date
US20100172733A1 (en) 2010-07-08
EP1998936A2 (fr) 2008-12-10
US8155787B2 (en) 2012-04-10
CA2647435A1 (en) 2007-10-04
WO2007110391A3 (fr) 2008-03-27
FR2898824A1 (fr) 2007-09-28
FR2898824B1 (fr) 2009-02-13
WO2007110391A2 (fr) 2007-10-04

Similar Documents

Publication Publication Date Title
JP2009531184A (ja) 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法
US20230200923A1 (en) Systems, methods, and computer-readable program products for controlling a robotically delivered manipulator
Park et al. Hands-free human–robot interaction using multimodal gestures and deep learning in wearable mixed reality
JP6810093B2 (ja) ロボットのシミュレーション装置
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
Tölgyessy et al. Foundations of visual linear human–robot interaction via pointing gesture navigation
Fritsche et al. First-person tele-operation of a humanoid robot
KR20190136962A (ko) 역각 시각화 장치, 로봇 및 역각 시각화 프로그램
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
US20150281640A1 (en) Telepresence Device
CN113103230A (zh) 一种基于处置机器人遥操作的人机交互系统及方法
KR102573687B1 (ko) 원격 조작 시스템 및 원격 조작 방법
Chen et al. A human–robot interface for mobile manipulator
Mišković et al. CADDY project, year 3: The final validation trials
CN113478491B (zh) 一种机械臂的摆位控制方法、系统、机器人及存储介质
Lopez et al. Taichi algorithm: Human-like arm data generation applied on non-anthropomorphic robotic manipulators for demonstration
JP2020082282A (ja) 把持ロボットおよび把持ロボットの制御プログラム
JP6142306B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
Chen et al. View-based multi-touch gesture interface for furniture manipulation robots
Elarbi-Boudihir et al. Eye-in-hand/eye-to-hand configuration for a wmra control based on visual servoing
Sopon et al. Mixed Reality Framework for Eye-in-Hand Collaborative Robot-Human Interaction
Ratsamee et al. Object search framework based on gaze interaction
US20240208065A1 (en) Method and apparatus for providing input device repositioning reminders
JP2023009642A (ja) 遠隔操作システム、操作器及び遠隔操作支援方法
JP2024135097A (ja) 遠隔操作制御システム、遠隔制御装置、遠隔制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120314