JP2024015262A - モーションキャプチャを介したロボットカメラ制御 - Google Patents
モーションキャプチャを介したロボットカメラ制御 Download PDFInfo
- Publication number
- JP2024015262A JP2024015262A JP2023206828A JP2023206828A JP2024015262A JP 2024015262 A JP2024015262 A JP 2024015262A JP 2023206828 A JP2023206828 A JP 2023206828A JP 2023206828 A JP2023206828 A JP 2023206828A JP 2024015262 A JP2024015262 A JP 2024015262A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- operator
- motion capture
- movements
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title abstract description 154
- 238000010586 diagram Methods 0.000 abstract description 13
- 230000003278 mimic effect Effects 0.000 abstract description 12
- 238000000034 method Methods 0.000 description 41
- 230000008569 process Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 208000027418 Wounds and injury Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000006378 damage Effects 0.000 description 3
- 239000012636 effector Substances 0.000 description 3
- 208000014674 injury Diseases 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0016—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35444—Gesture interface, controlled machine observes operator, executes commands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Abstract
【課題】好適なモーションキャプチャを介したロボットカメラ制御を提供すること。【解決手段】モーションキャプチャ装置は、オペレータの移動を記録し、制御エンジンは、次いで、それらの移動を、ロボットを制御するための制御信号に変換する。制御エンジンは、オペレータの移動を、ロボットによって実施されるべき類似した移動に直接的に変換し得るか、または、制御エンジンは、ロボットの一部にオペレータの対応する部分を模倣させるロボット動態を算出し得る。【選択図】図5
Description
(関連出願の引用)
本願は、米国特許出願第15/216,583号(2016年7月21日出願)の利益を主張し、上記出願は、参照により本明細書に組み込まれる。
(発明の分野)
本発明の実施形態は、概して、ロボット工学に関し、より具体的には、モーションキャプチャを介したロボットカメラ制御に関する。
本願は、米国特許出願第15/216,583号(2016年7月21日出願)の利益を主張し、上記出願は、参照により本明細書に組み込まれる。
(発明の分野)
本発明の実施形態は、概して、ロボット工学に関し、より具体的には、モーションキャプチャを介したロボットカメラ制御に関する。
映画を撮影するとき、カメラオペレータは、数ある映画手順の中で、ショットを撮影し、シーケンスを捕捉し、カメラアングル間で遷移するために、カメラの位置、向き、および動きを制御する。しかしながら、カメラを操作することは、ある状況では困難かつ/または危険であり得る。例えば、クローズアップシーケンスを撮影するとき、カメラオペレータは、重いカメラ機器を物理的に支持しながら、長時間にわたって動きにくい姿勢をとることを要求され得る。または、アクションシーケンスを撮影するとき、カメラオペレータは、傷害の危険を冒し、撮影されているアクションに対して必要な近接度を達成することを要求され得る。いずれの場合でも、カメラオペレータは、通常、非常に複雑なカメラ移動を実施しなければならず、多くの場合、複数の作業にわたってこれらの運動を反復しなければならない。
前述の説明が例証するように、当技術分野において必要とされるものは、映画シーケンスを撮影するためのより有効なアプローチである。
本発明の種々の実施形態は、ロボットを制御するコンピュータ実装方法を記載し、コンピュータ実装方法は、オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成することと、モーションキャプチャデータを処理し、ロボットを制御するための制御信号を生成することと、制御信号をロボットに伝送し、ロボットにオペレータの1つ以上の移動を模倣させることとを含む。
本明細書に議論されるアプローチの少なくとも1つの利点は、人間のカメラオペレータカメラオペレータが、映画を撮影するとき、不快感または傷害にさらされる必要がないということである。
本発明はさらに、例えば、以下を提供する。
(項目1)
ロボットを制御するコンピュータ実装方法であって、前記方法は、
オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成することと、
前記モーションキャプチャデータを処理し、前記ロボットを制御するための制御信号を生成することと、
前記制御信号を前記ロボットに伝送し、前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることと
を含む、コンピュータ実装方法。
(項目2)
前記モーションキャプチャデータを生成することは、モーションキャプチャ装置を介して、前記オペレータに関連付けられた頭部、胴体、および手足の移動のうちの少なくとも1つを追跡することを含む、項目1に記載のコンピュータ実装方法。
(項目3)
前記モーションキャプチャデータを処理し、前記制御信号を生成することは、
前記1つ以上の移動に対応する前記オペレータの第1の動態の組をモデル化することと、
前記1つ以上の移動に対応する前記ロボットの第2の動態の組を決定することと、
前記第2の動態の組に基づいて、前記制御信号を生成することと
を含む、項目1に記載のコンピュータ実装方法。
(項目4)
前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることは、前記ロボットに含まれる継手の組を作動させ、前記1つ以上の移動に関連付けられた関節シーケンスを実施することを含む、項目1に記載のコンピュータ実装方法。
(項目5)
前記ロボットは、前記継手の組を含むロボットアームを備えている、項目4に記載のコンピュータ実装方法。
(項目6)
前記ロボットに前記1つ以上の移動を模倣させることは、プロペラに結合された少なくとも1つのモータの速度を調節することを含む、項目1に記載のコンピュータ実装方法。
(項目7)
前記ロボットは、飛行ドローンを備えている、項目6に記載のコンピュータ実装方法。
(項目8)
前記ロボットに前記1つ以上の移動を模倣させることは、前記ロボットの第1の部分のみに前記1つ以上の移動の一部のみを模倣させることを含む、項目1に記載のコンピュータ実装方法。
(項目9)
前記ロボットが前記1つ以上の移動を模倣している間にセンサデータを捕捉することをさらに含む、項目1に記載のコンピュータ実装方法。
(項目10)
前記1つ以上の移動は、前記ロボットに結合されたセンサアレイのための標的軌道を備えている、項目1に記載のコンピュータ実装方法。
(項目11)
非一過性コンピュータ読み取り可能な媒体であって、前記媒体は、プロセッサによって実行されると、
オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成するステップと、
前記モーションキャプチャデータを処理し、ロボットを制御するための制御信号を生成するステップと、
前記制御信号を前記ロボットに伝送し、前記ロボットに前記オペレータの前記1つ以上の移動を模倣させるステップと
を実施することによって、前記プロセッサに前記ロボットを制御させる、非一過性コンピュータ読み取り可能な媒体。
(項目12)
前記モーションキャプチャデータを生成することは、モーションキャプチャ装置を介して、前記オペレータに関連付けられた頭部、胴体、および手足の移動のうちの少なくとも1つを追跡することを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目13)
前記モーションキャプチャデータを処理し、前記制御信号を生成することは、
前記1つ以上の移動に対応する前記オペレータの第1の動態の組をモデル化することと、
前記1つ以上の移動に対応する前記ロボットの第2の動態の組を決定することと、
前記第2の動態の組に基づいて、前記制御信号を生成することと
を含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目14)
前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることは、前記ロボットに含まれる継手の組を作動させ、前記1つ以上の移動に関連付けられた関節シーケンスを実施することを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目15)
前記ロボットに前記1つ以上の移動を模倣させることは、プロペラに結合された少なくとも1つのモータの速度を調節することを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目16)
前記ロボットに前記1つ以上の移動を模倣させることは、前記ロボットの第1の部分のみに前記1つ以上の移動の一部のみを模倣させることを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目17)
前記ロボットが前記1つ以上の移動を模倣している間にセンサデータを捕捉することをさらに含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目18)
前記1つ以上の移動は、前記ロボットに結合されたセンサアレイのための標的軌道を備えている、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目19)
ロボットを制御するためのシステムであって、前記システムは、
制御アプリケーションを記憶しているメモリと、
前記メモリに結合されたプロセッサと
を備え、
前記プロセッサは、
オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成することと、
前記モーションキャプチャデータを処理し、前記ロボットを制御するための制御信号を生成することと、
前記制御信号を前記ロボットに伝送し、前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることと
を行うように構成されている、システム。
(項目20)
前記プロセッサは、前記制御アプリケーションを実行し、
前記モーションキャプチャデータを生成することと、
前記モーションキャプチャデータを処理し、前記制御信号を生成することと、
前記制御信号を前記ロボットに伝送することと
を行うように構成されている、項目19に記載のシステム。
本発明はさらに、例えば、以下を提供する。
(項目1)
ロボットを制御するコンピュータ実装方法であって、前記方法は、
オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成することと、
前記モーションキャプチャデータを処理し、前記ロボットを制御するための制御信号を生成することと、
前記制御信号を前記ロボットに伝送し、前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることと
を含む、コンピュータ実装方法。
(項目2)
前記モーションキャプチャデータを生成することは、モーションキャプチャ装置を介して、前記オペレータに関連付けられた頭部、胴体、および手足の移動のうちの少なくとも1つを追跡することを含む、項目1に記載のコンピュータ実装方法。
(項目3)
前記モーションキャプチャデータを処理し、前記制御信号を生成することは、
前記1つ以上の移動に対応する前記オペレータの第1の動態の組をモデル化することと、
前記1つ以上の移動に対応する前記ロボットの第2の動態の組を決定することと、
前記第2の動態の組に基づいて、前記制御信号を生成することと
を含む、項目1に記載のコンピュータ実装方法。
(項目4)
前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることは、前記ロボットに含まれる継手の組を作動させ、前記1つ以上の移動に関連付けられた関節シーケンスを実施することを含む、項目1に記載のコンピュータ実装方法。
(項目5)
前記ロボットは、前記継手の組を含むロボットアームを備えている、項目4に記載のコンピュータ実装方法。
(項目6)
前記ロボットに前記1つ以上の移動を模倣させることは、プロペラに結合された少なくとも1つのモータの速度を調節することを含む、項目1に記載のコンピュータ実装方法。
(項目7)
前記ロボットは、飛行ドローンを備えている、項目6に記載のコンピュータ実装方法。
(項目8)
前記ロボットに前記1つ以上の移動を模倣させることは、前記ロボットの第1の部分のみに前記1つ以上の移動の一部のみを模倣させることを含む、項目1に記載のコンピュータ実装方法。
(項目9)
前記ロボットが前記1つ以上の移動を模倣している間にセンサデータを捕捉することをさらに含む、項目1に記載のコンピュータ実装方法。
(項目10)
前記1つ以上の移動は、前記ロボットに結合されたセンサアレイのための標的軌道を備えている、項目1に記載のコンピュータ実装方法。
(項目11)
非一過性コンピュータ読み取り可能な媒体であって、前記媒体は、プロセッサによって実行されると、
オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成するステップと、
前記モーションキャプチャデータを処理し、ロボットを制御するための制御信号を生成するステップと、
前記制御信号を前記ロボットに伝送し、前記ロボットに前記オペレータの前記1つ以上の移動を模倣させるステップと
を実施することによって、前記プロセッサに前記ロボットを制御させる、非一過性コンピュータ読み取り可能な媒体。
(項目12)
前記モーションキャプチャデータを生成することは、モーションキャプチャ装置を介して、前記オペレータに関連付けられた頭部、胴体、および手足の移動のうちの少なくとも1つを追跡することを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目13)
前記モーションキャプチャデータを処理し、前記制御信号を生成することは、
前記1つ以上の移動に対応する前記オペレータの第1の動態の組をモデル化することと、
前記1つ以上の移動に対応する前記ロボットの第2の動態の組を決定することと、
前記第2の動態の組に基づいて、前記制御信号を生成することと
を含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目14)
前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることは、前記ロボットに含まれる継手の組を作動させ、前記1つ以上の移動に関連付けられた関節シーケンスを実施することを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目15)
前記ロボットに前記1つ以上の移動を模倣させることは、プロペラに結合された少なくとも1つのモータの速度を調節することを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目16)
前記ロボットに前記1つ以上の移動を模倣させることは、前記ロボットの第1の部分のみに前記1つ以上の移動の一部のみを模倣させることを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目17)
前記ロボットが前記1つ以上の移動を模倣している間にセンサデータを捕捉することをさらに含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目18)
前記1つ以上の移動は、前記ロボットに結合されたセンサアレイのための標的軌道を備えている、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目19)
ロボットを制御するためのシステムであって、前記システムは、
制御アプリケーションを記憶しているメモリと、
前記メモリに結合されたプロセッサと
を備え、
前記プロセッサは、
オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成することと、
前記モーションキャプチャデータを処理し、前記ロボットを制御するための制御信号を生成することと、
前記制御信号を前記ロボットに伝送し、前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることと
を行うように構成されている、システム。
(項目20)
前記プロセッサは、前記制御アプリケーションを実行し、
前記モーションキャプチャデータを生成することと、
前記モーションキャプチャデータを処理し、前記制御信号を生成することと、
前記制御信号を前記ロボットに伝送することと
を行うように構成されている、項目19に記載のシステム。
本発明の上で列挙された特徴が詳細に理解され得る様式で上で簡潔に要約された本発明のより特定の説明が、そのいくつかが添付される図面に図示される実施形態を参照することによって得られ得る。しかしながら、本発明は、他の均等に有効な実施形態を認め得るので、添付される図面は、本発明の典型的実施形態を例証するのみであり、したがって、その範囲を限定するものではないと見なされることに留意されたい。
図1は、本発明の1つ以上の側面を実装するように構成されるシステムを図示する。
図2は、本発明の種々の実施形態による図1の制御エンジンのより詳細な図である。
図3は、本発明の種々の実施形態によるロボットアームの関節運動がモーションキャプチャ装置を介して制御され得る方法を図示する。
図4は、本発明の種々の実施形態によるロボットドローンの位置および向きがモーションキャプチャ装置を介して制御され得る方法を図示する。
図5は、本発明の種々の実施形態によるモーションキャプチャデータをロボットを制御するための制御信号に変換するための方法ステップの流れ図である。
以下の説明では、多数の具体的な詳細が、述べられ、本発明のより徹底的な理解を提供する。しかしながら、本発明は、これらの具体的な詳細のうちの1つ以上のものがなくとも実践され得ることが、当業者に明白であろう。
(システム概要)
図1は、本発明の1つ以上の側面を実装するように構成されるシステムを図示する。示されるように、システム100は、モーションキャプチャ装置110と、コンピュータ120と、ロボット140とを含む。モーションキャプチャ装置110は、コンピュータ120に結合され、コンピュータ120は、ロボット140に結合される。
図1は、本発明の1つ以上の側面を実装するように構成されるシステムを図示する。示されるように、システム100は、モーションキャプチャ装置110と、コンピュータ120と、ロボット140とを含む。モーションキャプチャ装置110は、コンピュータ120に結合され、コンピュータ120は、ロボット140に結合される。
モーションキャプチャ装置110は、オペレータ114に関連付けられた動作を捕捉するように構成されたセンサ112(0)および112(1)を含む。モーションキャプチャ装置110は、任意の数の異なるセンサを含み得るが、概して、モーションキャプチャ装置110は、少なくとも2つのセンサ112を含み、両眼データを捕捉する。モーションキャプチャ装置110は、モーションキャプチャデータ150を、処理するためのコンピュータ120に出力する。
コンピュータ120は、一緒に結合されたプロセッサ122、入力/出力(I/O)ユーティリティ124、およびメモリ126を含む。プロセッサ122は、データを処理し、プログラムコードを実行するように構成された処理デバイスの任意の技術的に実現可能な形態であり得る。プロセッサ112は、例えば、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、およびそのようなユニットの任意の技術的に実現可能な組み合わせ等であり得る。I/Oユーティリティ124は、例えば、キーボード、マウス等を含む入力を受信するように構成されるデバイスを含み得る。I/Oユーティリティ124は、例えば、ディスプレイデバイス、スピーカ等を含む出力を提供するように構成されるデバイスも含み得る。I/Oユーティリティ124は、例えば、タッチスクリーン、ユニバーサルシリアルバス(USB)ポート等を含む入力および出力をそれぞれ受信することおよび提供することの両方を行うように構成されるデバイスをさらに含み得る。
メモリ126は、データおよびソフトウェアアプリケーションを記憶するように構成された任意の技術的に実現可能な記憶媒体であり得る。メモリ126は、例えば、ハードディスク、ランダムアクセスメモリ(RAM)モジュール、読み取り専用メモリ(ROM)等であり得る。メモリ126は、制御エンジン128と、データベース130とを含む。制御エンジン128は、プロセッサ122によって実行されると、プロセッサ122をロボット140と相互作用させるソフトウェアアプリケーションである。
ロボット140は、センサアレイ144に結合されるアクチュエータ142を含む。アクチュエータ142は、リニアモータまたは回転モータ、油圧ポンプもしくは空気ポンプ等を含む任意の種類の物理的動作を誘発するように構成された任意の技術的に実現可能なタイプの機構であり得る。(図3と併せて例として説明される)1つの実施形態では、アクチュエータ142は、ロボット140のロボットアームを関節運動させるように構成される回転モータを含む。(図4と併せて例として説明される)別の実施形態では、アクチュエータ142は、ロボット140を空中で推進するプロペラの組を駆動するように構成される回転モータを含む。
センサアレイ144は、任意の技術的に実現可能なセンサの集合を含み得る。例えば、センサアレイ144は、物理的な数量を測定するように構成された光学センサ、音響センサ、および/または他のタイプのセンサを含み得る。概して、センサアレイ144は、マルチメディアデータを記録するように構成される。実践では、センサアレイ144は、フレーム146を捕捉するように構成されるビデオカメラを含む。そのような一連のフレームを捕捉することによって、センサアレイ144は、映画を記録し得る。
動作時、モーションキャプチャ装置110は、オペレータ114に関連付けられた動作を捕捉し、次いで、モーションキャプチャ信号150を制御エンジン128に伝送する。制御エンジン128は、モーションキャプチャ信号150を処理し、制御信号152を生成する。制御エンジン128は、制御信号152をロボット140に伝送し、アクチュエータ140を介してロボット140の動作を制御する。概して、ロボット140の結果として生じる動作は、オペレータ114の動作を模倣し、および/またはそれから導出される。ロボット140は、センサアレイ146を介してセンサデータ154を受信し、そのセンサデータを制御エンジン128に伝送する。制御エンジン128は、受信されたデータを、データベース130内に記憶するために処理する。
この様式で、オペレータ114は、物理的にかつ/または直接的に任意のカメラ機器を動作させることを要求されることなく、ロボット140を制御し、ビデオシーケンスを捕捉し得る。このアプローチの1つの利点は、オペレータ114が、撮影するとき、困難かつ/または危険な作業環境にさらされる必要がないことである。制御エンジン128は、図2と併せて下記にさらに詳細に説明される。
図2は、本発明の種々の実施形態による、図1の制御エンジンのより詳細な図である。示されるように、制御エンジン128は、モーションキャプチャ分析器200と、動態抽出装置210と、動態変換器220と、マルチメディア捕捉モジュール230とを含む。
モーションキャプチャ分析器200は、モーションキャプチャ信号150をモーションキャプチャ装置110から受信し、それらの信号を処理し、未加工データ202を生成するように構成される。モーションキャプチャ信号150は、概して、センサ112によって捕捉されるビデオデータを含む。モーションキャプチャ分析器200は、ある期間にわたって、このビデオデータを処理し、オペレータ114のいくつかまたは全ての位置および向きを識別する。1つの実施形態では、オペレータ114は、モーションキャプチャ分析器200によって追跡され得る反射マーカを有する服を着用する。ある実施形態では、モーションキャプチャ分析器200は、モーションキャプチャ装置110内に含まれ得る。モーションキャプチャ分析器200は、その期間にわたって、オペレータ114の任意の追跡される部分の位置および向きを説明する数量の組を含む未加工データ202を生成する。
動態抽出装置210は、未加工データ202を受信し、次いで、このデータを処理し、処理されたデータ212を生成する。そうすることにおいて、動態抽出装置210は、その期間にわたって、未加工データ202に基づいてオペレータ114の動態をモデル化する。動態抽出装置210は、オペレータ114の手足の関節運動、ならびにオペレータ114の任意の部分の軌道、および/またはオペレータ114に関連付けられた任意の物体を含むオペレータ114の部分の種々の回転ならびに/もしくは移動を決定し得る。動態抽出装置220は、処理されたデータ212を動態変換器220に提供する。
動態変換器220は、処理されたデータ212内に含まれるモデル化された動態を、ロボット140を制御するための制御信号152に変換し、モデル化された動態から導出された動態を得るように構成される。動態変換器220は、ロボット140にオペレータ114の動態および動作を直接的に模倣させるいくつかの制御信号152を生成し得るか、またはロボット140の一部のみにオペレータ114の動態ならびに動作を模倣させる、他の制御信号152を生成し得る。
例えば、動態変換器220は、ロボット140のロボットアーム内のアクチュエータ142に、オペレータ114の腕内の関節の関節運動をまねさせる制御信号152を生成し得る。この特定の例は、図3と併せて下記にさらに詳細に説明される。代替として、動態変換器220は、アクチュエータ142に任意の技術的に実現可能な作動の組を実施させ、センサアレイ144にオペレータ114によって保持される物体と同様の経路を辿らせる制御信号152を生成し得る。この例は、図4と併せて下記にさらに詳細に説明される。1つの実施形態では、動態変換器220は、制御信号152を生成するとき、ロボット140の動態が、オペレータ114の動態の誇張されたバージョンを表すように、オペレータ114の移動を増幅し得る。
制御信号152に応答して、ロボット140内のアクチュエータ142は、センサアレイ144(潜在的には全体としてロボット140)を作動かつ移動させる。センサアレイ144は、センサデータ154を捕捉し、このデータを制御エンジン128内のマルチメディア捕捉モジュール230に伝送する。マルチメディア捕捉アプリケーション230は、概して、センサアレイの動作を管理し、センサ信号154等の入力センサ信号を処理する。これらの信号に基づいて、マルチメディア捕捉モジュール230は、データベース130内に記憶するためのマルチメディアデータ232を生成する。マルチメディアデータ232は、任意の技術的に実現可能なタイプのデータを含み得るが、実践では、マルチメディアデータ232は、センサアレイ144によって捕捉されるビデオのフレームと、可能性として音声データとを同様に含む。
一般的な事項として、制御エンジン128は、オペレータ114によって実施される移動をロボット140によって実施される移動に変換するように構成される。この様式で、オペレータ114は、所望される移動の組を実施することによって、ロボット140を制御することができる。このアプローチは、具体的には、カメラオペレータが、特定の様式でロボット140を制御し、映画シーケンスを撮影することを所望し得る、映画撮影に適用可能であり得る。しかしながら、当業者は、ロボットを制御するための本明細書に開示される技術が、映画以外の他の分野にも適用可能であり得ることを理解するであろう。
(モーションキャプチャを介した例示的ロボット制御)
図3は、本発明の種々の実施形態によるロボットアームの関節運動がモーションキャプチャ装置を介して制御され得る方法を図示する。図3に描写されるシナリオは、例示的目的のために提供され、1つの可能なロボットおよび1つの可能な移動の組を図示するにすぎない。本明細書に説明される技術は、任意の技術的に実現可能なロボットおよび任意の技術的に実現可能な移動の組に適用可能である。
図3は、本発明の種々の実施形態によるロボットアームの関節運動がモーションキャプチャ装置を介して制御され得る方法を図示する。図3に描写されるシナリオは、例示的目的のために提供され、1つの可能なロボットおよび1つの可能な移動の組を図示するにすぎない。本明細書に説明される技術は、任意の技術的に実現可能なロボットおよび任意の技術的に実現可能な移動の組に適用可能である。
示されるように、オペレータ114は、腕300を位置310(A)から上向きに移動させ、位置312(A)をとる。オペレータ114は、随意に、モーションキャプチャ物体302を保持し得る。モーションキャプチャ装置110は、概して、オペレータ114の動作を追跡し、具体的には、オペレータ114の腕300内の関節の関節運動を追跡するように構成される。1つの実施形態では、モーションキャプチャ装置110は、腕300の関節の位置を示すマーカに依拠する。モーションキャプチャ装置110は、モーションキャプチャ物体302の位置および場所も追跡し得る。モーションキャプチャ装置110は、任意および全ての捕捉データを表すモーションキャプチャ信号150を制御エンジン128に伝送する。
制御エンジン128は、次いで、ロボット140に位置310(B)から位置312(B)に移動させるための制御信号152を生成する。位置310(A)と310(B)とは、略類似しており、同様の関節運動を行う。同様に、位置312(A)と312(B)とも、類似しており、同様の関節運動を行う。加えて、任意の中間位置も、略類似している。ロボット140は、アクチュエータ142(0)、142(1)、142(2)、および142(3)を作動させることによってこれらの類似した関節運動をもたらし、腕300を用いてオペレータ114によって実施されるそれらと同様の関節回転を実施し得る。この様式で、ロボット140は、オペレータ114によって実施される移動と実質的に同一の移動を実施する。いくつかの実施形態では、ロボット140の動作は、オペレータ114の動作の誇張されたバージョンを表す。例えば、制御エンジン128は、アクチュエータ142に対する生成信号152を生成するときに事前設定された量によって、腕300に関連付けられた関節回転をスケーリングする、または平滑化処理を実施し、模倣された移動における外乱ならびに/もしくは他の摂動を減衰させ得る。
動作中、センサアレイ144は、センサデータ154として制御エンジン128に伝送されるデータを捕捉する。このセンサデータは、説明されるように、オペレータ114が一連の場所に対応する移動を実施することによって示すそれらの場所から採集される。但し、いくつかの場合では、ロボット140は、オペレータ114のように類似した動態を実装する必要がない。特に、オペレータ114が、ある経路に沿ってモーション制御物体302を移動させるとき、ロボット140は、任意の技術的に実現可能な移動の組み合わせを実施し、センサアレイ144に同様の経路を辿らせ得る。このアプローチは、図4と併せて下記にさらに詳細に説明される。
図4は、本発明の種々の実施形態による、ロボットドローンの位置がモーションキャプチャ装置を介して制御され得る方法を図示する。図3と同様に、図4に描写されるシナリオは、例示的目的のために提供され、1つの可能なロボットおよび1つの可能な移動の組を図示するにすぎない。本明細書に説明される技術は、任意の技術的に実現可能なロボットおよび任意の技術的に実現可能な移動の組に適用可能である。
図4では、オペレータ114は、モーションキャプチャ物体302を、軌道400(A)に沿って最初の位置410(A)から最終位置412(A)に移動させる。そうすることにおいて、オペレータ114は、図3と併せて上で説明された同様の方式で腕300を関節回転させる。しかしながら、図4に示される例示的シナリオでは、モーションキャプチャ装置110は、具体的な関節運動または腕300を捕捉する必要がない。
代わりに、モーションキャプチャ装置110は、モーションキャプチャ物体302の軌道を追跡し、モーションキャプチャ信号150を生成する。モーションキャプチャ信号150に基づいて、制御エンジン128は、センサアレイ144に軌道400(A)に類似した軌道を通過させるロボット140のための具体的な動態を決定する。制御エンジン128は、これらの動態を表す制御信号152を生成し、次いで、制御信号152を実行のためにロボット140に伝送する。それに応答して、ロボット140は、センサアレイ144を軌道400(B)に沿って位置410(A)から位置410(B)に移動させる。
実装されたロボットのタイプに応じて、制御エンジン128は、異なる制御信号152を生成し得る。示される例では、ロボット140は、クワッドコプタドローンである。故に、制御エンジン128は、1つ以上のプロペラの推進力を変調し、ドローンにセンサアレイ144を軌道400(B)に沿って移動させる制御信号152を生成する。別の例では、ロボット140は、図3に示されるロボット140と同様のいくつかの継手を伴うアームを含み得る。この場合、制御エンジン128は、ロボット140にセンサアレイ144を軌道400(B)に沿って移動させるであろう関節運動の組を決定し得る。再び、それらの関節運動は、腕300の関節運動と同様である必要がない。
本明細書に説明されるアプローチを用いて、オペレータ114は、モーションキャプチャ物体302を介して、センサアレイ144が沿って進行すべき軌道を示す。制御エンジン128は、次いで、ロボットに、センサアレイ144を用いて略同様の軌道を辿らせる。動作中、センサアレイ144は、制御エンジン128に伝送するためのセンサデータ154を捕捉する。
概して、図3-4を参照すると、当業者は、上で説明された技術が、モーションキャプチャデータに基づいてロボット制御信号を生成するための2つの例示的アプローチのみを表していることを理解するであろう。他のアプローチも、本発明の範囲に該当する。例えば、図2および3と併せて説明される技術は、組み合わせられ得る。この組み合わせられた技術に従って、制御エンジン128は、ロボット140に命令し、ある状況下のオペレータ114の動作をまねさせ、他の状況下のモーションキャプチャ物体302の軌道をまねさせ得る。代替として、制御エンジン128は、訓練され、ジェスチャに基づく言語に従って、オペレータ114の動作を解釈し得る。例えば、オペレータ114は、具体的な手の動作を実施し、「拡大する」、「カメラを左に回転させる」等のカメラ動作を示し得る。このアプローチを用いて、オペレータ114は、ロボット140の動作およびより具体的な映画撮影動作の両方にわたってきめ細かい制御を行い得る。1つの実施形態では、制御エンジン128は、ロボット140への後の再生のために、ロボット140のリアルタイムの制御中、オペレータ114によって実施される任意および全ての移動を記録する。この様式で、ロボット140は、オペレータ114に関連付けられた移動を反復させることを要求することなく、複数の作業を横断する移動の組を反復するように作製され得る。
(モーションキャプチャを介したロボット制御のための手順)
図5は、本発明の種々の実施形態による、モーションキャプチャデータをロボットを制御するための制御信号に変換するための方法ステップの流れ図である。方法ステップは、図1-4のシステムと併せて説明されるが、当業者は、方法ステップを、任意の順序で実施するように構成される任意のシステムも、本発明の範囲内であることを理解するであろう。
図5は、本発明の種々の実施形態による、モーションキャプチャデータをロボットを制御するための制御信号に変換するための方法ステップの流れ図である。方法ステップは、図1-4のシステムと併せて説明されるが、当業者は、方法ステップを、任意の順序で実施するように構成される任意のシステムも、本発明の範囲内であることを理解するであろう。
示されるように、方法500は、モーションキャプチャ装置110が、オペレータ114に関連付けられたモーションキャプチャデータを受信するステップ502において開始する。モーションキャプチャ装置110は、コンピュータビジョン技術を実装し、オペレータ114の頭部、胴体、および手足を追跡するか、またはマーキング追跡技術に依拠し、オペレータ114の移動を追跡し得る。モーションキャプチャ装置は、モーションキャプチャ信号150を処理するために制御エンジン128に伝送する。
ステップ504において、制御エンジン128は、モーションキャプチャ信号150を処理し、ロボット140によって実施されるべき関節運動シーケンス、および/またはロボット140が辿るべきエンドエフェクタ経路を決定する。関節運動シーケンスの例は、図3と併せて上で議論されている。エンドエフェクタ経路の例は、図4と併せて上で説明されている。
ステップ506において、制御エンジン128は、決定された関節運動シーケンスおよび/またはエンドエフェクタ経路に基づいて、制御信号152を生成する。制御信号152は、実装されたロボット140のタイプに応じて、変化し得る。例えば、ロボットのロボットアームを制御するために、制御信号152は、継手位置コマンドを含み得る。代替として、ロボットドローンを制御するために、制御信号152は、プロペラによって産出される推進力を変調するためのモータ速度コマンドを含み得る。
ステップ508において、制御エンジン128は、制御信号152をロボット140のアクチュエータ142に伝送する。制御エンジン128は、制御信号152をロボット140に結合された1つ以上の物理ケーブルを介して伝送するか、もしくは制御信号152を無線で伝送し得る。
ステップ510において、制御エンジン128は、マルチメディアデータをロボット140に結合されたセンサアレイ144から捕捉する。センサアレイ144は、光学センサ、音響センサ、振動センサ等を含む物理的な数量を測定するように構成される任意の技術的に実現可能なタイプのセンサを含み得る。実践では、センサアレイ144は、概して、ビデオカメラと、可能性として音声捕捉デバイスとを同様に含む。マルチメディア捕捉モジュール230は、センサアレイ144からのセンサデータを処理し、マルチメディアデータを生成する。
当業者は、本明細書に説明される技術が、種々の映画撮影動作に対して説明されているが、この技術がまた、概して、ロボット制御にも適用されることを理解するであろう。例えば、モーションキャプチャ装置110および制御エンジン128は、映画撮影以外にも、互いに協働し、任意の技術的目的のためにロボット140を制御し得る。
要するに、モーションキャプチャ装置は、オペレータの移動を記録し、制御エンジンは、次いで、それらの移動を、ロボットを制御するための制御信号に変換する。制御エンジンは、オペレータ移動を、ロボットによって実施されるべき類似移動に直接的に変換するか、または制御エンジンは、ロボットの一部をオペレータの対応する部分に模倣させるロボット動態を算出し得る。
本明細書に説明される技術の少なくとも1つの利点は、人間のカメラオペレータが、映画を撮影するとき、不快感または傷害に曝される必要がないことである。自分自身でカメラ機器を保持し、物理的に撮影に臨む代わりに、カメラオペレータは、単純に、次いで、カメラ機器を動作させるロボットを潜在的には遠隔の場所から動作させることができる。
種々の実施形態の説明が、例証の目的ためにもたらされているが、開示される実施形態を包括かつ限定するものではないことが意図される。多くの修正および変形例が、説明される実施形態の範囲ならびに精神から逸脱することなく、当業者に明白となるであろう。
本実施形態の側面は、システム、方法、またはコンピュータプログラム製品として具現化され得る。故に、本開示の側面は、完全に、ハードウェア実施形態、完全に、ソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)、または全て概して、本明細書に「モジュール」もしくは「システム」と称され得るソフトウェアおよびハードウェア側面を組み合わせるある実施形態の形態をとり得る。さらに、本開示の側面は、その上に具現化されるコンピュータ読み取り可能なプログラムコードを有する、1つ以上のコンピュータ読み取り可能な媒体内に具現化されるコンピュータプログラム製品の形態をとり得る。
1つ以上のコンピュータ読み取り可能な媒体の任意の組み合わせが、利用され得る。コンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体またはコンピュータ読み取り可能な記憶媒体であり得る。コンピュータ読み取り可能な記憶媒体は、例えば、限定ではないが、電子、磁気、光学、電磁気、赤外線、または半導体のシステム、装置、もしくはデバイス、または前述のものの任意の好適な組み合わせであり得る。コンピュータ読み取り可能な記憶媒体のより具体的な例(包括的ではない一覧)は、1つ以上のワイヤを有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブルROM(EPROMもしくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶デバイス、磁気記憶デバイス、もしくは前述のものの任意の好適な組み合わせを含むであろう。本書の文脈では、コンピュータ読み取り可能な記憶媒体は、命令実行システム、装置、またはデバイスによって、もしくはそれに関連して使用するためのプログラムを含有もしくは記憶することができる、任意の有形媒体であり得る。
本開示の側面は、本開示の実施形態による方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図ならびに/もしくはブロック図を参照して、上で説明される。フローチャート図および/またはブロック図の各ブロックならびにフローチャート図および/またはブロック図内でのブロックの組み合わせが、コンピュータプログラム命令によって実装されることができることが、理解されるであろう。これらのコンピュータプログラム命令は、汎用コンピュータ、専用コンピュータ、または他のプログラム可能データ処理装置のプロセッサに提供され、コンピュータもしくは他のプログラム可能データ処理装置のプロセッサを介して実行する命令が、フローチャートおよび/またはブロック図のブロック内で規定される機能/作用の実装を可能にするように、機械を産出し得る。そのようなプロセッサは、限定ではないが、汎用プロセッサ、専用プロセッサ、特定用途向けプロセッサ、またはフィールドプログラマブルプロセッサもしくはゲートアレイであり得る。
図内のフローチャートおよびブロック図は、本開示の種々の実施形態によるシステム、方法、ならびにコンピュータプログラム製品の可能な実装のアーキテクチャ、機能性、および動作を図示する。この点について、フローチャートまたはブロック図内の各ブロックは、規定される論理機能を実装するための1つ以上の実行可能な命令を含むモジュール、セグメント、もしくは部分を表し得る。いくつかの代替実装では、ブロック内に記載される機能は、図内に記載される順序外で生じてもよいことにも留意されたい。例えば、連続して示される2つのブロックは、伴われる機能性に応じて、事実上、略同時に実行され得る、または時として、逆の順序で実行され得る。ブロック図および/またはフローチャート図の各ブロックならびにブロック図および/またはフローチャート図内でのブロックの組み合わせは、規定される機能もしくはアクション、または特殊目的ハードウェアならびにコンピュータ命令の組み合わせを実施する特殊目的ハードウェア系システムによって実装されることができることにも留意されたい。
前述は、本開示の実施形態を対象としているが、本開示の他のおよびさらなる実施形態も、その基本的範囲から逸脱することなく考案され得、その範囲は、後に続く請求項によって決定される。
Claims (1)
- 本明細書に記載の発明。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/216,583 | 2016-07-21 | ||
US15/216,583 US10427305B2 (en) | 2016-07-21 | 2016-07-21 | Robotic camera control via motion capture |
JP2019502163A JP2019523145A (ja) | 2016-07-21 | 2017-07-20 | モーションキャプチャを介したロボットカメラ制御 |
PCT/US2017/043118 WO2018017859A1 (en) | 2016-07-21 | 2017-07-20 | Robotic camera control via motion capture |
JP2021206918A JP2022060201A (ja) | 2016-07-21 | 2021-12-21 | モーションキャプチャを介したロボットカメラ制御 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021206918A Division JP2022060201A (ja) | 2016-07-21 | 2021-12-21 | モーションキャプチャを介したロボットカメラ制御 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024015262A true JP2024015262A (ja) | 2024-02-01 |
Family
ID=59521648
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019502163A Withdrawn JP2019523145A (ja) | 2016-07-21 | 2017-07-20 | モーションキャプチャを介したロボットカメラ制御 |
JP2021206918A Pending JP2022060201A (ja) | 2016-07-21 | 2021-12-21 | モーションキャプチャを介したロボットカメラ制御 |
JP2023206828A Pending JP2024015262A (ja) | 2016-07-21 | 2023-12-07 | モーションキャプチャを介したロボットカメラ制御 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019502163A Withdrawn JP2019523145A (ja) | 2016-07-21 | 2017-07-20 | モーションキャプチャを介したロボットカメラ制御 |
JP2021206918A Pending JP2022060201A (ja) | 2016-07-21 | 2021-12-21 | モーションキャプチャを介したロボットカメラ制御 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10427305B2 (ja) |
EP (1) | EP3488308A1 (ja) |
JP (3) | JP2019523145A (ja) |
WO (1) | WO2018017859A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10279470B2 (en) * | 2014-06-12 | 2019-05-07 | Play-i, Inc. | System and method for facilitating program sharing |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
KR102640420B1 (ko) * | 2016-12-22 | 2024-02-26 | 삼성전자주식회사 | 홈 로봇 장치의 동작 운용 방법 및 이를 지원하는 홈 로봇 장치 |
CN109521927B (zh) * | 2017-09-20 | 2022-07-01 | 阿里巴巴集团控股有限公司 | 机器人互动方法和设备 |
CN111590567B (zh) * | 2020-05-12 | 2021-12-07 | 北京控制工程研究所 | 一种基于Omega手柄的空间机械臂遥操作规划方法 |
EP4173773A4 (en) * | 2020-06-25 | 2024-03-27 | Hitachi High Tech Corp | ROBOT TEACHING APPARATUS AND METHOD FOR TEACHING JOBS |
US11794342B2 (en) * | 2020-07-17 | 2023-10-24 | Intrinsic Innovation Llc | Robot planning using unmanned aerial vehicles |
CN114454174B (zh) * | 2022-03-08 | 2022-10-04 | 江南大学 | 机械臂动作捕捉方法、介质、电子设备及系统 |
Family Cites Families (133)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US388760A (en) * | 1888-08-28 | Machine | ||
US719583A (en) * | 1901-04-11 | 1903-02-03 | Adolph Rosenthal | Foot-gear for use in swimming. |
CN2124815U (zh) * | 1992-07-08 | 1992-12-16 | 台湾恒基股份有限公司 | 网印机 |
US6285380B1 (en) * | 1994-08-02 | 2001-09-04 | New York University | Method and system for scripting interactive animated actors |
JP3628826B2 (ja) * | 1996-12-24 | 2005-03-16 | 本田技研工業株式会社 | 脚式移動ロボットの遠隔制御システム |
JP3667914B2 (ja) * | 1997-01-31 | 2005-07-06 | 本田技研工業株式会社 | 脚式移動ロボットの遠隔制御システム |
US6353773B1 (en) * | 1997-04-21 | 2002-03-05 | Honda Giken Kogyo Kabushiki Kaissha | Remote control system for biped locomotion robot |
US6016385A (en) * | 1997-08-11 | 2000-01-18 | Fanu America Corp | Real time remotely controlled robot |
US6425865B1 (en) * | 1998-06-12 | 2002-07-30 | The University Of British Columbia | Robotically assisted medical ultrasound |
US6347261B1 (en) * | 1999-08-04 | 2002-02-12 | Yamaha Hatsudoki Kabushiki Kaisha | User-machine interface system for enhanced interaction |
WO2003020476A1 (fr) * | 2001-08-29 | 2003-03-13 | Honda Giken Kogyo Kabushiki Kaisha | Dispositif de commande a distance pour robot mobile bipede |
FR2839176A1 (fr) * | 2002-04-30 | 2003-10-31 | Koninkl Philips Electronics Nv | Systeme d'animation pour robot comprenant un ensemble de pieces mobiles |
US8600550B2 (en) * | 2003-12-12 | 2013-12-03 | Kurzweil Technologies, Inc. | Virtual encounters |
JP3920317B2 (ja) * | 2004-08-02 | 2007-05-30 | 松下電器産業株式会社 | 物品運搬用ロボット |
JP3927994B2 (ja) * | 2004-10-19 | 2007-06-13 | 松下電器産業株式会社 | ロボット装置 |
US20100222925A1 (en) * | 2004-12-03 | 2010-09-02 | Takashi Anezaki | Robot control apparatus |
DE102005061211B4 (de) * | 2004-12-22 | 2023-04-06 | Abb Schweiz Ag | Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche |
EP2281668B1 (en) * | 2005-09-30 | 2013-04-17 | iRobot Corporation | Companion robot for personal interaction |
US20070078466A1 (en) * | 2005-09-30 | 2007-04-05 | Restoration Robotics, Inc. | Methods for harvesting follicular units using an automated system |
DE102005058867B4 (de) * | 2005-12-09 | 2018-09-27 | Cine-Tv Broadcast Systems Gmbh | Verfahren und Vorrichtung zum Bewegen einer auf einem Schwenk- und Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn |
JP5109192B2 (ja) * | 2006-07-28 | 2012-12-26 | ソニー株式会社 | モーションキャプチャにおけるfacs(顔の表情符号化システム)解決法 |
CN101646534B (zh) * | 2007-06-27 | 2012-03-21 | 松下电器产业株式会社 | 机器手控制装置及控制方法、机器人 |
WO2009004772A1 (ja) * | 2007-07-05 | 2009-01-08 | Panasonic Corporation | ロボットアームの制御装置及び制御方法、ロボット、及び制御プログラム |
JP2009032189A (ja) * | 2007-07-30 | 2009-02-12 | Toyota Motor Corp | ロボットの動作経路生成装置 |
EP2296068B1 (en) * | 2008-02-28 | 2015-06-24 | Panasonic Intellectual Property Management Co., Ltd. | Control apparatus and control method for a robot arm, robot, control program for a robot arm, and electronic integrated circuit for controlling a robot arm |
US8214098B2 (en) * | 2008-02-28 | 2012-07-03 | The Boeing Company | System and method for controlling swarm of remote unmanned vehicles through human gestures |
JP4508252B2 (ja) * | 2008-03-12 | 2010-07-21 | 株式会社デンソーウェーブ | ロボット教示装置 |
KR101494344B1 (ko) * | 2008-04-25 | 2015-02-17 | 삼성전자주식회사 | 휴머노이드 로봇의 움직임 제어 시스템 및 그 방법 |
US8340819B2 (en) * | 2008-09-18 | 2012-12-25 | Intouch Technologies, Inc. | Mobile videoconferencing robot system with network adaptive driving |
JP4568795B2 (ja) * | 2009-01-09 | 2010-10-27 | パナソニック株式会社 | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路 |
JP2010223932A (ja) * | 2009-02-27 | 2010-10-07 | Toyota Motor Corp | 欠陥検出方法 |
US7983450B2 (en) * | 2009-03-16 | 2011-07-19 | The Boeing Company | Method, apparatus and computer program product for recognizing a gesture |
SG176213A1 (en) * | 2009-05-29 | 2011-12-29 | Univ Nanyang Tech | Robotic system for flexible endoscopy |
JP4759660B2 (ja) * | 2009-08-21 | 2011-08-31 | パナソニック株式会社 | ロボットアーム制御用の装置、方法、プログラム及び集積電子回路、並びに、組立ロボット |
KR20110026211A (ko) * | 2009-09-07 | 2011-03-15 | 삼성전자주식회사 | 인간형 로봇 |
US8878779B2 (en) * | 2009-09-21 | 2014-11-04 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
JP4699572B2 (ja) * | 2009-09-28 | 2011-06-15 | パナソニック株式会社 | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及び、ロボットアーム制御用集積電子回路 |
US8600552B2 (en) * | 2009-10-30 | 2013-12-03 | Honda Motor Co., Ltd. | Information processing method, apparatus, and computer readable medium |
JP2011140077A (ja) * | 2010-01-06 | 2011-07-21 | Honda Motor Co Ltd | 加工システム及び加工方法 |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
US20130079905A1 (en) * | 2010-06-03 | 2013-03-28 | Hitachi, Ltd. | Human-Operated Working Machine System |
AT509927B1 (de) * | 2010-06-08 | 2015-05-15 | Keba Ag | Verfahren zum programmieren oder vorgeben von bewegungen oder abläufen eines industrieroboters |
US8781629B2 (en) * | 2010-09-22 | 2014-07-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Human-robot interface apparatuses and methods of controlling robots |
KR101264483B1 (ko) * | 2010-10-27 | 2013-05-14 | 김동호 | 유니버셜 로봇 관절모듈 |
CA2720886A1 (en) * | 2010-11-12 | 2012-05-12 | Crosswing Inc. | Customizable virtual presence system |
US8930019B2 (en) * | 2010-12-30 | 2015-01-06 | Irobot Corporation | Mobile human interface robot |
US9079313B2 (en) * | 2011-03-15 | 2015-07-14 | Microsoft Technology Licensing, Llc | Natural human to robot remote control |
US9188973B2 (en) * | 2011-07-08 | 2015-11-17 | Restoration Robotics, Inc. | Calibration and transformation of a camera system's coordinate system |
US8694160B2 (en) * | 2011-08-24 | 2014-04-08 | Yamazaki Mazak Corporation | NC machine tool system |
TW201310339A (zh) * | 2011-08-25 | 2013-03-01 | Hon Hai Prec Ind Co Ltd | 機器人控制系統及方法 |
WO2013035244A1 (ja) * | 2011-09-06 | 2013-03-14 | パナソニック株式会社 | ロボットアームの制御装置及び制御方法、ロボット、制御プログラム、並びに、集積電子回路 |
EP2810748A4 (en) * | 2012-02-03 | 2016-09-07 | Nec Corp | COMMUNICATION COMMITMENT SYSTEM, COMMUNICATION COMMITMENT METHOD, AND COMMUNICATION COMMITMENT PROGRAM |
US8843236B2 (en) * | 2012-03-15 | 2014-09-23 | GM Global Technology Operations LLC | Method and system for training a robot using human-assisted task demonstration |
US9211648B2 (en) * | 2012-04-05 | 2015-12-15 | Irobot Corporation | Operating a mobile robot |
EP2838698B2 (de) * | 2012-07-10 | 2020-01-01 | Siemens Aktiengesellschaft | Roboteranordnung und verfahren zum steuern eines roboters |
JP6021533B2 (ja) * | 2012-09-03 | 2016-11-09 | キヤノン株式会社 | 情報処理システム、装置、方法及びプログラム |
US9025856B2 (en) * | 2012-09-05 | 2015-05-05 | Qualcomm Incorporated | Robot control information |
EP3932628A1 (en) * | 2012-12-10 | 2022-01-05 | Intuitive Surgical Operations, Inc. | Collision avoidance during controlled movement of image capturing device and manipulatable device movable arms |
CN104936748B (zh) * | 2012-12-14 | 2017-10-27 | Abb技术有限公司 | 徒手机器人路径教导 |
KR101414362B1 (ko) * | 2013-01-30 | 2014-07-02 | 한국과학기술원 | 영상인지 기반 공간 베젤 인터페이스 방법 및 장치 |
JP6108860B2 (ja) * | 2013-02-14 | 2017-04-05 | キヤノン株式会社 | ロボットシステム及びロボットシステムの制御方法 |
US8924735B2 (en) * | 2013-02-15 | 2014-12-30 | Microsoft Corporation | Managed biometric identity |
US9056396B1 (en) * | 2013-03-05 | 2015-06-16 | Autofuss | Programming of a robotic arm using a motion capture system |
JP6514681B2 (ja) * | 2013-03-15 | 2019-05-15 | ウーバー テクノロジーズ,インコーポレイテッド | ロボット用多重知覚ステレオ視のための方法、システム、および装置 |
US8903568B1 (en) * | 2013-07-31 | 2014-12-02 | SZ DJI Technology Co., Ltd | Remote control method and terminal |
KR102077108B1 (ko) * | 2013-09-13 | 2020-02-14 | 한국전자통신연구원 | 콘텐츠 체험 서비스 제공 장치 및 그 방법 |
JP6476662B2 (ja) * | 2013-09-20 | 2019-03-06 | 株式会社デンソーウェーブ | ロボット操作装置、ロボットシステム、及びロボット操作プログラム |
US9144907B2 (en) * | 2013-10-24 | 2015-09-29 | Harris Corporation | Control synchronization for high-latency teleoperation |
US9381642B2 (en) * | 2014-01-13 | 2016-07-05 | Massachusetts Institute Of Technology | Wearable robot assisting manual tasks |
DE102014001168B4 (de) * | 2014-01-31 | 2019-03-14 | Abb Schweiz Ag | Robotersteuerung |
EP3107429B1 (en) * | 2014-02-20 | 2023-11-15 | MBL Limited | Methods and systems for food preparation in a robotic cooking kitchen |
CN103901856A (zh) * | 2014-03-23 | 2014-07-02 | 余浪 | 用于远程控制机器人的方法以及机器人化身网络 |
US11137601B2 (en) * | 2014-03-26 | 2021-10-05 | Mark D. Wieczorek | System and method for distanced interactive experiences |
US11733515B2 (en) * | 2014-03-26 | 2023-08-22 | Mark D. Wieczorek | System and method for distanced interactive experiences |
US20220252881A1 (en) * | 2014-03-26 | 2022-08-11 | Mark D. Wieczorek | System and method for haptic interactive experiences |
DK2933604T3 (en) * | 2014-04-14 | 2017-03-13 | Softbank Robotics Europe | PROCEDURE FOR LOCATING A ROBOT IN A LOCATION PLAN |
CN106456145B (zh) * | 2014-05-05 | 2020-08-18 | 维卡瑞斯外科手术股份有限公司 | 虚拟现实手术装置 |
US9696813B2 (en) * | 2015-05-27 | 2017-07-04 | Hsien-Hsiang Chiu | Gesture interface robot |
US10613527B2 (en) * | 2014-08-18 | 2020-04-07 | Verity Studios Ag | Invisible track for an interactive mobile robot system |
US10518409B2 (en) * | 2014-09-02 | 2019-12-31 | Mark Oleynik | Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries |
JP6415190B2 (ja) * | 2014-09-03 | 2018-10-31 | キヤノン株式会社 | ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法 |
FR3027473B1 (fr) * | 2014-10-16 | 2018-01-12 | Renault S.A.S | Dispositif et procede de pilotage de la machine electrique d'un vehicule en vue de son maintien en position immobilisee |
WO2016068262A1 (ja) * | 2014-10-29 | 2016-05-06 | 京セラ株式会社 | コミュニケーションロボット |
US9242379B1 (en) * | 2015-02-09 | 2016-01-26 | The Trustees Of The University Of Pennysylvania | Methods, systems, and computer readable media for producing realistic camera motion for stop motion animation |
US9694496B2 (en) * | 2015-02-26 | 2017-07-04 | Toyota Jidosha Kabushiki Kaisha | Providing personalized patient care based on electronic health record associated with a user |
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
EP3272473B1 (en) * | 2015-03-20 | 2022-09-14 | FUJI Corporation | Teaching device and method for generating control information |
JP2016187844A (ja) * | 2015-03-30 | 2016-11-04 | セイコーエプソン株式会社 | ロボット、ロボット制御装置およびロボットシステム |
US9889566B2 (en) * | 2015-05-01 | 2018-02-13 | General Electric Company | Systems and methods for control of robotic manipulation |
WO2016189924A1 (ja) * | 2015-05-28 | 2016-12-01 | 株式会社日立製作所 | ロボット操作装置およびプログラム |
US9945677B1 (en) * | 2015-07-23 | 2018-04-17 | X Development Llc | Automated lane and route network discovery for robotic actors |
US20170039671A1 (en) * | 2015-08-07 | 2017-02-09 | Seoul National University R&Db Foundation | Robotic self-filming system |
CN105223957B (zh) | 2015-09-24 | 2018-10-02 | 北京零零无限科技有限公司 | 一种手势操控无人机的方法和装置 |
US9981385B2 (en) * | 2015-10-12 | 2018-05-29 | The Boeing Company | Dynamic automation work zone safety system |
DE102015221337A1 (de) * | 2015-10-30 | 2017-05-04 | Keba Ag | Verfahren und Steuerungssystem zum Steuern der Bewegungen von Gelenkarmen eines Industrieroboters sowie dabei eingesetztes Bewegungsvorgabemittel |
US20170348854A1 (en) * | 2015-12-16 | 2017-12-07 | Mbl Limited | Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with containers and electronic minimanipulation libraries |
US10414052B2 (en) * | 2016-02-09 | 2019-09-17 | Cobalt Robotics Inc. | Building-integrated mobile robot |
US10434659B2 (en) * | 2016-03-02 | 2019-10-08 | Kindred Systems Inc. | Systems, devices, articles, and methods for user input |
US20190105779A1 (en) * | 2016-03-24 | 2019-04-11 | Polygon T.R Ltd. | Systems and methods for human and robot collaboration |
GB2563785B (en) * | 2016-03-28 | 2021-03-03 | Groove X Inc | Autonomously acting robot that performs a greeting action |
CN109070330B (zh) * | 2016-04-08 | 2022-07-15 | Groove X 株式会社 | 认生的行为自主型机器人 |
US10242501B1 (en) * | 2016-05-03 | 2019-03-26 | WorldViz, Inc. | Multi-user virtual and augmented reality tracking systems |
US10322506B2 (en) * | 2016-05-06 | 2019-06-18 | Kindred Systems Inc. | Systems, devices, articles, and methods for using trained robots |
DE112017002960T5 (de) * | 2016-06-14 | 2019-02-28 | Groove X, Inc. | Autonom handelnder roboter, der kühle sucht |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
WO2018043235A1 (ja) * | 2016-08-29 | 2018-03-08 | Groove X株式会社 | 音源の方向を認識する自律行動型ロボット |
DE112017004414T5 (de) * | 2016-09-02 | 2019-05-16 | Groove X, Inc. | Autonom handelnder roboter, server und verhaltenssteuerungsprogramm |
US11254012B2 (en) * | 2016-09-14 | 2022-02-22 | Keba Ag | Control device and control method for industrial machines having controlled movement drives |
EP3547267A4 (en) * | 2016-11-24 | 2020-11-25 | Kyoto University | ROBOT CONTROL SYSTEM, MACHINE CONTROL SYSTEM, ROBOT CONTROL METHOD, MACHINE CONTROL METHOD, AND RECORDING MEDIUM |
WO2018146769A1 (ja) * | 2017-02-09 | 2018-08-16 | 三菱電機株式会社 | 位置制御装置及び位置制御方法 |
KR102113465B1 (ko) * | 2017-02-09 | 2020-05-21 | 미쓰비시덴키 가부시키가이샤 | 위치 제어 장치 및 위치 제어 방법 |
US10403050B1 (en) * | 2017-04-10 | 2019-09-03 | WorldViz, Inc. | Multi-user virtual and augmented reality tracking systems |
US10960543B2 (en) * | 2017-05-30 | 2021-03-30 | Sisu Devices, LLC | Robotic point capture and motion control |
US11220008B2 (en) * | 2017-07-18 | 2022-01-11 | Panasonic Intellectual Property Management Co., Ltd. | Apparatus, method, non-transitory computer-readable recording medium storing program, and robot |
US11097431B2 (en) * | 2018-05-01 | 2021-08-24 | Misty Robotics, Inc. | Robot neck mechanism |
US10471591B1 (en) * | 2018-06-01 | 2019-11-12 | X Development Llc | Object hand-over between robot and actor |
JP7298860B2 (ja) * | 2018-06-25 | 2023-06-27 | Groove X株式会社 | 仮想キャラクタを想定する自律行動型ロボット |
WO2020036910A1 (en) * | 2018-08-13 | 2020-02-20 | R-Go Robotics Ltd. | System and method for creating a single perspective synthesized image |
US11279036B2 (en) * | 2018-10-01 | 2022-03-22 | Toyota Research Institute, Inc. | Methods and systems for implementing customized motions based on individual profiles for identified users |
WO2020213245A1 (ja) * | 2019-04-16 | 2020-10-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US20200368904A1 (en) * | 2019-05-20 | 2020-11-26 | Russell Aldridge | Remote robotic welding with a handheld controller |
US11562320B2 (en) * | 2019-07-22 | 2023-01-24 | Invia Robotics, Inc. | Decoupled order fulfillment |
US20220387128A1 (en) * | 2019-11-05 | 2022-12-08 | Vicarious Surgical Inc. | Surgical virtual reality user interface |
US11436869B1 (en) * | 2019-12-09 | 2022-09-06 | X Development Llc | Engagement detection and attention estimation for human-robot interaction |
JP7323475B2 (ja) * | 2020-02-19 | 2023-08-08 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および行動モード設定方法 |
JP2023514438A (ja) * | 2020-02-21 | 2023-04-05 | ローレンス ジャコブス ブライエル | カメラ付きのサイクル及び協調パンチエクササイズ装置と方法 |
US20210294944A1 (en) * | 2020-03-19 | 2021-09-23 | Nvidia Corporation | Virtual environment scenarios and observers for autonomous machine applications |
US11524410B2 (en) * | 2020-06-12 | 2022-12-13 | Hexagon Metrology, Inc. | Robotic alignment method for workpiece measuring systems |
CN111716365B (zh) * | 2020-06-15 | 2022-02-15 | 山东大学 | 基于自然行走的沉浸式远程交互系统及方法 |
DE102020209685B4 (de) * | 2020-07-31 | 2023-07-06 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum steuern einer robotervorrichtung und robotervorrichtungssteuerung |
CN112704563B (zh) * | 2020-12-25 | 2022-04-01 | 天津市第三中心医院 | 一种基于超声刀的肝胆外科的远程超声手术模拟系统 |
US20220314112A1 (en) * | 2021-04-06 | 2022-10-06 | Sony Interactive Entertainment LLC | Adjustable robot for providing scale of virtual assets and identifying objects in an interactive scene |
WO2022221136A1 (en) * | 2021-04-16 | 2022-10-20 | Dexterity, Inc. | Repositionable robot riser |
-
2016
- 2016-07-21 US US15/216,583 patent/US10427305B2/en active Active
-
2017
- 2017-07-20 JP JP2019502163A patent/JP2019523145A/ja not_active Withdrawn
- 2017-07-20 EP EP17748602.4A patent/EP3488308A1/en active Pending
- 2017-07-20 WO PCT/US2017/043118 patent/WO2018017859A1/en unknown
-
2019
- 2019-09-30 US US16/588,972 patent/US20200030986A1/en not_active Abandoned
-
2021
- 2021-12-21 JP JP2021206918A patent/JP2022060201A/ja active Pending
-
2023
- 2023-12-07 JP JP2023206828A patent/JP2024015262A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3488308A1 (en) | 2019-05-29 |
US20200030986A1 (en) | 2020-01-30 |
JP2022060201A (ja) | 2022-04-14 |
WO2018017859A1 (en) | 2018-01-25 |
JP2019523145A (ja) | 2019-08-22 |
US20180021956A1 (en) | 2018-01-25 |
US10427305B2 (en) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2024015262A (ja) | モーションキャプチャを介したロボットカメラ制御 | |
US9300852B2 (en) | Controlling robotic motion of camera | |
US11474510B2 (en) | Programming a robot by demonstration | |
Zuo et al. | Craves: Controlling robotic arm with a vision-based economic system | |
Fritsche et al. | First-person tele-operation of a humanoid robot | |
WO2016193781A1 (en) | Motion control system for a direct drive robot through visual servoing | |
Pan et al. | Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device | |
JP2021000678A (ja) | 制御システムおよび制御方法 | |
US20220161424A1 (en) | Device and method for controlling a robotic device | |
Dwivedi et al. | Combining electromyography and fiducial marker based tracking for intuitive telemanipulation with a robot arm hand system | |
CN112109074A (zh) | 一种机器人目标图像抓取方法 | |
Bhattacherjee et al. | Kinematics and teleoperation of tendon driven continuum robot | |
Islam et al. | Integration of home assistance with a gesture controlled robotic arm | |
Avalos et al. | Real-time teleoperation with the Baxter robot and the Kinect sensor | |
Kim et al. | Dynamic Model and Motion Control of a Robotic Manipulator. | |
Martin et al. | Real-time gestural control of robot manipulator through deep learning human-pose inference | |
Cai et al. | 6D image-based visual servoing for robot manipulators with uncalibrated stereo cameras | |
Sita et al. | Towards multimodal interactions: robot jogging in mixed reality | |
Grasshoff et al. | 7dof hand and arm tracking for teleoperation of anthropomorphic robots | |
US20180065247A1 (en) | Configuring a robotic camera to mimic cinematographic styles | |
Yu et al. | Precise Robotic Needle-Threading with Tactile Perception and Reinforcement Learning | |
Hu et al. | Manipulator arm interactive control in unknown underwater environment | |
WO2023123257A1 (zh) | 一种机器人的控制方法及装置 | |
Bujalance et al. | Real-time gestural control of robot manipulator through Deep Learning human-pose inference | |
Arsenopoulos et al. | A human-robot interface for industrial robot programming using RGB-D sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231207 |