JP2024015262A - モーションキャプチャを介したロボットカメラ制御 - Google Patents

モーションキャプチャを介したロボットカメラ制御 Download PDF

Info

Publication number
JP2024015262A
JP2024015262A JP2023206828A JP2023206828A JP2024015262A JP 2024015262 A JP2024015262 A JP 2024015262A JP 2023206828 A JP2023206828 A JP 2023206828A JP 2023206828 A JP2023206828 A JP 2023206828A JP 2024015262 A JP2024015262 A JP 2024015262A
Authority
JP
Japan
Prior art keywords
robot
operator
motion capture
movements
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023206828A
Other languages
English (en)
Inventor
パトリック アザートン エバン
トマソン デイビッド
ウーゴ コンティ モーリス
ケリック ヘザー
Original Assignee
オートデスク,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オートデスク,インコーポレイテッド filed Critical オートデスク,インコーポレイテッド
Publication of JP2024015262A publication Critical patent/JP2024015262A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0016Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35444Gesture interface, controlled machine observes operator, executes commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Abstract

【課題】好適なモーションキャプチャを介したロボットカメラ制御を提供すること。【解決手段】モーションキャプチャ装置は、オペレータの移動を記録し、制御エンジンは、次いで、それらの移動を、ロボットを制御するための制御信号に変換する。制御エンジンは、オペレータの移動を、ロボットによって実施されるべき類似した移動に直接的に変換し得るか、または、制御エンジンは、ロボットの一部にオペレータの対応する部分を模倣させるロボット動態を算出し得る。【選択図】図5

Description

(関連出願の引用)
本願は、米国特許出願第15/216,583号(2016年7月21日出願)の利益を主張し、上記出願は、参照により本明細書に組み込まれる。
(発明の分野)
本発明の実施形態は、概して、ロボット工学に関し、より具体的には、モーションキャプチャを介したロボットカメラ制御に関する。
映画を撮影するとき、カメラオペレータは、数ある映画手順の中で、ショットを撮影し、シーケンスを捕捉し、カメラアングル間で遷移するために、カメラの位置、向き、および動きを制御する。しかしながら、カメラを操作することは、ある状況では困難かつ/または危険であり得る。例えば、クローズアップシーケンスを撮影するとき、カメラオペレータは、重いカメラ機器を物理的に支持しながら、長時間にわたって動きにくい姿勢をとることを要求され得る。または、アクションシーケンスを撮影するとき、カメラオペレータは、傷害の危険を冒し、撮影されているアクションに対して必要な近接度を達成することを要求され得る。いずれの場合でも、カメラオペレータは、通常、非常に複雑なカメラ移動を実施しなければならず、多くの場合、複数の作業にわたってこれらの運動を反復しなければならない。
前述の説明が例証するように、当技術分野において必要とされるものは、映画シーケンスを撮影するためのより有効なアプローチである。
本発明の種々の実施形態は、ロボットを制御するコンピュータ実装方法を記載し、コンピュータ実装方法は、オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成することと、モーションキャプチャデータを処理し、ロボットを制御するための制御信号を生成することと、制御信号をロボットに伝送し、ロボットにオペレータの1つ以上の移動を模倣させることとを含む。
本明細書に議論されるアプローチの少なくとも1つの利点は、人間のカメラオペレータカメラオペレータが、映画を撮影するとき、不快感または傷害にさらされる必要がないということである。
本発明はさらに、例えば、以下を提供する。
(項目1)
ロボットを制御するコンピュータ実装方法であって、前記方法は、
オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成することと、
前記モーションキャプチャデータを処理し、前記ロボットを制御するための制御信号を生成することと、
前記制御信号を前記ロボットに伝送し、前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることと
を含む、コンピュータ実装方法。
(項目2)
前記モーションキャプチャデータを生成することは、モーションキャプチャ装置を介して、前記オペレータに関連付けられた頭部、胴体、および手足の移動のうちの少なくとも1つを追跡することを含む、項目1に記載のコンピュータ実装方法。
(項目3)
前記モーションキャプチャデータを処理し、前記制御信号を生成することは、
前記1つ以上の移動に対応する前記オペレータの第1の動態の組をモデル化することと、
前記1つ以上の移動に対応する前記ロボットの第2の動態の組を決定することと、
前記第2の動態の組に基づいて、前記制御信号を生成することと
を含む、項目1に記載のコンピュータ実装方法。
(項目4)
前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることは、前記ロボットに含まれる継手の組を作動させ、前記1つ以上の移動に関連付けられた関節シーケンスを実施することを含む、項目1に記載のコンピュータ実装方法。
(項目5)
前記ロボットは、前記継手の組を含むロボットアームを備えている、項目4に記載のコンピュータ実装方法。
(項目6)
前記ロボットに前記1つ以上の移動を模倣させることは、プロペラに結合された少なくとも1つのモータの速度を調節することを含む、項目1に記載のコンピュータ実装方法。
(項目7)
前記ロボットは、飛行ドローンを備えている、項目6に記載のコンピュータ実装方法。
(項目8)
前記ロボットに前記1つ以上の移動を模倣させることは、前記ロボットの第1の部分のみに前記1つ以上の移動の一部のみを模倣させることを含む、項目1に記載のコンピュータ実装方法。
(項目9)
前記ロボットが前記1つ以上の移動を模倣している間にセンサデータを捕捉することをさらに含む、項目1に記載のコンピュータ実装方法。
(項目10)
前記1つ以上の移動は、前記ロボットに結合されたセンサアレイのための標的軌道を備えている、項目1に記載のコンピュータ実装方法。
(項目11)
非一過性コンピュータ読み取り可能な媒体であって、前記媒体は、プロセッサによって実行されると、
オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成するステップと、
前記モーションキャプチャデータを処理し、ロボットを制御するための制御信号を生成するステップと、
前記制御信号を前記ロボットに伝送し、前記ロボットに前記オペレータの前記1つ以上の移動を模倣させるステップと
を実施することによって、前記プロセッサに前記ロボットを制御させる、非一過性コンピュータ読み取り可能な媒体。
(項目12)
前記モーションキャプチャデータを生成することは、モーションキャプチャ装置を介して、前記オペレータに関連付けられた頭部、胴体、および手足の移動のうちの少なくとも1つを追跡することを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目13)
前記モーションキャプチャデータを処理し、前記制御信号を生成することは、
前記1つ以上の移動に対応する前記オペレータの第1の動態の組をモデル化することと、
前記1つ以上の移動に対応する前記ロボットの第2の動態の組を決定することと、
前記第2の動態の組に基づいて、前記制御信号を生成することと
を含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目14)
前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることは、前記ロボットに含まれる継手の組を作動させ、前記1つ以上の移動に関連付けられた関節シーケンスを実施することを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目15)
前記ロボットに前記1つ以上の移動を模倣させることは、プロペラに結合された少なくとも1つのモータの速度を調節することを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目16)
前記ロボットに前記1つ以上の移動を模倣させることは、前記ロボットの第1の部分のみに前記1つ以上の移動の一部のみを模倣させることを含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目17)
前記ロボットが前記1つ以上の移動を模倣している間にセンサデータを捕捉することをさらに含む、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目18)
前記1つ以上の移動は、前記ロボットに結合されたセンサアレイのための標的軌道を備えている、項目11に記載の非一過性コンピュータ読み取り可能な媒体。
(項目19)
ロボットを制御するためのシステムであって、前記システムは、
制御アプリケーションを記憶しているメモリと、
前記メモリに結合されたプロセッサと
を備え、
前記プロセッサは、
オペレータの1つ以上の移動に基づいて、モーションキャプチャデータを生成することと、
前記モーションキャプチャデータを処理し、前記ロボットを制御するための制御信号を生成することと、
前記制御信号を前記ロボットに伝送し、前記ロボットに前記オペレータの前記1つ以上の移動を模倣させることと
を行うように構成されている、システム。
(項目20)
前記プロセッサは、前記制御アプリケーションを実行し、
前記モーションキャプチャデータを生成することと、
前記モーションキャプチャデータを処理し、前記制御信号を生成することと、
前記制御信号を前記ロボットに伝送することと
を行うように構成されている、項目19に記載のシステム。
本発明の上で列挙された特徴が詳細に理解され得る様式で上で簡潔に要約された本発明のより特定の説明が、そのいくつかが添付される図面に図示される実施形態を参照することによって得られ得る。しかしながら、本発明は、他の均等に有効な実施形態を認め得るので、添付される図面は、本発明の典型的実施形態を例証するのみであり、したがって、その範囲を限定するものではないと見なされることに留意されたい。
図1は、本発明の1つ以上の側面を実装するように構成されるシステムを図示する。 図2は、本発明の種々の実施形態による図1の制御エンジンのより詳細な図である。 図3は、本発明の種々の実施形態によるロボットアームの関節運動がモーションキャプチャ装置を介して制御され得る方法を図示する。 図4は、本発明の種々の実施形態によるロボットドローンの位置および向きがモーションキャプチャ装置を介して制御され得る方法を図示する。 図5は、本発明の種々の実施形態によるモーションキャプチャデータをロボットを制御するための制御信号に変換するための方法ステップの流れ図である。
以下の説明では、多数の具体的な詳細が、述べられ、本発明のより徹底的な理解を提供する。しかしながら、本発明は、これらの具体的な詳細のうちの1つ以上のものがなくとも実践され得ることが、当業者に明白であろう。
(システム概要)
図1は、本発明の1つ以上の側面を実装するように構成されるシステムを図示する。示されるように、システム100は、モーションキャプチャ装置110と、コンピュータ120と、ロボット140とを含む。モーションキャプチャ装置110は、コンピュータ120に結合され、コンピュータ120は、ロボット140に結合される。
モーションキャプチャ装置110は、オペレータ114に関連付けられた動作を捕捉するように構成されたセンサ112(0)および112(1)を含む。モーションキャプチャ装置110は、任意の数の異なるセンサを含み得るが、概して、モーションキャプチャ装置110は、少なくとも2つのセンサ112を含み、両眼データを捕捉する。モーションキャプチャ装置110は、モーションキャプチャデータ150を、処理するためのコンピュータ120に出力する。
コンピュータ120は、一緒に結合されたプロセッサ122、入力/出力(I/O)ユーティリティ124、およびメモリ126を含む。プロセッサ122は、データを処理し、プログラムコードを実行するように構成された処理デバイスの任意の技術的に実現可能な形態であり得る。プロセッサ112は、例えば、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、およびそのようなユニットの任意の技術的に実現可能な組み合わせ等であり得る。I/Oユーティリティ124は、例えば、キーボード、マウス等を含む入力を受信するように構成されるデバイスを含み得る。I/Oユーティリティ124は、例えば、ディスプレイデバイス、スピーカ等を含む出力を提供するように構成されるデバイスも含み得る。I/Oユーティリティ124は、例えば、タッチスクリーン、ユニバーサルシリアルバス(USB)ポート等を含む入力および出力をそれぞれ受信することおよび提供することの両方を行うように構成されるデバイスをさらに含み得る。
メモリ126は、データおよびソフトウェアアプリケーションを記憶するように構成された任意の技術的に実現可能な記憶媒体であり得る。メモリ126は、例えば、ハードディスク、ランダムアクセスメモリ(RAM)モジュール、読み取り専用メモリ(ROM)等であり得る。メモリ126は、制御エンジン128と、データベース130とを含む。制御エンジン128は、プロセッサ122によって実行されると、プロセッサ122をロボット140と相互作用させるソフトウェアアプリケーションである。
ロボット140は、センサアレイ144に結合されるアクチュエータ142を含む。アクチュエータ142は、リニアモータまたは回転モータ、油圧ポンプもしくは空気ポンプ等を含む任意の種類の物理的動作を誘発するように構成された任意の技術的に実現可能なタイプの機構であり得る。(図3と併せて例として説明される)1つの実施形態では、アクチュエータ142は、ロボット140のロボットアームを関節運動させるように構成される回転モータを含む。(図4と併せて例として説明される)別の実施形態では、アクチュエータ142は、ロボット140を空中で推進するプロペラの組を駆動するように構成される回転モータを含む。
センサアレイ144は、任意の技術的に実現可能なセンサの集合を含み得る。例えば、センサアレイ144は、物理的な数量を測定するように構成された光学センサ、音響センサ、および/または他のタイプのセンサを含み得る。概して、センサアレイ144は、マルチメディアデータを記録するように構成される。実践では、センサアレイ144は、フレーム146を捕捉するように構成されるビデオカメラを含む。そのような一連のフレームを捕捉することによって、センサアレイ144は、映画を記録し得る。
動作時、モーションキャプチャ装置110は、オペレータ114に関連付けられた動作を捕捉し、次いで、モーションキャプチャ信号150を制御エンジン128に伝送する。制御エンジン128は、モーションキャプチャ信号150を処理し、制御信号152を生成する。制御エンジン128は、制御信号152をロボット140に伝送し、アクチュエータ140を介してロボット140の動作を制御する。概して、ロボット140の結果として生じる動作は、オペレータ114の動作を模倣し、および/またはそれから導出される。ロボット140は、センサアレイ146を介してセンサデータ154を受信し、そのセンサデータを制御エンジン128に伝送する。制御エンジン128は、受信されたデータを、データベース130内に記憶するために処理する。
この様式で、オペレータ114は、物理的にかつ/または直接的に任意のカメラ機器を動作させることを要求されることなく、ロボット140を制御し、ビデオシーケンスを捕捉し得る。このアプローチの1つの利点は、オペレータ114が、撮影するとき、困難かつ/または危険な作業環境にさらされる必要がないことである。制御エンジン128は、図2と併せて下記にさらに詳細に説明される。
図2は、本発明の種々の実施形態による、図1の制御エンジンのより詳細な図である。示されるように、制御エンジン128は、モーションキャプチャ分析器200と、動態抽出装置210と、動態変換器220と、マルチメディア捕捉モジュール230とを含む。
モーションキャプチャ分析器200は、モーションキャプチャ信号150をモーションキャプチャ装置110から受信し、それらの信号を処理し、未加工データ202を生成するように構成される。モーションキャプチャ信号150は、概して、センサ112によって捕捉されるビデオデータを含む。モーションキャプチャ分析器200は、ある期間にわたって、このビデオデータを処理し、オペレータ114のいくつかまたは全ての位置および向きを識別する。1つの実施形態では、オペレータ114は、モーションキャプチャ分析器200によって追跡され得る反射マーカを有する服を着用する。ある実施形態では、モーションキャプチャ分析器200は、モーションキャプチャ装置110内に含まれ得る。モーションキャプチャ分析器200は、その期間にわたって、オペレータ114の任意の追跡される部分の位置および向きを説明する数量の組を含む未加工データ202を生成する。
動態抽出装置210は、未加工データ202を受信し、次いで、このデータを処理し、処理されたデータ212を生成する。そうすることにおいて、動態抽出装置210は、その期間にわたって、未加工データ202に基づいてオペレータ114の動態をモデル化する。動態抽出装置210は、オペレータ114の手足の関節運動、ならびにオペレータ114の任意の部分の軌道、および/またはオペレータ114に関連付けられた任意の物体を含むオペレータ114の部分の種々の回転ならびに/もしくは移動を決定し得る。動態抽出装置220は、処理されたデータ212を動態変換器220に提供する。
動態変換器220は、処理されたデータ212内に含まれるモデル化された動態を、ロボット140を制御するための制御信号152に変換し、モデル化された動態から導出された動態を得るように構成される。動態変換器220は、ロボット140にオペレータ114の動態および動作を直接的に模倣させるいくつかの制御信号152を生成し得るか、またはロボット140の一部のみにオペレータ114の動態ならびに動作を模倣させる、他の制御信号152を生成し得る。
例えば、動態変換器220は、ロボット140のロボットアーム内のアクチュエータ142に、オペレータ114の腕内の関節の関節運動をまねさせる制御信号152を生成し得る。この特定の例は、図3と併せて下記にさらに詳細に説明される。代替として、動態変換器220は、アクチュエータ142に任意の技術的に実現可能な作動の組を実施させ、センサアレイ144にオペレータ114によって保持される物体と同様の経路を辿らせる制御信号152を生成し得る。この例は、図4と併せて下記にさらに詳細に説明される。1つの実施形態では、動態変換器220は、制御信号152を生成するとき、ロボット140の動態が、オペレータ114の動態の誇張されたバージョンを表すように、オペレータ114の移動を増幅し得る。
制御信号152に応答して、ロボット140内のアクチュエータ142は、センサアレイ144(潜在的には全体としてロボット140)を作動かつ移動させる。センサアレイ144は、センサデータ154を捕捉し、このデータを制御エンジン128内のマルチメディア捕捉モジュール230に伝送する。マルチメディア捕捉アプリケーション230は、概して、センサアレイの動作を管理し、センサ信号154等の入力センサ信号を処理する。これらの信号に基づいて、マルチメディア捕捉モジュール230は、データベース130内に記憶するためのマルチメディアデータ232を生成する。マルチメディアデータ232は、任意の技術的に実現可能なタイプのデータを含み得るが、実践では、マルチメディアデータ232は、センサアレイ144によって捕捉されるビデオのフレームと、可能性として音声データとを同様に含む。
一般的な事項として、制御エンジン128は、オペレータ114によって実施される移動をロボット140によって実施される移動に変換するように構成される。この様式で、オペレータ114は、所望される移動の組を実施することによって、ロボット140を制御することができる。このアプローチは、具体的には、カメラオペレータが、特定の様式でロボット140を制御し、映画シーケンスを撮影することを所望し得る、映画撮影に適用可能であり得る。しかしながら、当業者は、ロボットを制御するための本明細書に開示される技術が、映画以外の他の分野にも適用可能であり得ることを理解するであろう。
(モーションキャプチャを介した例示的ロボット制御)
図3は、本発明の種々の実施形態によるロボットアームの関節運動がモーションキャプチャ装置を介して制御され得る方法を図示する。図3に描写されるシナリオは、例示的目的のために提供され、1つの可能なロボットおよび1つの可能な移動の組を図示するにすぎない。本明細書に説明される技術は、任意の技術的に実現可能なロボットおよび任意の技術的に実現可能な移動の組に適用可能である。
示されるように、オペレータ114は、腕300を位置310(A)から上向きに移動させ、位置312(A)をとる。オペレータ114は、随意に、モーションキャプチャ物体302を保持し得る。モーションキャプチャ装置110は、概して、オペレータ114の動作を追跡し、具体的には、オペレータ114の腕300内の関節の関節運動を追跡するように構成される。1つの実施形態では、モーションキャプチャ装置110は、腕300の関節の位置を示すマーカに依拠する。モーションキャプチャ装置110は、モーションキャプチャ物体302の位置および場所も追跡し得る。モーションキャプチャ装置110は、任意および全ての捕捉データを表すモーションキャプチャ信号150を制御エンジン128に伝送する。
制御エンジン128は、次いで、ロボット140に位置310(B)から位置312(B)に移動させるための制御信号152を生成する。位置310(A)と310(B)とは、略類似しており、同様の関節運動を行う。同様に、位置312(A)と312(B)とも、類似しており、同様の関節運動を行う。加えて、任意の中間位置も、略類似している。ロボット140は、アクチュエータ142(0)、142(1)、142(2)、および142(3)を作動させることによってこれらの類似した関節運動をもたらし、腕300を用いてオペレータ114によって実施されるそれらと同様の関節回転を実施し得る。この様式で、ロボット140は、オペレータ114によって実施される移動と実質的に同一の移動を実施する。いくつかの実施形態では、ロボット140の動作は、オペレータ114の動作の誇張されたバージョンを表す。例えば、制御エンジン128は、アクチュエータ142に対する生成信号152を生成するときに事前設定された量によって、腕300に関連付けられた関節回転をスケーリングする、または平滑化処理を実施し、模倣された移動における外乱ならびに/もしくは他の摂動を減衰させ得る。
動作中、センサアレイ144は、センサデータ154として制御エンジン128に伝送されるデータを捕捉する。このセンサデータは、説明されるように、オペレータ114が一連の場所に対応する移動を実施することによって示すそれらの場所から採集される。但し、いくつかの場合では、ロボット140は、オペレータ114のように類似した動態を実装する必要がない。特に、オペレータ114が、ある経路に沿ってモーション制御物体302を移動させるとき、ロボット140は、任意の技術的に実現可能な移動の組み合わせを実施し、センサアレイ144に同様の経路を辿らせ得る。このアプローチは、図4と併せて下記にさらに詳細に説明される。
図4は、本発明の種々の実施形態による、ロボットドローンの位置がモーションキャプチャ装置を介して制御され得る方法を図示する。図3と同様に、図4に描写されるシナリオは、例示的目的のために提供され、1つの可能なロボットおよび1つの可能な移動の組を図示するにすぎない。本明細書に説明される技術は、任意の技術的に実現可能なロボットおよび任意の技術的に実現可能な移動の組に適用可能である。
図4では、オペレータ114は、モーションキャプチャ物体302を、軌道400(A)に沿って最初の位置410(A)から最終位置412(A)に移動させる。そうすることにおいて、オペレータ114は、図3と併せて上で説明された同様の方式で腕300を関節回転させる。しかしながら、図4に示される例示的シナリオでは、モーションキャプチャ装置110は、具体的な関節運動または腕300を捕捉する必要がない。
代わりに、モーションキャプチャ装置110は、モーションキャプチャ物体302の軌道を追跡し、モーションキャプチャ信号150を生成する。モーションキャプチャ信号150に基づいて、制御エンジン128は、センサアレイ144に軌道400(A)に類似した軌道を通過させるロボット140のための具体的な動態を決定する。制御エンジン128は、これらの動態を表す制御信号152を生成し、次いで、制御信号152を実行のためにロボット140に伝送する。それに応答して、ロボット140は、センサアレイ144を軌道400(B)に沿って位置410(A)から位置410(B)に移動させる。
実装されたロボットのタイプに応じて、制御エンジン128は、異なる制御信号152を生成し得る。示される例では、ロボット140は、クワッドコプタドローンである。故に、制御エンジン128は、1つ以上のプロペラの推進力を変調し、ドローンにセンサアレイ144を軌道400(B)に沿って移動させる制御信号152を生成する。別の例では、ロボット140は、図3に示されるロボット140と同様のいくつかの継手を伴うアームを含み得る。この場合、制御エンジン128は、ロボット140にセンサアレイ144を軌道400(B)に沿って移動させるであろう関節運動の組を決定し得る。再び、それらの関節運動は、腕300の関節運動と同様である必要がない。
本明細書に説明されるアプローチを用いて、オペレータ114は、モーションキャプチャ物体302を介して、センサアレイ144が沿って進行すべき軌道を示す。制御エンジン128は、次いで、ロボットに、センサアレイ144を用いて略同様の軌道を辿らせる。動作中、センサアレイ144は、制御エンジン128に伝送するためのセンサデータ154を捕捉する。
概して、図3-4を参照すると、当業者は、上で説明された技術が、モーションキャプチャデータに基づいてロボット制御信号を生成するための2つの例示的アプローチのみを表していることを理解するであろう。他のアプローチも、本発明の範囲に該当する。例えば、図2および3と併せて説明される技術は、組み合わせられ得る。この組み合わせられた技術に従って、制御エンジン128は、ロボット140に命令し、ある状況下のオペレータ114の動作をまねさせ、他の状況下のモーションキャプチャ物体302の軌道をまねさせ得る。代替として、制御エンジン128は、訓練され、ジェスチャに基づく言語に従って、オペレータ114の動作を解釈し得る。例えば、オペレータ114は、具体的な手の動作を実施し、「拡大する」、「カメラを左に回転させる」等のカメラ動作を示し得る。このアプローチを用いて、オペレータ114は、ロボット140の動作およびより具体的な映画撮影動作の両方にわたってきめ細かい制御を行い得る。1つの実施形態では、制御エンジン128は、ロボット140への後の再生のために、ロボット140のリアルタイムの制御中、オペレータ114によって実施される任意および全ての移動を記録する。この様式で、ロボット140は、オペレータ114に関連付けられた移動を反復させることを要求することなく、複数の作業を横断する移動の組を反復するように作製され得る。
(モーションキャプチャを介したロボット制御のための手順)
図5は、本発明の種々の実施形態による、モーションキャプチャデータをロボットを制御するための制御信号に変換するための方法ステップの流れ図である。方法ステップは、図1-4のシステムと併せて説明されるが、当業者は、方法ステップを、任意の順序で実施するように構成される任意のシステムも、本発明の範囲内であることを理解するであろう。
示されるように、方法500は、モーションキャプチャ装置110が、オペレータ114に関連付けられたモーションキャプチャデータを受信するステップ502において開始する。モーションキャプチャ装置110は、コンピュータビジョン技術を実装し、オペレータ114の頭部、胴体、および手足を追跡するか、またはマーキング追跡技術に依拠し、オペレータ114の移動を追跡し得る。モーションキャプチャ装置は、モーションキャプチャ信号150を処理するために制御エンジン128に伝送する。
ステップ504において、制御エンジン128は、モーションキャプチャ信号150を処理し、ロボット140によって実施されるべき関節運動シーケンス、および/またはロボット140が辿るべきエンドエフェクタ経路を決定する。関節運動シーケンスの例は、図3と併せて上で議論されている。エンドエフェクタ経路の例は、図4と併せて上で説明されている。
ステップ506において、制御エンジン128は、決定された関節運動シーケンスおよび/またはエンドエフェクタ経路に基づいて、制御信号152を生成する。制御信号152は、実装されたロボット140のタイプに応じて、変化し得る。例えば、ロボットのロボットアームを制御するために、制御信号152は、継手位置コマンドを含み得る。代替として、ロボットドローンを制御するために、制御信号152は、プロペラによって産出される推進力を変調するためのモータ速度コマンドを含み得る。
ステップ508において、制御エンジン128は、制御信号152をロボット140のアクチュエータ142に伝送する。制御エンジン128は、制御信号152をロボット140に結合された1つ以上の物理ケーブルを介して伝送するか、もしくは制御信号152を無線で伝送し得る。
ステップ510において、制御エンジン128は、マルチメディアデータをロボット140に結合されたセンサアレイ144から捕捉する。センサアレイ144は、光学センサ、音響センサ、振動センサ等を含む物理的な数量を測定するように構成される任意の技術的に実現可能なタイプのセンサを含み得る。実践では、センサアレイ144は、概して、ビデオカメラと、可能性として音声捕捉デバイスとを同様に含む。マルチメディア捕捉モジュール230は、センサアレイ144からのセンサデータを処理し、マルチメディアデータを生成する。
当業者は、本明細書に説明される技術が、種々の映画撮影動作に対して説明されているが、この技術がまた、概して、ロボット制御にも適用されることを理解するであろう。例えば、モーションキャプチャ装置110および制御エンジン128は、映画撮影以外にも、互いに協働し、任意の技術的目的のためにロボット140を制御し得る。
要するに、モーションキャプチャ装置は、オペレータの移動を記録し、制御エンジンは、次いで、それらの移動を、ロボットを制御するための制御信号に変換する。制御エンジンは、オペレータ移動を、ロボットによって実施されるべき類似移動に直接的に変換するか、または制御エンジンは、ロボットの一部をオペレータの対応する部分に模倣させるロボット動態を算出し得る。
本明細書に説明される技術の少なくとも1つの利点は、人間のカメラオペレータが、映画を撮影するとき、不快感または傷害に曝される必要がないことである。自分自身でカメラ機器を保持し、物理的に撮影に臨む代わりに、カメラオペレータは、単純に、次いで、カメラ機器を動作させるロボットを潜在的には遠隔の場所から動作させることができる。
種々の実施形態の説明が、例証の目的ためにもたらされているが、開示される実施形態を包括かつ限定するものではないことが意図される。多くの修正および変形例が、説明される実施形態の範囲ならびに精神から逸脱することなく、当業者に明白となるであろう。
本実施形態の側面は、システム、方法、またはコンピュータプログラム製品として具現化され得る。故に、本開示の側面は、完全に、ハードウェア実施形態、完全に、ソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)、または全て概して、本明細書に「モジュール」もしくは「システム」と称され得るソフトウェアおよびハードウェア側面を組み合わせるある実施形態の形態をとり得る。さらに、本開示の側面は、その上に具現化されるコンピュータ読み取り可能なプログラムコードを有する、1つ以上のコンピュータ読み取り可能な媒体内に具現化されるコンピュータプログラム製品の形態をとり得る。
1つ以上のコンピュータ読み取り可能な媒体の任意の組み合わせが、利用され得る。コンピュータ読み取り可能な媒体は、コンピュータ読み取り可能な信号媒体またはコンピュータ読み取り可能な記憶媒体であり得る。コンピュータ読み取り可能な記憶媒体は、例えば、限定ではないが、電子、磁気、光学、電磁気、赤外線、または半導体のシステム、装置、もしくはデバイス、または前述のものの任意の好適な組み合わせであり得る。コンピュータ読み取り可能な記憶媒体のより具体的な例(包括的ではない一覧)は、1つ以上のワイヤを有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブルROM(EPROMもしくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶デバイス、磁気記憶デバイス、もしくは前述のものの任意の好適な組み合わせを含むであろう。本書の文脈では、コンピュータ読み取り可能な記憶媒体は、命令実行システム、装置、またはデバイスによって、もしくはそれに関連して使用するためのプログラムを含有もしくは記憶することができる、任意の有形媒体であり得る。
本開示の側面は、本開示の実施形態による方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図ならびに/もしくはブロック図を参照して、上で説明される。フローチャート図および/またはブロック図の各ブロックならびにフローチャート図および/またはブロック図内でのブロックの組み合わせが、コンピュータプログラム命令によって実装されることができることが、理解されるであろう。これらのコンピュータプログラム命令は、汎用コンピュータ、専用コンピュータ、または他のプログラム可能データ処理装置のプロセッサに提供され、コンピュータもしくは他のプログラム可能データ処理装置のプロセッサを介して実行する命令が、フローチャートおよび/またはブロック図のブロック内で規定される機能/作用の実装を可能にするように、機械を産出し得る。そのようなプロセッサは、限定ではないが、汎用プロセッサ、専用プロセッサ、特定用途向けプロセッサ、またはフィールドプログラマブルプロセッサもしくはゲートアレイであり得る。
図内のフローチャートおよびブロック図は、本開示の種々の実施形態によるシステム、方法、ならびにコンピュータプログラム製品の可能な実装のアーキテクチャ、機能性、および動作を図示する。この点について、フローチャートまたはブロック図内の各ブロックは、規定される論理機能を実装するための1つ以上の実行可能な命令を含むモジュール、セグメント、もしくは部分を表し得る。いくつかの代替実装では、ブロック内に記載される機能は、図内に記載される順序外で生じてもよいことにも留意されたい。例えば、連続して示される2つのブロックは、伴われる機能性に応じて、事実上、略同時に実行され得る、または時として、逆の順序で実行され得る。ブロック図および/またはフローチャート図の各ブロックならびにブロック図および/またはフローチャート図内でのブロックの組み合わせは、規定される機能もしくはアクション、または特殊目的ハードウェアならびにコンピュータ命令の組み合わせを実施する特殊目的ハードウェア系システムによって実装されることができることにも留意されたい。
前述は、本開示の実施形態を対象としているが、本開示の他のおよびさらなる実施形態も、その基本的範囲から逸脱することなく考案され得、その範囲は、後に続く請求項によって決定される。

Claims (1)

  1. 本明細書に記載の発明。
JP2023206828A 2016-07-21 2023-12-07 モーションキャプチャを介したロボットカメラ制御 Pending JP2024015262A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US15/216,583 2016-07-21
US15/216,583 US10427305B2 (en) 2016-07-21 2016-07-21 Robotic camera control via motion capture
JP2019502163A JP2019523145A (ja) 2016-07-21 2017-07-20 モーションキャプチャを介したロボットカメラ制御
PCT/US2017/043118 WO2018017859A1 (en) 2016-07-21 2017-07-20 Robotic camera control via motion capture
JP2021206918A JP2022060201A (ja) 2016-07-21 2021-12-21 モーションキャプチャを介したロボットカメラ制御

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021206918A Division JP2022060201A (ja) 2016-07-21 2021-12-21 モーションキャプチャを介したロボットカメラ制御

Publications (1)

Publication Number Publication Date
JP2024015262A true JP2024015262A (ja) 2024-02-01

Family

ID=59521648

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019502163A Withdrawn JP2019523145A (ja) 2016-07-21 2017-07-20 モーションキャプチャを介したロボットカメラ制御
JP2021206918A Pending JP2022060201A (ja) 2016-07-21 2021-12-21 モーションキャプチャを介したロボットカメラ制御
JP2023206828A Pending JP2024015262A (ja) 2016-07-21 2023-12-07 モーションキャプチャを介したロボットカメラ制御

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2019502163A Withdrawn JP2019523145A (ja) 2016-07-21 2017-07-20 モーションキャプチャを介したロボットカメラ制御
JP2021206918A Pending JP2022060201A (ja) 2016-07-21 2021-12-21 モーションキャプチャを介したロボットカメラ制御

Country Status (4)

Country Link
US (2) US10427305B2 (ja)
EP (1) EP3488308A1 (ja)
JP (3) JP2019523145A (ja)
WO (1) WO2018017859A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10279470B2 (en) * 2014-06-12 2019-05-07 Play-i, Inc. System and method for facilitating program sharing
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
KR102640420B1 (ko) * 2016-12-22 2024-02-26 삼성전자주식회사 홈 로봇 장치의 동작 운용 방법 및 이를 지원하는 홈 로봇 장치
CN109521927B (zh) * 2017-09-20 2022-07-01 阿里巴巴集团控股有限公司 机器人互动方法和设备
CN111590567B (zh) * 2020-05-12 2021-12-07 北京控制工程研究所 一种基于Omega手柄的空间机械臂遥操作规划方法
EP4173773A4 (en) * 2020-06-25 2024-03-27 Hitachi High Tech Corp ROBOT TEACHING APPARATUS AND METHOD FOR TEACHING JOBS
US11794342B2 (en) * 2020-07-17 2023-10-24 Intrinsic Innovation Llc Robot planning using unmanned aerial vehicles
CN114454174B (zh) * 2022-03-08 2022-10-04 江南大学 机械臂动作捕捉方法、介质、电子设备及系统

Family Cites Families (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US388760A (en) * 1888-08-28 Machine
US719583A (en) * 1901-04-11 1903-02-03 Adolph Rosenthal Foot-gear for use in swimming.
CN2124815U (zh) * 1992-07-08 1992-12-16 台湾恒基股份有限公司 网印机
US6285380B1 (en) * 1994-08-02 2001-09-04 New York University Method and system for scripting interactive animated actors
JP3628826B2 (ja) * 1996-12-24 2005-03-16 本田技研工業株式会社 脚式移動ロボットの遠隔制御システム
JP3667914B2 (ja) * 1997-01-31 2005-07-06 本田技研工業株式会社 脚式移動ロボットの遠隔制御システム
US6353773B1 (en) * 1997-04-21 2002-03-05 Honda Giken Kogyo Kabushiki Kaissha Remote control system for biped locomotion robot
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
US6425865B1 (en) * 1998-06-12 2002-07-30 The University Of British Columbia Robotically assisted medical ultrasound
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
WO2003020476A1 (fr) * 2001-08-29 2003-03-13 Honda Giken Kogyo Kabushiki Kaisha Dispositif de commande a distance pour robot mobile bipede
FR2839176A1 (fr) * 2002-04-30 2003-10-31 Koninkl Philips Electronics Nv Systeme d'animation pour robot comprenant un ensemble de pieces mobiles
US8600550B2 (en) * 2003-12-12 2013-12-03 Kurzweil Technologies, Inc. Virtual encounters
JP3920317B2 (ja) * 2004-08-02 2007-05-30 松下電器産業株式会社 物品運搬用ロボット
JP3927994B2 (ja) * 2004-10-19 2007-06-13 松下電器産業株式会社 ロボット装置
US20100222925A1 (en) * 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
EP2281668B1 (en) * 2005-09-30 2013-04-17 iRobot Corporation Companion robot for personal interaction
US20070078466A1 (en) * 2005-09-30 2007-04-05 Restoration Robotics, Inc. Methods for harvesting follicular units using an automated system
DE102005058867B4 (de) * 2005-12-09 2018-09-27 Cine-Tv Broadcast Systems Gmbh Verfahren und Vorrichtung zum Bewegen einer auf einem Schwenk- und Neigekopf angeordneten Kamera entlang einer vorgegebenen Bewegungsbahn
JP5109192B2 (ja) * 2006-07-28 2012-12-26 ソニー株式会社 モーションキャプチャにおけるfacs(顔の表情符号化システム)解決法
CN101646534B (zh) * 2007-06-27 2012-03-21 松下电器产业株式会社 机器手控制装置及控制方法、机器人
WO2009004772A1 (ja) * 2007-07-05 2009-01-08 Panasonic Corporation ロボットアームの制御装置及び制御方法、ロボット、及び制御プログラム
JP2009032189A (ja) * 2007-07-30 2009-02-12 Toyota Motor Corp ロボットの動作経路生成装置
EP2296068B1 (en) * 2008-02-28 2015-06-24 Panasonic Intellectual Property Management Co., Ltd. Control apparatus and control method for a robot arm, robot, control program for a robot arm, and electronic integrated circuit for controlling a robot arm
US8214098B2 (en) * 2008-02-28 2012-07-03 The Boeing Company System and method for controlling swarm of remote unmanned vehicles through human gestures
JP4508252B2 (ja) * 2008-03-12 2010-07-21 株式会社デンソーウェーブ ロボット教示装置
KR101494344B1 (ko) * 2008-04-25 2015-02-17 삼성전자주식회사 휴머노이드 로봇의 움직임 제어 시스템 및 그 방법
US8340819B2 (en) * 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
JP4568795B2 (ja) * 2009-01-09 2010-10-27 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路
JP2010223932A (ja) * 2009-02-27 2010-10-07 Toyota Motor Corp 欠陥検出方法
US7983450B2 (en) * 2009-03-16 2011-07-19 The Boeing Company Method, apparatus and computer program product for recognizing a gesture
SG176213A1 (en) * 2009-05-29 2011-12-29 Univ Nanyang Tech Robotic system for flexible endoscopy
JP4759660B2 (ja) * 2009-08-21 2011-08-31 パナソニック株式会社 ロボットアーム制御用の装置、方法、プログラム及び集積電子回路、並びに、組立ロボット
KR20110026211A (ko) * 2009-09-07 2011-03-15 삼성전자주식회사 인간형 로봇
US8878779B2 (en) * 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
JP4699572B2 (ja) * 2009-09-28 2011-06-15 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、及び、ロボットアーム制御用集積電子回路
US8600552B2 (en) * 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP2011140077A (ja) * 2010-01-06 2011-07-21 Honda Motor Co Ltd 加工システム及び加工方法
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US20130079905A1 (en) * 2010-06-03 2013-03-28 Hitachi, Ltd. Human-Operated Working Machine System
AT509927B1 (de) * 2010-06-08 2015-05-15 Keba Ag Verfahren zum programmieren oder vorgeben von bewegungen oder abläufen eines industrieroboters
US8781629B2 (en) * 2010-09-22 2014-07-15 Toyota Motor Engineering & Manufacturing North America, Inc. Human-robot interface apparatuses and methods of controlling robots
KR101264483B1 (ko) * 2010-10-27 2013-05-14 김동호 유니버셜 로봇 관절모듈
CA2720886A1 (en) * 2010-11-12 2012-05-12 Crosswing Inc. Customizable virtual presence system
US8930019B2 (en) * 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
US9079313B2 (en) * 2011-03-15 2015-07-14 Microsoft Technology Licensing, Llc Natural human to robot remote control
US9188973B2 (en) * 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
US8694160B2 (en) * 2011-08-24 2014-04-08 Yamazaki Mazak Corporation NC machine tool system
TW201310339A (zh) * 2011-08-25 2013-03-01 Hon Hai Prec Ind Co Ltd 機器人控制系統及方法
WO2013035244A1 (ja) * 2011-09-06 2013-03-14 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、制御プログラム、並びに、集積電子回路
EP2810748A4 (en) * 2012-02-03 2016-09-07 Nec Corp COMMUNICATION COMMITMENT SYSTEM, COMMUNICATION COMMITMENT METHOD, AND COMMUNICATION COMMITMENT PROGRAM
US8843236B2 (en) * 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration
US9211648B2 (en) * 2012-04-05 2015-12-15 Irobot Corporation Operating a mobile robot
EP2838698B2 (de) * 2012-07-10 2020-01-01 Siemens Aktiengesellschaft Roboteranordnung und verfahren zum steuern eines roboters
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
US9025856B2 (en) * 2012-09-05 2015-05-05 Qualcomm Incorporated Robot control information
EP3932628A1 (en) * 2012-12-10 2022-01-05 Intuitive Surgical Operations, Inc. Collision avoidance during controlled movement of image capturing device and manipulatable device movable arms
CN104936748B (zh) * 2012-12-14 2017-10-27 Abb技术有限公司 徒手机器人路径教导
KR101414362B1 (ko) * 2013-01-30 2014-07-02 한국과학기술원 영상인지 기반 공간 베젤 인터페이스 방법 및 장치
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
US8924735B2 (en) * 2013-02-15 2014-12-30 Microsoft Corporation Managed biometric identity
US9056396B1 (en) * 2013-03-05 2015-06-16 Autofuss Programming of a robotic arm using a motion capture system
JP6514681B2 (ja) * 2013-03-15 2019-05-15 ウーバー テクノロジーズ,インコーポレイテッド ロボット用多重知覚ステレオ視のための方法、システム、および装置
US8903568B1 (en) * 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
KR102077108B1 (ko) * 2013-09-13 2020-02-14 한국전자통신연구원 콘텐츠 체험 서비스 제공 장치 및 그 방법
JP6476662B2 (ja) * 2013-09-20 2019-03-06 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
US9144907B2 (en) * 2013-10-24 2015-09-29 Harris Corporation Control synchronization for high-latency teleoperation
US9381642B2 (en) * 2014-01-13 2016-07-05 Massachusetts Institute Of Technology Wearable robot assisting manual tasks
DE102014001168B4 (de) * 2014-01-31 2019-03-14 Abb Schweiz Ag Robotersteuerung
EP3107429B1 (en) * 2014-02-20 2023-11-15 MBL Limited Methods and systems for food preparation in a robotic cooking kitchen
CN103901856A (zh) * 2014-03-23 2014-07-02 余浪 用于远程控制机器人的方法以及机器人化身网络
US11137601B2 (en) * 2014-03-26 2021-10-05 Mark D. Wieczorek System and method for distanced interactive experiences
US11733515B2 (en) * 2014-03-26 2023-08-22 Mark D. Wieczorek System and method for distanced interactive experiences
US20220252881A1 (en) * 2014-03-26 2022-08-11 Mark D. Wieczorek System and method for haptic interactive experiences
DK2933604T3 (en) * 2014-04-14 2017-03-13 Softbank Robotics Europe PROCEDURE FOR LOCATING A ROBOT IN A LOCATION PLAN
CN106456145B (zh) * 2014-05-05 2020-08-18 维卡瑞斯外科手术股份有限公司 虚拟现实手术装置
US9696813B2 (en) * 2015-05-27 2017-07-04 Hsien-Hsiang Chiu Gesture interface robot
US10613527B2 (en) * 2014-08-18 2020-04-07 Verity Studios Ag Invisible track for an interactive mobile robot system
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
FR3027473B1 (fr) * 2014-10-16 2018-01-12 Renault S.A.S Dispositif et procede de pilotage de la machine electrique d'un vehicule en vue de son maintien en position immobilisee
WO2016068262A1 (ja) * 2014-10-29 2016-05-06 京セラ株式会社 コミュニケーションロボット
US9242379B1 (en) * 2015-02-09 2016-01-26 The Trustees Of The University Of Pennysylvania Methods, systems, and computer readable media for producing realistic camera motion for stop motion animation
US9694496B2 (en) * 2015-02-26 2017-07-04 Toyota Jidosha Kabushiki Kaisha Providing personalized patient care based on electronic health record associated with a user
US9643314B2 (en) * 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
EP3272473B1 (en) * 2015-03-20 2022-09-14 FUJI Corporation Teaching device and method for generating control information
JP2016187844A (ja) * 2015-03-30 2016-11-04 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
US9889566B2 (en) * 2015-05-01 2018-02-13 General Electric Company Systems and methods for control of robotic manipulation
WO2016189924A1 (ja) * 2015-05-28 2016-12-01 株式会社日立製作所 ロボット操作装置およびプログラム
US9945677B1 (en) * 2015-07-23 2018-04-17 X Development Llc Automated lane and route network discovery for robotic actors
US20170039671A1 (en) * 2015-08-07 2017-02-09 Seoul National University R&Db Foundation Robotic self-filming system
CN105223957B (zh) 2015-09-24 2018-10-02 北京零零无限科技有限公司 一种手势操控无人机的方法和装置
US9981385B2 (en) * 2015-10-12 2018-05-29 The Boeing Company Dynamic automation work zone safety system
DE102015221337A1 (de) * 2015-10-30 2017-05-04 Keba Ag Verfahren und Steuerungssystem zum Steuern der Bewegungen von Gelenkarmen eines Industrieroboters sowie dabei eingesetztes Bewegungsvorgabemittel
US20170348854A1 (en) * 2015-12-16 2017-12-07 Mbl Limited Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with containers and electronic minimanipulation libraries
US10414052B2 (en) * 2016-02-09 2019-09-17 Cobalt Robotics Inc. Building-integrated mobile robot
US10434659B2 (en) * 2016-03-02 2019-10-08 Kindred Systems Inc. Systems, devices, articles, and methods for user input
US20190105779A1 (en) * 2016-03-24 2019-04-11 Polygon T.R Ltd. Systems and methods for human and robot collaboration
GB2563785B (en) * 2016-03-28 2021-03-03 Groove X Inc Autonomously acting robot that performs a greeting action
CN109070330B (zh) * 2016-04-08 2022-07-15 Groove X 株式会社 认生的行为自主型机器人
US10242501B1 (en) * 2016-05-03 2019-03-26 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
US10322506B2 (en) * 2016-05-06 2019-06-18 Kindred Systems Inc. Systems, devices, articles, and methods for using trained robots
DE112017002960T5 (de) * 2016-06-14 2019-02-28 Groove X, Inc. Autonom handelnder roboter, der kühle sucht
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
WO2018043235A1 (ja) * 2016-08-29 2018-03-08 Groove X株式会社 音源の方向を認識する自律行動型ロボット
DE112017004414T5 (de) * 2016-09-02 2019-05-16 Groove X, Inc. Autonom handelnder roboter, server und verhaltenssteuerungsprogramm
US11254012B2 (en) * 2016-09-14 2022-02-22 Keba Ag Control device and control method for industrial machines having controlled movement drives
EP3547267A4 (en) * 2016-11-24 2020-11-25 Kyoto University ROBOT CONTROL SYSTEM, MACHINE CONTROL SYSTEM, ROBOT CONTROL METHOD, MACHINE CONTROL METHOD, AND RECORDING MEDIUM
WO2018146769A1 (ja) * 2017-02-09 2018-08-16 三菱電機株式会社 位置制御装置及び位置制御方法
KR102113465B1 (ko) * 2017-02-09 2020-05-21 미쓰비시덴키 가부시키가이샤 위치 제어 장치 및 위치 제어 방법
US10403050B1 (en) * 2017-04-10 2019-09-03 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
US10960543B2 (en) * 2017-05-30 2021-03-30 Sisu Devices, LLC Robotic point capture and motion control
US11220008B2 (en) * 2017-07-18 2022-01-11 Panasonic Intellectual Property Management Co., Ltd. Apparatus, method, non-transitory computer-readable recording medium storing program, and robot
US11097431B2 (en) * 2018-05-01 2021-08-24 Misty Robotics, Inc. Robot neck mechanism
US10471591B1 (en) * 2018-06-01 2019-11-12 X Development Llc Object hand-over between robot and actor
JP7298860B2 (ja) * 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
WO2020036910A1 (en) * 2018-08-13 2020-02-20 R-Go Robotics Ltd. System and method for creating a single perspective synthesized image
US11279036B2 (en) * 2018-10-01 2022-03-22 Toyota Research Institute, Inc. Methods and systems for implementing customized motions based on individual profiles for identified users
WO2020213245A1 (ja) * 2019-04-16 2020-10-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20200368904A1 (en) * 2019-05-20 2020-11-26 Russell Aldridge Remote robotic welding with a handheld controller
US11562320B2 (en) * 2019-07-22 2023-01-24 Invia Robotics, Inc. Decoupled order fulfillment
US20220387128A1 (en) * 2019-11-05 2022-12-08 Vicarious Surgical Inc. Surgical virtual reality user interface
US11436869B1 (en) * 2019-12-09 2022-09-06 X Development Llc Engagement detection and attention estimation for human-robot interaction
JP7323475B2 (ja) * 2020-02-19 2023-08-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および行動モード設定方法
JP2023514438A (ja) * 2020-02-21 2023-04-05 ローレンス ジャコブス ブライエル カメラ付きのサイクル及び協調パンチエクササイズ装置と方法
US20210294944A1 (en) * 2020-03-19 2021-09-23 Nvidia Corporation Virtual environment scenarios and observers for autonomous machine applications
US11524410B2 (en) * 2020-06-12 2022-12-13 Hexagon Metrology, Inc. Robotic alignment method for workpiece measuring systems
CN111716365B (zh) * 2020-06-15 2022-02-15 山东大学 基于自然行走的沉浸式远程交互系统及方法
DE102020209685B4 (de) * 2020-07-31 2023-07-06 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum steuern einer robotervorrichtung und robotervorrichtungssteuerung
CN112704563B (zh) * 2020-12-25 2022-04-01 天津市第三中心医院 一种基于超声刀的肝胆外科的远程超声手术模拟系统
US20220314112A1 (en) * 2021-04-06 2022-10-06 Sony Interactive Entertainment LLC Adjustable robot for providing scale of virtual assets and identifying objects in an interactive scene
WO2022221136A1 (en) * 2021-04-16 2022-10-20 Dexterity, Inc. Repositionable robot riser

Also Published As

Publication number Publication date
EP3488308A1 (en) 2019-05-29
US20200030986A1 (en) 2020-01-30
JP2022060201A (ja) 2022-04-14
WO2018017859A1 (en) 2018-01-25
JP2019523145A (ja) 2019-08-22
US20180021956A1 (en) 2018-01-25
US10427305B2 (en) 2019-10-01

Similar Documents

Publication Publication Date Title
JP2024015262A (ja) モーションキャプチャを介したロボットカメラ制御
US9300852B2 (en) Controlling robotic motion of camera
US11474510B2 (en) Programming a robot by demonstration
Zuo et al. Craves: Controlling robotic arm with a vision-based economic system
Fritsche et al. First-person tele-operation of a humanoid robot
WO2016193781A1 (en) Motion control system for a direct drive robot through visual servoing
Pan et al. Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device
JP2021000678A (ja) 制御システムおよび制御方法
US20220161424A1 (en) Device and method for controlling a robotic device
Dwivedi et al. Combining electromyography and fiducial marker based tracking for intuitive telemanipulation with a robot arm hand system
CN112109074A (zh) 一种机器人目标图像抓取方法
Bhattacherjee et al. Kinematics and teleoperation of tendon driven continuum robot
Islam et al. Integration of home assistance with a gesture controlled robotic arm
Avalos et al. Real-time teleoperation with the Baxter robot and the Kinect sensor
Kim et al. Dynamic Model and Motion Control of a Robotic Manipulator.
Martin et al. Real-time gestural control of robot manipulator through deep learning human-pose inference
Cai et al. 6D image-based visual servoing for robot manipulators with uncalibrated stereo cameras
Sita et al. Towards multimodal interactions: robot jogging in mixed reality
Grasshoff et al. 7dof hand and arm tracking for teleoperation of anthropomorphic robots
US20180065247A1 (en) Configuring a robotic camera to mimic cinematographic styles
Yu et al. Precise Robotic Needle-Threading with Tactile Perception and Reinforcement Learning
Hu et al. Manipulator arm interactive control in unknown underwater environment
WO2023123257A1 (zh) 一种机器人的控制方法及装置
Bujalance et al. Real-time gestural control of robot manipulator through Deep Learning human-pose inference
Arsenopoulos et al. A human-robot interface for industrial robot programming using RGB-D sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231207