JP7025532B2 - 衝突の検出、推定、および回避 - Google Patents

衝突の検出、推定、および回避 Download PDF

Info

Publication number
JP7025532B2
JP7025532B2 JP2020513698A JP2020513698A JP7025532B2 JP 7025532 B2 JP7025532 B2 JP 7025532B2 JP 2020513698 A JP2020513698 A JP 2020513698A JP 2020513698 A JP2020513698 A JP 2020513698A JP 7025532 B2 JP7025532 B2 JP 7025532B2
Authority
JP
Japan
Prior art keywords
collision
sensor data
log
detection system
physical object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020513698A
Other languages
English (en)
Other versions
JP2020529088A (ja
Inventor
ライアン マイケル ヒックマン
スヒョン ペ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Niantic Inc
Original Assignee
Niantic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Niantic Inc filed Critical Niantic Inc
Publication of JP2020529088A publication Critical patent/JP2020529088A/ja
Application granted granted Critical
Publication of JP7025532B2 publication Critical patent/JP7025532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39082Collision, real time collision avoidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Description

本開示は、一般に、機械学習に関し、より具体的には、機械学習モデルをトレーニングするためのトレーニングデータセットを生成し、機械学習モデルを用いて衝突の推定を行うことに関する。
ロボット装置が環境をナビゲートするとき、環境内の物理的物体との衝突を回避することが望まれる場合がある。例えば、ロボット装置が屋内環境をナビゲートするとき、人々、ペット、および他の移動する物体との衝突を回避することが望まれる場合がある。
場合によって、ロボット装置は、受動的な方法で動作することで衝突を回避するようにプログラムされている。例えば、ロボット装置は、赤外線近接センサを含み、ロボット装置の特定範囲内で物体が検出されるたびに停止または方向を変更するようにプログラムされてもよい。しかしながら、残念なことに、状況によっては、ロボット装置の反応が遅すぎて、ロボット装置が物体と衝突する場合がある。さらに、ロボット装置が環境内をナビゲートするとき、受動的な方法で動作するロボット装置は、動いている体(または動く可能性のある物体)の軌道を推定できず、物体との衝突を回避するために能動的に動作を行うことができない場合がある。従って、改善が望まれている。
一例では、コンピュータにより実行される方法が記載される。コンピュータにより実行される方法は、コンピューティング装置によって、以前の期間中の環境を示し、一連の画像フレームを含むセンサデータのログを取得することを含む。コンピュータにより実行される方法は、コンピューティング装置によって、センサデータのログは、以前の期間内の特定の時間における環境内の物理的物体を巻き込む衝突に関連すると判定することをさらに含む。コンピュータにより実行される方法はまた、センサデータのログが衝突に関連すると判定することに応じて、コンピューティング装置によって、センサデータのログから衝突に対するトレーニングデータセットを生成することを含む。衝突に対するトレーニングデータセットは、特定の時間に対応する一連の画像フレーム内の画像より前の前記一連の画像フレームの複数の画像フレームを含む。
別の例では、コンピューティング装置が記載される。コンピューティング装置は、少なくとも1つのプロセッサと、メモリと、メモリに記憶され、少なくとも1つのプロセッサによって実行されるとコンピューティング装置に様々な機能を実行させるプログラム命令とを備える。機能は、以前の期間中の環境を示し、一連の画像フレームを含むセンサデータのログを取得することを含む。この機能は、センサデータのログは、以前の期間内の特定の時間における環境内の物理的物体を巻き込む衝突に関連すると判定することをさらに含む。この機能はまた、センサデータのログが衝突に関連すると判定することに応じて、センサデータのログから衝突に対するトレーニングデータセットを生成することを含む。衝突に対するトレーニングデータセットは、特定の時間に対応する一連の画像フレーム内の画像フレームより前の一連の画像フレームの複数の画像フレームを含む。
別の例において、コンピューティング装置によって実行されるとコンピューティング装置に機能を実行させる命令を記憶した非一時的なコンピュータ読み取り可能な媒体が記載される。機能は、以前の期間中の環境を示し、一連の画像フレームを含むセンサデータのログを取得することを含む。この機能は、センサデータのログは、以前の期間内の特定の時間における環境内の物理的物体を巻き込む衝突に関連すると判定することをさらに含む。この機能はまた、センサデータのログが衝突に関連すると判定することに応じて、センサデータのログから衝突に対するトレーニングデータセットを生成することを含む。衝突に対するトレーニングデータセットは、特定の時間に対応する一連の画像フレーム内の画像フレームより前の一連の画像フレームの複数の画像フレームを含む。
議論された特徴、機能、および利点は、多様な例で独立に達成でき、またはさらに他の例と組み合わせてもよく、さらにその詳細は、以下の説明および図を参照できる。
例示的な一例の特徴になる新規の特徴は、添付した特許請求の範囲に記載されている。しかしながら、例示的な一例、ならびに好ましい使用モード、さらに目的および説明は、以下の本開示の例示的な一例の詳細な説明を参照し、添付の図と併せて読むと最もよく理解されるであろう。
図1は、一実施形態に係る例示的なシステムを示す。 図2は、一実施形態に係る例示的なロボット装置を示す。 図3は、一実施形態に係る例示的なコンピューティング装置を示す。 図4は、一実施形態に係る、例示的な方法のフローチャートを示す。 図5は、一実施形態に係る、環境内の物理的物体に関連する衝突を示す概念図である。 図6は、一実施形態に係る、環境内の物理的物体に関連する衝突を示す別の概念図である。 図7は、一実施形態に係る、別の例示的な方法のフローチャートを示す。 図8は、一実施形態に係る、衝突の推定および回避を示す概念図である。
開示された例は、添付の図面を参照して以下により十分に記載されており、添付の図面には、開示された例の全てではないが、いくつかの例を示す。実際に、いくつかの異なる例が取り上げられる場合があるが、ここに記載される例に限定されると解釈されてはならない。より正確に言えば、これらの例は、本開示が徹底的かつ完全であり、本開示の範囲が当業者に十分に伝達されるように提供される。
ここでは、機械学習モデルをトレーニングするトレーニングデータセットを生成するシステムおよび方法が記載される。例において、ロボット装置は、環境内の物理的物体に関連する衝突を検出し、それに応じて衝突に係るデータを、機械学習モデルのトレーニングデータセットとして、収集およびパッケージ化してもよい。このトレーニングデータセットおよび他のトレーニングデータセットを用いて機械学習モデルをトレーニングした後、ロボット装置(または別のロボット装置)は、モデルを用いて、将来の衝突がいつ発生するかを予測し、物理的物体との衝突を回避する予防策を講じることができる。
1つの例示的な方法は、コンピューティング装置によって、以前の期間中の環境を示すセンサデータのログを取得することを含む。例えば、環境内をナビゲートするロボット装置は、以前の期間に対応する一連の画像フレームを含むセンサデータのログを記録および記憶し、センサデータのログをコンピューティング装置に提供してもよい。この方法はまた、コンピューティング装置によって、センサデータのログは、以前の期間内の特定の時間における環境内の物理的物体を巻き込む衝突に関連すると判定することを含む。例えば、コンピューティング装置は、衝突は、物理的物体とロボット装置との間の物理的衝突であると判定してもよい。また、センサデータのログが衝突に関連すると判定することに応じて、コンピューティング装置は、センサデータのログから衝突に対するトレーニングデータセットを生成することができる。トレーニングデータセットは、特定の時間に対応する一連の画像フレーム内の画像フレームより前の一連の画像フレームの複数の画像フレームを含んでもよい。
いくつかの例において、ロボット装置は、RGBD(Red, Green, Blue, Distance)画像を撮像するRGBDカメラを有してもよく、センサデータのログには一連のRGBD画像フレームが含まれてもよい。これらの例において、衝突に対するトレーニングデータセットには、衝突までのRGDB画像フレームが含まれてもよい。例えば、動いている物体(跳ねるボールなど)がロボット装置と衝突して、トレーニングデータセットの生成のトリガとなった場合、トレーニングデータセットには物体の動きを表すRGBD画像フレームが含まれてもよい。
コンピューティング装置は、様々な方法でセンサデータのログが衝突に関連すると判定できる。例えば、以下でさらに記載されるように、コンピューティング装置は、ロボット装置によって記録された加速度計データは、物理的物体とロボット装置との間の衝突を示していると判定してもよい。同様に、コンピューティング装置は、ロボット装置によって記録された接触センサデータは、物理的物体とロボット装置との間の衝突を示していると判定してもよい。衝突を認識し、トレーニングデータセットの生成のトリガとする他の技術も考えられかつここに開示される。
さらに、いくつかの例において、物理的物体と拡張現実キャラクター形態のソフトウェアロボットとの間の衝突のような仮想衝突も、トレーニングデータセットの生成のトリガとなる場合がある。例えば、拡張現実グラフィックは環境内の特定の位置に配置されてもよく、物理的物体は、特定の位置に移動したとコンピューティング装置が判定すると、コンピューティング装置はそれに応じて衝突のトレーニングデータセットを生成してもよい。
有利には、ここに開示されるシステムおよび方法は、衝突が発生したときに、人間によるラベル付けの必要なく、センサデータのログを後処理してセンサデータの一部を衝突としてラベル付けするか、または、リアルタイムにトレーニングデータセットの生成のトリガとする、機械学習モデルのトレーニングデータセットの生成を促進してもよい。
これらのシステムおよび方法の他の様々な特徴は、添付の図面を参照して以下に記載する。
図1を参照し、例示的なシステム100を示す。特に、図1には、衝突の検出および/または衝突の推定に対する例示的なシステム100が示される。ここで用いられる衝突の検出とは、環境内の少なくとも1つの動いている物体に関連する衝突が発生したことを判定するプロセスを言う。上記の説明を踏まえ、衝突の検出は、衝突に関連するデータを収集し、機械学習モデルをトレーニングするトレーニングデータセットを生成することに有用である。一方、衝突の推定とは、ロボット装置またはソフトウェアロボットなどのロボットが物理的物体と衝突する可能性があることを予測するプロセスを言う。物理的物体は、静止していてもよく、動いていてもよい。例えば、物理的物体は、家具、または壁、床、キャビネット、階段などの環境内の物理的な構造物であってもよい。あるいは、物理的物体は、ボール、おもちゃ、または衣類であってもよい。場合によって、衝突の推定は、機械学習モデルを用いて、動いている物体および/またはロボットの軌道を推定することを含んでもよい。
図1に示されるように、システム100は、ロボット装置102a、102bと、少なくとも1つのサーバ装置104と、ホスト装置106と、通信ネットワーク108とを含む。
ロボット装置102a、102bは、少なくとも1つのセンサを有し、ここに記載の実施形態によるセンサデータを記録するように構成される任意の種類の装置であってもよい。場合によって、ロボット装置102a、102bは、環境内で動くことを容易にする移動能力(例えば、駆動システム)を含んでもよい。
図1に示すように、ロボット装置102aは、通信ネットワーク108を介して、サーバ装置104および/またはホスト装置106にデータ110を送信、および/または、サーバ装置104および/またはホスト装置106からデータ112を受信してもよい。例えば、ロボット装置102aは、通信ネットワーク108を介してセンサデータのログをサーバ装置104に送信してもよい。さらに加えてまたは代替として、ロボット装置102aは、サーバ装置104から機械学習モデルデータを受信してもよい。同様に、ロボット装置102aは、通信ネットワーク108を介してホスト装置106にセンサデータのログを送信し、および/またはホスト装置106から機械学習モデルデータを受信してもよい。さらに、場合によって、ロボット装置102aは、通信ネットワーク108を介するものではなく、ホスト装置106にデータを直接送信および/またはホスト装置106からデータを直接受信してもよい。
サーバ装置104は、ここに記載のコンピューティング装置の動作を実行するように構成された任意の種類のコンピューティング装置であってもよい。例えば、サーバ装置104は、リモートサーバ装置を含むことができ、「クラウドベース」装置と呼ばれる場合がある。いくつかの例において、サーバ装置104は、コンピューティングタスクを複数のサーバ装置の間に分散させるクラウドベースのサーバクラスターを含んでもよい。上記の議論に沿って、サーバ装置104は、通信ネットワーク108を介してロボット装置102aにデータ112を送信、および/または、ロボット装置102aからデータ110を受信するように構成されてもよい。サーバ装置104は、機械学習モデルをトレーニングするように構成された機械学習サーバ装置を含むことができる。
サーバ装置104のように、ホスト装置106は、ここに記載のコンピューティング装置の動作を実行するように構成された任意の種類のコンピューティング装置であってもよい。しかしながら、サーバ装置104とは異なり、ホスト装置106は、ロボット装置102aと同じ環境(例えば、同じ建物内)に位置してもよい。一例において、ロボット装置102aは、ホスト装置106とドッキングして、データを更新し、ダウンロード、および/またはアップロードしてもよい。
ロボット装置102aは、通信ネットワーク108を介してサーバ装置104と通信し、ホスト装置106と通信することができるが、いくつかの例において、ロボット装置102aは、ここに記載のコンピューティング装置の動作を行ってもよい。例えば、ロボット装置102aは、ここに記載のコンピューティング装置の動作を実行するように構成された内部コンピューティングシステムを含んでもよい。
いくつかの例において、ロボット装置102aは、無線インターフェースを介してロボット装置102bと無線で通信してもよい。例えば、ロボット装置102aおよびロボット装置102bは両方とも同じ環境で動作し、時には環境に関するデータを共有してもよい。
通信ネットワーク108は、LAN(Local Area Network)、WAN(Wide Area Network)、企業イントラネット、公衆インターネット、または装置間に通信経路を提供するように構成された任意の他の種類のネットワークに対応し得る。通信ネットワーク108はまた、1つ以上のLAN、WAN、企業イントラネット、および/または公衆インターネットの組み合わせに対応し得る。
図2は、一実施形態に係る例示的なロボット装置200を示す。ロボット装置200は、ここの図面のいずれかに示された任意のロボット装置を表してもよい。図2は、ここに記載の実施形態に従って動作するように構成されたロボット装置が含み得るいくつかの構成要素を示す。
図2に示すように、ロボット装置200は、センサシステム202と、機械システム204と、コンピューティング装置206とを含む。図2において、センサシステム202は、深度カメラ208、慣性測定ユニット(IMU:Inertial Measurement Unit)210、1つ以上の動き追跡カメラ212、1つ以上のレーダ214、1つ以上のマイクロホンアレイ216、1つ以上の接触センサ218、1つ以上の近接センサ220、およびペイロードセンサ222などの多数のセンサを含む。
深度カメラ208は、物体の3次元(3D:3-Dimensional)特徴など、環境内の物体の深度に関する情報をリカバーするように構成されてもよい。例えば、深度カメラ208は、投影赤外線パターンの1つ以上の画像を撮像し、様々なアルゴリズムを用いて3Dデータを三角測量および抽出して1つ以上のRGBD画像を出力するプロセッサに画像を提供するように構成されたRGB-赤外線(RGB-IR)カメラであってもよい。赤外線パターンは、深度カメラ208と一体化されたプロジェクターによって投影されてもよい。あるいは、赤外線パターンは、深度カメラ208とは別のプロジェクター(図示せず)によって投影されてもよい。
IMU210は、ロボット装置の速度および/または方位を判定するように構成されてもよい。一例において、IMUは、3軸ジャイロスコープ、3軸加速度計、3軸コンパス、および動き情報を処理する1つ以上のプロセッサを含んでもよい。
動き追跡カメラ212は、画像(例えば、RGB-IR画像)を撮像および処理することにより、物体の動きを検出および追跡するように構成されてもよい。場合によって、動き追跡カメラ212は、低輝度照明条件での検出を可能にする1つ以上のIR発光ダイオード(LED:Light Emitting Diodes)を含んでもよい。動き追跡カメラ212は、180度広視野(FOV:Field Of View)などのFOVを含んでもよい。一例の構成において、ロボット装置200は、ロボット装置200の第1側の画像を撮像するように構成された第1動き追跡カメラと、ロボット装置200の反対側の画像を撮像するように構成された第2動き追跡カメラとを含んでもよい。
レーダ214は、電磁波を用いて環境内の物体の範囲、角度、または速度を判定する物体検出システムを含んでもよい。レーダ214は、レーザパルスを環境に発し、1つ以上のセンサで反射パルスを測定することにより動作してもよい。一例において、レーダ214は、150度FOVなどの広いFOVを有するソリッドステートミリ波レーダを含んでもよい。
マイクロホンアレイ216は、音声データを記録するなど、1つ以上の機能を連携して実行するように動作する多数のマイクロホンを含んでもよい。一例において、マイクロホンアレイ216は、音源探査を用いて音源の位置を特定するように構成されてもよい。
接触センサ218は、ロボット装置200が物体と接触したときに信号を提供するように構成されてもよい。例えば、接触センサ218は、接触センサ218が物体と接触したときに信号を提供するロボット装置200の外面の物理的衝突センサであってもよい。
近接センサ220は、ロボット装置200の範囲内の物体の存在を検出するように構成されてもよい。例えば、近接センサ220は、赤外線近接センサを含むことができる。一例において、ロボット装置200は、複数の近接センサを含み、各近接センサはロボット装置200の異なる側面(例えば、正面、背面、左、右など)の物体を検出するように配置されていてもよい。
ペイロードセンサ222は、ロボット装置200によって運ばれるペイロードの重量を測定するように構成されてもよい。例えば、ペイロードセンサ222は、ロボット装置200のプラットフォームまたは他の表面に加えられる力に比例する電気信号を提供するように構成されたロードセルを含むことができる。
図2にさらに示すように、機械システム204は、駆動システム224および補助システム226を含む。駆動システム224は、ロボット装置200を環境内で移動させる(例えば、床を走行する)ように制御することができる1つ以上のモータ、車輪、および他の構成要素を含んでもよい。一例において、駆動システム224は、ロボット装置200を任意の方向に駆動させるように制御することができる全方向性駆動システムを含んでもよい。
補助システム226は、付随的タスクの実行を容易にするように構成された1つ以上の機械的構成要素を含んでもよい。一例として、補助システム226は、真空引きを容易にするように構成されたモータおよびファンを含んでもよい。例えば、電気モータは、吸引口を通じて、ほこり、ごみ、または他の破片の吸引および容易な収集のために、ファンを回転させてもよい。別の例として、補助システムは、プラットフォームまたは構造の上部に置かれた任意の物体が地面から持ち上げられるように、ロボット装置200のプラットフォームまたは他の構造を垂直に持ち上げる構成を有する1つ以上のアクチュエータを含んでもよい。一例において、リフトシステム226は、約10キログラムのペイロードを持ち上げるように構成されてもよい。ロボット装置200の所望の動作に応じて、他の例も可能である。
コンピューティング装置206は、センサシステム202および機械システム204を制御するように構成された様々なコンピューティング構成要素を含んでもよい。例えば、コンピューティング装置206は、様々な構成要素を統合するシステム・オン・チップ(SOC:System On a Chip)を含んでもよい。
例として、図3は例示的なコンピューティング装置300を示す。コンピューティング装置300は、ここの任意の図面に示されている任意のコンピューティング装置、サーバ装置、またはホスト装置を表してもよい。図3は、ここの実施形態に従って動作するように構成されたコンピューティング装置が含み得るいくつかの機能要素を示す。この例では、コンピューティング装置300は、プロセッサ302、データ記憶装置304、通信インターフェース306、および入出力機能308を含み、それらの全ては、システムバス310または同様のメカニズムによって結合されてもよい。
プロセッサ302は、1つ以上の汎用プロセッサおよび/または1つ以上の専用プロセッサ(例えば、ASIC(Application Specific Integrated Circuits)、DSP(Digital Signal Processors)、ネットワークプロセッサなど)などの1つ以上のCPUを含むことができる。例えば、プロセッサ302は、機械学習モデルのトレーニングおよび/または推論のためのTPU(Tensor Processing Unit)を含むことができる。
次に、データ記憶装置304は、揮発性および/または不揮発性データ記憶装置を備えてもよく、全体または一部がプロセッサ302と統合されてもよい。データ記憶装置304は、プロセッサ302によって実行可能なプログラム命令、およびここに記載の様々な方法、プロセス、または動作を実行するためにこれらの命令によって操作されてもよいデータを保持することができる。あるいは、これらの方法、プロセス、または動作は、ハードウェア、ファームウェア、および/またはハードウェアと、ファームウェアと、ソフトウェアとの任意の組み合わせによって規定できる。一例として、データ記憶装置304のデータは、ここまたは添付図面に開示される方法、プロセス、または動作のいずれかを実行するためにプロセッサ302によって実行可能な非一時的なコンピュータ読み取り可能な媒体に記憶され得るプログラム命令を含んでもよい。
通信インターフェース306は、イーサネット接続などの有線接続の形態をとることができる。通信インターフェース306は、IEEE802.11(Wifi)、ブルートゥース(登録商標)、または広域無線接続などの無線接続の形態をとることができる。しかしながら、他の形態の物理層接続、および他の種類の標準または独自の通信プロトコルが、通信インターフェース306上で使用されてもよい。
入出力機能308は、コンピューティング装置300とのユーザインタラクションを容易にし得る。入出力機能308は、キーボード、マウス、タッチスクリーン、マイクロホンなどの複数の種類の入力装置を備えてもよい。同様に、入出力機能308は、スクリーン、モニタ、プリンタ、または1つ以上のLEDなどの複数の種類の出力装置を備えてもよい。さらに加えてまたは代替として、コンピューティング装置300は、通信インターフェース306またはUSB(Universal Serial Bus)またはHDMI(High-Definition Multimedia Interface)(登録商標)ポートなどの別のインターフェース(図示せず)を介して、別の装置から遠隔アクセスを支援してもよい。
図4は、衝突の検出のための例示的な方法400のフローチャートを示す。図4に示される方法400は、例えば、ここのいずれかの図に示されたいずれかのコンピューティング装置などのコンピューティング装置によって実行できる方法の実施形態を表す。ここに開示されるプロセスおよび方法や他のプロセスおよび方法について、本実施形態のうちの1つの実施可能な機能および動作をフローチャートに示す。別の例は、本開示の例示的な実施形態の範囲内に含まれ、当業者には明らかなように、機能は、関連機能に応じて実質的に同時に行われるか、または逆順に行われることを含み、図示または論議された順序とは異なる順序で実行されてもよい。
ブロック402において、方法400は、以前の期間中の環境を示し、一連の画像フレームを含むセンサデータのログを取得することを含む。例えば、環境は、住宅などの建物の内部であり、画像フレームはRGBD画像フレームであってもよい。
いくつかの例において、センサデータのログは、ロボット装置によってキャプチャされたセンサデータを含んでもよい。例えば、センサデータのログは、ロボット装置の1つ以上の複数のカメラによって撮像された画像を含んでもよい。さらに、センサデータのログは、IMU、マイクロホンアレイ、接触センサ、ペイロードセンサ、または近接センサなど、ロボット装置の他のセンサによってキャプチャされたセンサデータを含んでもよい。場合によって、ロボット装置は、センサデータを記録し、方法400の一部を実行する別のコンピューティング装置にセンサデータのログを提供してもよい。あるいは、他の例において、ロボット装置は、ロボット装置のセンサを用いてセンサデータのログを取得し、センサデータのログをデータバッファに記憶してもよい。この構成において、新しいセンサデータが取得されると、ロボット装置は、データバッファ内の過去のまたは古くなったセンサデータを新しいセンサデータに置き換えてもよい。例えば、データバッファは、以前の30秒間に、ロボット装置によって取得されたセンサデータを記憶するように、継続的または周期的に更新されてもよい。
いくつかの例において、センサデータのログは、スマートフォン、タブレット、ウェアラブルコンピューティング装置、携帯式カメラコンピューティング装置などのモバイルコンピューティング装置によって撮像された画像を含んでもよい。さらに、センサデータのログは、IMUまたはマイクロホンアレイなどのモバイルコンピューティング装置の他のセンサからキャプチャされたセンサデータを含んでもよい。場合によって、モバイルコンピューティング装置は、センサデータを記録し、方法400の一部を実行する別のコンピューティング装置にセンサデータのログを提供してもよい。あるいは、他の例において、モバイルコンピューティング装置は、モバイル装置のセンサを用いてセンサデータのログを取得し、方法400の他の機能を実行してもよい。
ブロック404において、方法400は、センサデータのログは、以前の期間内の特定の時間における環境内の物理的物体を巻き込む衝突に関連すると判定することを含む。物理的物体は様々な形態をとることができる。例えば、物理的物体は、ボール、ペット、または人である。あるいは、物理的物体は、ロボット装置によって輸送(例えば、持ち運び)されているアイテムであってもよい。別の例として、物理的物体は、壁、床、または家具であってもよい。
センサデータのログが衝突に関連すると判定することは、衝突は、物理的物体とロボット装置との間の物理的衝突であると判定することを含んでもよい。この判定は様々な方法で行うことができる。例えば、コンピューティング装置は、以前の期間の少なくとも一部に対応する加速度計データを取得してもよく、そして、コンピューティング装置は、加速度計データは、特定の時間における物理的物体とロボット装置との間の衝突を示すと判定してもよい。例えば、閾値を超える加速度の大きさは、物理的衝突による速度の突然の変化を示してもよく、コンピューティング装置は、加速度計データを分析し、特定の時間における加速度の大きさを検出してもよい。ロボット装置と物理的物体との間の物理的衝突の一例として、ロボット装置が棚から転倒または落下することによるロボット装置と床との間の物理的衝突が挙げられる。
あるいは、衝突が物理的物体とロボット装置との間の物理的衝突であると判定することは、以前の期間の少なくとも一部に対応する接触センサデータを取得することと、接触センサデータは物理的物体とロボット装置との間の衝突を示すと判定することとを含んでもよい。例えば、接触センサは別の物体と接触するときに信号を出力し、コンピューティング装置はその信号を認識してもよい。一例では、接触センサは、ロボット装置が壁にぶつかったときに信号を出力してもよい。
場合によっては、衝突が物理的物体とロボット装置との間の物理的衝突であると判定することは、ロボット装置によって運ばれているまたは輸送されている物体は、落下または転落したと判定することを含んでもよい。例えば、センサデータのログは、ロボット装置のペイロード(例えば、ペイロードの重量)を示すペイロードデータを含んでもよく、コンピューティング装置は、ペイロードが予想より減少することを検出してもよい。ロボット装置が物理的物体と衝突したり転倒すると、ペイロードが突然減少する場合がある。従って、コンピューティング装置は、減少を衝突可能性の指標として解釈してもよい。
他の例において、衝突は仮想衝突であってもよい。例として、センサデータのログは衝突に関連すると判定することは、衝突は物理的物体とロボット装置を囲む仮想境界との間の仮想衝突、または前記物理的物体を囲む仮想境界と前記ロボット装置との間の仮想衝突であると判定することを含む。この判定は様々な方法で行うことができる。例えば、コンピューティング装置は、以前の期間の少なくとも一部に対応する近接センサデータを取得してもよく、近接センサデータは、物理的物体と閾値距離よりも上回る状態から閾値距離よりも下回る状態へ移行している、ロボット装置との間の距離を示すと判定してもよい。閾値距離は、仮想境界の距離と同じであってもよい。
同様に、いくつかの例において、衝突は、物理的物体と環境のビューに重ねられた拡張現実グラフィック形態のソフトウェアロボットとの間の仮想衝突であってもよい。コンピューティング装置は、深度画像から得た深度情報を処理して、このような衝突を検出できる。例えば、センサデータのログの一連の画像フレームは、物理的物体との距離を示す深度情報を含むことができ、コンピューティング装置は、深度情報に基づいて、(i)物理的物体は第1位置から第2位置に移動し、および、(ii)第2位置は拡張現実グラフィックの位置と重なっていると判定することができる。モバイルコンピューティング装置(例えば、スマートフォンまたはタブレット)、またはウェアラブルコンピューティング装置(例えば、ヘッドマウントディスプレイ)など、任意のコンピューティング装置で拡張現実(AR)グラフィックを生成でき、衝突などを検出できる。
同様に、衝突は、物理的物体とシミュレーション中にレンダリングされる拡張現実グラフィック形態のソフトウェアロボットとの間の仮想衝突であってもよい。例えば、コンピューティング装置は、センサデータのログを用いて、環境内を移動するソフトウェアロボットのシミュレーションを生成し得る。このシミュレーションにおいて、ソフトウェアロボットは、センサデータのログをキャプチャしたロボット装置がたどる経路と同じ経路または異なる経路をたどってもよい。ソフトウェアロボットが異なる経路をたどる場合、異なる経路には、環境内のソフトウェアロボットと物理的物体との間の仮想ゲームプレイが含まれ、コンピューティング装置は仮想衝突を検出できる。
ブロック406において、方法400は、センサデータのログが衝突に関連すると判定することに応じて、センサデータのログから衝突に対するトレーニングデータセットを生成することを含む。トレーニングデータセットは、特定の時間に対応する一連の画像フレーム内の画像フレームより前の一連の画像フレームの複数の画像フレームを含んでもよい。一例として、トレーニングデータセットは、特定の時間に対応する画像フレームまでの最新の5つの画像フレームを含むことで、衝突までの物理的物体の動きを描いてもよい。例えば、複数の画像フレームは1つ以上の画素に対する深度データを含むことで、トレーニングデータセットは、衝突前の物理的物体のいずれかの動きを示す深度データを含んでもよい。
場合によっては、トレーニングデータセットは他の形式のセンサデータを含んでもよい。一般に、センサデータのログが複数のセンサから得たデータを含むとき、複数のセンサから得たいずれかのデータはトレーニングデータセット内にパッケージ化されてもよい。例えば、センサデータのログがペイロードデータを含むとき、トレーニングデータセットを生成することは、ペイロードデータをさらに含むトレーニングデータセットを生成することを含んでもよい。同様に、センサデータのログがロボット装置の速度データを含むとき、トレーニングデータセットを生成することは、速度データをさらに含むトレーニングデータセットを生成することを含んでもよい。別の例として、センサデータのログは、部屋の種類(例えば、居間、キッチン、寝室など)を識別する部屋情報を含んでもよく、トレーニングデータセットを生成することは、部屋情報をさらに含むトレーニングデータセットを生成することを含んでもよい。
有利には、方法400を用いて生成されたトレーニングデータセットは、衝突の推定のための機械学習モデルのトレーニングに用いることができる。場合によっては、方法400を実行するコンピューティング装置は、方法400を用いて生成されるか、または他の技術を用いて生成可能な、トレーニングデータセットおよび他のトレーニングデータセットを用いて、機械学習モデルをトレーニングしてもよい。例えば、ロボット装置のコンピューティング装置は、方法400を複数回実行し、その後、生成されたトレーニングデータセットを用いて機械学習モデルをトレーニングしてもよい。他のケースにおいて、方法400を実行するコンピューティング装置は、生成されたトレーニングデータセットを別のコンピューティング装置に送信し、その後、機械学習モデルをトレーニングしてもよい。例えば、方法400を実行するコンピューティング装置は、生成されたトレーニングデータセットを表す少なくとも1つのファイルを機械学習サーバに送信し、機械学習サーバがトレーニングを実行してもよい。
図5は、一実施形態に係る、環境内の物理的物体に関連する衝突を示す概念図である。図5に示すように、ロボット装置500は居間で動作してもよい。例えば、ロボット装置500は、居間の床を走行してもよい。ロボット装置500は、床を走行しながら、環境を示すセンサデータを取得してもよい。例えば、ロボット装置500は、一連の画像フレームをキャプチャし、IMUデータを記録してもよい。
図5にさらに示すように、ロボット装置500は、意図せずに猫502にぶつかる場合がある。ロボット装置500のコンピューティング装置は、ロボット装置500が猫502にぶつかったことを検出し、それに応じて、トレーニングデータセットの生成のトリガとしてもよい。例として、コンピューティング装置は、猫502にぶつかる前のロボット装置500によって取得されたセンサデータの一部をトレーニングデータセットとして一緒にパッケージ化してもよい。一例において、トレーニングデータセットは、ロボット装置500との衝突前の猫502の動きを表す一連のRGBD画像フレームを含んでもよい。
図6は、一実施形態に係る、環境内の物理的物体に関連する衝突を示す別の概念図である。図6に示すように、コンピューティング装置600は、居間のビューを撮像して表示してもよい。また、コンピューティング装置600は、居間のビュー上に拡張現実グラフィック602を重ねてもよい。例えば、拡張現実グラフィック602は、居間の仮想表示内を動き回るアニメーションキャラクターであってもよい。
図6にさらに示すように、拡張現実グラフィック602は、居間の仮想表示内の特定の位置に配置される。コンピューティング装置600は、居間の物体の動きを検出および追跡してもよい。例えば、コンピューティング装置600は、物体、すなわち犬604が居間を横切って移動していることを検出してもよい。また、コンピューティング装置600は、居間の仮想表示内の犬604の3D位置を判定してもよい。例えば、コンピューティング装置600は、深度カメラを用いてRGBD画像フレームを取得し、RGBD画像フレームを処理することで犬604の3D位置を判定してもよい。
さらに、コンピューティング装置600は、犬604が拡張現実グラフィック602の位置と重ならない第1位置から拡張現実グラフィック602の位置と重なる第2位置に移動したと判定してもよい。一例において、コンピューティング装置600は、環境の仮想表示内の犬604の3D位置と、環境の仮想表示内の拡張現実グラフィック602の3D位置とを比較することによって、犬604の第2位置と拡張現実グラフィック602の位置は重なると判定してもよい。例えば、コンピューティング装置600は、犬604の重心と拡張現実グラフィック602の重心との間の2Dまたは3D距離を判定し、判定された距離が閾値よりも下回っていることに基づいて、犬604の3D位置と拡張現実グラフィック602の3D位置は重なると判定してもよい。
拡張現実グラフィック602の位置と重ならない位置から拡張現実グラフィック602の位置と重なる位置への犬604の動きを検出することに応答して、コンピューティング装置600は、トレーニングデータセットの生成のトリガとしてもよい。例として、コンピューティング装置600は、犬604の第1位置から第2位置への動きを表す1つ以上のRGBD画像フレームをトレーニングデータセットとして一緒にパッケージ化してもよい。
拡張現実グラフィック602と犬604との間の衝突を検出する他の技術も可能である。例えば、ゲームにおいて、いくつかのゲームエンジンは、場所内の既知の物体の衝突の検出を提供するコライダーを有する。コライダーは、場所内の物体にボディを与える(例えば、バウンディングスフィア、メッシュ、キャッチオール3Dボディなど)。第1物体のボディが第2物体のボディと接触すると、コライダーは衝突イベントを生成する。
コライダーは拡張現実場所で機能するために、コンピューティング装置は現実世界の物体の位置、サイズ、および姿勢を推定し、現実世界の物体を拡張現実グラフィックとともに環境の3D表示で適切なボディで表示することができる。コンピューティング装置は、様々なレベルの詳細を用いて、現実世界の物体の位置、サイズ、および姿勢を推定できる。一例として、コンピューティング装置は、深度カメラを介して判定される物体の表面上の点を用いて、物体のボディを規定できる。別の例として、コンピューティング装置は、場所内の1つ以上の物体のバウンディングボックスを推定できる。バウンディングボックスは2Dまたは3Dとすることができる。さらに別の例として、コンピューティング装置は物体の3D形状を推定できる。例えば、コンピューティング装置は、データベースにクエリを行って物体の3Dモデルを判定するか、または機械学習を用いて物体の3Dモデルを推定してもよい。
上述のように、図4の方法400を用いて生成されたトレーニングデータセットおよび/または他の技術を用いて生成されたトレーニングデータセットは、衝突を推定する機械学習モデルをトレーニングすることに使用できる。物理的物体の動きに関連するデータを含むトレーニングデータセットで機械学習モデルをトレーニングすることには、入力センサデータを物体の軌道または速度にマッピングするトレーニングデータセットのパターンを見つけることが含まれる場合がある。機械学習モデルがトレーニングされた後、コンピューティング装置は、機械学習モデルを用いて、物理的物体がどのように物理的物体に対応する入力データに基づいて動くかを予測してもよい。
図7は、衝突の検出のための例示的な方法700のフローチャートを示す。図7に示される方法700は、例えば、ここのいずれかの図に示されたいずれかのコンピューティング装置などのコンピューティング装置によって実行できる方法の実施形態を表す。
ブロック702で、方法700は、以前の期間中の環境内の物理的物体を示すセンサデータを取得することを含む。一例において、センサデータは一連の画像フレームを含んでもよい。例えば、センサデータは、物理的物体の動きを表す一連のRGBD画像フレームを含んでもよい。センサデータは、部屋の種類や時刻などのコンテキストデータも含んでもよい。
ブロック704において、方法700は、機械学習モデルおよびセンサデータを用いて、以後の期間中の物理的物体の推定軌道を判定することを含む。例えば、コンピューティング装置は、センサデータを機械学習モデルへの入力として提供し、物理的物体の推定軌道を出力として受信する。推定軌道は、経時的な物理的物体の推定位置を含んでもよい。場合によって、コンピューティング装置は、物理的物体に対応する情報を取得し、取得した情報を入力として機械学習モデルに提供する場合があり得る。一例として、コンピューティング装置は、移動する物体の速度、および、高さ、深さなどの物理的物体の寸法を判定し、機械学習モデルへの入力として寸法と速度を提供してもよい。場合によっては、機械学習モデルへの入力として、部屋の種類や時刻などのコンテキストデータが提供される場合もある。
ブロック706において、方法700は、物理的物体の推定軌道は潜在的な衝突を示すと判定することを含む。一例において、物理的物体の推定軌道が潜在的な衝突を示すと判定することは、物理的物体の推定軌道と、ロボット装置またはソフトウェアロボットなどのロボットの推定軌道とを比較し、物理的物体の推定軌道とロボットの推定軌道は交差すると判定することを含む。例えば、コンピューティング装置は、物理的物体が物理的物体の推定軌道に従って移動し、ロボットがロボットの推定軌道に従って移動すると、物理的物体とロボットは衝突する可能性があると判定してもよい。
ブロック708において、方法700は、潜在的な衝突を回避する動作を行うことを含む。例えば、ブロック706の潜在的な衝突は、物理的物体とロボット装置との間の潜在的な衝突であってもよく、動作を行うことは、ロボット装置の駆動システムにコマンドを提供すること(例えば、停止、後進、または特定の軌道をたどって物理的物体との衝突を回避するコマンドを提供すること)を含んでもよい。別の例として、ブロック706の潜在的な衝突は、物理的物体と環境のビューにレンダリングされる拡張現実グラフィック形態のソフトウェアロボットとの間の潜在的な衝突であってもよく、動作を行うことは、拡張現実グラフィックの位置を調整する(例えば、拡張現実グラフィックを新しい位置に移動する、または、拡張現実グラフィックをちょっと飛ばさせてどける)ことを含んでもよい。
有利には、コンピューティング装置は、方法700を用いて潜在的な衝突を検出し、潜在的な衝突を回避する動作を行うことができる。例えば、ロボット装置のコンピューティング装置は、ロボット装置によって取得されたセンサデータを処理し、ロボット装置に潜在的な衝突を回避する動作を行わせることができる。
図8は、一実施形態に係る、衝突の推定および回避を示す概念図である。図8に示すように、物理的物体、すなわち、犬802は、建物内の部屋を移動する場合がある。ロボット装置804が部屋を横切って移動する間に、ロボット装置804のコンピューティング装置は、犬802を示すセンサデータを取得してもよい。例えば、コンピューティング装置は、犬802の動きを表す1つ以上の画像フレームを含むセンサデータを取得してもよい。
次いで、コンピューティング装置は、機械学習モデルを用いて犬802の推定軌道を判定してもよい。図8に示されるように、犬802の推定軌道は、1秒後の犬802の推定位置、2秒後の犬802の推定位置などを含んでもよい。
さらに、コンピューティング装置は、犬802の推定軌道と、ロボット装置804の推定軌道とを比較し、ロボット装置は約2秒内に犬802と衝突する可能性があると判定してもよい。この判定に応じて、コンピューティング装置は、ロボット装置804が犬802と意図せずに衝突することを回避するように、ロボット装置804を位置806で停止させてもよい。あるいは、コンピューティング装置は、ロボット装置804を位置806で停止させ、その後、後進または方向を変更するようにしてもよい(図示せず)。
別の例において、図4の方法400を用いて生成されたトレーニングデータセットおよび/または他の技術を用いて生成されたトレーニングデータセットは、ロボット装置は落下する可能性があることを予測するように機械学習モデルをトレーニングすることに使用できる。例えば、コンピューティング装置は、ロボット装置の軌道を示すデータを受信し、落下するロボット装置を含むデータセットでトレーニングされた機械学習モデルにデータを提供するようにしてもよい。次いで、コンピューティング装置は、機械学習モデルを用いて、ロボット装置の軌道は潜在的な衝突を示すことを判定してもよい(例えば、ロボット装置が落下する)。また、この判定に応じて、コンピューティング装置は、潜在的な衝突を回避する動作を行ってもよい。例えば、コンピューティング装置は、警告を提供したり、ロボット装置の軌道を変更したりしてもよい。
別の有利な構成の説明は、例示および説明の目的で提示され、開示された形態の例を網羅するか、または限定することを意図していない。前述の開示を検討および理解した上、あらゆる修正および変形が当業者にとって明らかであろう。さらに、あらゆる例は、他の例に照らしてあらゆる利点を提供してもよい。選択された1つ以上の例は、原理や実際の応用を最適に説明するためのものであり、考えられる特定の用途に適した様々な変更を伴う様々な例の開示を当業者が理解できるようにするために選ばれて記載されたものである。
本願は、2017年9月8日に出願された米国非仮出願第15/699444号に対する利益を主張し、その全体が参照として組み込まれる。

Claims (20)

  1. 非一時的なコンピュータ読み取り可能な媒体に記憶される衝突検出システムであって、前記衝突検出システムは、
    以前の期間中の環境を示し、一連の画像フレームを含む、センサデータのログを取得し、
    前記センサデータのログは、前記以前の期間内の特定の時間における、前記環境内の物理的物体と拡張現実グラフィック形態のソフトウェアロボットとの間の衝突の発生を示す、ことを判定し、
    前記センサデータのログが前記衝突の発生を示すと判定されたことに応じて、前記センサデータのログから前記衝突に対するトレーニングデータセットを生成し、
    前記衝突に対するトレーニングデータセットは、前記特定の時間に対応する前記一連の画像フレーム内の画像フレームより前の前記一連の画像フレームの複数の画像フレームを含み、
    前記トレーニングデータセットを用いて前記衝突を推定するための前記衝突検出システムの機械学習モデルをトレーニングして将来の衝突を予測する、
    ことを含む、プロセスによって製造される衝突検出システム。
  2. 請求項1に記載の衝突検出システムにおいて、
    前記センサデータのログが前記衝突の発生を示すと判定することは、前記衝突は前記物理的物体とロボット装置を囲む仮想境界との間の仮想衝突、または物理的物体を囲む仮想境界とロボット装置との間の仮想衝突であると判定することを含む、衝突検出システム。
  3. 請求項に記載の衝突検出システムにおいて、前記プロセスは、
    前記以前の期間の少なくとも一部に対応する近接センサデータを取得することをさらに含み、
    前記センサデータのログが前記衝突の発生を示すと判定することは、前記近接センサデータは、前記物理的物体と前記ロボット装置との間の距離が、閾値距離よりも上回る状態から閾値距離よりも下回る状態へ移行していることを示すと判定することを含む、衝突検出システム。
  4. 請求項2に記載の衝突検出システムにおいて、
    前記プロセスは、前記ロボット装置のコンピューティング装置によって実現される、衝突検出システム。
  5. 請求項2に記載の衝突検出システムにおいて、
    前記センサデータのログは、前記以前の期間中の前記環境における前記ロボット装置の移動を示す速度データのログをさらに含み、
    前記センサデータのログから前記衝突に対する前記トレーニングデータセットを生成することは、前記速度データのログの少なくとも一部をさらに含む前記トレーニングデータセットを生成することを含む、衝突検出システム。
  6. 請求項1に記載の衝突検出システムにおいて、
    前記一連の画像フレームの少なくとも2つの画像は、前記物理的物体までの距離を示す深度情報を含み、
    前記センサデータのログが前記衝突の発生を示すと判定することは、前記深度情報に基づいて、前記物理的物体は第1位置から第2位置に移動し、および、第2位置は拡張現実グラフィックの位置と重なっていると判定することを含む、衝突検出システム。
  7. 請求項1に記載の衝突検出システムにおいて、
    前記複数の画像フレームは、1つ以上の画素の深度データを含み、前記深度データは、前記衝突前の前記物理的物体の動きを示す、衝突検出システム。
  8. 請求項1に記載の衝突検出システムにおいて、
    前記環境は、部屋を含み、
    前記センサデータのログは、前記部屋の部屋種類を示す部屋情報をさらに含み、
    前記センサデータのログから前記衝突に対する前記トレーニングデータセットを生成することは、前記部屋情報をさらに含む前記トレーニングデータセットを生成することを含む、衝突検出システム。
  9. 請求項1に記載の衝突検出システムにおいて、前記プロセスは、
    前記衝突に対するトレーニングデータセットを表す少なくとも1つのファイルを機械学習サーバ装置に送信することをさらに含み、前記機械学習サーバ装置は、前記トレーニングデータセットを用いて機械学習モデルをトレーニングするように構成される、衝突検出システム。
  10. 請求項1に記載の衝突検出システムにおいて、
    前記環境を示す追加センサデータを受信し、
    機械学習モデルを用いるコンピューティング装置によって、前記追加センサデータは前記環境内における将来の潜在的衝突を示すと判定する、ように構成される衝突検出システム。
  11. コンピュータにより実行される方法であって、
    現在時点の環境を示すセンサデータを受信し、
    衝突を推定するための、トレーニングされた機械学習モデルに前記センサデータを入力することにより、前記センサデータは将来の前記環境における潜在的な衝突の発生を示すかどうかを判定し、
    前記機械学習モデルは、
    以前の期間中の他の環境を示し、一連の画像フレームを含む、センサデータのログを取得し、
    前記センサデータのログは、前記以前の期間内の特定の時間における、前記環境内の物理的物体と拡張現実グラフィック形態のソフトウェアロボットとの間の衝突の発生を示す、ことを判定し、
    前記センサデータの前記ログが前記衝突の発生を示すと判定されたことに応答して、前記センサデータの前記ログから前記衝突のトレーニングデータセットを生成し、前記衝突のトレーニングデータセットは、前記特定の時間に対応する前記一連の画像フレーム内の画像フレームより前の前記一連の画像フレームの複数の画像フレームを含み、
    前記トレーニングデータセットを用いて前記機械学習モデルをトレーニングして衝突を検出する、ことを含むプロセスに従ってトレーニングされる、方法。
  12. 請求項11に記載のコンピュータにより実行される方法において、
    前記センサデータのログが前記衝突の発生を示すと判定することは、前記衝突は前記物理的物体とロボット装置を囲む仮想境界との間の仮想衝突、または物理的物体を囲む仮想境界とロボット装置との間の仮想衝突であると判定することを含む、コンピュータにより実行される方法。
  13. 請求項12に記載のコンピュータにより実行される方法において、
    前記プロセスは、前記以前の期間の少なくとも一部に対応する近接センサデータを取得することをさらに含み、
    前記センサデータのログが前記衝突の発生を示すと判定することは、前記近接センサデータは、前記物理的物体と前記ロボット装置との間の距離が、閾値距離よりも上回る状態から閾値距離よりも下回る状態へ移行していることを示すと判定することを含む、コンピュータにより実行される方法。
  14. 請求項12に記載のコンピュータにより実行される方法において、
    前記プロセスは、前記ロボット装置のコンピューティング装置によって実現される、コンピュータにより実行される方法。
  15. 請求項12に記載のコンピュータにより実行される方法において、
    前記センサデータのログは、前記以前の期間中の前記他の環境における前記ロボット装置の移動を示す速度データのログをさらに含み、
    前記センサデータのログから前記衝突に対する前記トレーニングデータセットを生成することは、前記速度データのログの少なくとも一部をさらに含む前記トレーニングデータセットを生成することを含む、コンピュータにより実行される方法。
  16. 請求項11に記載のコンピュータにより実行される方法において、
    前記一連の画像フレームの少なくとも2つの画像は、前記物理的物体までの距離を示す深度情報を含み、
    前記センサデータのログが前記衝突の発生を示すと判定することは、前記深度情報に基づいて、前記物理的物体は第1位置から第2位置に移動し、および、第2位置は拡張現実グラフィックの位置と重なっていると判定することを含む、コンピュータにより実行される方法。
  17. 請求項11に記載のコンピュータにより実行される方法において、
    前記複数の画像フレームは、1つ以上の画素の深度データを含み、前記深度データは、前記衝突前の前記物理的物体の動きを示す、コンピュータにより実行される方法。
  18. 請求項11に記載のコンピュータにより実行される方法において、
    前記環境は、部屋を含み、
    前記センサデータのログは、前記部屋の部屋種類を示す部屋情報をさらに含み、
    前記センサデータのログから前記衝突に対する前記トレーニングデータセットを生成することは、前記部屋情報をさらに含む前記トレーニングデータセットを生成することを含む、コンピュータにより実行される方法。
  19. 請求項11に記載のコンピュータにより実行される方法において、
    前記トレーニングされたモデルは、機械学習モデルとしてトレーニングされる、コンピュータにより実行される方法。
  20. エンコードされた命令を含む非一時的なコンピュータ読み取り可能な記憶媒体であって、プロセッサにより実行されるとき、前記プロセッサに、
    現在時点の環境を示すセンサデータを受信するステップと、
    衝突を推定するための、トレーニングされた機械学習モデルに前記センサデータを入力することにより、前記センサデータは将来の前記環境における潜在的な衝突の発生を示すかどうかを判定するステップと、を実行させ、
    前記機械学習モデルは、
    以前の期間中の他の環境を示し、一連の画像フレームを含む、センサデータのログを取得し、
    前記センサデータのログは、前記以前の期間内の特定の時間における、前記環境内の物理的物体と拡張現実グラフィック形態のソフトウェアロボットとの間の衝突の発生を示す、ことを判定し、
    前記センサデータの前記ログが前記衝突の発生を示すと判定されたことに応答して、前記センサデータの前記ログから前記衝突のトレーニングデータセットを生成し、前記衝突のトレーニングデータセットは、前記特定の時間に対応する画像フレームのシーケンス内の画像フレームより前の前記一連の画像フレームの複数の画像フレームを含み、
    前記トレーニングデータセットを用いて前記機械学習モデルをトレーニングして衝突を検出する、ことを含むプロセスに従ってトレーニングされる、非一時的なコンピュータ読み取り可能な記憶媒体。
JP2020513698A 2017-09-08 2018-09-07 衝突の検出、推定、および回避 Active JP7025532B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/699,444 2017-09-08
US15/699,444 US10384346B2 (en) 2017-09-08 2017-09-08 Collision detection, estimation, and avoidance
PCT/IB2018/056851 WO2019049082A1 (en) 2017-09-08 2018-09-07 DETECTION, ESTIMATION AND AVOIDANCE OF COLLISION

Publications (2)

Publication Number Publication Date
JP2020529088A JP2020529088A (ja) 2020-10-01
JP7025532B2 true JP7025532B2 (ja) 2022-02-24

Family

ID=65630431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020513698A Active JP7025532B2 (ja) 2017-09-08 2018-09-07 衝突の検出、推定、および回避

Country Status (8)

Country Link
US (1) US10384346B2 (ja)
EP (1) EP3679442A4 (ja)
JP (1) JP7025532B2 (ja)
KR (1) KR102235003B1 (ja)
CN (1) CN111263921B (ja)
AU (1) AU2018330935B2 (ja)
CA (1) CA3073920C (ja)
WO (1) WO2019049082A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201811301D0 (en) * 2018-07-10 2018-08-29 Emotech Ltd Robotic system
US11748903B2 (en) * 2019-01-02 2023-09-05 Zebra Technologies Corporation System and method for robotic object detection using a convolutional neural network
US10937218B2 (en) * 2019-07-01 2021-03-02 Microsoft Technology Licensing, Llc Live cube preview animation
KR20190095188A (ko) * 2019-07-25 2019-08-14 엘지전자 주식회사 로봇 및 그 제어방법
CN110460782B (zh) * 2019-08-28 2021-07-20 北京海益同展信息科技有限公司 信息采集装置、方法、巡检机器人和存储介质
CN111514587B (zh) * 2020-04-27 2021-05-11 网易(杭州)网络有限公司 信息处理方法、装置、设备及存储介质
US20220026879A1 (en) * 2020-07-22 2022-01-27 Micron Technology, Inc. Predictive maintenance of components used in machine automation
KR102251308B1 (ko) * 2020-08-05 2021-05-12 플레이스비 주식회사 햅틱 컨트롤러 및 이를 이용한 햅틱 피드백 제공 시스템 및 방법
FR3138951A1 (fr) * 2022-08-22 2024-02-23 Safran Système et procédé d'aide à la navigation d'un système mobile au moyen d'un modèle de prédiction de traversabilité d'un terrain par le système mobile
CN115229802A (zh) * 2022-09-19 2022-10-25 北京云迹科技股份有限公司 减少机器人倒地的方法及装置
CN116277029B (zh) * 2023-04-26 2024-04-09 北京朴津智能科技有限公司 一种全方位防碰撞装置及移动机器人

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056185A (ja) 2003-08-05 2005-03-03 Techno Face:Kk 階層型エージェント学習方法およびシステム
JP2009163770A (ja) 2009-04-20 2009-07-23 Nintendo Co Ltd 衝突判定プログラムおよび衝突判定装置
JP2011043885A (ja) 2009-08-19 2011-03-03 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム処理方法、ならびに、プログラム
JP2012171024A (ja) 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2014505934A (ja) 2010-12-30 2014-03-06 アイロボット コーポレイション 可動式ロボットシステム
JP2014524630A (ja) 2011-08-25 2014-09-22 コーネル ユニヴァーシティー 機械視覚のための網膜符号化器
US20150094852A1 (en) 2013-09-27 2015-04-02 Brain Corporation Robotic control arbitration apparatus and methods
CN105139072A (zh) 2015-09-09 2015-12-09 东华大学 应用于非循迹智能小车避障系统的强化学习算法
US20160096270A1 (en) 2014-10-02 2016-04-07 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
JP2017523054A (ja) 2014-07-16 2017-08-17 エックス デベロップメント エルエルシー ロボット装置用仮想セーフティケージ

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785280B2 (ja) * 1992-08-04 1995-09-13 タカタ株式会社 神経回路網による衝突予測判定システム
JPH11134003A (ja) * 1997-10-31 1999-05-21 Mitsubishi Electric Corp モジュール型学習制御方法
JP2005211499A (ja) * 2004-01-30 2005-08-11 Funai Electric Co Ltd 自走式掃除機
ATE524784T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
US7974738B2 (en) 2006-07-05 2011-07-05 Battelle Energy Alliance, Llc Robotics virtual rail system and method
US8315305B2 (en) * 2010-03-26 2012-11-20 Brain Corporation Systems and methods for invariant pulse latency coding
US20130215109A1 (en) * 2012-02-22 2013-08-22 Silka Miesnieks Designating Real World Locations for Virtual World Control
EP2685403A3 (en) 2012-07-09 2017-03-01 Technion Research & Development Foundation Limited Natural machine interface system
KR102069366B1 (ko) * 2013-05-27 2020-01-23 경북대학교 산학협력단 교육용 로봇과 상호 작용하는 증강 현실 구현 장치 및 그 방법
KR102137524B1 (ko) * 2014-02-13 2020-07-24 삼성전자주식회사 로봇청소기
US9630317B2 (en) * 2014-04-03 2017-04-25 Brain Corporation Learning apparatus and methods for control of robotic devices via spoofing
CN103984037B (zh) * 2014-04-30 2017-07-28 深圳市墨克瑞光电子研究院 基于视觉的移动机器人障碍物检测方法和装置
MX353820B (es) * 2014-06-25 2018-01-31 Nissan Motor Aparato de control de vehículo.
WO2016016980A1 (ja) * 2014-07-30 2016-02-04 株式会社小松製作所 運搬車両及び運搬車両の制御方法
US10474964B2 (en) * 2016-01-26 2019-11-12 Ford Global Technologies, Llc Training algorithm for collision avoidance
US10416682B2 (en) * 2016-07-29 2019-09-17 Faraday & Future Inc. Semi-automated driving using pre-recorded route
KR101979695B1 (ko) * 2016-12-13 2019-05-17 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
US10522040B2 (en) * 2017-03-03 2019-12-31 Kennesaw State University Research And Service Foundation, Inc. Real-time video analytics for traffic conflict detection and quantification

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056185A (ja) 2003-08-05 2005-03-03 Techno Face:Kk 階層型エージェント学習方法およびシステム
JP2009163770A (ja) 2009-04-20 2009-07-23 Nintendo Co Ltd 衝突判定プログラムおよび衝突判定装置
JP2011043885A (ja) 2009-08-19 2011-03-03 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム処理方法、ならびに、プログラム
JP2014505934A (ja) 2010-12-30 2014-03-06 アイロボット コーポレイション 可動式ロボットシステム
JP2012171024A (ja) 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2014524630A (ja) 2011-08-25 2014-09-22 コーネル ユニヴァーシティー 機械視覚のための網膜符号化器
US20150094852A1 (en) 2013-09-27 2015-04-02 Brain Corporation Robotic control arbitration apparatus and methods
JP2017523054A (ja) 2014-07-16 2017-08-17 エックス デベロップメント エルエルシー ロボット装置用仮想セーフティケージ
US20160096270A1 (en) 2014-10-02 2016-04-07 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
CN105139072A (zh) 2015-09-09 2015-12-09 东华大学 应用于非循迹智能小车避障系统的强化学习算法

Also Published As

Publication number Publication date
CN111263921A (zh) 2020-06-09
AU2018330935A1 (en) 2020-04-30
US10384346B2 (en) 2019-08-20
JP2020529088A (ja) 2020-10-01
US20190077019A1 (en) 2019-03-14
CA3073920A1 (en) 2019-03-14
EP3679442A1 (en) 2020-07-15
CA3073920C (en) 2020-12-29
KR20200041384A (ko) 2020-04-21
WO2019049082A1 (en) 2019-03-14
KR102235003B1 (ko) 2021-04-02
AU2018330935B2 (en) 2021-09-09
CN111263921B (zh) 2021-10-29
EP3679442A4 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
JP7025532B2 (ja) 衝突の検出、推定、および回避
JP6900575B2 (ja) ゲームプレイを介して環境の詳細データセットを生成する方法およびシステム
US11691273B2 (en) Generating a model for an object encountered by a robot
GB2527207A (en) Mobile human interface robot
WO2019202878A1 (en) Recording medium, information processing apparatus, and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200720

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200720

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220210

R150 Certificate of patent or registration of utility model

Ref document number: 7025532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150