JP7581320B2 - ロボット装置からの視覚的出力を補強するシステム及び方法 - Google Patents
ロボット装置からの視覚的出力を補強するシステム及び方法 Download PDFInfo
- Publication number
- JP7581320B2 JP7581320B2 JP2022503979A JP2022503979A JP7581320B2 JP 7581320 B2 JP7581320 B2 JP 7581320B2 JP 2022503979 A JP2022503979 A JP 2022503979A JP 2022503979 A JP2022503979 A JP 2022503979A JP 7581320 B2 JP7581320 B2 JP 7581320B2
- Authority
- JP
- Japan
- Prior art keywords
- drivable
- robotic device
- robot
- drivable area
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37567—3-D vision, stereo vision, with two cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40136—Stereo audio and vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40543—Identification and location, position of components, objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40564—Recognize shape, contour of object, extract position and orientation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
運転中は、自律エージェントは周囲の環境の画像中の関心領域中に存在する物体を識別するために訓練されたニューラルネットワークに頼ることがある。例えば、ニューラルネットワークは、光検出と測距(LIDAR)センサ、ソナーセンサ、RGBカメラ、RGB-Dカメラ等のような1つ以上のセンサにより捉えられた物体を識別し追従するよう訓練されていてもよい。センサは、自律エージェントのような装置と接続されるか、又は通信中であってもよい。自律エージェントのための物体検知アプリケーションは、自律エージェントの周囲の風景から物体(例えば歩行者、自転車に乗っている人、他の車等)を検知するために、センサ画像データを解析してもよい。
各棒グラフの棒は現在の値と閾値に関する。
ピクセルレベルの分類及び特徴ベクトルは実行するべきアクションを呼び出すために使用されてもよい。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
ロボット装置により生成されたデータを可視化する方法であって、
前記ロボット装置の意図する経路を環境中に表示することと、
前記ロボット装置により運転可能として識別された前記環境中の第1の領域を表示することと、
前記環境中の第2の領域を運転可能として識別するための入力を受信することと、
前記第2の領域を前記ロボット装置へ送信することと、
を含む、方法。
〔態様2〕
過去に走行した経路に基づいて前記意図する経路を判断するように前記ロボット装置を訓練することを更に含む、態様1に記載の方法。
〔態様3〕
前記意図する経路に重ね合わせて前記第1の領域を表示することを更に含む、態様1に記載の方法。
〔態様4〕
前記入力は前記第2の領域に対応するピクセルにマークを付することを含む、態様1に記載の方法。
〔態様5〕
前記ロボット装置が前記受信した第2の領域に基づいて第3の領域を運転可能として判断する、態様1に記載の方法。
〔態様6〕
現在の画像とキーフレーム画像との比較を表示することを更に含み、前記比較は前記現在の画像と前記キーフレーム画像との一致ピクセルを識別する可視化されたマークを有する、態様1に記載の方法。
〔態様7〕
現在の画像とキーフレームのセットの中の各キーフレームとの間のマッチングの確信度を表示することを更に含む、態様1に記載の方法。
〔態様8〕
前記意図する経路及び前記第1の領域を前記ロボット装置から遠方の位置にて表示する、態様1に記載の方法。
〔態様9〕
メモリと、
前記メモリに接続された少なくとも1つのプロセッサを備え、前記少なくとも1つのプロセッサは、
ロボット装置の意図する経路を環境中に表示し、
前記ロボット装置により運転可能と識別された前記環境中の第1の領域を表示し、
前記環境中の第2の領域を運転可能として識別するための入力を受信し、
前記第2の領域を前記ロボット装置へ送信する、
ように構成されている、ロボット装置により生成されたデータを可視化する装置。
〔態様10〕
前記少なくとも1つのプロセッサは更に、過去に走行した経路に基づいて前記意図する経路を判断するよう前記ロボット装置を訓練するように構成されている、態様9に記載の装置。
〔態様11〕
前記少なくとも1つのプロセッサは更に、前記意図する経路に重ね合わせて前記第1の領域を表示するように構成されている、態様9に記載の装置。
〔態様12〕
前記入力は前記第2の領域に対応するピクセルにマークを付することを含む、態様9に記載の装置。
〔態様13〕
前記ロボット装置が前記受信した第2の領域に基づいて第3の領域を運転可能として判断する、態様9に記載の装置。
〔態様14〕
前記少なくとも1つのプロセッサは更に、現在の画像とキーフレーム画像との比較を表示するように構成され、前記比較は前記現在の画像と前記キーフレーム画像との一致ピクセルを識別する可視化されたマークを含む、態様9に記載の装置。
〔態様15〕
前記少なくとも1つのプロセッサは更に、現在の画像とキーフレームのセットの中の各キーフレームとの間のマッチング確信度を表示するように構成されている、態様9に記載の装置。
〔態様16〕
前記意図する経路及び前記第1の領域を前記ロボット装置から遠方の位置にて表示する、態様9に記載の装置。
〔態様17〕
ロボット装置により生成されたデータを可視化するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードはプロセッサにより実行され、
前記ロボット装置の意図する経路を環境中に表示するプログラムコードと、
前記ロボット装置により運転可能として識別された前記環境中の第1の領域を表示するプログラムコードと、
前記環境中の第2の領域を運転可能として識別するための入力を受信するプログラムコードと、
前記第2の領域を前記ロボット装置へ送信するプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。
〔態様18〕
前記プログラムコードは更に、過去に走行した経路に基づいて前記意図する経路を判断するよう前記ロボット装置を訓練するプログラムコードを有する、態様17に記載の非一時的なコンピュータ可読媒体。
〔態様19〕
前記プログラムコードは更に、前記意図する経路に重ね合わせて前記第1の領域を表示するプログラムコードを有する、態様17に記載の非一時的なコンピュータ可読媒体。
〔態様20〕
前記入力は前記第2の領域に対応するピクセルにマークを付することを含む、態様17に記載の非一時的なコンピュータ可読媒体。
Claims (20)
- ロボット装置により生成されたデータを可視化する方法であって、
第1の場所における現在の環境において、前記第1の場所とは異なる第2の場所における訓練環境内でのロボット装置の運転可能領域の学習に関連するニューラルネットワークに基づいて前記ロボット装置により識別された第1の運転可能領域を、ユーザ装置のディスプレイに表示することであって、前記運転可能領域は、前記訓練環境内で前記運転可能領域を走行する前記ロボット装置に関連するセンサデータおよび奥行データに基づいて学習される、ことと、
前記第1の運転可能領域内での前記ロボット装置の意図する経路であって、前記運転可能領域を学習する前記ニューラルネットワークに基づいて決定される前記ロボット装置の意図する経路を、前記ディスプレイに表示することと、
前記現在の環境における第2の運転可能領域を識別するための入力を前記ユーザ装置で受信することと、
前記第2の運転可能領域を示すメッセージを前記ロボット装置に送信し、前記メッセージの送信に応じて前記ニューラルネットワークが更新されるようにすることと、
を含む、方法。 - 前記訓練環境の運転可能領域内で過去に走行した一つ以上の経路に基づいて前記意図する経路を判断するように前記ロボット装置を訓練することを更に含む、請求項1に記載の方法。
- 前記意図する経路に重ね合わせて前記第1の運転可能領域を表示することを更に含む、請求項1に記載の方法。
- 前記入力は前記第2の運転可能領域に対応するピクセルにマークを付することを含む、請求項1に記載の方法。
- 前記ロボット装置は、前記第2の運転可能領域の受信に基づいて第3の運転可能領域を運転可能として判断する、請求項1に記載の方法。
- 現在の画像とキーフレーム画像との比較を表示することを更に含み、前記比較は前記現在の画像と前記キーフレーム画像との一致ピクセルを識別する可視化されたマークを有する、請求項1に記載の方法。
- 現在の画像とキーフレームのセットの中の各キーフレームとの間のマッチングの確信度を表示することを更に含む、請求項1に記載の方法。
- 前記意図する経路及び前記第1の運転可能領域を前記ロボット装置から離れた位置にて表示する、請求項1に記載の方法。
- ロボット装置により生成されたデータを可視化する装置であって、
プロセッサと、
前記プロセッサに接続され命令を記憶するメモリであって、該命令は、前記プロセッサにより実行されると、前記装置に、
第1の場所における現在の環境において、前記第1の場所とは異なる第2の場所における訓練環境内でのロボット装置の運転可能領域の学習に関連するニューラルネットワークに基づいて前記ロボット装置により識別された第1の運転可能領域を表示させ、前記運転可能領域は、前記訓練環境内で前記運転可能領域を走行する前記ロボット装置に関連するセンサデータおよび奥行データに基づいて学習され、
前記第1の運転可能領域内での前記ロボット装置の意図する経路であって、前記運転可能領域を学習する前記ニューラルネットワークに基づいて決定される前記ロボット装置の意図する経路を表示させ、
前記現在の環境における第2の運転可能領域を識別するための入力を受信させ、
前記第2の運転可能領域を示すメッセージを前記ロボット装置に送信させ、前記メッセージの送信に応じて前記ニューラルネットワークが更新されるようにする、
ように動作可能である命令を記憶する、メモリと、
を具備する、装置。 - 前記命令の実行は更に、前記装置に、前記訓練環境の運転可能領域内で過去に走行した一つ以上の経路に基づいて前記意図する経路を判断するように前記ロボット装置を訓練させる、請求項9に記載の装置。
- 前記命令の実行は更に、前記装置に、前記意図する経路に重ね合わせて前記第1の運転可能領域を表示させる、請求項9に記載の装置。
- 前記入力は前記第2の運転可能領域に対応するピクセルにマークを付することを含む、請求項9に記載の装置。
- 前記ロボット装置は、前記第2の運転可能領域の受信に基づいて第3の運転可能領域を運転可能として判断する、請求項9に記載の装置。
- 前記プロセッサは更に、現在の画像とキーフレーム画像との比較を表示するように構成され、前記比較は前記現在の画像と前記キーフレーム画像との一致ピクセルを識別する可視化されたマークを含む、請求項9に記載の装置。
- 前記プロセッサは更に、現在の画像とキーフレームのセットの中の各キーフレームとの間のマッチング確信度を表示するように構成されている、請求項9に記載の装置。
- 前記意図する経路及び前記第1の運転可能領域を前記ロボット装置から離れた位置にて表示する、請求項9に記載の装置。
- ロボット装置により生成されたデータを可視化するためのプログラムコードを記録した非一時的なコンピュータ可読媒体であって、
前記プログラムコードはプロセッサにより実行され、
第1の場所における現在の環境において、前記第1の場所とは異なる第2の場所における訓練環境内でのロボット装置の運転可能領域の学習に関連するニューラルネットワークに基づいて前記ロボット装置により識別された第1の運転可能領域を、ユーザ装置のディスプレイに表示し、前記運転可能領域は、前記訓練環境内で前記運転可能領域を走行する前記ロボット装置に関連するセンサデータおよび奥行データに基づいて学習されるプログラムコードと、
前記第1の運転可能領域内での前記ロボット装置の意図する経路であって、前記運転可能領域を学習する前記ニューラルネットワークに基づいて決定される前記ロボット装置の意図する経路を、前記ディスプレイに表示するプログラムコードと、
前記現在の環境における第2の運転可能領域を識別するための入力を前記ユーザ装置で受信するプログラムコードと、
前記第2の運転可能領域を示すメッセージを前記ロボット装置に送信し、前記メッセージの送信に応じて前記ニューラルネットワークが更新されるようするプログラムコードと、
を含む、非一時的なコンピュータ可読媒体。 - 前記プログラムコードは更に、前記訓練環境の運転可能領域内で過去に走行した一つ以上の経路に基づいて前記意図する経路を判断するよう前記ロボット装置を訓練するプログラムコードを有する、請求項17に記載の非一時的なコンピュータ可読媒体。
- 前記プログラムコードは更に、前記意図する経路に重ね合わせて前記第1の運転可能領域を表示するプログラムコードを有する、請求項17に記載の非一時的なコンピュータ可読媒体。
- 前記入力は前記第2の運転可能領域に対応するピクセルにマークを付することを含む、請求項17に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (9)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201962877791P | 2019-07-23 | 2019-07-23 | |
| US201962877793P | 2019-07-23 | 2019-07-23 | |
| US201962877792P | 2019-07-23 | 2019-07-23 | |
| US62/877,793 | 2019-07-23 | ||
| US62/877,792 | 2019-07-23 | ||
| US62/877,791 | 2019-07-23 | ||
| US16/570,540 | 2019-09-13 | ||
| US16/570,540 US11694432B2 (en) | 2019-07-23 | 2019-09-13 | System and method for augmenting a visual output from a robotic device |
| PCT/US2020/036428 WO2021015868A1 (en) | 2019-07-23 | 2020-06-05 | System and method for augmenting a visual output from a robotic device |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2022542241A JP2022542241A (ja) | 2022-09-30 |
| JPWO2021015868A5 JPWO2021015868A5 (ja) | 2023-06-12 |
| JP7581320B2 true JP7581320B2 (ja) | 2024-11-12 |
Family
ID=74189690
Family Applications (4)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022503979A Active JP7581320B2 (ja) | 2019-07-23 | 2020-06-05 | ロボット装置からの視覚的出力を補強するシステム及び方法 |
| JP2022503981A Active JP7686618B2 (ja) | 2019-07-23 | 2020-06-05 | ディープネットワークの訓練方法 |
| JP2022503936A Active JP7693648B2 (ja) | 2019-07-23 | 2020-06-10 | 視角エンベディングに基づいた自律タスク実行 |
| JP2022503980A Active JP7693649B2 (ja) | 2019-07-23 | 2020-07-22 | 移動操作システムの視覚的教示と繰り返し |
Family Applications After (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022503981A Active JP7686618B2 (ja) | 2019-07-23 | 2020-06-05 | ディープネットワークの訓練方法 |
| JP2022503936A Active JP7693648B2 (ja) | 2019-07-23 | 2020-06-10 | 視角エンベディングに基づいた自律タスク実行 |
| JP2022503980A Active JP7693649B2 (ja) | 2019-07-23 | 2020-07-22 | 移動操作システムの視覚的教示と繰り返し |
Country Status (5)
| Country | Link |
|---|---|
| US (6) | US11580724B2 (ja) |
| EP (4) | EP4004828A4 (ja) |
| JP (4) | JP7581320B2 (ja) |
| CN (4) | CN114127805A (ja) |
| WO (4) | WO2021015868A1 (ja) |
Families Citing this family (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3903518A1 (en) * | 2018-12-28 | 2021-11-03 | Apple Inc. | Providing verified claims of user identity |
| US11580724B2 (en) | 2019-07-23 | 2023-02-14 | Toyota Research Institute, Inc. | Virtual teach and repeat mobile manipulation system |
| US11685045B1 (en) * | 2019-09-09 | 2023-06-27 | X Development Llc | Asynchronous robotic control using most recently selected robotic action data |
| US20210101280A1 (en) * | 2019-10-02 | 2021-04-08 | Baker Hughes Oilfield Operations, Llc | Telemetry harvesting and analysis from extended reality streaming |
| CN114930131B (zh) * | 2020-01-22 | 2023-05-26 | Abb瑞士股份有限公司 | 用于时间校准的方法和电子设备、系统和计算机可读介质 |
| US11328170B2 (en) * | 2020-02-19 | 2022-05-10 | Toyota Research Institute, Inc. | Unknown object identification for robotic device |
| US11679498B2 (en) * | 2020-05-27 | 2023-06-20 | Intrinsic Innovation Llc | Robot execution system |
| US11813748B2 (en) * | 2020-10-13 | 2023-11-14 | Google Llc | Simulating multiple robots in virtual environments |
| AU2021359652A1 (en) * | 2020-10-14 | 2023-06-22 | One Cup Productions Ltd. | Animal visual identification, tracking, monitoring and assessment systems and methods thereof |
| US20220197277A1 (en) * | 2020-12-23 | 2022-06-23 | Qatar Foundation For Education, Science And Community Development | Telepresence control schemes for hazardous environments |
| IT202100003821A1 (it) * | 2021-02-19 | 2022-08-19 | Univ Pisa | Procedimento di interazione con oggetti |
| US12065051B2 (en) * | 2021-05-05 | 2024-08-20 | ABB E-mobility B.V. | Systems and methods for electric vehicle charging using machine learning |
| CN117693416A (zh) * | 2021-07-15 | 2024-03-12 | 舍弗勒技术股份两合公司 | 使用手势控制和视觉惯性里程表教导机器人系统 |
| US12002257B2 (en) * | 2021-11-29 | 2024-06-04 | Google Llc | Video screening using a machine learning video screening model trained using self-supervised training |
| US20230249345A1 (en) * | 2022-02-09 | 2023-08-10 | eBots Inc. | System and method for sequencing assembly tasks |
| GB2616001A (en) * | 2022-02-17 | 2023-08-30 | Roke Manor Res Limited | Remote visual inspection guidance |
| US20230286161A1 (en) * | 2022-03-11 | 2023-09-14 | Boston Dynamics, Inc. | Systems and Methods for Robotic Manipulation Using Extended Reality |
| CN116823838B (zh) * | 2023-08-31 | 2023-11-14 | 武汉理工大学三亚科教创新园 | 高斯先验标签分配与特征解耦的海洋船舶检测方法与系统 |
| DE102024112986A1 (de) * | 2024-05-08 | 2025-11-13 | Helmholtz-Zentrum Dresden - Rossendorf E. V. | Verfahren und Vorrichtung zur Bildverarbeitung und Computerlesbares Speichermedium |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010152835A (ja) | 2008-12-26 | 2010-07-08 | Ihi Aerospace Co Ltd | 無人移動体システム |
| JP2014085829A (ja) | 2012-10-23 | 2014-05-12 | Sharp Corp | 機器制御装置、および自走式電子機器 |
| US20160165795A1 (en) | 2014-12-15 | 2016-06-16 | Irobot Corporation | Robot lawnmower mapping |
| JP2017033399A (ja) | 2015-08-04 | 2017-02-09 | トヨタ自動車株式会社 | 移動体監視システム |
| US20190015985A1 (en) | 2017-07-12 | 2019-01-17 | Lg Electronics Inc. | Moving robot and controlling method |
| JP2019515407A (ja) | 2016-05-11 | 2019-06-06 | ブレーン コーポレーションBrain Corporation | ロボットが学習した経路を自律的に走行するように初期化するためのシステムおよび方法 |
| JP2019106060A (ja) | 2017-12-13 | 2019-06-27 | 東芝ライフスタイル株式会社 | 自律走行体 |
| WO2019138640A1 (ja) | 2018-01-10 | 2019-07-18 | ソニー株式会社 | 情報処理装置、情報処理方法、および、プログラム |
| JP2019121364A (ja) | 2018-01-05 | 2019-07-22 | アイロボット・コーポレーション | 状況認識のためのモバイル清掃ロボット人工知能 |
Family Cites Families (95)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000287166A (ja) | 1999-01-29 | 2000-10-13 | Sony Corp | データ記述方法及びデータ処理装置 |
| US7082497B2 (en) * | 2001-12-28 | 2006-07-25 | Hewlett-Packard Development Company, L.P. | System and method for managing a moveable media library with library partitions |
| JP3834297B2 (ja) * | 2003-05-12 | 2006-10-18 | ファナック株式会社 | 画像処理装置 |
| EP2302590A1 (en) | 2003-07-04 | 2011-03-30 | Mitsubishi Electric Information Technology Centre Europe B.V. | Method and apparatus for representing a group of images |
| WO2005098729A2 (en) * | 2004-03-27 | 2005-10-20 | Harvey Koselka | Autonomous personal service robot |
| JP2005308993A (ja) * | 2004-04-20 | 2005-11-04 | Matsushita Electric Ind Co Ltd | 学習支援システム |
| DE102005009437A1 (de) * | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
| JP2007026309A (ja) * | 2005-07-20 | 2007-02-01 | Fuji Xerox Co Ltd | 画像形成装置及びその制御方法 |
| US7836437B2 (en) * | 2006-02-10 | 2010-11-16 | Microsoft Corporation | Semantic annotations for virtual objects |
| JP4320363B2 (ja) | 2006-05-25 | 2009-08-26 | 豪洋 石崎 | 作業ロボット |
| WO2008073962A2 (en) | 2006-12-12 | 2008-06-19 | Rutgers, The State University Of New Jersey | System and method for detecting and tracking features in images |
| JP5037248B2 (ja) * | 2007-07-17 | 2012-09-26 | 株式会社日立製作所 | 情報収集システムおよび情報収集ロボット |
| EP2179398B1 (en) * | 2007-08-22 | 2011-03-02 | Honda Research Institute Europe GmbH | Estimating objects proper motion using optical flow, kinematics and depth information |
| FR2946160B1 (fr) | 2009-05-26 | 2014-05-09 | Aldebaran Robotics | Systeme et procede pour editer et commander des comportements d'un robot mobile. |
| CA2928262C (en) * | 2010-12-30 | 2018-06-26 | Irobot Corporation | Mobile robot system |
| JP2013022705A (ja) | 2011-07-25 | 2013-02-04 | Sony Corp | ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム |
| US8996175B2 (en) * | 2012-06-21 | 2015-03-31 | Rethink Robotics, Inc. | Training and operating industrial robots |
| US9186793B1 (en) * | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
| US9940553B2 (en) * | 2013-02-22 | 2018-04-10 | Microsoft Technology Licensing, Llc | Camera/object pose from predicted coordinates |
| US9102055B1 (en) * | 2013-03-15 | 2015-08-11 | Industrial Perception, Inc. | Detection and reconstruction of an environment to facilitate robotic interaction with the environment |
| US9542626B2 (en) | 2013-09-06 | 2017-01-10 | Toyota Jidosha Kabushiki Kaisha | Augmenting layer-based object detection with deep convolutional neural networks |
| US10888998B2 (en) * | 2013-10-07 | 2021-01-12 | Abb Schweiz Ag | Method and device for verifying one or more safety volumes for a movable mechanical unit |
| US9259844B2 (en) * | 2014-02-12 | 2016-02-16 | General Electric Company | Vision-guided electromagnetic robotic system |
| US9579799B2 (en) | 2014-04-30 | 2017-02-28 | Coleman P. Parker | Robotic control system using virtual reality input |
| WO2015194864A1 (ko) * | 2014-06-17 | 2015-12-23 | (주)유진로봇 | 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법 |
| CN104299006B (zh) * | 2014-07-23 | 2018-11-09 | 中国传媒大学 | 一种基于深度神经网络的车牌识别方法 |
| US10518409B2 (en) | 2014-09-02 | 2019-12-31 | Mark Oleynik | Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries |
| US9969337B2 (en) * | 2014-09-03 | 2018-05-15 | Sharp Laboratories Of America, Inc. | Methods and systems for mobile-agent navigation |
| US9579790B2 (en) * | 2014-09-17 | 2017-02-28 | Brain Corporation | Apparatus and methods for removal of learned behaviors in robots |
| US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
| US9754188B2 (en) * | 2014-10-23 | 2017-09-05 | Microsoft Technology Licensing, Llc | Tagging personal photos with deep networks |
| JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
| US10568258B2 (en) * | 2014-12-23 | 2020-02-25 | Husqvarna Ab | Robotic vehicle with adjustable operating area |
| CN104732518B (zh) | 2015-01-19 | 2017-09-01 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
| CN104808590B (zh) | 2015-02-14 | 2017-01-25 | 浙江大学 | 一种基于关键帧策略的移动机器人视觉伺服控制方法 |
| US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
| US9922271B2 (en) | 2015-03-20 | 2018-03-20 | Netra, Inc. | Object detection and classification |
| US9868211B2 (en) * | 2015-04-09 | 2018-01-16 | Irobot Corporation | Restricting movement of a mobile robot |
| US9646655B2 (en) | 2015-08-31 | 2017-05-09 | Fuji Xerox Co., Ltd. | Systems and methods for interaction-based analysis and visualization of remote collaboration sessions |
| EP3408848A4 (en) * | 2016-01-29 | 2019-08-28 | Pointivo Inc. | SYSTEMS AND METHOD FOR EXTRACTING INFORMATION ON OBJECTS FROM SCENE INFORMATION |
| WO2017196822A1 (en) * | 2016-05-09 | 2017-11-16 | Grabango Co. | System and method for computer vision driven applications within an environment |
| EP3689557B1 (en) * | 2016-05-20 | 2025-12-03 | Google LLC | Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment |
| CN106023211B (zh) | 2016-05-24 | 2019-02-26 | 深圳前海勇艺达机器人有限公司 | 基于深度学习的机器人图像定位方法及系统 |
| US10105847B1 (en) * | 2016-06-08 | 2018-10-23 | X Development Llc | Detecting and responding to geometric changes to robots |
| US10055667B2 (en) * | 2016-08-03 | 2018-08-21 | X Development Llc | Generating a model for an object encountered by a robot |
| US9964955B2 (en) | 2016-08-04 | 2018-05-08 | Canvas Technology, Inc. | System and methods of determining a geometric pose of a camera based on spatial and visual mapping |
| US10346710B2 (en) * | 2016-09-29 | 2019-07-09 | Datacolor Inc. | Multi-agent training of a color identification neural network |
| JP2018055429A (ja) * | 2016-09-29 | 2018-04-05 | ファナック株式会社 | 物体認識装置および物体認識方法 |
| CN108072370A (zh) * | 2016-11-18 | 2018-05-25 | 中国科学院电子学研究所 | 基于全局地图的机器人导航方法及用该方法导航的机器人 |
| US10162360B2 (en) * | 2016-12-01 | 2018-12-25 | GM Global Technology Operations LLC | Vehicle environment imaging systems and methods |
| KR101850410B1 (ko) * | 2016-12-26 | 2018-04-20 | 한국생산기술연구원 | 가상 현실 기반 로봇 교시를 위한 시뮬레이션 장치 및 방법 |
| JP2018122376A (ja) * | 2017-01-31 | 2018-08-09 | セイコーエプソン株式会社 | 画像処理装置、ロボット制御装置、及びロボット |
| EP4292775A3 (en) * | 2017-02-25 | 2024-07-17 | Diligent Robotics, Inc. | Systems, apparatus, and methods for robotic learning and execution of skills |
| EP3974934A1 (de) * | 2017-03-02 | 2022-03-30 | Robart GmbH | Verfahren zur steuerung eines autonomen, mobilen roboters |
| CN107092926A (zh) * | 2017-03-30 | 2017-08-25 | 哈尔滨工程大学 | 基于深度学习的服务机器人物体识别算法 |
| CN109213306B (zh) * | 2017-06-30 | 2022-02-01 | 沈阳新松机器人自动化股份有限公司 | 一种机器人远程控制平台及其设计方法 |
| WO2019021058A2 (en) * | 2017-07-25 | 2019-01-31 | Mbl Limited | SYSTEMS AND METHODS FOR OPERATING A ROBOTIC SYSTEM AND EXECUTING ROBOTIC INTERACTIONS |
| US11494915B2 (en) | 2017-08-14 | 2022-11-08 | Rakuten Group, Inc. | Image processing system, image processing method, and program |
| CN107748569B (zh) * | 2017-09-04 | 2021-02-19 | 中国兵器工业计算机应用技术研究所 | 用于无人机的运动控制方法、装置及无人机系统 |
| CN107610579A (zh) * | 2017-09-05 | 2018-01-19 | 芜湖瑞思机器人有限公司 | 基于vr系统控制的工业机器人示教系统及其示教方法 |
| US10354139B1 (en) * | 2017-09-07 | 2019-07-16 | X Development Llc | Generating and utilizing spatial affordances for an object in robotics applications |
| JP6822929B2 (ja) | 2017-09-19 | 2021-01-27 | 株式会社東芝 | 情報処理装置、画像認識方法および画像認識プログラム |
| WO2019060787A1 (en) * | 2017-09-21 | 2019-03-28 | Lexset.Ai Llc | DETECTION OF AT LEAST ONE OBJECT IN AN IMAGE, OR A SEQUENCE OF IMAGES, AND DETERMINATION OF A CATEGORY AND AT LEAST ONE DESCRIPTOR FOR EACH OF THESE OBJECTS, GENERATION OF SYNTHETIC LEARNING DATA, AND FORMATION OF A NEURONAL NETWORK USING SYNTHETIC LEARNING DATA |
| US10607079B2 (en) * | 2017-09-26 | 2020-03-31 | Toyota Research Institute, Inc. | Systems and methods for generating three dimensional skeleton representations |
| EP3701488A4 (en) | 2017-10-24 | 2021-08-04 | L'Oréal SA | IMAGE PROCESSING SYSTEM AND METHOD USING DEEP NEURAL NETWORKS |
| WO2019089018A1 (en) * | 2017-10-31 | 2019-05-09 | Hewlett-Packard Development Company, L.P. | Mobile robots to generate reference maps for localization |
| US10346721B2 (en) * | 2017-11-01 | 2019-07-09 | Salesforce.Com, Inc. | Training a neural network using augmented training datasets |
| JP6972962B2 (ja) * | 2017-11-22 | 2021-11-24 | コニカミノルタ株式会社 | 物体追跡装置、物体追跡方法、および、物体追跡プログラム |
| US11771283B2 (en) * | 2017-12-06 | 2023-10-03 | BISSELL , Inc. | Method and system for manual control of autonomous floor cleaner |
| US10380751B1 (en) * | 2017-12-12 | 2019-08-13 | The Government Of The United States Of America, As Represented By The Secretary Of The Navy | Robot vision in autonomous underwater vehicles using the color shift in underwater imaging |
| US10810427B1 (en) * | 2017-12-15 | 2020-10-20 | AI Incorporated | Methods for an autonomous robotic device to identify locations captured in an image |
| US10981272B1 (en) * | 2017-12-18 | 2021-04-20 | X Development Llc | Robot grasp learning |
| JP6641447B2 (ja) * | 2017-12-26 | 2020-02-05 | キヤノン株式会社 | 撮像装置及びその制御方法、プログラム、記憶媒体 |
| US10913154B2 (en) * | 2018-01-02 | 2021-02-09 | General Electric Company | Systems and method for robotic learning of industrial tasks based on human demonstration |
| US11097418B2 (en) * | 2018-01-04 | 2021-08-24 | X Development Llc | Grasping of an object by a robot based on grasp strategy determined using machine learning model(s) |
| CN108333941A (zh) * | 2018-02-13 | 2018-07-27 | 华南理工大学 | 一种基于混合增强智能的云机器人协作学习方法 |
| US11340630B2 (en) * | 2018-03-30 | 2022-05-24 | Brain Corporation | Systems and methods for robust robotic mapping |
| CN108619723A (zh) * | 2018-04-18 | 2018-10-09 | 咪咕互动娱乐有限公司 | 一种应用操作的处理方法、装置以及存储介质 |
| US10332261B1 (en) * | 2018-04-26 | 2019-06-25 | Capital One Services, Llc | Generating synthetic images as training dataset for a machine learning network |
| CN108592920B (zh) * | 2018-04-28 | 2022-04-12 | 上海智蕙林医疗科技有限公司 | 一种机器人的路径规划方法及系统 |
| CN108681711A (zh) * | 2018-05-17 | 2018-10-19 | 常州信息职业技术学院 | 一种面向移动机器人的自然路标提取方法 |
| US11189078B2 (en) * | 2018-06-20 | 2021-11-30 | Google Llc | Automated understanding of three dimensional (3D) scenes for augmented reality applications |
| US10636114B2 (en) * | 2018-08-04 | 2020-04-28 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for scan-matching oriented visual slam |
| US11030458B2 (en) * | 2018-09-14 | 2021-06-08 | Microsoft Technology Licensing, Llc | Generating synthetic digital assets for a virtual scene including a model of a real-world object |
| CN109543600A (zh) * | 2018-11-21 | 2019-03-29 | 成都信息工程大学 | 一种实现可行驶区域检测方法及系统和应用 |
| US11238309B2 (en) * | 2018-12-26 | 2022-02-01 | Intel Corporation | Selecting keypoints in images using descriptor scores |
| CN109816686A (zh) * | 2019-01-15 | 2019-05-28 | 山东大学 | 基于物体实例匹配的机器人语义slam方法、处理器及机器人 |
| US10824923B1 (en) * | 2019-01-23 | 2020-11-03 | Facebook Technologies, Llc | System and method for improving localization and object tracking |
| US10870204B2 (en) * | 2019-01-25 | 2020-12-22 | Mujin, Inc. | Robotic system control method and controller |
| CN109886141B (zh) * | 2019-01-28 | 2023-06-06 | 同济大学 | 一种基于不确定性优化的行人再辨识方法 |
| JP7203474B2 (ja) * | 2019-02-20 | 2023-01-13 | 富士フイルム株式会社 | マンモグラフィ装置及びプログラム |
| CN109828588A (zh) * | 2019-03-11 | 2019-05-31 | 浙江工业大学 | 一种基于多传感器融合的机器人室内路径规划方法 |
| CN109974707B (zh) * | 2019-03-19 | 2022-09-23 | 重庆邮电大学 | 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 |
| US11580724B2 (en) | 2019-07-23 | 2023-02-14 | Toyota Research Institute, Inc. | Virtual teach and repeat mobile manipulation system |
| US11529737B2 (en) * | 2020-01-30 | 2022-12-20 | Raytheon Company | System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment |
-
2019
- 2019-09-13 US US16/570,852 patent/US11580724B2/en active Active
- 2019-09-13 US US16/570,813 patent/US11113526B2/en active Active
- 2019-09-13 US US16/570,618 patent/US11288883B2/en active Active
- 2019-09-13 US US16/570,540 patent/US11694432B2/en active Active
-
2020
- 2020-06-05 WO PCT/US2020/036428 patent/WO2021015868A1/en not_active Ceased
- 2020-06-05 JP JP2022503979A patent/JP7581320B2/ja active Active
- 2020-06-05 EP EP20844011.5A patent/EP4004828A4/en active Pending
- 2020-06-05 CN CN202080050025.6A patent/CN114127805A/zh active Pending
- 2020-06-05 CN CN202080050426.1A patent/CN114127806A/zh active Pending
- 2020-06-05 EP EP20844972.8A patent/EP4004670A4/en active Pending
- 2020-06-05 WO PCT/US2020/036450 patent/WO2021015869A1/en not_active Ceased
- 2020-06-05 JP JP2022503981A patent/JP7686618B2/ja active Active
- 2020-06-10 EP EP20844806.8A patent/EP4003668A4/en active Pending
- 2020-06-10 CN CN202080050040.0A patent/CN114097004A/zh active Pending
- 2020-06-10 JP JP2022503936A patent/JP7693648B2/ja active Active
- 2020-06-10 WO PCT/US2020/037025 patent/WO2021015883A1/en not_active Ceased
- 2020-07-22 EP EP20843022.3A patent/EP4003666A4/en active Pending
- 2020-07-22 WO PCT/US2020/043144 patent/WO2021016394A1/en not_active Ceased
- 2020-07-22 CN CN202080050023.7A patent/CN114080583B/zh active Active
- 2020-07-22 JP JP2022503980A patent/JP7693649B2/ja active Active
-
2022
- 2022-02-08 US US17/667,217 patent/US11741701B2/en active Active
-
2023
- 2023-01-18 US US18/098,625 patent/US12131529B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010152835A (ja) | 2008-12-26 | 2010-07-08 | Ihi Aerospace Co Ltd | 無人移動体システム |
| JP2014085829A (ja) | 2012-10-23 | 2014-05-12 | Sharp Corp | 機器制御装置、および自走式電子機器 |
| US20160165795A1 (en) | 2014-12-15 | 2016-06-16 | Irobot Corporation | Robot lawnmower mapping |
| JP2017033399A (ja) | 2015-08-04 | 2017-02-09 | トヨタ自動車株式会社 | 移動体監視システム |
| JP2019515407A (ja) | 2016-05-11 | 2019-06-06 | ブレーン コーポレーションBrain Corporation | ロボットが学習した経路を自律的に走行するように初期化するためのシステムおよび方法 |
| US20190015985A1 (en) | 2017-07-12 | 2019-01-17 | Lg Electronics Inc. | Moving robot and controlling method |
| JP2019106060A (ja) | 2017-12-13 | 2019-06-27 | 東芝ライフスタイル株式会社 | 自律走行体 |
| JP2019121364A (ja) | 2018-01-05 | 2019-07-22 | アイロボット・コーポレーション | 状況認識のためのモバイル清掃ロボット人工知能 |
| WO2019138640A1 (ja) | 2018-01-10 | 2019-07-18 | ソニー株式会社 | 情報処理装置、情報処理方法、および、プログラム |
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7581320B2 (ja) | ロボット装置からの視覚的出力を補強するシステム及び方法 | |
| CN110202583B (zh) | 一种基于深度学习的仿人机械手控制系统及其控制方法 | |
| US10919152B1 (en) | Teleoperating of robots with tasks by mapping to human operator pose | |
| US20200338722A1 (en) | Machine learning methods and apparatus for semantic robotic grasping | |
| US12226920B2 (en) | System(s) and method(s) of using imitation learning in training and refining robotic control policies | |
| CN109108942A (zh) | 基于视觉实时示教与自适应dmps的机械臂运动控制方法和系统 | |
| US20240091951A1 (en) | Synergies between pick and place: task-aware grasp estimation | |
| Xue et al. | Gesture-and vision-based automatic grasping and flexible placement in teleoperation | |
| US10933526B2 (en) | Method and robotic system for manipulating instruments | |
| Zhang et al. | Recent advances on vision-based robot learning by demonstration | |
| Akiyama et al. | Fine-grained object detection and manipulation with segmentation-conditioned perceiver-actor | |
| CN118809616B (zh) | 一种机器人的运动规划方法、装置、机器人及存储介质 | |
| WO2023100282A1 (ja) | データ生成システム、モデル生成システム、推定システム、学習済みモデルの製造方法、ロボット制御システム、データ生成方法、およびデータ生成プログラム | |
| Zeng et al. | Object manipulation learning by imitation | |
| CN120219671A (zh) | 智能体任务规划的方法和相关装置 | |
| Xie | Applications of Computer Vision and Machine Learning to Three Engineering Problems |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230602 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230602 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240523 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240528 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240828 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241001 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241030 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7581320 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |