JP2022104495A - ロボットのためのマップを生成する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 - Google Patents

ロボットのためのマップを生成する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 Download PDF

Info

Publication number
JP2022104495A
JP2022104495A JP2021084820A JP2021084820A JP2022104495A JP 2022104495 A JP2022104495 A JP 2022104495A JP 2021084820 A JP2021084820 A JP 2021084820A JP 2021084820 A JP2021084820 A JP 2021084820A JP 2022104495 A JP2022104495 A JP 2022104495A
Authority
JP
Japan
Prior art keywords
pixel
flow obstacle
map
presumed
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021084820A
Other languages
English (en)
Other versions
JP7358419B2 (ja
Inventor
ジン チョン ヨ
Yeo Jin Jung
パーク ソンジュン
Seongjun Park
オー ジョンジュ
Jungju Oh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bear Robotics Inc
Original Assignee
Bear Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bear Robotics Inc filed Critical Bear Robotics Inc
Publication of JP2022104495A publication Critical patent/JP2022104495A/ja
Application granted granted Critical
Publication of JP7358419B2 publication Critical patent/JP7358419B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/3867Geometry of map features, e.g. shape points, polygons or for simplified maps
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボットのためのマップを生成する方法を提供する。【解決手段】ロボットのタスクと関連する基礎マップを獲得する段階、基礎マップで特定されるピクセルの色相およびピクセルと関連する領域の大きさのうち少なくとも一つに基づいて、基礎マップで流動障害物と推定されるピクセルを識別する段階、および流動障害物と推定されるピクセルを対象に拡張演算および収縮演算を遂行し、多角形を基盤として流動障害物の境界を決定する段階を含む方法が提供される。【選択図】図2

Description

本発明はロボットのためのマップを生成する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体に関する。
ロボットは難しい作業や反復的な操作などを自動化して遂行できるため、多様な分野で人間に代わりまたは補助するのに活用されている。ロボットの円滑な走行のためには周辺環境に関する情報が正確に反映されたマップが必要であるが、最近、このようなロボットのマップ生成技術に関する多様な研究が進行されている。
これに関する従来技術の一例として、特許文献1に開示された技術が挙げられるが、これによると、地図データを生成するロボット清掃装置であって、通信インターフェース、一つ以上のインストラクションを保存するメモリおよび前記一つ以上のインストラクションを実行することによって前記ロボット清掃装置を制御するプロセッサを含み、前記プロセッサは、前記一つ以上のインストラクションを実行することによって、清掃空間に関連した基本地図データを生成し、前記清掃空間内の少なくとも一つの客体に対する客体情報を生成し、前記客体情報に基づいて前記基本地図データ内の領域を複数の領域に区分し、前記客体情報に基づいて前記区分された複数の領域の識別値を決定するロボット清掃装置が紹介されている。
韓国公開特許第10-2020-0085142号公報
しかし、前記のような従来技術をはじめとしてこれまで紹介された技術によると、ロボットのセンシング情報(例えば、映像センサ、レーザセンサ、ライダセンサなどによって獲得される情報)に基づいて一次的に生成されるか、外部システムから提供される基礎マップをそのままロボットのタスク遂行(例えば、飲食サービング)に活用するか、そのような基礎マップを手作業で修正(例えば、ノイズの除去、障害物の境界に対する注釈の設定など)をした後に活用されるようにしていた。基礎マップをそのまま活用する場合には、マップに相当なノイズが含まれ、障害物の境界が不正確であり、人のような動的な障害物が壁のような静的な障害物として認識されてマップにそのまま残っている可能性があるため、ロボットの走行が非効率的に遂行される場合が多かった。また、基礎マップを手作業で修正する場合には、基礎マップから微細ノイズを肉眼で見つけ出して除去し、障害物のぼやけている境界を補正し、障害物の境界範囲に対する注釈をいちいち設定しなければならないため、相当な時間、費用および努力が必要とされる問題があった。
これに対して本発明者らは、ロボットのタスクと関連する基礎マップを加工する過程を迅速かつ正確に自動化して遂行できる、新規かつ進歩した技術を提案するところである。
本発明は、前述した従来技術の問題点をすべて解決することをその目的とする。
また、本発明は、ロボットのタスク遂行に活用されるマップを生成するのにかかる時間、費用および努力を低減させることを他の目的とする。
また、本発明は、人の肉眼で発見し難い微細ノイズまで正確に除去して、ロボットの安定的かつ効率的な走行を可能とすることをさらに他の目的とする。
また、本発明は、障害物と推定されるピクセルを対象に、拡張(dilate)演算および収縮(erode)演算を適用して障害物と関連する付属障害物がすべて含まれ得るように障害物の境界を特定(ひいては、その障害物の境界に対する注釈を提供)することができ、多角形(polygon)を基盤として障害物の境界が特定され得るようにして、障害物の境界をより正確に設定しながらも、使用者が事後的に障害物の境界を容易に追加編集できるようにすることをさらに他の目的とする。
前記目的を達成するための本発明の代表的な構成は次の通りである。
本発明の一態様によると、ロボットのためのマップを生成する方法であって、ロボットのタスクと関連する基礎マップを獲得する段階、前記基礎マップで特定されるピクセルの色相および前記ピクセルと関連する領域の大きさのうち少なくとも一つに基づいて、前記基礎マップで流動障害物と推定されるピクセルを識別する段階、および前記流動障害物と推定されるピクセルを対象に拡張演算および収縮演算を遂行し、多角形を基盤として前記流動障害物の境界を決定する段階を含む方法が提供される。
本発明の他の態様によると、ロボットのためのマップを生成するシステムであって、ロボットのタスクと関連する基礎マップを獲得する基礎マップ獲得部、前記基礎マップで特定されるピクセルの色相および前記ピクセルと関連する領域の大きさのうち少なくとも一つに基づいて、前記基礎マップで流動障害物と推定されるピクセルを識別するピクセル識別部、および前記流動障害物と推定されるピクセルを対象に拡張演算および収縮演算を遂行し、多角形を基盤として前記流動障害物の境界を決定する境界決定部を含むシステムが提供される。
この他にも、本発明を具現するための他の方法、他のシステムおよび前記方法を遂行するためのコンピュータプログラムを記録した非一過性のコンピュータ読み取り可能な記録媒体がさらに提供される。
本発明によると、ロボットのタスク遂行に活用されるマップを生成するのにかかる時間、費用および労力を低減させることができる。
また、本発明によると、人の肉眼で発見し難い微細ノイズまで正確に除去してロボットの安定的かつ効率的な走行が可能となる。
また、本発明によると、障害物と推定されるピクセルを対象に拡張演算および収縮演算を適用して、障害物と関連する付属障害物がすべて含まれ得るように障害物の境界を特定(ひいては、その障害物の境界に対する注釈を提供)することができ、多角形を基盤として障害物の境界が特定され得るようにして、障害物の境界をより正確に設定しながらも、使用者が事後的に障害物の境界を容易に追加編集できることになる。
本発明の一実施例によりロボットのためのマップを生成するための全体システムの構成を概略的に示す図面である。 本発明の一実施例に係るマップ管理システムの内部構成を例示的に示す図面である。 本発明の一実施例に係る基礎マップおよび従来の手作業で加工されたマップを例示的に示す図面である。 本発明の一実施例により生成されるロボットのためのマップを例示的に示す図面である。 本発明の一実施例により生成されるロボットのためのマップを例示的に示す図面である。 本発明の一実施例により生成されるロボットのためのマップを例示的に示す図面である。 本発明の一実施例に係るロボットの構造を例示的に示す図面である。 本発明の一実施例に係るロボットの構造を例示的に示す図面である。
後述する本発明に対する詳細な説明は、本発明が実施され得る特定の実施例を例示として図示する添付図面を参照する。このような実施例は当業者が本発明を充分に実施できるように詳細に説明される。本発明の多様な実施例は互いに異なるが相互排他的である必要はないということが理解されるべきである。例えば、本明細書に記載されている特定形状、構造および特性は、本発明の精神と範囲を逸脱することなく一実施例から他の実施例に変更されて具現され得る。また、それぞれの実施例内の個別構成要素の位置または配置も本発明の精神と範囲を逸脱することなく変更され得ることが理解されるべきである。したがって、後述する詳細な説明は限定的な意味として行われるものではなく、本発明の範囲は特許請求の範囲の請求項が請求する範囲およびそれと均等なすべての範囲を包括するものとして受け入れられるべきである。図面で類似する参照符号は多様な側面に亘って同一または類似する構成要素を示す。
以下では、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施できるようにするために、本発明の多様な好ましい実施例に関して添付された図面を参照して詳細に説明することにする。
全体システムの構成
図1は、本発明の一実施例によりロボットのためのマップを生成するための全体システムの構成を概略的に示す図面である。
図1に図示された通り、本発明の一実施例に係る全体システムは通信網100、マップ管理システム200およびロボット300を含むことができる。
まず、本発明の一実施例によると、通信網100は有線通信や無線通信のような通信の形態にかかわらず構成され得、近距離通信網(LAN;Local Area Network)、都市圏通信網(MAN;Metropolitan Area Network)、広域通信網(WAN;Wide Area Network)などの多様な通信網で構成され得る。好ましくは、本明細書における通信網100は公知のインターネットまたはワールドワイドウェブ(WWW;World Wide Web)であり得る。しかし、通信網100は、あえてこれに限定する必要はなく、公知の有線/無線データ通信網、公知の電話網、または公知の有線/無線テレビ通信網をその少なくとも一部において含んでもよい。
例えば、通信網100は無線データ通信網として、ワイファイ(WiFi)通信、ワイファイダイレクト(WiFi-Direct)通信、ロングタームエボリューション(LTE;Long Term Evolution)通信、ブルートゥース(登録商標)通信(さらに具体的には、低電力ブルートゥース(BLE;Bluetooth(登録商標) Low Energy)通信)、赤外線通信、超音波通信などのような従来の通信方法を少なくともその一部分において具現するものであり得る。
次に、本発明の一実施例に係るマップ管理システム200は、通信網100を通じて後述するロボット300と通信を遂行することができ、ロボット300のタスクと関連する基礎マップを獲得し、その基礎マップで特定されるピクセルの色相およびそのピクセルと関連する領域の大きさのうち少なくとも一つに基づいて、基礎マップで流動障害物と推定されるピクセルを識別し、流動障害物と推定されるピクセルを対象に拡張演算および収縮演算を遂行し、多角形を基盤として流動障害物の境界を決定する機能を遂行することができる。
一方、マップ管理システム200に関して前記のように説明したが、このような説明は例示的なものであり、マップ管理システム200に要求される機能や構成要素の少なくとも一部が必要に応じて後述するロボット300または外部システム(図示されず)内で実現されたり、ロボット300または外部システム内に含まれたりしてもよいことは当業者にとって自明である。また、場合によっては、マップ管理システム200のすべての機能とすべての構成要素がロボット300内ですべて実現されたり、ロボット300内にすべて含まれたりしてもよい。
次に、本発明の一実施例に係るロボット300は通信網100を通じてマップ管理システム200と通信することができ、使用者による操作がなくても所定の機能や付与されたタスク(例えば、飲食サービング、容器回収など)を自律的に遂行できる機器であって、客体(例えば、飲食トレイ)のローディングおよびアンローディングのためのモジュール(例えば、グラブ、ロボットアームモジュールなど)、周辺映像を獲得するための映像モジュール(例えば、可視光線カメラ、赤外線カメラなど)およびロボット300の移動のための駆動モジュール(例えば、モータなど)のうち少なくとも一つのモジュールを含むことができる。例えば、このようなロボット300は案内ロボット、運搬ロボット、清掃ロボット、医療ロボット、エンターテインメントロボット、ペットロボットおよび無人飛行ロボットのうち少なくとも一つと類似する特性や機能を有するロボットであり得る。
一方、本発明の一実施例によると、ロボット300にはロボット300の目的地を制御するためのアプリケーションが含まれていてもよい。このようなアプリケーションはマップ管理システム200または外部のアプリケーション配布サーバー(図示されず)からダウンロードされたものであり得る。
マップ管理システムの構成
以下では、本発明の具現のために重要な機能を遂行するマップ管理システム200の内部構成および各構成要素の機能について詳察することにする。
図2は、本発明の一実施例に係るマップ管理システム200の内部構成を例示的に示す図面である。
図2を参照すると、本発明の一実施例に係るマップ管理システム200は、基礎マップ獲得部210、ピクセル識別部220、境界決定部230、ノイズ除去部240、境界補正部250、通信部260および制御部270を含むことができる。本発明の一実施例によると、基礎マップ獲得部210、ピクセル識別部220、境界決定部230、ノイズ除去部240、境界補正部250、通信部260および制御部270は、そのうちの少なくとも一部が外部システム(図示されず)と通信するプログラムモジュールであり得る。このようなプログラムモジュールは、運営システム、アプリケーションモジュールおよびその他プログラムモジュールの形態でマップ管理システム200に含まれ得、物理的には多様な公知の記憶装置上に保存され得る。また、このようなプログラムモジュールはマップ管理システム200と通信可能な遠隔記憶装置に保存されてもよい。一方、このようなプログラムモジュールは、本発明により後述する特定の業務を遂行したり特定の抽象データ類型を遂行するルーチン、サブルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを包括したりするが、これに対して制限されはしない。
まず、本発明の一実施例に係る基礎マップ獲得部210は、ロボット300のタスクと関連する基礎マップを獲得する機能を遂行することができる。本発明の一実施例によると、基礎マップ獲得部210はロボット300に含まれたり相互に連動され得る映像センサ、レーダセンサ、ライダセンサなどのようなセンサモジュールに基づいて前記のような基礎マップを獲得したり、外部システムから基礎マップを獲得することができる。本発明の一実施例に係るタスクは、ロボット300に付与される特定の作業、行為、または動作を意味し得、例えばロボット300が特定の場所に移動するようにしたり、飲食サービングをするようにしたり、容器の回収をするようにすることなどがタスクとして付与され得る。
例えば、基礎マップ獲得部210はロボット300の外部に配置される少なくとも一つの客体(例えば、人、事物などのすべての類型の対象)に対するセンシング情報に基づいて基礎マップを生成することができる。より具体的には、基礎マップ獲得部210は、外部に配置される少なくとも一つの客体を映像センサーを通じて撮影して獲得した映像データ、ライダセンサ、レーダセンサ、レーザセンサおよび超音波センサのうち少なくとも一つを通じて測定して獲得した距離データなどを基盤として、ロボット中心の2次元または3次元基礎マップを生成することができる。
他の例を挙げると、基礎マップ獲得部210は基礎マップと関連する外部システムまたは他のロボット300からロボット300のタスクと関連する基礎マップを獲得することができる。
次に、本発明の一実施例に係るピクセル識別部220は、基礎マップで特定されるピクセルの色相およびそのピクセルと関連する領域の大きさのうち少なくとも一つに基づいて、基礎マップで流動障害物と推定されるピクセル、ノイズと推定されるピクセルおよび固定障害物と推定されるピクセルのうち少なくとも一つを識別することができる。ここで、固定障害物は建築構造物(例えば、壁)のように、他の場所への移動が不可能であるか所定水準以上には難しい障害物を意味し得、流動障害物は机、椅子、テーブルのように他の場所への移動が所定水準以上に容易な障害物を意味し得る。
例えば、本発明の一実施例により基礎マップで特定されるピクセルの色相は、基礎マップ生成過程で獲得されるセンシング情報(具体的には、センシングされる信号の強度)によりグレースケール(gray scale)で表され得る。このようなグレースケールにより基礎マップで特定されるピクセルの色相は大きく白色、灰色および黒色に区分され得、白色のピクセルは何も存在しない領域(すなわち、空き領域)を表し、黒色のピクセルは実世界の客体が存在する領域を表し、灰色のピクセルは実世界の客体が存在する可能性がある領域を表すことができる。この場合に、ピクセル識別部220は基礎マップで灰色のピクセルおよび黒色のピクセルのうち、互いに隣接(例えば、くっついていたり所定水準以内に存在)する灰色のピクセルおよび黒色のピクセルを含んで(または連結して)形成される領域(例えば、閉領域)の大きさが第1臨界大きさ以下である場合に、その領域内のピクセルをノイズと推定されるピクセルとして識別することができる。ここで、このような第1臨界大きさは既設定され得るか、または基礎マップで互いに隣接する灰色のピクセルおよび黒色のピクセルを含んで形成される領域の数およびその領域の面積を基準として確率統計学的な分析を通じて決定されてもよい。また、ピクセル識別部220は基礎マップで黒色のピクセルのうち、互いに隣接する黒色のピクセルを含んで(または連結して)形成される領域(例えば、閉領域)の大きさが第1臨界大きさより大きく、第2臨界大きさ以下である場合に、その領域内のピクセルを流動障害物と推定されるピクセルとして識別することができる。ここで、このような第2臨界大きさは既設定され得るか、または基礎マップで互いに隣接する黒色のピクセルを含んで形成される領域の数およびその領域の面積を基準として確率統計学的な分析を通じて決定されてもよい。また、ピクセル識別部220は基礎マップで黒色のピクセルのうち、互いに隣接する黒色のピクセルを含んで(または連結して)形成される領域(例えば、閉領域)の大きさが第2臨界大きさより大きい場合に、その領域内のピクセルを固定障害物と推定されるピクセルとして識別することができる。
次に、本発明の一実施例に係る境界決定部230は、ピクセル識別部220により流動障害物と推定されるピクセルを対象に拡張演算および収縮演算を適用し、多角形を基盤として流動障害物の境界を決定する機能を遂行することができる。
例えば、境界決定部230は第1流動障害物と推定されるピクセルを対象に拡張演算を遂行した後に収縮演算を遂行し、第1流動障害物から所定距離以内に存在する少なくとも一つの第2流動障害物を第1流動障害物と共にグループ化することができ、凸包(convex hull)アルゴリズムを基盤として前記グループ化された複数の流動障害物(すなわち、第1流動障害物および少なくとも一つの第2流動障害物)の境界に該当する凸包を識別し、その識別される凸包を基盤として(例えば、その凸包を互いに連結して)前記グループ化された複数の流動障害物の境界を決定することができる。
次に、本発明の一実施例に係るノイズ除去部240は、ピクセル識別部220により基礎マップでノイズと推定されるピクセルを除去する機能を遂行することができる。
例えば、前記で詳察した通り、基礎マップで特定されるピクセルの色相が基礎マップ生成過程で獲得されるセンシング情報(具体的には、センシングされる信号の強度)によりグレースケールで表されることになる場合に、ノイズ除去部240はピクセル識別部220によりノイズと推定されるピクセル(例えば、基礎マップで灰色のピクセルおよび黒色のピクセルのうち、互いに隣接する灰色のピクセルおよび黒色のピクセルを含んで(または連結して)形成される領域の大きさが第1臨界大きさ以下である場合、その領域内のピクセル)を白色のピクセルで補正することによってノイズを除去することができる。
次に、本発明の一実施例に係る境界補正部250は、ピクセル識別部220により基礎マップで固定障害物と推定されるピクセルの境界を対象に色相および厚さのうち少なくとも一つを補正する機能を遂行することができる。
例えば、前記で詳察した通り、基礎マップで特定されるピクセルの色相が基礎マップ生成過程で獲得されるセンシング情報(具体的には、センシングされる信号の強度)によりグレースケールで表されることになる場合に、境界補正部250はピクセル識別部220により固定障害物と推定されるピクセル(例えば、基礎マップで黒色のピクセルのうち、互いに隣接する黒色のピクセルを含んで(または連結して)形成される領域の大きさが第2臨界大きさより大きい場合、その領域内のピクセル)の境界が黒色で所定水準以上の厚さを有するように補正することができる。
また、境界補正部250は固定障害物と推定されるピクセルに基づいて特定される領域の大きさを参照して、その境界の厚さを動的に決定することができる。
例えば、境界補正部250は固定障害物と推定されるピクセルに基づいて、特定される領域の大きさが大きくなるほどその境界の厚さが厚くなるように決定し、該当領域の大きさが小さいほどその境界の厚さが薄くなるように決定することができる。
一方、本発明の一実施例に係る境界補正部250は、流動障害物と推定されるピクセルを抑制(suppress)し、固定障害物と推定されるピクセルを選別的に特定して補正を遂行することができる。
例えば、境界補正部250は基礎マップで黒色のピクセルのうち、互いに隣接する黒色のピクセルを含んで(または連結して)形成される領域の大きさが第2臨界大きさ以下である場合、その領域に含まれる黒色のピクセルを抑制(例えば、該当領域に含まれる黒色のピクセルと関連したレイヤを非活性化するか、臨時的にまたは一時的に除去)し、基礎マップで黒色のピクセルのうち、互いに隣接する黒色のピクセルを含んで(または連結して)形成される領域の大きさが第2臨界大きさより大きい場合、その領域に含まれる黒色のピクセルのみを選別して特定した後に前記補正を遂行することができる。
次に、本発明の一実施例によると、通信部260は基礎マップ獲得部210、ピクセル識別部220、境界決定部230、ノイズ除去部240および境界補正部250からの/へのデータ送受信を可能にする機能を遂行することができる。
最後に、本発明の一実施例によると、制御部270は基礎マップ獲得部210、ピクセル識別部220、境界決定部230、ノイズ除去部240、境界補正部250および通信部260間のデータの流れを制御する機能を遂行することができる。すなわち、本発明の一実施例に係る制御部270は、マップ管理システム200の外部からの/へのデータの流れまたはマップ管理システム200の各構成要素間のデータの流れを制御することによって、基礎マップ獲得部210、ピクセル識別部220、境界決定部230、ノイズ除去部240、境界補正部250および通信部260でそれぞれ固有機能を遂行するように制御することができる。
図3は、本発明の一実施例に係る基礎マップおよび従来の手作業で加工されたマップを例示的に示す図面である。
図4~図6は、本発明の一実施例により生成されるロボットのためのマップを例示的に示す図面である。
図3および図4を参照すると、本発明の一実施例によりロボット300が位置する場所周辺の基礎マップが獲得されると(図3の(a)参照)、従来にはその基礎マップをそのまま活用したり、いちいちノイズを手作業で除去して肉眼で障害物の境界を補正(図3の(b)参照)したりするしかなかったため、その速度や正確性の面で限界が存在した。しかし、本発明に係るマップ管理システム200を通じて、ノイズ除去と境界の補正が迅速かつ正確でありながらも細密に遂行され得るようになる(図4参照)。
まず、本発明の一実施例によりロボット300のタスクと関連する基礎マップが獲得され得る。
その後、本発明の一実施例によりその基礎マップで特定されるピクセルの色相およびピクセルと関連する領域の大きさのうち少なくとも一つに基づいて該当基礎マップでノイズと推定されるピクセルが識別され、そのノイズと推定されるピクセルが該当基礎マップで除去され得る。
その後、図4~図6を参照すると、本発明の一実施例によりノイズと推定されるピクセルが除去された基礎マップで特定されるピクセルの色相およびピクセルと関連する領域の大きさのうち少なくとも一つに基づいて固定障害物420、520、620と推定されるピクセルが識別され、その推定される固定障害物420、520、620の境界ピクセルを対象に色相および厚さのうち少なくとも一つが補正され得る。
その後、本発明の一実施例により固定障害物420、520、620の境界ピクセルが補正された基礎マップで特定されるピクセルの色相およびピクセルと関連する領域の大きさのうち少なくとも一つに基づいて流動障害物と推定されるピクセルが識別され、その流動障害物と推定されるピクセルを対象に拡張演算および収縮演算が適用されて多角形401、402、403、404、405、406、501、502、503、504、505、506、507、508、601、602、603、604を基盤として該当流動障害物の境界410、510、610が決定され得る。
その後、本発明の一実施例により流動障害物の境界410、510、610およびその境界410、510、610に関する座標データ(例えば、前記基礎マップと関連する基準座標系、ロボット300の基準座標系、または絶対座標系での座標データ)のうち少なくとも一つが前記基礎マップの注釈(annotation)情報として生成され得る。
その後、本発明の一実施例によりロボット300は、前記補正された基礎マップおよび前記基礎マップの注釈情報に基づいてタスクを遂行することができる。
一方、流動障害物の境界410、510、610が事後的に補正される必要がある場合に、これは多角形401、402、403、404、405、406、501、502、503、504、505、506、507、508、601、602、603、604に基づいて容易に調整され得る。
一方、本発明によりロボットのためのマップを生成するために、パイソン(Python)プログラム言語のOpenCVライブラリー関数などのような多様なコンピュータプログラムまたはツールが活用され得、例えば、パイソンプログラム言語のthreshold()、connectedcomponentswithstats()、canny()、houghlinesp()、erode()、dilate()、findcontours()、convexhull()、approxpolydp()などの関数が利用され得る。
また、以上ではノイズ除去、固定障害物の境界の補正および流動障害物の境界決定が順に遂行される実施例について主に説明されているが、本発明は必ずしも前記順序でのみ限定されるものではなく、本発明の目的を達成できる範囲内で前記順序は他の順序にいくらでも変更できることを明らかにしておく。
ロボットの構成
本発明の一実施例に係るロボット300は案内ロボット、サービングロボット、運搬ロボット、清掃ロボット、医療ロボット、エンターテインメントロボット、ペットロボットおよび無人飛行ロボットのうち少なくとも一つが遂行する作業と類似する作業を遂行するロボットであり得、このために各作業に符合する多様な形状で具現され得る。
図7を参照すると、ロボット300は本体710、駆動部720およびプロセッサ730を含んで構成され得る。
例えば、本発明の一実施例に係る本体710には、運送対象客体または回収対象客体を積載するための少なくとも一つの積載空間が含まれ得る。本発明の一実施例に係るこのような運送対象客体および回収対象客体は移動され得るすべての類型物を総称する概念であり、例えば、事物、動物、人などを含む概念であり得る。例えば、運送対象客体は飲食物であり、回収対象客体は該当飲食物が入っている容器であり得る。
図8を参照すると、例えばロボット300がサービングロボットである場合に、運送対象客体の提供および回収対象客体の回収のための第1空間810および第2空間820を含むことができる。また、ロボット300は着脱式柱を通じて提供される拡張空間である第3空間830をさらに含むことができ、必要に応じて拡張空間をさらに追加することによって、より多くの積載空間を具備することができる。また、ロボット300は運送対象客体または回収対象客体専用のトレイ840をさらに含んでもよい。例えば、トレイ840は上から見る時、その上面に複数個の円形溝が形成された構成を有することができる。それぞれの円形溝は飲料が入っているカップの下部が載置されて容易にある程度固定され得るように形成されていてもよい。このような円形溝の大きさは多様であり得る。また、ロボット300の第1空間810の下部には、ロボット300の側面を通じて取り出され得る第4空間850がさらに含まれ得る。本発明の一実施例に係る第4空間850はその内部に空いた空間が形成されており、側面は閉塞されており、上面は開いており、下面は閉じられている、籠に類似する形態を有することができる。ただし、本発明に係るロボット300の積載空間は前記の列挙された内容に限定されて具現されるものではなく、本発明の目的を達成できる範囲内で他の形態の積載空間などで多様に具現され得る。
一方、再び図7を参照すると、本体710には周辺映像、客体および障害物情報を獲得するための撮影モジュール(例えば、可視光線カメラ、赤外線カメラなど)(図示されず)およびスキャナモジュール(例えば、ライダ(LIDAR)センサなど)がさらに含まれ得る。
次に、本発明の一実施例に係る駆動部720は、本体710を他の地点に移動させるためのモジュールまたは運送対象客体および回収対象客体をローディングおよびアンローディングするためのモジュールを含んで構成され得る。
例えば、駆動部720は本体710を他の地点に移動させるためのモジュールとして、電気式、機械式、または油圧式で駆動される車輪、プロペラなどに関するモジュールなどを含むことができ、運送対象客体および回収対象客体をローディングおよびアンローディングするためのモジュールとして、運送対象客体および回収対象客体を装着して運搬するためのロボットアームモジュールなどを含むことができる。
次に、本発明の一実施例に係るプロセッサ730は、駆動部720と電気的に連結されて駆動部720を制御する機能を遂行することができ(外部システムとの通信のための通信モジュールをさらに含んでもよい)、例えば、プログラム内に含まれたコードまたは命令で表現された機能を遂行するために物理的に構造化された回路を有する、ハードウェアに内蔵されたデータ処理装置を意味し得る。例えば、このようにハードウェアに内蔵されたデータ処理装置は、マイクロプロセッサ(microprocessor)、中央処理装置(central processing unit)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(application-specific integrated circuit)、FPGA(field programmable gate array)などの処理装置を含むことができる。
また、プロセッサ730は本発明に係るマップ管理システム200の基礎マップ獲得部210、ピクセル識別部220、境界決定部230、ノイズ除去部240および境界補正部250のうち少なくとも一つの機能を遂行することができ(例えば、該当機能がモジュール化されてプロセッサ730に含まれ得る)、基礎マップ獲得部210、ピクセル識別部220、境界決定部230、ノイズ除去部240および境界補正部250のうち少なくとも一つの機能を遂行する外部システム(図示されず)との通信を通じて駆動部720を制御する機能を遂行してもよい。
具体的には、プロセッサ730はロボット300のタスクと関連する基礎マップを獲得し、その基礎マップで特定されるピクセルの色相およびそのピクセルと関連する領域の大きさのうち少なくとも一つに基づいて、基礎マップで流動障害物と推定されるピクセルを識別し、流動障害物と推定されるピクセルを対象に拡張演算および収縮演算を適用し、多角形を基盤として流動障害物の境界を決定する機能を遂行することができる。
以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて実行され得るプログラム命令語の形態で具現されてコンピュータ読み取り可能な記録媒体に記録され得る。前記コンピュータ読み取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記コンピュータ読み取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるかコンピュータソフトウェア分野の当業者に公知となっている使用可能なものであり得る。コンピュータ読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体、CD-ROMおよびDVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical medium)、およびROM、RAM、フラッシュメモリなどのような、プログラム命令語を保存し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるような機械語コードだけでなく、インタープリタなどを使ってコンピュータによって遂行され得る高級言語コードも含まれる。ハードウェア装置は本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールに変更され得、その逆も同じである。
以上、本発明が具体的な構成要素などのような特定事項と限定された実施例および図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明が前記実施例に限定されるものではなく、本発明が属する技術分野で通常の知識を有する者であればこのような記載から多様な修正と変更を図ることができる。
したがって、本発明の思想は前記説明された実施例に限定されて定められてはならず、後述する特許請求の範囲だけでなくこの特許請求の範囲と均等なまたはこれから等価的に変更されたすべての範囲は本発明の思想の範疇に属すると言える。
100 通信網
200 マップ管理システム
210 基礎マップ獲得部
220 ピクセル識別部
230 境界決定部
240 ノイズ除去部
250 境界補正部
260 通信部
270 制御部
300 ロボット

Claims (19)

  1. ロボットのためのマップを生成する方法であって、
    前記ロボットのタスクと関連する基礎マップを獲得する獲得段階、
    前記基礎マップで特定されるピクセルの色相および前記ピクセルと関連する領域の大きさのうち少なくとも一つに基づいて、前記基礎マップで流動障害物と推定される前記ピクセルを識別する識別段階、および
    前記流動障害物と推定される前記ピクセルを対象に拡張(dilate)演算および収縮(erode)演算を遂行し、多角形(polygon)を基盤として前記流動障害物の境界を決定する決定段階を含む、方法。
  2. 前記獲得段階で、前記ロボットの外部に配置される少なくとも一つの客体に対するセンシング情報に基づいて前記基礎マップを生成する、請求項1に記載の方法。
  3. 前記識別段階で、前記基礎マップで特定される前記ピクセルの色相および前記ピクセルと関連する領域の大きさのうち少なくとも一つに基づいて、前記基礎マップでノイズと推定される前記ピクセルおよび固定障害物と推定される前記ピクセルのうち少なくとも一つをさらに識別する、請求項1に記載の方法。
  4. 前記基礎マップで前記ノイズと推定される前記ピクセルを除去する除去段階をさらに含む、請求項3に記載の方法。
  5. 前記基礎マップで前記固定障害物と推定される前記ピクセルの境界の色相および厚さのうち少なくとも一つを補正する補正段階をさらに含む、請求項3に記載の方法。
  6. 前記補正段階で、前記補正のために前記流動障害物と推定される前記ピクセルを抑制する、請求項5に記載の方法。
  7. 前記決定段階で、前記流動障害物と推定される前記ピクセルを対象に前記拡張演算および前記収縮演算を続けて遂行する、請求項1に記載の方法。
  8. 前記決定段階で、前記流動障害物から所定距離以内に存在する少なくとも一つの他の前記流動障害物を前記流動障害物と共にグループ化し、グループ化された前記流動障害物の境界を決定することによって前記流動障害物の境界を決定する、請求項1に記載の方法。
  9. 前記決定段階で、凸包(convex hull)アルゴリズムを基盤として前記流動障害物と関連する凸包を識別し、前記識別される凸包を基盤として前記流動障害物の境界を決定する、請求項1に記載の方法。
  10. 請求項1に記載された方法を遂行するためのコンピュータプログラムを記録した、非一過性のコンピュータ読み取り可能記録媒体。
  11. ロボットのためのマップを生成するシステムであって、
    前記ロボットのタスクと関連する基礎マップを獲得する基礎マップ獲得部、
    前記基礎マップで特定されるピクセルの色相および前記ピクセルと関連する領域の大きさのうち少なくとも一つに基づいて、前記基礎マップで流動障害物と推定される前記ピクセルを識別するピクセル識別部、および
    前記流動障害物と推定される前記ピクセルを対象に拡張演算および収縮演算を遂行し、多角形を基盤として前記流動障害物の境界を決定する境界決定部を含む、システム。
  12. 前記基礎マップ獲得部は、前記ロボットの外部に配置される少なくとも一つの客体に対するセンシング情報に基づいて前記基礎マップを生成する、請求項11に記載のシステム。
  13. 前記ピクセル識別部は、前記基礎マップで特定される前記ピクセルの色相および前記ピクセルと関連する領域の大きさのうち少なくとも一つに基づいて、前記基礎マップでノイズと推定される前記ピクセルおよび固定障害物と推定される前記ピクセルのうち少なくとも一つをさらに識別する、請求項11に記載のシステム。
  14. 前記基礎マップで前記ノイズと推定される前記ピクセルを除去するノイズ除去部をさらに含む、請求項13に記載のシステム。
  15. 前記基礎マップで前記固定障害物と推定される前記ピクセルの境界の色相および厚さのうち少なくとも一つを補正する境界補正部をさらに含む、請求項13に記載のシステム。
  16. 前記境界補正部は、前記補正のために前記流動障害物と推定される前記ピクセルを抑制する、請求項15に記載のシステム。
  17. 前記境界決定部は、前記流動障害物と推定される前記ピクセルを対象に前記拡張演算および前記収縮演算を続けて遂行する、請求項11に記載のシステム。
  18. 前記境界決定部は、前記流動障害物から所定距離以内に存在する少なくとも一つの他の前記流動障害物を前記流動障害物と共にグループ化し、グループ化された前記流動障害物の境界を決定することによって前記流動障害物の境界を決定する、請求項11に記載のシステム。
  19. 前記境界決定部は、凸包アルゴリズムを基盤として前記流動障害物と関連する凸包を識別し、前記識別される凸包を基盤として前記流動障害物の境界を決定する、請求項11に記載のシステム。
JP2021084820A 2020-12-28 2021-05-19 ロボットのためのマップを生成する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 Active JP7358419B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/134,888 US11885638B2 (en) 2020-12-28 2020-12-28 Method, system, and non-transitory computer-readable recording medium for generating a map for a robot
US17/134,888 2020-12-28

Publications (2)

Publication Number Publication Date
JP2022104495A true JP2022104495A (ja) 2022-07-08
JP7358419B2 JP7358419B2 (ja) 2023-10-10

Family

ID=79730335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021084820A Active JP7358419B2 (ja) 2020-12-28 2021-05-19 ロボットのためのマップを生成する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体

Country Status (5)

Country Link
US (1) US11885638B2 (ja)
EP (1) EP4024338A1 (ja)
JP (1) JP7358419B2 (ja)
KR (1) KR102671839B1 (ja)
CN (1) CN114756020A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11885638B2 (en) * 2020-12-28 2024-01-30 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for generating a map for a robot
CN114968045A (zh) * 2022-07-27 2022-08-30 广州物大人科技有限责任公司 一种地图规划方法、系统以及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280387A (ja) * 2006-03-31 2007-10-25 Aisin Seiki Co Ltd 物体移動の検出方法及び検出装置
JP2018177074A (ja) * 2017-04-18 2018-11-15 国立大学法人 東京大学 自律型水中ロボット及びその制御方法
US20190311205A1 (en) * 2018-04-05 2019-10-10 Here Global B.V. Method, apparatus, and system for determining polyline homogeneity
US20200394813A1 (en) * 2019-06-17 2020-12-17 SafeAI, Inc. Techniques for volumetric estimation

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6202517B2 (ja) * 2013-03-07 2017-09-27 株式会社国際電気通信基礎技術研究所 地図作成装置、地図作成プログラムおよび地図作成方法
JP2014203429A (ja) 2013-04-10 2014-10-27 トヨタ自動車株式会社 地図生成装置、地図生成方法及び制御プログラム
WO2016076449A1 (en) * 2014-11-11 2016-05-19 Movon Corporation Method and system for detecting an approaching obstacle based on image recognition
US9285227B1 (en) * 2015-01-29 2016-03-15 Qualcomm Incorporated Creating routing paths in maps
US20170372018A1 (en) * 2016-06-28 2017-12-28 Melrose Pain Solutions LLC Melrose Pain Solutions® Method and Algorithm: Managing Pain in Opioid Dependent Patients
US10380429B2 (en) * 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
KR101922953B1 (ko) * 2016-08-29 2018-11-28 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102235271B1 (ko) * 2017-02-27 2021-04-01 엘지전자 주식회사 이동 로봇 및 그 제어방법
US10634504B2 (en) * 2017-06-06 2020-04-28 Clearpath Robotics Inc. Systems and methods for electronic mapping and localization within a facility
US11684886B1 (en) * 2017-06-23 2023-06-27 AI Incorporated Vibrating air filter for robotic vacuums
US10386851B2 (en) * 2017-09-22 2019-08-20 Locus Robotics Corp. Multi-resolution scan matching with exclusion zones
US10853561B2 (en) * 2019-04-10 2020-12-01 Fetch Robotics, Inc. System and method for automatically annotating a map
US11917127B2 (en) * 2018-05-25 2024-02-27 Interdigital Madison Patent Holdings, Sas Monitoring of video streaming events
US11024037B2 (en) * 2018-11-15 2021-06-01 Samsung Electronics Co., Ltd. Foreground-background-aware atrous multiscale network for disparity estimation
CN111238465B (zh) 2018-11-28 2022-02-18 台达电子工业股份有限公司 地图建置设备及其地图建置方法
KR102255273B1 (ko) 2019-01-04 2021-05-24 삼성전자주식회사 청소 공간의 지도 데이터를 생성하는 장치 및 방법
US10916019B2 (en) * 2019-02-01 2021-02-09 Sony Corporation Moving object detection in image frames based on optical flow maps
US11554785B2 (en) * 2019-05-07 2023-01-17 Foresight Ai Inc. Driving scenario machine learning network and driving environment simulation
US11803981B2 (en) * 2019-05-30 2023-10-31 Mobileye Vision Technologies Ltd. Vehicle environment modeling with cameras
CN110522359B (zh) * 2019-09-03 2021-09-03 深圳飞科机器人有限公司 清洁机器人以及清洁机器人的控制方法
CN110703747B (zh) 2019-10-09 2021-08-03 武汉大学 一种基于简化广义Voronoi图的机器人自主探索方法
CN111063029B (zh) * 2019-12-11 2023-06-09 深圳市优必选科技股份有限公司 地图构建方法、装置、计算机可读存储介质及机器人
CN111337941B (zh) 2020-03-18 2022-03-04 中国科学技术大学 一种基于稀疏激光雷达数据的动态障碍物追踪方法
CN111104933B (zh) * 2020-03-20 2020-07-17 深圳飞科机器人有限公司 地图处理方法、移动机器人及计算机可读存储介质
CN111481105A (zh) * 2020-04-20 2020-08-04 北京石头世纪科技股份有限公司 一种自行走机器人避障方法、装置、机器人和存储介质
US11561553B1 (en) * 2020-05-11 2023-01-24 Vecna Robotics, Inc. System and method of providing a multi-modal localization for an object
US11885638B2 (en) * 2020-12-28 2024-01-30 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for generating a map for a robot
US12008817B2 (en) * 2021-03-11 2024-06-11 GM Global Technology Operations LLC Systems and methods for depth estimation in a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280387A (ja) * 2006-03-31 2007-10-25 Aisin Seiki Co Ltd 物体移動の検出方法及び検出装置
JP2018177074A (ja) * 2017-04-18 2018-11-15 国立大学法人 東京大学 自律型水中ロボット及びその制御方法
US20190311205A1 (en) * 2018-04-05 2019-10-10 Here Global B.V. Method, apparatus, and system for determining polyline homogeneity
US20200394813A1 (en) * 2019-06-17 2020-12-17 SafeAI, Inc. Techniques for volumetric estimation

Also Published As

Publication number Publication date
KR102671839B1 (ko) 2024-06-04
JP7358419B2 (ja) 2023-10-10
KR20220094089A (ko) 2022-07-05
EP4024338A1 (en) 2022-07-06
CN114756020A (zh) 2022-07-15
US11885638B2 (en) 2024-01-30
US20220206510A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
JP2022104495A (ja) ロボットのためのマップを生成する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
US11554495B2 (en) Method of localization using multi sensor and robot implementing same
CN110147706A (zh) 障碍物的识别方法和装置、存储介质、电子装置
TW201732739A (zh) 集中於物件的有效三維重構
US20200238523A1 (en) Method, system and non-transitory computer-readable recording medium for determining a movement path of a robot
Asadi et al. Building an integrated mobile robotic system for real-time applications in construction
CN108780319A (zh) 软件更新方法、系统、移动机器人及服务器
JP7330162B2 (ja) ロボットの目的地を制御するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
CN113191174A (zh) 物品定位方法和装置、机器人及计算机可读存储介质
US12085951B2 (en) Method of updating map in fusion SLAM and robot implementing same
KR20220120908A (ko) 이동 로봇 및 이동 로봇의 제어 방법
CN117256008A (zh) 利用图像数据的实时定位
CN118385157A (zh) 一种基于深度学习和自适应抓取的视觉分类垃圾自动分拣系统
CN114510022A (zh) 一种医疗运输机器人及其控制方法
Gaffin et al. Autonomous visual navigation of an indoor environment using a parsimonious, insect inspired familiarity algorithm
US20220371198A1 (en) Method, system, and non-transitory computer-readable recording medium for controlling a patrolling robot
CN113487590B (zh) 分块处理方法、装置、计算设备及存储介质
US11759949B2 (en) Method, system, and non-transitory computer-readable recording medium for controlling a robot
KR102694556B1 (ko) 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US20230129346A1 (en) Capability-aware pathfinding for autonomous mobile robots
Azizul et al. Waypoint planning for mono visual drone using the minimal bounded space method
WO2024215574A1 (en) Method and system for controlling a robot
CN118031950A (zh) 自走车及校正取物路径的方法
KR20230057117A (ko) 인공 신경망 적용 객체 감지 과정에서의 효과적인 하드웨어 사용을 위한 시스템 및 방법
CN117047760A (zh) 机器人的控制方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230927

R150 Certificate of patent or registration of utility model

Ref document number: 7358419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150