JP2023073178A - ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 - Google Patents

ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 Download PDF

Info

Publication number
JP2023073178A
JP2023073178A JP2021202358A JP2021202358A JP2023073178A JP 2023073178 A JP2023073178 A JP 2023073178A JP 2021202358 A JP2021202358 A JP 2021202358A JP 2021202358 A JP2021202358 A JP 2021202358A JP 2023073178 A JP2023073178 A JP 2023073178A
Authority
JP
Japan
Prior art keywords
robot
camera module
comparison
axis
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021202358A
Other languages
English (en)
Other versions
JP7271649B1 (ja
Inventor
チョン,サンファン
Sanghun Jung
エー. レインホス,ヘンリー
A Leinhos Henry
リ,ファンウェイ
Fangwei Li
リュー,アイナ
Ina Liu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bear Robotics Inc
Original Assignee
Bear Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bear Robotics Inc filed Critical Bear Robotics Inc
Application granted granted Critical
Publication of JP7271649B1 publication Critical patent/JP7271649B1/ja
Publication of JP2023073178A publication Critical patent/JP2023073178A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50393Floor conveyor, AGV automatic guided vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Geometry (AREA)

Abstract

【課題】ロボットのハードウェアモジュール、具体的にはカメラモジュールや移動モジュールに関連するエラーを精巧に補正できる、新規かつ進歩した技術をを提供する。【解決手段】ロボットのカメラモジュールによって特定される第1ターゲット領域を参照して第1比較対象軸を決定し、前記ロボットのスキャナモジュールによって特定され、前記第1ターゲット領域に関連する第2ターゲット領域を参照して第2比較対象軸を決定する段階、および前記第1比較対象軸および前記第2比較対象軸の間の関係を参照して前記カメラモジュールに関連する基準座標系を補正する段階を含む方法が提供される。【選択図】図2

Description

本発明はロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体に関する。
ロボットは難しい作業や反復的な操作などを自動化して遂行できるため、多様な分野で人間に代わってまたは補助するのに活用されている。最近、ロボットを運用する過程で発生する誤差やエラーを補正するための技術について多様な研究が進行されている。
これに関する従来技術の一例として、韓国登録特許公報第10-0914211号に開示された技術が挙げられるが、これによると、カメラを通じて撮影された複数の正方形の格子模様を有する補正指標に対する2次元の補正指標イメージを受信し、前記補正指標イメージから前記格子模様の間の頂点座標情報および頂点連結情報を含む複数の特徴データを抽出し、前記複数の特徴データの座標情報を利用して歪み補正アルゴリズムを構成する歪み補正係数を算出し、前記算出された係数を利用して補正ファイルを生成する段階を含む歪み映像補正方法が紹介されたことがある。
しかし、前記のような従来技術をはじめとして、これまで紹介された技術はロボットによって獲得される映像情報やセンシング情報の品質を改善する方法について主に関心があっただけであり、映像情報やセンシング情報を獲得するハードウェアモジュール(例えば、カメラモジュール、スキャナモジュールなど)を組立または設置する過程で発生するエラー、環境的な要因(例えば、温度)によってそのようなハードウェアモジュールで発生するエラーなどを改善する方法については関心がなかった。
一般的に、ロボットには3次元座標系を基盤とする多様なハードウェアモジュールが存在し、そのモジュール間に連動がなされることになるが、そのようなハードウェアモジュールのうち、例えばカメラモジュールが定められた位置(または方向)ではなく他の位置(または方向)に設置される場合、カメラモジュールの座標系と他のハードウェアモジュール、例えばスキャナモジュールの座標系間の整合または連動に関連した問題が発生してロボットの誤作動を起こす主要原因となり得る。また、野外で運用されるロボットの場合には、日光などによってロボットに設置されたカメラモジュール(例えば、3次元カメラモジュール)の温度が高くなると、ロール(roll)方向に関連した認識エラーが発生する問題(具体的には、温度が上がるほどロール方向を基準として地表面との角度差が大きくなる問題)があった。また、ロボットに設置された移動モジュールに関連した状態(例えば、ホイールの摩耗、ホイールベースの長さの変化、底の状態など)によって、ロボットが所望する距離だけ移動することができないか所望する角度だけ回転されない場合が発生した。
そこで、本発明者(ら)は、ロボットのハードウェアモジュール、具体的にはカメラモジュールや移動モジュールに関連するエラーを精巧に補正できる、新規かつ進歩した技術を提案するところである。
韓国登録特許公報第10-0914211号
本発明は、前述した従来技術の問題点をすべて解決することをその目的とする。
また、本発明は、カメラモジュール(例えば、3次元カメラ)によって決定される比較対象軸とスキャナモジュール(例えば、ライダー(LIDAR)センサ)によって決定される比較対象軸との間の関係を参照してカメラモジュールに関連する基準座標系を補正することによって、カメラモジュールの設置位置または設置方向によるエラーを補正することをその目的とする。
また、本発明は、ロボットが位置した底面とカメラモジュールによって特定される基準面との間の関係を参照してカメラモジュールに関連する基準座標系を補正することによって、温度の増加によって発生するエラー(具体的には、ロール方向のエラー)を補正することをその目的とする。
さらに、本発明は、ロボットのスキャナモジュールによって特定される所定地点を基準としてロボットの移動属性情報(例えば、ホイールの大きさ、ホイールベースの長さなど)を補正して、ロボットの実際の移動距離とロボットの記録された移動距離(例えば、ロボットの走行記録計(odometer)により測定される距離)との間の差またはロボットの実際の回転角度とロボットの記録された回転角度(例えば、ロボットの走行記録計によって測定される回転角度)との間の差を補正することをさらに他の目的とする。
前記目的を達成するための本発明の代表的な構成は次の通りである。
本発明の一態様によると、ロボットを制御するための方法であって、ロボットのカメラモジュールによって特定される第1ターゲット領域を参照して第1比較対象軸を決定し、前記ロボットのスキャナモジュールによって特定され、前記第1ターゲット領域に関連する第2ターゲット領域を参照して第2比較対象軸を決定する段階、および前記第1比較対象軸および前記第2比較対象軸の間の関係を参照して前記カメラモジュールに関連する基準座標系を補正する段階を含む方法が提供される。
本発明の他の態様によると、ロボットを制御するためのシステムであって、ロボットのカメラモジュールによって特定される第1ターゲット領域を参照して第1比較対象軸を決定し、前記ロボットのスキャナモジュールによって特定され、前記第1ターゲット領域に関連する第2ターゲット領域を参照して第2比較対象軸を決定する比較対象軸決定部、および前記第1比較対象軸および前記第2比較対象軸の間の関係を参照して前記カメラモジュールに関連する基準座標系を補正する補正部を含むシステムが提供される。
この他にも、本発明を具現するための他の方法、他のシステムおよび前記方法を実行するためのコンピュータプログラムを記録した非一過性のコンピュータ読み取り可能な記録媒体がさらに提供される。
本発明によると、カメラモジュール(例えば、3次元カメラ)によって決定される比較対象軸とスキャナモジュール(例えば、ライダー(LIDAR)センサ)によって決定される比較対象軸との間の関係を参照してカメラモジュールに関連する基準座標系を補正することによって、カメラモジュールの設置位置または設置方向によるエラーを補正することができる。
また、本発明によると、ロボットが位置した底面とカメラモジュールによって特定される基準面との間の関係を参照してカメラモジュールに関連する基準座標系を補正することによって、温度の増加によって発生するエラー(具体的には、ロール方向のエラー)を補正することができる。
また、本発明によると、ロボットのスキャナモジュールによって特定される所定地点を基準としてロボットの移動属性情報(例えば、ホイールの大きさ、ホイールベースの長さなど)を補正して、ロボットの実際の移動距離とロボットの記録された移動距離(例えば、ロボットの走行記録計によって測定される距離)との間の差またはロボットの実際の回転角度とロボットの記録された回転角度(例えば、ロボットの走行記録計によって測定される回転角度)との間の差を補正することができる。
本発明の一実施形態によりロボットを制御するための全体システムの構成を概略的に示す図面である。 本発明の一実施形態に係る補正システムの内部構成を例示的に示す図面である。 本発明の一実施形態によりロボットのカメラモジュールに関連する基準座標系を補正する過程を例示的に示す図面である。 本発明の一実施形態によりロボットのカメラモジュールに関連する基準座標系を補正する過程を例示的に示す図面である。 本発明の一実施形態によりロボットのカメラモジュールに関連する基準座標系を補正する過程を例示的に示す図面である。 本発明の一実施形態によりロボットのカメラモジュールに関連する基準座標系を補正する過程を例示的に示す図面である。 本発明の一実施形態によりロボットの移動属性情報を補正する過程を例示的に示す図面である。 本発明の一実施形態に係るロボットの構造を例示的に示す図面である。 本発明の一実施形態に係るロボットの構造を例示的に示す図面である。
後述する本発明に対する詳細な説明は、本発明が実施され得る特定の実施形態を例示として図示する添付図面を参照する。このような実施形態は当業者が本発明を充分に実施できるように詳細に説明される。本発明の多様な実施形態は互いに異なるが互いに排他的である必要はないことが理解されるべきである。例えば、本明細書に記載されている特定の形状、構造および特性は本発明の精神と範囲を逸脱することなく一実施形態から他の実施形態に変更されて具現され得る。また、それぞれの実施形態内の個別構成要素の位置または配置も本発明の精神と範囲を逸脱することなく変更され得ることが理解されるべきである。したがって、後述する詳細な説明は限定的な意味として行われるものではなく、本発明の範囲は特許請求の範囲の請求項が請求する範囲およびそれと均等なすべての範囲を包括するものと理解されるべきである。図面で類似する参照符号は多様な側面に亘って同一または類似する構成要素を示す。
以下では、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施できるようにするために、本発明の多様な好ましい実施形態に関して添付された図面を参照して詳細に説明することにする。
全体システムの構成
図1は、本発明の一実施形態によりロボットを制御するための全体システムの構成を概略的に示す図面である。
図1に図示された通り、本発明の一実施形態に係る全体システムは通信網100、補正システム200およびロボット300を含むことができる。
まず、本発明の一実施形態によると、通信網100は有線通信や無線通信のような通信の様態にかかわらず構成され得、近距離通信網(LAN;Local Area Network)、都市圏通信網(MAN;Metropolitan Area Network)、広域通信網(WAN;Wide Area Network)等の多様な通信網で構成され得る。好ましく、本明細書における通信網100は公知のインターネットまたはワールドワイドウェブ(WWW;World Wide Web)であり得る。しかし、通信網100は、これに限定されず、公知の有線/無線データ通信網、公知の電話網、または公知の有線/無線テレビ通信網をその少なくとも一部において含んでもよい。
例えば、通信網100は無線データ通信網であって、ワイファイ(WiFi)通信、ワイファイダイレクト(WiFi-Direct)通信、ロングタームエボリューション(LTE;Long Term Evolution)通信、ブルートゥース通信(さらに具体的には、低電力ブルートゥース(BLE;Bluetooth Low Energy)通信)、赤外線通信、超音波通信などのような従来の通信方法を少なくともその一部分において具現するものであり得る。
次に、本発明の一実施形態に係る補正システム200は通信網100を通じて後述するロボット300と通信を遂行することができ、ロボット300のカメラモジュール(例えば、3次元カメラ)により特定される第1ターゲット領域を参照して第1比較対象軸を決定し、ロボット300のスキャナモジュール(例えば、ライダーセンサ)により特定され、第1ターゲット領域に関連する第2ターゲット領域を参照して第2比較対象軸を決定し、第1比較対象軸および第2比較対象軸の間の関係を参照してロボット300のカメラモジュールに関連する基準座標系を補正する機能を遂行することができる。
一方、補正システム200に関して前記のように説明したが、このような説明は例示的なものであり、補正システム200に要求される機能や構成要素の少なくとも一部が必要に応じて後述するロボット300または外部システム(図示されず)内で具現されたり、ロボット300または外部システム内に含まれてもよいことは当業者に自明である。また、場合によっては、補正システム200のすべての機能とすべての構成要素がロボット300内ですべて具現されたりロボット300内にすべて含まれてもよい。
次に、本発明の一実施形態に係るロボット300は通信網100を通じて補正システム200と通信することができ、使用者による操作がなくても所定の機能や付与された作業(例えば、飲食のサービング、容器の回収など)を自律的に遂行できる機器であって、客体(例えば、飲食トレイ)のローディングおよびアンローディングのためのモジュール(例えば、グラブ、ロボットアームモジュールなど)、周辺の環境情報を獲得するためのカメラモジュールまたはスキャナモジュール、多様な映像または音声を提供するためのディスプレイおよびスピーカーモジュール、およびロボット300の移動のための駆動モジュール(例えば、モータなど)のうち少なくとも一つのモジュールを含むことができる。例えば、このようなロボット300は案内ロボット、運搬ロボット、掃除ロボット、医療ロボット、エンターテインメントロボット、ペットロボットおよび無人飛行ロボットのうち少なくとも一つと類似する特性や機能を有するロボットであり得る。
一方、本発明の一実施形態によると、ロボット300にはカメラモジュールに関連する基準座標系を補正するなどの本発明に係る機能を支援するアプリケーションが含まれていてもよい。このようなアプリケーションは補正システム200または外部のアプリケーション配布サーバー(図示されず)からダウンロードされたものであり得る。
補正システムの構成
以下では、本発明の具現のために重要な機能を遂行する補正システム200の内部構成および各構成要素の機能について詳察することにする。
図2は、本発明の一実施形態に係る補正システム200の内部構成を例示的に示す図面である。
図2を参照すると、本発明の一実施形態に係る補正システム200は比較対象軸決定部210、補正部220、通信部230および制御部240を含むことができる。本発明の一実施形態によると、比較対象軸決定部210、補正部220、通信部230および制御部240は、そのうち少なくとも一部が外部システム(図示されず)と通信するプログラムモジュールであり得る。このようなプログラムモジュールは運営システム、アプリケーションモジュールおよびその他プログラムモジュールの形態で補正システム200に含まれ得、物理的には多様な公知の記憶装置上に保存され得る。また、このようなプログラムモジュールは補正システム200と通信可能な遠隔記憶装置に保存されてもよい。一方、このようなプログラムモジュールは本発明により後述する特定の業務を遂行したり、特定の抽象データ類型を実行するルーチン、サブルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを包括するが、これに制限されはしない。
まず、本発明の一実施形態に係る比較対象軸決定部210は、ロボット300のカメラモジュールによって特定される第1ターゲット領域を参照して第1比較対象軸を決定する機能を遂行することができる。例えば、本発明の一実施形態に係る第1ターゲット領域は、ロボット300が位置する場所(または空間)で二つ以上の角が会う地点または対象を含む領域であり得る。より具体的には、第1ターゲット領域にはロボット300が位置する場所の壁のコーナー領域(より具体的には、壁のコーナーの頂点領域)が含まれ得る。
例えば、図3の(a)および(b)を参照すると、第1ターゲット領域はロボット300が位置する場所(例えば、直六面体の形態の部屋)の壁のコーナーの頂点310を含む領域(例えば、このような領域はカメラモジュールによってポイントクラウド、ポリゴンなどの形態で特定される)であり得、比較対象軸決定部210は第1ターゲット領域の該当頂点310を中心に特定される3個の角を参照して第1比較対象軸315を決定することができる。より具体的には、比較対象軸決定部210は前記頂点を中心に互いに90度をなす3個の角それぞれを基準として複数の軸を特定し、その複数の軸を第1比較対象軸315に決定することができる。
他の例として、第1ターゲット領域はロボット300が位置する場所(例えば、寝室)の直六面体の形態のベッドの頂点を含む領域(例えば、このような領域はカメラモジュールによってポイントクラウド、ポリゴンなどの形態で特定される)であり得、比較対象軸決定部210は第1ターゲット領域の該当頂点を中心に特定される3個の角を参照して第1比較対象軸を決定することができる。より具体的には、比較対象軸決定部210は前記頂点を中心に互いに90度をなす3個の角それぞれを基準として複数の軸を特定し、その複数の軸を第1比較対象軸に決定することができる。
また、比較対象軸決定部210はロボット300のスキャナモジュールによって特定され、第1ターゲット領域に関連する第2ターゲット領域を参照して第2比較対象軸を決定する機能を遂行することができる。例えば、本発明の一実施形態に係る第2ターゲット領域は、ロボット300が位置する場所(または空間)で二つ以上の角が会う地点または対象を含む領域であり得、第1ターゲット領域と同一であるかそれと所定の位置関係または予め設定された関係を有することができる。より具体的には、第2ターゲット領域は第1ターゲット領域に含まれる頂点を基準として特定される3個の角のうち一つ以上の角を共有する他の頂点を含む領域であるか、第1ターゲット領域に含まれる頂点と所定の位置関係(例えば、対称移動、平行移動、回転移動など)にある他の頂点を含む領域であり得る。例えば、ロボット300が位置する場所が直六面体の形態の部屋である場合、第1ターゲット領域がその部屋の壁のコーナーの特定の頂点を含む領域であれば、第2ターゲット領域はその特定の頂点を除いた残りの頂点のうちいずれか一つを含む領域であり得る。
例えば、再び図3の(a)および(b)を参照すると、ロボット300が位置する場所(例えば、直六面体の形態の部屋)の壁のコーナーの下部頂点310を含む領域が前述した第1ターゲット領域である場合、第1ターゲット領域に関連する第2ターゲット領域は該当壁のコーナーの上部頂点を含む領域(例えば、このような領域はスキャナモジュールによってポイントクラウド、ポリゴンなどの形態で特定される)であり得、比較対象軸決定部210はその上部頂点を基準として特定される3個の角を参照して第2比較対象軸325を決定することができる。より具体的には、比較対象軸決定部210は前記上部頂点を中心に互いに90度をなす3個の角それぞれを基準として複数の軸を特定し、その複数の軸を第2比較対象軸325に決定することができる。
次に、本発明の一実施形態に係る補正部220は、比較対象軸決定部210によって決定される第1比較対象軸および第2比較対象軸の間の関係を参照してカメラモジュールに関連する基準座標系を補正することができる。本発明の一実施形態に係るカメラモジュールに関連する基準座標系は、カメラモジュールが実世界の客体を認識するために利用する所定の座標系(例えば、直角座標系、円筒座標系、球座標系など)またはカメラモジュールの光学軸に基づいて特定される座標系を含むことができる。一方、このような基準座標系はカメラモジュールがロボット300に設置または固定される位置または方向を参照して決定されてもよい。
例えば、補正部220は第1比較対象軸および第2比較対象軸を比較して特定される両者間の距離または角度(または夾角)を参照して、カメラモジュールの補正前の基準座標系を平行移動または回転移動させることによってカメラモジュールの補正された基準座標系を決定することができる。
より具体的には、図4を参照すると、補正部220はロボット300が位置した底面の中心を基準として特定されるベース基準座標系401(例えば、ロボット運営システム(Robot Operating System;ROS)プラットホームで定義されるbase_footprintを基準として特定される座標系)(またはスキャナモジュールに関連する基準座標系)およびカメラモジュールの補正前の基準座標系402(例えば、ROSプラットホームで定義されるcamera_fixed_linkを基準として特定される座標系)の間の関係407を決定することができる。例えば、このような関係は予め設定されるか、所定の位置関係(例えば、ロボット300が位置した底面の中心とカメラモジュールが設置される地点の間の位置関係)を参照して決定され得る。その次に、補正部220はベース基準座標系401(またはスキャナモジュールに関連する基準座標系)に基づいて第1比較対象軸403を特定し、カメラモジュールの補正前の基準座標系402に基づいて第2比較対象軸404を特定することができる。その次に、補正部220はベース基準座標系401およびカメラモジュールの補正前の基準座標系402の間の関係407と、第1比較対象軸403および第2比較対象軸404の間の関係405を参照してカメラモジュールの補正前の基準座標系402を補正することによって408、カメラモジュールの補正された基準座標系406を決定することができる。一方、前記補正過程で、カメラモジュールの外部パラメータ(extrinsic parameter)、内部パラメータ(intrinsic parameter)等を考慮して補正がなされてもよい409、410。
図5の(a)を参照すると、カメラモジュールとスキャナモジュールを通じて壁のコーナー501を特定する場合(例えば、カメラモジュールおよびスキャナモジュールそれぞれによって壁のコーナーに対するポイントクラウドを獲得する)、補正前はベース基準座標系(またはスキャナモジュールの基準座標系)で特定される壁のコーナーの位置510とカメラモジュールの基準座標系402で特定される壁のコーナーの位置520に差が発生し得る。しかし、図5の(b)を参照すると、補正後にはベース基準座標系(またはスキャナモジュールの基準座標系)で特定される壁のコーナーの位置510とカメラモジュールの基準座標系402で特定される壁のコーナーの位置520が互いに一致することができる。
また、補正部220はロボット300が位置した底面およびカメラモジュールによって特定される基準面との間の関係を参照して、カメラモジュールに関連する基準座標系を補正することができる。
例えば、補正部220はロボット300が位置した底面とカメラモジュールによって特定される基準面の間の角度を参照して、カメラモジュールに関連する基準座標系を補正することができる。例えば、図6を参照すると、補正部220はロボット300が位置した底面610とカメラモジュールによって特定される基準面620の夾角および回転軸を決定することができ(例えば、底面610法線ベクトルがN1であり、基準面620の法線ベクトルがN2である場合、N1およびN2の外積演算に基づいて前記回転軸を算出し、N1およびN2の内積に対するアークコサイン(arccos)演算に基づいて前記夾角が算出される)、前記夾角および回転軸に基づいてロドリゲスの回転公式(Rodrigues’ rotation formula)を適用した結果に基づいてカメラモジュールに関連する基準座標系を補正することができる。
他の例として、補正部220はカメラモジュールによって特定される地表面の少なくとも三個の地点を利用して候補基準面を特定することができる。その次に、補正部220はカメラモジュールによって特定される地表面の複数の地点のうち、候補基準面から所定距離以内に存在する地点の数を決定することができる。その次に、補正部220は前記候補基準面を含む複数の候補基準面のうち、前記地点の数が所定水準以上である候補基準面(例えば、所定距離以内に存在する地点の数が最も多い候補基準面)をカメラモジュールによって特定される基準面として決定することができる。
さらに他の例として、補正部220はカメラモジュールによって特定される地表面の少なくとも三個の地点を利用して候補基準面を特定することができる。その次に、補正部220はカメラモジュールによって特定される地表面の複数の地点のうち、候補基準面から所定距離以内に存在する地点を決定することができる。その次に、補正部220は前記候補基準面を含む複数の候補基準面のうち、前記地点を参照して(例えば、前記地点を回帰分析(例えば、ロジスティック回帰分析など)した結果を参照して)カメラモジュールによって特定される基準面を決定することができる。
また、補正部220はスキャナモジュールによって特定される所定地点を基準として決定されるロボット300の移動距離および回転角度のうち少なくとも一つを参照して、ロボット300の移動属性情報を補正することができる。本発明の一実施形態に係るロボット300の移動属性情報には、ロボット300のホイール(または車輪)の大きさ(例えば、半径、周長など)、ホイールベースの長さなどに関する情報が含まれ得る。
例えば、図7を参照すると、補正部220はスキャナモジュールによって特定される所定地点701(例えば、壁のコーナー)を基準としてロボット300を前進または後進710(または繰り返し前進または後進)させることができ、前記所定地点701を基準として特定されるロボット300の実際の移動距離(例えば、前記所定地点701を基準としてロボット300の位置を算出して実際の移動距離を算出できる)とロボット300の記録された移動距離(例えば、ロボット300の走行記録計(odometer)により測定される距離)間の差を算出し(一方、このような作業は繰り返し遂行され得る)、その差に基づいてロボット300のホイールの大きさに関する情報を補正することができる。例えば、ホイールの実際の半径およびホイールの推定半径がそれぞれr’とrであり、左右のホイールそれぞれの角速度がWおよびWであると仮定すると、ホイールの推定並進速度(v_estimated)およびホイールの実際の並進速度(v_real)間の差、すなわち(v_real-v_estimated)/v_realは1-r/r’で算出され得、ホイールの実際の半径はr’=r/(1-差)で特定され得る。
他の例として、補正部220はスキャナモジュールによって特定される所定地点を基準としてロボット300を時計回り方向または反時計回り方向720に回転(または繰り返し回転)させることができ、前記所定地点を基準として特定されるロボット300の実際の回転角度(例えば、前記所定地点を基準としてロボット300の角度を算出して実際の回転角度を算出できる)とロボット300の記録された回転角度(例えば、ロボット300の走行記録計によって測定される回転角度)間の差を算出し、その差に基づいてロボット300のホイールベースの長さに関する情報を補正することができる。例えば、ホイールベースの実際の長さおよびホイールベースの推定の長さがそれぞれl’とlであり、左右側のホイールそれぞれの角速度がWおよびWであると仮定すると、ホイールの推定回転速度(w_estimated)およびホイールの実際の回転速度(w_real)間の差、すなわち(w_real-w_estimated)/w_realは1-l’/lで算出され得、ホイールベースの実際の長さはl’=l*(1-差)で特定され得る。
次に、本発明の一実施形態によると、通信部230は比較対象軸決定部210および補正部220からの/へのデータの送受信を可能にする機能を遂行することができる。
最後に、本発明の一実施形態によると、制御部240は比較対象軸決定部210、補正部220および通信部230間のデータの流れを制御する機能を遂行することができる。すなわち、本発明の一実施形態に係る制御部240は、補正システム200の外部からの/へのデータの流れまたは補正システム200の各構成要素間のデータの流れを制御することによって、比較対象軸決定部210、補正部220および通信部230でそれぞれ固有の機能を遂行するように制御することができる。
実施形態
本発明の一実施形態に係るロボット300がレストランに位置する状況を仮定して見ることができる。
まず、本発明の一実施形態によると、ロボット300がレストランの壁のコーナーに移動され得る。このようなレストランは直六面体の形態の場所であり得る。
その次に、本発明の一実施形態によると、ロボット300のカメラモジュールによって特定される壁のコーナー領域を参照して第1比較対象軸が決定され、ロボット300のスキャナモジュールによって特定される壁のコーナー領域を参照して第2比較対象軸が決定され得る。例えば、カメラモジュールによって特定される壁のコーナー領域とスキャナモジュールによって特定される壁のコーナー領域は、同一の壁のコーナー領域であってもよく、所定の位置関係または予め設定された関係を有する他の壁のコーナー領域であってもよい。
その次に、本発明の一実施形態によると、前記第1比較対象軸および第2比較対象軸の間の関係を参照してカメラモジュールに関連する基準座標系が補正され得る。
また、ロボット300を運用する過程で温度が上がることになると、カメラモジュールにエラーが発生し得る。この場合、ロボット300が位置した底面とカメラモジュールによって特定される基準面の間の角度を参照してカメラモジュールに関連する基準座標系が補正され得る。
例えば、カメラモジュールによって特定される地表面の少なくとも三個の地点を利用して候補基準面が特定され、その地表面の複数の地点のうち候補基準面から所定距離以内に存在する地点の数が決定され、前記候補基準面を含む複数の候補基準面のうち、前記地点の数が所定水準以上である候補基準面がカメラモジュールによって特定される基準面に決定され得る。
一方、本発明の一実施形態によると、ロボット300のカメラモジュールの温度を参照して、エラー率(具体的には、地表面とカメラモジュールのロール方向の角度差に関するエラー率)が所定水準以上である場合に前記補正がなされてもよい。
また、本発明の一実施形態によると、ロボット300を運用する過程でロボット300の車輪が摩耗したり、レストランの底が均一でない状態である場合がある。この場合、スキャナモジュールによって特定される所定地点を基準として決定されるロボット300の移動距離および回転角度のうち少なくとも一つを参照してロボット300の移動属性情報が補正され得る。一方、本発明の一実施形態によると、ロボット300の移動属性情報を補正する過程は、カメラモジュールに関連する基準座標系を補正する過程と同時に遂行されてもよく、底の状態、摩耗状態などによりその前またはその後に遂行されてもよい。
ロボットの構成
本発明の一実施形態に係るロボット300は、案内ロボット、サービングロボット、運搬ロボット、清掃ロボット、医療ロボット、エンターテインメントロボット、ペットロボットおよび無人飛行ロボットのうち少なくとも一つが遂行する作業と類似する作業を遂行するロボットであり得、このために各作業に符合する多様な形状で具現され得る。
図8および図9は、本発明の一実施形態に係るロボットの構造を例示的に示す図面である。
図8を参照すると、ロボット300は本体810、駆動部820a、820b、820c、820dおよびプロセッサ830を含んで構成され得る。
例えば、本発明の一実施形態に係る本体810には、運送対象客体または回収対象客体を積載するための少なくとも一つの積載空間が含まれ得る。本発明の一実施形態に係る運送対象客体および回収対象客体は移動され得るすべての類型物を総称する概念であって、例えば事物、動物、人などを含む概念であり得る。例えば、運送対象客体は飲食物であり、回収対象客体は該当飲食物が入っている容器であり得る。
図9を参照すると、例えばロボット300がサービングロボットである場合、運送対象客体の提供および回収対象客体の回収のための第1空間910および第2空間920を含むことができる。また、ロボット300は着脱式柱を通じて提供される拡張空間である第3空間930をさらに含むことができ、必要に応じて拡張空間をさらに追加することによってより多くの積載空間を具備することができる。また、ロボット300は運送対象客体または回収対象客体専用のトレイ940をさらに含んでもよい。例えば、トレイ940は上から見た時、その上面に複数個の円形溝が形成された構成を有することができる。それぞれの円形溝は飲料が入っているカップの下部が載置されて容易にある程度固定されるように形成されていてもよい。このような円形溝の大きさは多様であり得る。また、ロボット300の第1空間910の下部にはロボット300の側面を通じて取り出され得る第4空間950がさらに含まれ得る。本発明の一実施形態に係る第4空間950は、その内部に空いた空間が形成されており、側面は閉塞しており、上面は開放されており、下面は閉まっている、籠に類似する形態を有することができる。ただし、本発明に係るロボット300の積載空間は前記列挙された内容に限定されて具現されるものではなく、本発明の目的を達成できる範囲内で他の形態の積載空間等で多様に具現され得る。
一方、再び図8を参照すると、本体810には周辺の映像(例えば、顧客、テーブル、従業員、他のロボット300等)および障害物情報を獲得するためのカメラモジュール(例えば、3次元カメラ)(図示されず)およびスキャナモジュール(例えば、ライダーセンサなど)(図示されず)がさらに含まれ得る。
次に、本発明の一実施形態に係る駆動部820a、820b、820c、820dは、本体810を他の地点に移動させるためのモジュールまたは運送対象客体および回収対象客体をローディングおよびアンローディングするためのモジュールを含んで構成され得る。
例えば、駆動部820a、820b、820c、820dは本体810を他の地点に移動させるためのモジュールとして、電気式、機械式、または油圧式で駆動される車輪、プロペラなどに関するモジュールなどを含むことができ、運送対象客体および回収対象客体をローディングおよびアンローディングするためのモジュールとして、運送対象客体および回収対象客体を装着して運搬するためのロボットアームモジュールなどを含むことができる。
次に、本発明の一実施形態に係るプロセッサ830は駆動部820a、820b、820c、820dと電気的に連結されて駆動部820a、820b、820c、820dを制御する機能を遂行することができ(外部システムとの通信のための通信モジュールをさらに含んでもよい)、例えばプログラム内に含まれたコードまたは命令で表現された機能を遂行するために物理的に構造化された回路を有する、ハードウェアに内蔵されたデータ処理装置を意味し得る。例えば、このようにハードウェアに内蔵されたデータ処理装置は、マイクロプロセッサ(microprocessor)、中央処理装置(central processing unit)、プロセッサ コア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(application-specific integrated circuit)、FPGA(field programmable gate array)等の処理装置を含むことができる。
また、プロセッサ830は本発明に係る補正システム200の比較対象軸決定部210および補正部220のうち少なくとも一つの機能を遂行することができ(例えば、該当機能がモジュール化されてプロセッサ830に含まれ得る)、比較対象軸決定部210および補正部220のうち少なくとも一つの機能を遂行する外部システム(図示されず)との通信を通じて駆動部820a、820b、820c、820dを制御する機能を遂行してもよい。
具体的には、プロセッサ830はロボット300のカメラモジュールによって特定される第1ターゲット領域を参照して第1比較対象軸を決定し、ロボット300のスキャナモジュールによって特定され、第1ターゲット領域に関連する第2ターゲット領域を参照して第2比較対象軸を決定し、第1比較対象軸および第2比較対象軸の間の関係を参照してロボット300のカメラモジュールに関連する基準座標系を補正する機能を遂行することができる。
以上で説明された本発明に係る実施形態は、多様なコンピュータ構成要素を通じて実行され得るプログラム命令語の形態で具現されてコンピュータ読み取り可能な記録媒体に記録され得る。前記コンピュータ読み取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記コンピュータ読み取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の当業者に公知となっている使用可能なものであり得る。コンピュータ読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体、CD-ROMおよびDVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical medium)、およびROM、RAM、フラッシュメモリなどのような、プログラム命令語を保存し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるような機械語コードだけでなくインタープリタなどを使ってコンピュータによって実行され得る高級言語コードも含まれる。ハードウェア装置は本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールに変更され得、その逆も同じである。
以上、本発明が具体的な構成要素などのような特定の事項と限定された実施形態および図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明は前記実施形態に限定されるものではなく、本発明が属する技術分野で通常の知識を有する者であればこのような記載から多様な修正と変更を試みることができる。
したがって、本発明の思想は前記説明された実施形態に限定されて定められてはならず、後述する特許請求の範囲だけでなくこの特許請求の範囲と均等なまたはこれから等価的に変更されたすべての範囲は本発明の思想の範疇に属するものと言える。
100:通信網
200:補正システム
210:比較対象軸決定部
220:補正部
230:通信部
240:制御部
300:ロボット

Claims (23)

  1. ロボットを制御するための方法であって、
    ロボットのカメラモジュールによって特定される第1ターゲット領域を参照して第1比較対象軸を決定し、前記ロボットのスキャナモジュールによって特定され、前記第1ターゲット領域に関連する第2ターゲット領域を参照して第2比較対象軸を決定する段階と、
    前記第1比較対象軸および前記第2比較対象軸の間の関係を参照して前記カメラモジュールに関連する基準座標系を補正する段階と、を含む、方法。
  2. 前記第1ターゲット領域または前記第2ターゲット領域は、前記ロボットが位置する場所で二つ以上の角が会う地点または対象を含む、請求項1に記載の方法。
  3. 前記決定段階で、前記第1ターゲット領域で特定される角を参照して前記第1比較対象軸を決定し、前記第2ターゲット領域で特定される角を参照して前記第2比較対象軸を決定する、請求項1に記載の方法。
  4. 前記補正段階で、前記ロボットが位置した底面および前記カメラモジュールによって特定される基準面との間の関係を参照して前記カメラモジュールに関連する基準座標系を補正する、請求項1に記載の方法。
  5. 前記ロボットが位置した底面と前記カメラモジュールによって特定される基準面の間の角度を参照して前記カメラモジュールに関連する基準座標系を補正する、請求項4に記載の方法。
  6. 前記カメラモジュールによって特定される地表面の少なくとも三個の地点を利用して候補基準面を特定し、前記地表面の複数の地点のうち前記候補基準面から所定距離以内に存在する地点の数を決定し、前記候補基準面を含む複数の候補基準面のうち、前記地点の数が所定水準以上である候補基準面を前記カメラモジュールによって特定される基準面に決定する、請求項4に記載の方法。
  7. 前記カメラモジュールによって特定される地表面の少なくとも三個の地点を利用して候補基準面を特定し、前記地表面の複数の地点のうち前記候補基準面から所定距離以内に存在する地点を決定し、前記候補基準面を含む複数の候補基準面のうち、前記地点を参照して前記カメラモジュールによって特定される基準面を決定する、請求項4に記載の方法。
  8. 前記複数の候補基準面のうち、前記地点を回帰分析した結果を参照して前記カメラモジュールによって特定される基準面を決定する、請求項7に記載の方法。
  9. 前記補正段階で、前記第1比較対象軸および前記第2比較対象軸の間の角度を参照して前記カメラモジュールに関連する基準座標系を補正する、請求項1に記載の方法。
  10. 前記補正段階は、前記スキャナモジュールによって特定される所定地点を基準として決定される前記ロボットの移動距離および回転角度のうち少なくとも一つを参照して前記ロボットの移動属性情報を補正する段階を含む、請求項1に記載の方法。
  11. 前記移動属性情報は、前記ロボットのホイールの大きさおよびホイールベースの長さのうち少なくとも一つに関する情報を含む、請求項10に記載の方法。
  12. 請求項1に記載された方法を実行するためのコンピュータプログラムを記録した、非一過性のコンピュータ読み取り可能記録媒体。
  13. ロボットを制御するためのシステムであって、
    ロボットのカメラモジュールによって特定される第1ターゲット領域を参照して第1比較対象軸を決定し、前記ロボットのスキャナモジュールによって特定され、前記第1ターゲット領域に関連する第2ターゲット領域を参照して第2比較対象軸を決定する比較対象軸決定部、および
    前記第1比較対象軸および前記第2比較対象軸の間の関係を参照して前記カメラモジュールに関連する基準座標系を補正する補正部を含む、システム。
  14. 前記第1ターゲット領域または前記第2ターゲット領域は、前記ロボットが位置する場所で二つ以上の角が会う地点または対象を含む、請求項13に記載のシステム。
  15. 前記比較対象軸決定部は、前記第1ターゲット領域で特定される角を参照して前記第1比較対象軸を決定し、前記第2ターゲット領域で特定される角を参照して前記第2比較対象軸を決定する、請求項13に記載のシステム。
  16. 前記補正部は、前記ロボットが位置した底面および前記カメラモジュールによって特定される基準面との間の関係を参照して前記カメラモジュールに関連する基準座標系を補正する、請求項13に記載のシステム。
  17. 前記補正部は、前記ロボットが位置した底面と前記カメラモジュールによって特定される基準面の間の角度を参照して前記カメラモジュールに関連する基準座標系を補正する、請求項16に記載のシステム。
  18. 前記補正部は、前記カメラモジュールによって特定される地表面の少なくとも三個の地点を利用して候補基準面を特定し、前記地表面の複数の地点のうち前記候補基準面から所定距離以内に存在する地点の数を決定し、前記候補基準面を含む複数の候補基準面のうち、前記地点の数が所定水準以上である候補基準面を前記カメラモジュールによって特定される基準面に決定する、請求項16に記載のシステム。
  19. 前記補正部は、前記カメラモジュールによって特定される地表面の少なくとも三個の地点を利用して候補基準面を特定し、前記地表面の複数の地点のうち前記候補基準面から所定距離以内に存在する地点を決定し、前記候補基準面を含む複数の候補基準面のうち、前記地点を参照して前記カメラモジュールによって特定される基準面を決定する、請求項16に記載のシステム。
  20. 前記複数の候補基準面のうち、前記地点を回帰分析した結果を参照して前記カメラモジュールによって特定される基準面を決定する、請求項19に記載のシステム。
  21. 前記補正部は、前記第1比較対象軸および前記第2比較対象軸の間の角度を参照して前記カメラモジュールに関連する基準座標系を補正する、請求項13に記載のシステム。
  22. 前記補正部は、前記スキャナモジュールによって特定される所定地点を基準として決定される前記ロボットの移動距離および回転角度のうち少なくとも一つを参照して前記ロボットの移動属性情報を補正する、請求項13に記載のシステム。
  23. 前記移動属性情報は、前記ロボットのホイールの大きさおよびホイールベースの長さのうち少なくとも一つに関する情報を含む、請求項22に記載のシステム。
JP2021202358A 2021-11-15 2021-12-14 ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 Active JP7271649B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/526,351 2021-11-15
US17/526,351 US11759949B2 (en) 2021-11-15 2021-11-15 Method, system, and non-transitory computer-readable recording medium for controlling a robot

Publications (2)

Publication Number Publication Date
JP7271649B1 JP7271649B1 (ja) 2023-05-11
JP2023073178A true JP2023073178A (ja) 2023-05-25

Family

ID=86324983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021202358A Active JP7271649B1 (ja) 2021-11-15 2021-12-14 ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体

Country Status (4)

Country Link
US (1) US11759949B2 (ja)
JP (1) JP7271649B1 (ja)
KR (1) KR102621569B1 (ja)
WO (1) WO2023086559A2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0779383A (ja) * 1993-12-27 1995-03-20 Olympus Optical Co Ltd 画像取扱装置
JP2007156576A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd 走行台車のオドメトリ(車輪距離計)パラメータ調整方法及び装置
JP2021514495A (ja) * 2019-01-25 2021-06-10 ベアー ロボティックス,インコーポレイテッド ロボットの移動経路を決定する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100914211B1 (ko) 2008-01-15 2009-08-26 주식회사 이미지넥스트 왜곡 영상 보정 장치 및 방법
KR101988937B1 (ko) * 2017-09-07 2019-06-13 주식회사 인지 카메라와 로봇 핸드의 캘리브레이션 방법 및 장치
CN109634279B (zh) * 2018-12-17 2022-08-12 瞿卫新 基于激光雷达与单目视觉的物体定位方法
US20200262080A1 (en) * 2019-02-14 2020-08-20 InTune Products LLC Comprehensive model-based method for gantry robot calibration via a dual camera vision system
CN112630750A (zh) * 2019-10-08 2021-04-09 华为技术有限公司 传感器标定方法和传感器标定装置
CN112785649A (zh) * 2019-11-11 2021-05-11 北京京邦达贸易有限公司 激光雷达和相机的标定方法、装置、电子设备及介质
US11199614B1 (en) * 2020-07-08 2021-12-14 Beijing Voyager Technology Co., Ltd Lidar and image calibration for autonomous vehicles

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0779383A (ja) * 1993-12-27 1995-03-20 Olympus Optical Co Ltd 画像取扱装置
JP2007156576A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd 走行台車のオドメトリ(車輪距離計)パラメータ調整方法及び装置
JP2021514495A (ja) * 2019-01-25 2021-06-10 ベアー ロボティックス,インコーポレイテッド ロボットの移動経路を決定する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体

Also Published As

Publication number Publication date
WO2023086559A2 (en) 2023-05-19
KR102621569B1 (ko) 2024-01-04
KR20230070989A (ko) 2023-05-23
JP7271649B1 (ja) 2023-05-11
WO2023086559A3 (en) 2023-06-22
US20230150129A1 (en) 2023-05-18
US11759949B2 (en) 2023-09-19

Similar Documents

Publication Publication Date Title
JP6987797B2 (ja) リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
US11499832B1 (en) Method for constructing a map while performing work
US10776939B2 (en) Obstacle avoidance system based on embedded stereo vision for unmanned aerial vehicles
US11836974B2 (en) Detecting boxes
KR101539270B1 (ko) 충돌회피 및 자율주행을 위한 센서융합 기반 하이브리드 반응 경로 계획 방법, 이를 수행하기 위한 기록 매체 및 이동로봇
CN111511620A (zh) 使用最优交互避碰代价评估的动态窗口方法
JP7242667B2 (ja) ロボットの移動経路を決定する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
US20190130773A1 (en) Obstacle avoidance method and device, moveable object and computer readable storage medium
van der Zwaan et al. Visual station keeping for floating robots in unstructured environments
CN111121777A (zh) 无人驾驶设备轨迹规划方法、装置、电子设备和存储介质
CN110225736B (zh) 一种智能轮椅的环境信息收集与反馈系统及方法
KR20230066323A (ko) 보관 현장에서의 자율 로봇 탐색
JP7271649B1 (ja) ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
Sheikh et al. Stereo vision-based optimal path planning with stochastic maps for mobile robot navigation
Xanthidis et al. Aquavis: A perception-aware autonomous navigation framework for underwater vehicles
CN112964263B (zh) 自动建图方法、装置、移动机器人及可读存储介质
US20220355474A1 (en) Method and computing system for performing robot motion planning and repository detection
CN115655311A (zh) 一种基于扫描匹配的阿克曼型机器人里程计标定方法
JP2022075442A (ja) ロボットの目的地を制御するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
US11314256B2 (en) Mechanical transmission control method and system for use with intelligent wheelchair
KR102671839B1 (ko) 로봇을 위한 맵을 생성하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
US11835343B1 (en) Method for constructing a map while performing work
WO2013153415A1 (en) Apparatus and method for determining reference elements of an environment
CN111735433B (zh) 建立二维地图的方法和装置
Zhang et al. Multi-Sensor Fusion Localization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230426

R150 Certificate of patent or registration of utility model

Ref document number: 7271649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150