JP2020154764A - 情報処理装置及び読取システム - Google Patents

情報処理装置及び読取システム Download PDF

Info

Publication number
JP2020154764A
JP2020154764A JP2019052937A JP2019052937A JP2020154764A JP 2020154764 A JP2020154764 A JP 2020154764A JP 2019052937 A JP2019052937 A JP 2019052937A JP 2019052937 A JP2019052937 A JP 2019052937A JP 2020154764 A JP2020154764 A JP 2020154764A
Authority
JP
Japan
Prior art keywords
environment map
map
processor
shelf
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019052937A
Other languages
English (en)
Inventor
靖二 齋藤
Yasuji Saito
靖二 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2019052937A priority Critical patent/JP2020154764A/ja
Priority to US16/677,517 priority patent/US20200301439A1/en
Publication of JP2020154764A publication Critical patent/JP2020154764A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10366Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications
    • G06K7/10376Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being adapted for being moveable
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Abstract

【課題】自走ロボットの物体への衝突を低減する。【解決手段】実施形態によれば、情報処理装置は、第1の取得部と、第1の作成部と、第1の変換部と、第2の取得部と、第2の作成部と、第2の変換部と、比較部と、判断部とを備える。前記第1の取得部は、第1の高さでの検知に関連する第1の検知データを取得する。前記第1の作成部は、前記第1の検知データに基づく第1の環境地図を作成する。前記第1の変換部は、画像処理により前記第1の環境地図を第2の環境地図へ変換する。前記第2の取得部は、第2の高さでの検知に関連する第2の検知データを取得する。前記第2の作成部は、前記第2の検知データに基づく第3の環境地図を作成する。前記第2の変換部は、画像処理により前記第3の環境地図を第4の環境地図へ変換する。前記比較部は、前記第2の環境地図と前記第4の環境地図とを比較する。前記判断部は、前記第2の環境地図と前記第4の環境地図の何れが物体の外形を捉えているのかを判断する。【選択図】図1

Description

本発明の実施形態は、情報処理装置及び読取システムに関する。
近年、アンテナを備える自走ロボットを用いてRFID(Radio Frequency Identifier)などの無線タグを読み取る読取システムが提供されている。読取システムは、自走ロボットを無線タグの付された複数の物品が陳列されている棚などの什器の前を通過させて、無線タグを読み取る。
読取システムは、無線タグの読取に先立ち、自走ロボットの走行に用いる環境地図を作成する。例えば、読取システムは、自走ロボットの所定の高さに固定されたLRF(Laser Range Finder)を用いて、周辺環境をスキャンしながら環境地図を作成する。
特開2017−228195号公報
しかしながら、棚は、水平に延びる複数の棚板を有する凹凸の構造である。自走ロボットの所定の高さに固定されたLRFによって検知される棚の形は、水平面に対して実際の棚を鉛直方向に投影して得られる形と異なることがある。自走ロボットは、環境地図を用いて走行するので、環境地図に描画されていない棚の一部に衝突する可能性がある。
上記の課題を解決するため、自走ロボットの物体への衝突を低減することができる技術を提供する。
実施形態によれば、情報処理装置は、第1の取得部と、第1の作成部と、第1の変換部と、第2の取得部と、第2の作成部と、第2の変換部と、比較部と、判断部とを備える。前記第1の取得部は、物体を検知するセンサから第1の高さでの検知に関連する第1の検知データを取得する。前記第1の作成部は、前記第1の検知データに基づく第1の環境地図を作成する。前記第1の変換部は、所定の画像処理により前記第1の環境地図を第2の環境地図へ変換する。前記第2の取得部は、前記センサから前記第1の高さとは異なる第2の高さでの検知に関連する第2の検知データを取得する。前記第2の作成部は、前記第2の検知データに基づく第3の環境地図を作成する。前記第2の変換部は、前記所定の画像処理により前記第3の環境地図を第4の環境地図へ変換する。前記比較部は、前記第2の環境地図と前記第4の環境地図とを比較する。前記判断部は、前記第2の環境地図と前記第4の環境地図との比較結果に応じて、前記第2の環境地図と前記第4の環境地図の何れが前記物体の外形を捉えているのかを判断する。
図1は、実施形態に係る読取システムを例示する図である。 図2は、実施形態に係る読取システムの構成例を示す概略図である。 図3は、実施形態に係る読取システムの構成例を示すブロック図である。 図4は、実施形態に係る自走ロボットによる第1の高さでの検知例を示す図である。 図5は、実施形態に係る第1の環境地図を例示する図である。 図6は、実施形態に係る第2の環境地図を例示する図である。 図7は、実施形態に係る自走ロボットによる第2の高さでの検知例を示す図である。 図8は、実施形態に係る第3の環境地図を例示する図である。 図9は、実施形態に係る第4の環境地図を例示する図である。 図10は、実施形態に係る読取システムによる環境地図の作成動作例を示すフローチャートである。 図11は、実施形態に係る読取システムによる環境地図の比較動作及び判断動作の一例を示すフローチャートである。 図12は、実施形態に係る読取システムによる環境地図の比較動作及び判断動作の他の例を示すフローチャートである。
以下、図面を参照しながら実施形態について詳細に説明する。
図1は、読取システム1を例示する図である。
読取システム1は、複数個の無線タグが存在する領域において、複数個の無線タグを読み取るシステムである。例えば、読取システム1は、複数の棚を備える店舗での物品の棚卸などに用いられる。
ここでは、読取システム1は、所定の領域Aにおける無線タグの読取を実行するものとする。例えば、領域Aは、壁Bによって四方を囲まれた店舗である。領域Aには、レジ台C、棚D1及び棚D2が存在する。棚D1及び棚D2は、同じ形の棚であるものとする。棚D1及び棚D2には、読取システム1による読取対象となる無線タグの付された複数の物品が陳列されている。壁B、レジ台C、棚D1及び棚D2のそれぞれは、有形の物体の一例である。なお、領域Aには、壁B、レジ台C、棚D1及び棚D2以外の物体が存在していてもよい。物体は、障害物ということもある。
読取システム1は、システムコントローラ10及び自走ロボット100を備える。システムコントローラ10及び自走ロボット100は、互いに電気的に接続する。
システムコントローラ10は、読取システム1全体を制御する。システムコントローラ10は、領域Aにおける複数個の無線タグの読取動作に先立ち、領域Aの環境地図を作成する。領域Aは、読取システム1による複数個の無線タグの読取対象領域である。領域Aは、読取システム1による環境地図の作成対象領域でもある。
環境地図は、自走ロボット100が自律的に走行する領域に存在する物体の位置を示す情報を含む地図である。環境地図は、高さ方向の任意の高さにおける水平面の二次元の地図である。例えば、環境地図は、領域Aに存在する壁B、レジ台C、棚D1及び棚D2のそれぞれの位置を示す情報を含む地図である。環境地図は、自走ロボット100が領域Aにおいて自律的に走行するために用いられる。
システムコントローラ10は、環境地図を用いて、自走ロボット100の走行及び複数個の無線タグの読取を制御する。システムコントローラ10は、情報処理装置の一例である。システムコントローラ10については、後述する。
自走ロボット100は、システムコントローラ10の制御に従って領域Aを走行する。自走ロボット100については、後述する。
図2は、読取システム1の構成例を示す概略図である。
自走ロボット100は、筐体101、車輪102、センサ103及びアンテナ104a〜104dを備える。
筐体101は、自走ロボット100の外殻を形成する。筐体101は、車輪102、センサ103及びアンテナ104a〜104dが取り付けられる。
車輪102は、筐体101の下部に取り付けられる。車輪102は、後述するモータ202によって駆動し筐体101を移動させる。また、車輪102は、筐体101の方向を変更する。
センサ103は、センサ103の検知範囲に存在する物体を検知するセンサである。例えば、センサ103は、LRFである。LRFは、レーザを用いる距離計の一例である。センサ103は、レーザを用いてセンサ103の周辺環境を水平にスキャンし、領域Aに存在する物体との距離を測定する。センサ103は、検知データをシステムコントローラ10へ送信する。検知データは、環境地図の作成に用いられる。また、検知データは、自走ロボット100による複数個の無線タグの読取動作中の自走ロボット100の移動の妨げとなる物体の検知に用いられる。なお、センサ103は、LRF以外のレーザを用いる距離計であってもよい。センサ103は、レーザ以外を用いるセンサであってもよい。
センサ103の高さ方向の位置は、ユーザの手作業によるセンサ103の取り付けまたはスライドによって適宜変更可能である。これに代えて、センサ103の高さ方向の位置は、プロセッサ11によるセンサ103の図示しない可動機構の制御によって適宜変更可能であってもよい。
アンテナ104a〜104dは、筐体101の上部から下方にかけて順に形成される。また、アンテナ104a〜104dは、自走ロボット100の進行方向と直交する方向を向くように筐体101に形成される。例えば、アンテナ104a〜104dは、自走ロボット100の進行方向に対して左側に形成される。
アンテナ104aについて説明する。
アンテナ104aは、棚に陳列されている物品に付された無線タグと無線でデータを送受信するデバイスである。アンテナ104aは、無線タグへ電波を送信する。また、アンテナ104aは、無線タグからの電波を受信する。例えば、アンテナ104aは、指向性を有するものであってもよい。アンテナ104aは、アンテナ104aの特性(指向性など)及び設置向き等により電波を送受信するための検知範囲を設定される。
アンテナ104b、アンテナ104c及びアンテナ104dの構成は、アンテナ104aと同様であるため説明を省略する。アンテナ104a〜104dの検知範囲の合算は、領域Aに存在する最も高い棚の上端から下端までを包含するように設定される。アンテナ104a〜104dのうちの少なくとも1つを指すために、単にアンテナ104ということもある。
なお、自走ロボット100が備えるアンテナ104の個数及び位置は、特定の構成に限定されない。例えば、自走ロボット100は、領域Aに存在する最も高い棚の上端から下端までを包含する検知範囲を設定された1つのアンテナ104を有していてもよい。
図3は、読取システム1の構成例を示すブロック図である。
システムコントローラ10は、プロセッサ11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、NVM(Non−volatile Memory)14及び通信部15などを備える。プロセッサ11と、ROM12、RAM13、NVM14及び通信部15とは、データバスなどを介して互いに接続される。
プロセッサ11は、システムコントローラ10全体の動作を制御する。例えば、プロセッサ11は、CPU(Central Processing Unit)である。プロセッサ11は、制御部の一例である。プロセッサ11は、内部メモリ及び各種のインターフェースなどを備えてもよい。プロセッサ11は、内部メモリ、ROM12またはNVM14などに予め記憶したプログラムを実行することにより種々の処理を実現する。
なお、プロセッサ11がプログラムを実行することにより実現する各種の機能のうちの一部は、ハードウェア回路により実現されるものであってもよい。この場合、プロセッサ11は、ハードウェア回路により実行される機能を制御する。
ROM12は、予め制御用のプログラム及び制御データなどを記憶する不揮発性のメモリである。ROM12は、製造段階で制御プログラム及び制御データなどを記憶した状態でシステムコントローラ10に組み込まれる。即ち、ROM12に記憶される制御プログラム及び制御データは、予めシステムコントローラ10の仕様に応じて組み込まれる。
RAM13は、揮発性のメモリである。RAM13は、プロセッサ11の処理中のデータなどを一時的に格納する。RAM13は、プロセッサ11からの命令に基づき種々のアプリケーションプログラムを格納する。また、RAM13は、アプリケーションプログラムの実行に必要なデータ及びアプリケーションプログラムの実行結果などを格納してもよい。
NVM14は、データの書き込み及び書き換えが可能な不揮発性のメモリである。例えば、NVM14は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EEPROM(登録商標)(Electrically Erasable Programmable Read−Only Memory)またはフラッシュメモリなどから構成される。NVM14は、システムコントローラ10の運用用途に応じて制御プログラム、アプリケーション及び種々のデータなどを格納する。NVM14は、記憶部の一例である。
通信部15は、有線または無線でデータを送受信するためのインターフェースである。例えば、通信部15は、LAN(Local Area Network)接続をサポートするインターフェースである。通信部15は、有線または無線で自走ロボット100とデータを送受信する。通信部15は、有線または無線で表示装置30へ送信する。例えば、表示装置30は、液晶ディスプレイであるが、これに限定されない。表示装置30は、読取システム1が備える要素であっても、読取システム1とは異なる要素であってもよい。
自走ロボット100は、センサ103、アンテナ104a〜104d、移動機構200及びリーダ210などを備える。センサ103及びアンテナ104a〜104dについては、前述のとおりである。
移動機構200は、自走ロボット100を移動させる機構である。自走ロボット100はアンテナ104a〜104dを備えるので、移動機構200は、アンテナ104a〜104dを移動させる機構であるということもできる。移動機構200は、車輪102、走行コントローラ201、モータ202及びロータリエンコーダ203などを備える。走行コントローラ201、モータ202及びロータリエンコーダ203は、互いに電気的に接続する。車輪102及びモータ202は、互いに物理的に接続する。車輪102は、前述のとおりである。
走行コントローラ201は、システムコントローラ10の制御に従って自走ロボット100を移動させる。走行コントローラ201は、モータ202などを制御して自走ロボット100を移動させる。例えば、走行コントローラ201は、モータ202に電力またはパルスなどを供給する。
走行コントローラ201は、プロセッサなどから構成される。走行コントローラ201は、プロセッサがソフトウェアを実行することで実現されてもよい。また、走行コントローラ201は、プロセッサとしてのASIC(Application Specific Integrated Circuit)などのハードウェアから構成されてもよい。
モータ202は、走行コントローラ201の制御に従って駆動する。モータ202は、ギアまたはベルトなどを介して車輪102に接続する。モータ202は、自身の駆動力によって車輪102を回転させる。
ロータリエンコーダ203は、モータ202の回転軸に接続する。ロータリエンコーダ203は、モータ202の回転角度を測定する。ロータリエンコーダ203は、回転角度を示すデータをシステムコントローラ10へ送信する。以下では、回転角度を示すデータは、回転角度データともいう。なお、ロータリエンコーダ203は、モータ202に内蔵されるものであってもよい。
リーダ210は、アンテナ104a〜104dを通じて無線タグと無線でデータを送受信するためのインターフェースである。リーダ210は、無線タグとデータ通信することで無線タグのタグ情報を読み取る。例えば、リーダ210は、システムコントローラ10の制御に基づいて所定のリードコマンドを無線タグに送信する。リーダ210は、リードコマンドに対するレスポンスとしてタグ情報を受信する。リーダ210は、受信したタグ情報をシステムコントローラ10へ送信する。
なお、自走ロボット100は、システムコントローラ10を搭載してもよい。また、自走ロボット100は、システムコントローラ10のプロセッサ11が実現する機能(または機能の一部)を実現するものであってもよい。
なお、読取システム1は、前述の要素以外に必要に応じた要素を備えていても、読取システム1から特定の要素が除外されていてもよい。
次に、プロセッサ11が実現する機能について説明する。
プロセッサ11は、ROM12またはNVM14などに格納されるソフトウェアを実行することで以下に例示する機能を実現する。
プロセッサ11は、以下に例示するように、環境地図を作成する機能を備える。
まず、プロセッサ11は、領域Aで自走ロボット100を巡回させるように制御する。プロセッサ11は、自走ロボット100の巡回に応じて、センサ103から検知データを受信し、ロータリエンコーダ203から回転角度データを受信する。次に、プロセッサ11は、検知データ及び回転角度データなどに基づいて、SLAM(Simultaneous Localization And Mapping)を行う。プロセッサ11は、SLAMにより、環境地図を作成する。プロセッサ11は、環境地図を示すデータをNVM14に格納する。
プロセッサ11は、以下に例示するように、環境地図を用いて自走ロボット100を移動させる機能を備える。
まず、プロセッサ11は、ユーザによる作業を開始する入力を受け付ける。次に、プロセッサ11は、ユーザによる入力に対応する作業開始位置をNVM14から取得する。次に、プロセッサ11は、NVM14から環境地図を示すデータを取得する。プロセッサ11は、環境地図を用いて、領域Aに存在する物体に衝突しないように、自走ロボット100の現在位置から作業開始位置までの経路を特定する。次に、プロセッサ11は、環境地図を用いて、領域Aに存在する物体に衝突しないように、作業開始位置から目的位置までの経路を特定する。次に、プロセッサ11は、移動機構200を制御して、現在位置から作業開始位置までの経路に沿って、自走ロボット100を移動させる。次に、プロセッサ11は、移動機構200を制御して、作業開始位置から目的位置までの経路に沿って、自走ロボット100を移動させる。なお、プロセッサ11は、センサ103が検知した物体を避けるために経路を適宜修正してもよい。
プロセッサ11は、以下に例示するように、アンテナ104及びリーダ210を用いて無線タグを読み取る機能を有する。
まず、プロセッサ11は、検知データ及び回転角度データなどに基づいて、自走ロボット100が作業開始位置に到達したと判断する。次に、プロセッサ11は、自走ロボット100が作業開始位置に到達した後に、アンテナ104及びリーダ210を用いた無線タグへのリクエストの送信を開始する。プロセッサ11は、自走ロボット100が作業開始位置から目的位置まで移動する間、アンテナ104及びリーダ210を用いて無線タグへリクエストを送信する。次に、プロセッサ11は、アンテナ104及びリーダ210を用いて無線タグからタグ情報を取得する。
次に、センサ103の高さ方向の位置の決定例について説明する。
プロセッサ11は、自走ロボット100による複数個の無線タグの読取動作に先立ち、センサ103の高さ方向の位置を決定する。ここでは、プロセッサ11は、領域Aの水平な床面からの複数の高さでのセンサ103による検知に関連する検知データに基づく環境地図を比較する。複数の高さは、第1の高さ及び第1の高さとは異なる第2の高さの2つの高さであるものとして説明するが、3つ以上の高さであってもよい。
まず、センサ103が領域Aの床面から第1の高さにある例について説明する。
図4は、自走ロボット100による第1の高さでの検知例を示す図である。
図4は、センサ103による棚D1のうち棚板D12、棚板D13及び棚板D14の位置する部分の検知例を示す。
棚D1は、第1の高さにおいて棚板を備えていない。そのため、センサ103は、棚D1のうち棚板D12、棚板D13及び棚板D14の位置する部分において、背板D11を検知する。
プロセッサ11は、センサ103による第1の高さでの検知に関連して、以下に例示するように、第1の取得部、第1の作成部及び第1の変換部を実装する。
プロセッサ11は、センサ103から第1の高さでの検知に関連する第1の検知データを取得する第1の取得部を実装する。第1の検知データは、第1の高さに位置するセンサ103によって検知される検知データである。第1の検知データは、領域Aに存在する全ての物体の検知に関連する検知データである。例えば、プロセッサ11は、領域Aにおける自走ロボット100の巡回に応じて、センサ103から第1の検知データを取得する。
プロセッサ11は、第1の検知データに基づく第1の環境地図M1を作成する第1の作成部を実装する。
例えば、プロセッサ11は、第1の検知データに基づいてSLAMによって第1の環境地図M1を作成する。プロセッサ11は、第1の検知データに加えて、回転角度データなどを用いて第1の環境地図M1を作成してもよい。
図5は、第1の環境地図M1を例示する図である。
第1の環境地図M1は、二値画像で構成されている。
第1の環境地図M1を構成する黒画素は、領域Aにおいてセンサ103によって検知される部分を示す。そのため、第1の環境地図M1を構成する黒画素は、主として、領域Aにおける物体を示す。第1の環境地図M1を構成する白画素は、領域Aにおいてセンサ103によって検知されない部分を示す。そのため、第1の環境地図M1を構成する白画素は、主として、領域Aにおける物体以外の空間を示す。第1の環境地図M1を構成する白画素は、領域Aにおける物体のうちセンサ103によって検知されない部分を示すこともある。物体のうちセンサ103によって検知されない部分は、物体のうちセンサ103によって捉えられない部分ということもできる。なお、黒画素及び白画素が示す対象は、逆であってもよい。
第1の環境地図M1に描画されている棚D1に対応する部分の外周(外縁)は、部分的に欠落している。棚D1は、棚D1の外周を規定することが可能な程度にはっきりと第1の環境地図M1に描画されていない。壁B、レジ台C及び棚D2についても同様である。
第1の環境地図M1では、棚D1の背板D11は描画されているが、棚D1の棚板は描画されていない。そのため、第1の環境地図M1に描画されている棚D1に対応する部分の形は、実際の棚D1の外形とは異なる。ここでは、棚D1外形は、棚D1を水平面に投影して得られる二次元の形または棚D1の水平面における形のうち最も大きい二次元の形を指すものとする。センサ103が棚板を検知していないため、第1の環境地図M1に描画されている棚D1に対応する形は、棚D1の外形よりも小さい。
プロセッサ11は、所定の画像処理により第1の環境地図M1を第2の環境地図M2へ変換する第1の変換部を実装する。
ここでは、所定の画像処理は、膨張収縮処理であるものとして説明する。例えば、膨張収縮処理は、モルフォロジー(Morphology)に関連するものである。例えば、プロセッサ11は、各黒画素について周囲の八つの画素を黒画素に置き換え、その後、各白画素について対する周囲の八つの画素を白画素に置き換える。これにより、黒画素の数は、前者の処理により膨張し、後者の処理により収縮する。なお、膨張収縮処理は、ここに例示する手法に限定されず、種々の手法を適用可能である。なお、所定の画像処理は、膨張収縮処理に限定されない。
例えば、プロセッサ11は、第1の環境地図M1に膨張収縮処理を施すことにより、第1の環境地図M1を第2の環境地図M2へ変換する。プロセッサ11は、第2の環境地図M2を示すデータをNVM14に格納する。
図6は、第2の環境地図M2を例示する図である。
第2の環境地図M2は、二値画像で構成されている。
図6に示す第2の環境地図M2では、第1の環境地図M1に対する膨張収縮処理により、棚D1の外周のうち欠落した画素は、黒画素で補完される。棚D1は、棚D1の外周を規定することが可能な程度にはっきりと第2の環境地図M2に黒画素で描画されている。壁B、レジ台C及び棚D2についても同様である。
次に、センサ103が領域Aの床面から第2の高さにある例について説明する。
図7は、自走ロボット100による第2の高さでの検知例を示す図である。
図7は、センサ103による棚D1のうち棚板D12、棚板D13及び棚板D14の位置する部分の検知例を示す。
棚D1は、第2の高さにおいて棚板D14を備える。そのため、センサ103は、棚D1のうち棚板D12、棚板D13及び棚板D14の位置する部分において、棚板D14を検知する。
プロセッサ11は、センサ103による第2の高さでの検知に関連して、以下に例示するように、第2の取得部、第2の作成部及び第2の変換部を実装する。
プロセッサ11は、センサ103から第2の高さでの検知に関連する第2の検知データを取得する第2の取得部を実装する。第2の検知データは、第2の高さに位置するセンサ103によって検知される検知データである。第2の検知データは、領域Aに存在する全ての物体の検知に関連する検知データである。例えば、プロセッサ11は、領域Aにおける自走ロボット100の巡回に応じて、センサ103から第2の検知データを取得する。
プロセッサ11は、第2の検知データに基づく第3の環境地図M3を作成する第2の作成部を実装する。
例えば、プロセッサ11は、第2の検知データに基づいてSLAMによって第3の環境地図M3を作成する。プロセッサ11は、第2の検知データに加えて、回転角度データなどを用いて第3の環境地図M3を作成してもよい。
図8は、第3の環境地図M3を例示する図である。
第3の環境地図M3は、二値画像で構成されている。
第3の環境地図M3を構成する黒画素は、領域Aにおいてセンサ103によって検知される部分を示す。そのため、第3の環境地図M3を構成する黒画素は、主として、領域Aにおける物体を示す。第3の環境地図M3を構成する白画素は、領域Aにおいてセンサ103によって検知されない部分を示す。そのため、第3の環境地図M3を構成する白画素は、主として、領域Aにおける物体以外の空間を示す。第3の環境地図M3を構成する白画素は、領域Aにおける物体のうちセンサ103によって検知されない部分を示すこともある。物体のうちセンサ103によって検知されない部分は、物体のうちセンサ103によって捉えられない部分ということもできる。なお、黒画素及び白画素が示す対象は、逆であってもよい。
第3の環境地図M3に描画されている棚D1に対応する部分の外周は、部分的に欠落している。棚D1は、棚D1の外周を規定することが可能な程度にはっきりと第3の環境地図M3に描画されていない。壁B、レジ台C及び棚D2についても同様である。
第3の環境地図M3では、棚D1の棚板D14は描画されている。そのため、第1の環境地図M1に描画されている棚D1に対応する部分の形は、実際の棚D1の外形と同じまたは略同じである。
プロセッサ11は、所定の画像処理により第3の環境地図M3を第4の環境地図M4へ変換する第2の変換部を実装する。
ここでは、所定の画像処理は、膨張収縮処理であるものとして説明する。
例えば、プロセッサ11は、第3の環境地図M3に膨張収縮処理を施すことにより、第3の環境地図M3を第4の環境地図M4へ変換する。プロセッサ11は、第4の環境地図M4を示すデータをNVM14に格納する。
図9は、第4の環境地図M4を例示する図である。
図9に示す第4の環境地図M4では、第3の環境地図M3に対する膨張収縮処理により、棚D1の外周のうち欠落した画素は、黒画素で補完される。棚D1は、棚D1の外周を規定することが可能な程度にはっきりと第4の環境地図M4に黒画素で描画されている。壁B、レジ台C及び棚D2についても同様である。
プロセッサ11は、センサ103の高さ方向の位置を決定するために、以下に例示するように、比較部及び判断部を実装する。
プロセッサ11は、第2の環境地図M2と第4の環境地図M4とを比較する比較部を実装する。
一例では、プロセッサ11は、環境地図に描画されている棚D1に対応する部分の画素数に基づいて第2の環境地図M2と第4の環境地図M4とを比較する。この例では、プロセッサ11は、第2の環境地図M2に描画されている棚D1に対応する部分の画素数Oを算出する。画素数Oは、棚D1に対応する部分の黒画素の数である。プロセッサ11は、第4の環境地図M4に描画されている棚D1に対応する部分の画素数Oを算出する。画素数Oは、棚D1に対応する部分の黒画素の数である。
プロセッサ11は、画素数Oと画素数Oとを比較する。棚D1に対応する部分の画素数が多くなるにつれ、環境地図に描画されている棚D1に対応する部分の形は大きくなる。つまり、棚D1に対応する部分の画素数が多くなるほど、環境地図に描画されている棚D1の形は、実際の棚D1の外形に近づく。
別の例では、プロセッサ11は、環境地図に描画されている棚D1に対応する部分の外周の長さに基づいて第2の環境地図M2と第4の環境地図M4とを比較する。この例では、プロセッサ11は、第2の環境地図M2に描画されている棚D1に対応する部分の外周の長さLを算出する。プロセッサ11は、第4の環境地図M4に描画されている棚D1に対応する部分の外周の長さLを算出する。長さL及び長さLは、棚D1に対応する部分の大きさに関連するので、棚D1の外周を規定する黒画素の数にも関連する。
プロセッサ11は、長さLと長さLとを比較する。棚D1に対応する部分の外周の長さが長くなるにつれ、環境地図に描画されている棚D1に対応する部分の形は大きくなる。つまり、棚D1に対応する部分の外周の長さが長くなるほど、環境地図に描画されている棚D1の形は、実際の棚D1の外形に近づく。
なお、外周の長さに基づく比較例では、所定の画像処理は、膨張収縮処理とは異なる画像処理であってもよい。所定の画像処理は、環境地図に描画されている物体の外周をはっきりさせるように画素を補完する処理であればよい。
プロセッサ11は、第2の環境地図M2と第4の環境地図M4との比較結果に応じて、第2の環境地図M2と第4の環境地図M4の何れが棚D1の外形を捉えているのかを判断する判断部を実装する。ここで、棚D1の外形を捉えているとは、環境地図に描画されている棚D1の形が実際の棚D1の外形と同じまたは略同じであることを意味する。棚D1の外形を捉えている環境地図は、自走ロボット100の走行に適した環境地図であるといえる。
まず、環境地図に描画されている棚D1に対応する部分の画素数に基づく第2の環境地図M2と第4の環境地図M4との比較結果を例にして説明する。プロセッサ11は、画素数Oが画素数Oよりも多いことを示す比較結果に応じて、第2の環境地図M2が棚D1の外形を捉えていると判断する。つまり、プロセッサ11は、第4の環境地図M4よりも第2の環境地図M2を採用した方が自走ロボット100の走行に適していると判断する。他方、プロセッサ11は、画素数Oが画素数Oよりも多いことを示す比較結果に応じて、第4の環境地図M4が棚D1の外形を捉えていると判断する。つまり、プロセッサ11は、第2の環境地図M2よりも第4の環境地図M4を採用した方が自走ロボット100の走行に適していると判断する。
次に、環境地図に描画されている棚D1に対応する部分の外周の長さに基づく第2の環境地図M2と第4の環境地図M4との比較結果を例にして説明する。プロセッサ11は、長さLが長さLよりも長いことを示す比較結果に応じて、第2の環境地図M2が棚D1の外形を捉えていると判断する。つまり、プロセッサ11は、第4の環境地図M4よりも第2の環境地図M2を採用した方が自走ロボット100の走行に適していると判断する。他方、プロセッサ11は、長さLが長さLよりも長いことを示す比較結果に応じて、第4の環境地図M4が棚D1の外形を捉えていると判断する。つまり、プロセッサ11は、第2の環境地図M2よりも第4の環境地図M4を採用した方が自走ロボット100の走行に適していると判断する。
なお、プロセッサ11は、棚D1に基づいて自走ロボット100の走行に適している環境地図を判断しているが、領域Aに存在する棚D1以外の棚に基づいて判断してもよい。
プロセッサ11は、第2の環境地図M2及び第4の環境地図M4のうち外形を捉えていると判断した環境地図を領域Aにおける自走ロボット100の走行に採用する。そのため、プロセッサ11は、第2の環境地図M2及び第4の環境地図M4のうち外形を捉えていると判断した環境地図を示すデータをNVM14に保存した状態を維持する。他方、プロセッサ11は、第2の環境地図M2及び第4の環境地図M4のうち外形を捉えていないと判断した環境地図を領域Aにおける自走ロボット100の走行に採用しない。そのため、プロセッサ11は、第2の環境地図M2及び第4の環境地図M4のうち外形を捉えていないと判断した環境地図を示すデータをNVM14から消去する。
これにより、プロセッサ11は、第2の環境地図M2及び第4の環境地図M4のうち外形を捉えていると判断した環境地図を用いて自走ロボット100を移動させる。
なお、プロセッサ11は、外形を捉えていると判断した環境地図に関連するセンサ103の高さを示す情報をユーザへ報知してもよい。一例では、プロセッサ11は、センサ103の高さ方向の位置を示す情報を表示装置30に表示させることにより、ユーザへ報知する。他の例では、プロセッサ11は、センサ103の高さ方向の位置を示す情報を図示しないスピーカから音声で出力させることにより、ユーザへ報知する。ユーザは、適切な位置にセンサ103を移動させることができる。
なお、プロセッサ11は、可動機構の制御によって、外形を捉えていると判断した環境地図に関連するセンサ103の高さ方向の位置にセンサ103を移動させてもよい。
これにより、センサ103の高さ方向の位置は、自走ロボット100の移動に用いられる環境地図の作成の基となる検知データに関連する高さに対応する。
次に、プロセッサ11の動作例について説明する。
まず、図10は、プロセッサ11による環境地図の作成動作例を示すフローチャートである。
プロセッサ11は、センサ103から第1の高さでの検知に関連する第1の検知データを取得する(Act101)。プロセッサ11は、第1の検知データに基づく第1の環境地図M1を作成する(Act102)。プロセッサ11は、所定の画像処理により第1の環境地図M1を第2の環境地図M2へ変換する(Act103)。
プロセッサ11は、センサ103から第2の高さでの検知に関連する第2の検知データを取得する(Act104)。プロセッサ11は、第2の検知データに基づく第3の環境地図M3を作成する(Act105)。プロセッサ11は、所定の画像処理により第3の環境地図M3を第4の環境地図M4へ変換する(Act106)。
プロセッサ11は、第2の環境地図M2と第4の環境地図M4とを比較する(Act107)。プロセッサ11は、第2の環境地図M2と第4の環境地図M4との比較結果に応じて、第2の環境地図M2と第4の環境地図M4の何れが棚D2の外形を捉えているのかを判断する(Act108)。
実施形態によれば、読取システム1は、複数の環境地図から物体の外形を捉えている環境地図を判断することで、物体の外形を捉えている環境地図を採用することができる。また、読取システム1は、センサ103が適切な位置に設けられた状態で、自走ロボット100を移動させることができる。これらにより、読取システム1は、センサ103が物体を検知することができずに自走ロボット100が物体へ衝突することを低減することができる。
実施形態によれば、読取システム1は、膨張収縮処理を用いることで、物体の外形を捉えている環境地図の判断に適した形式に画像処理することができる。読取システム1は、物体の外形を捉えている環境地図の判断精度を向上させることができる。
次に、前述の図10に示すAct107における比較動作及びAct108における判断動作の典型例について説明する。
図11は、プロセッサ11による環境地図の比較動作及び判断動作の一例を示すフローチャートである。
プロセッサ11は、第2の環境地図M2に描画されている棚D1に対応する部分の画素数Oを算出する(Act201)。プロセッサ11は、第4の環境地図M4に描画されている棚D1に対応する部分の画素数Oを算出する(Act202)。プロセッサ11は、画素数Oと画素数Oとを比較する(Act203)。画素数Oが画素数Oよりも多い場合(Act203、Yes)、プロセッサ11は、第2の環境地図M2が棚D1の外形を捉えていると判断する(Act204)。画素数Oが画素数Oよりも多い場合(Act203、No)、プロセッサ11は、第4の環境地図M4が棚D1の外形を捉えていると判断する(Act205)。
実施形態によれば、読取システム1は、物体に対応する部分の画素数に基づいて複数の環境地図を比較する。これにより、読取システム1は、物体の外形を捉えている環境地図の判断精度を向上させることができる。
図12は、プロセッサ11による環境地図の比較動作及び判断動作の他の例を示すフローチャートである。
プロセッサ11は、第2の環境地図M2に描画されている棚D1に対応する部分の外周の長さLを算出する(Act301)。プロセッサ11は、第4の環境地図M4に描画されている棚D1に対応する部分の外周の長さLを算出する(Act302)。プロセッサ11は、長さLと長さLとを比較する(Act303)。長さLが長さLよりも長い場合(Act303、Yes)、プロセッサ11は、第2の環境地図M2が棚D1の外形を捉えていると判断する(Act304)。長さLが長さLよりも長い場合(Act303、No)、プロセッサ11は、第4の環境地図M4が棚D1の外形を捉えていると判断する(Act305)。
実施形態によれば、読取システム1は、物体に対応する部分の外周の長さに基づいて複数の環境地図を比較する。これにより、読取システム1は、物体の外形を捉えている環境地図の判断精度を向上させることができる。
なお、上述のセンサ103の高さ方向の位置の決定は、システムコントローラ10のプロセッサ11によって実行される例を説明したが、これに限定されない。上述のセンサ103の高さ方向の位置の決定は、読取システム1と接続されるサーバによって実行されてもよい。この場合、サーバは、情報処理装置の一例となる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1…読取システム、10…システムコントローラ、11…プロセッサ、12…ROM、13…RAM、14…NVM、15…通信部、100…自走ロボット、102…車輪、103…センサ、104…アンテナ、104a…アンテナ、104b…アンテナ、104c…アンテナ、104d…アンテナ、200…移動機構、201…走行コントローラ、202…モータ、203…ロータリエンコーダ、210…リーダ、A…領域、B…壁、C…レジ台、D1…棚、D2…棚、D11…背板、D12…棚板、D13…棚板、D14…棚板、M1…第1の環境地図、M2…第2の環境地図、M3…第3の環境地図、M4…第4の環境地図。

Claims (5)

  1. 物体を検知するセンサから第1の高さでの検知に関連する第1の検知データを取得する第1の取得部と、
    前記第1の検知データに基づく第1の環境地図を作成する第1の作成部と、
    所定の画像処理により前記第1の環境地図を第2の環境地図へ変換する第1の変換部と、
    前記センサから前記第1の高さとは異なる第2の高さでの検知に関連する第2の検知データを取得する第2の取得部と、
    前記第2の検知データに基づく第3の環境地図を作成する第2の作成部と、
    前記所定の画像処理により前記第3の環境地図を第4の環境地図へ変換する第2の変換部と、
    前記第2の環境地図と前記第4の環境地図とを比較する比較部と、
    前記第2の環境地図と前記第4の環境地図との比較結果に応じて、前記第2の環境地図と前記第4の環境地図の何れが前記物体の外形を捉えているのかを判断する判断部と、
    を備える情報処理装置。
  2. 前記比較部は、前記第2の環境地図に描画されている前記物体に対応する部分の画素数と前記第4の環境地図に描画されている前記物体に対応する部分の画素数とを比較する、
    請求項1に記載の情報処理装置。
  3. 前記比較部は、前記第2の環境地図に描画されている前記物体に対応する部分の外周の長さと前記第4の環境地図に描画されている前記物体に対応する部分の外周の長さとを比較する、
    請求項1に記載の情報処理装置。
  4. 前記所定の画像処理は、膨張収縮処理である、請求項1に記載の情報処理装置。
  5. 物体を検知するセンサと、
    前記センサから第1の高さでの検知に関連する第1の検知データを取得する第1の取得部と、
    前記第1の検知データに基づく第1の環境地図を作成する第1の作成部と、
    所定の画像処理により前記第1の環境地図を第2の環境地図へ変換する第1の変換部と、
    前記センサから前記第1の高さとは異なる第2の高さでの検知に関連する第2の検知データを取得する第2の取得部と、
    前記第2の検知データに基づく第3の環境地図を作成する第2の作成部と、
    前記所定の画像処理により前記第3の環境地図を第4の環境地図へ変換する第2の変換部と、
    前記第2の環境地図と前記第4の環境地図とを比較する比較部と、
    前記第2の環境地図と前記第4の環境地図との比較結果に応じて、前記第2の環境地図と前記第4の環境地図の何れが前記物体の外形を捉えているのかを判断する判断部と、
    を備える読取システム。
JP2019052937A 2019-03-20 2019-03-20 情報処理装置及び読取システム Pending JP2020154764A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019052937A JP2020154764A (ja) 2019-03-20 2019-03-20 情報処理装置及び読取システム
US16/677,517 US20200301439A1 (en) 2019-03-20 2019-11-07 Information processing apparatus and reading system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019052937A JP2020154764A (ja) 2019-03-20 2019-03-20 情報処理装置及び読取システム

Publications (1)

Publication Number Publication Date
JP2020154764A true JP2020154764A (ja) 2020-09-24

Family

ID=72514316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019052937A Pending JP2020154764A (ja) 2019-03-20 2019-03-20 情報処理装置及び読取システム

Country Status (2)

Country Link
US (1) US20200301439A1 (ja)
JP (1) JP2020154764A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7340350B2 (ja) * 2019-05-07 2023-09-07 東芝テック株式会社 情報処理装置及び情報処理方法
US11269060B1 (en) * 2021-07-09 2022-03-08 Locometric Limited Determination of whether a boundary includes an interruption

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075647A (ja) * 1999-09-06 2001-03-23 Murata Mach Ltd 走行車の位置検知装置
JP2005310043A (ja) * 2004-04-26 2005-11-04 Mitsubishi Heavy Ind Ltd 移動体の障害物回避方法及び該移動体
JP2014174275A (ja) * 2013-03-07 2014-09-22 Advanced Telecommunication Research Institute International 地図作成装置、地図作成プログラムおよび地図作成方法
JP2017102705A (ja) * 2015-12-02 2017-06-08 株式会社リコー 自律移動装置及び自律移動装置システム
US20190064832A1 (en) * 2017-08-25 2019-02-28 Ecovacs Robotics Co., Ltd. Self-propelled robot path planning method, self-propelled robot and storage medium

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102120864B1 (ko) * 2013-11-06 2020-06-10 삼성전자주식회사 영상 처리 방법 및 장치
DK3428766T3 (da) * 2014-09-05 2021-06-07 Sz Dji Technology Co Ltd Multi-sensor til afbildning af omgivelser
KR102375864B1 (ko) * 2015-02-10 2022-03-18 한화테크윈 주식회사 요약 영상 브라우징 시스템 및 방법
DE102016101552A1 (de) * 2016-01-28 2017-08-03 Vorwerk & Co. Interholding Gmbh Verfahren zum Erstellen einer Umgebungskarte für ein selbsttätig verfahrbares Bearbeitungsgerät
US11449061B2 (en) * 2016-02-29 2022-09-20 AI Incorporated Obstacle recognition method for autonomous robots
JP6725381B2 (ja) * 2016-09-20 2020-07-15 株式会社東芝 画像照合装置および画像照合方法
WO2018080471A1 (en) * 2016-10-26 2018-05-03 Sony Mobile Communications Inc. Robotic system and method of movement control using synthetic array radar and passive beacons
US11719818B2 (en) * 2017-03-16 2023-08-08 Trinamix Gmbh Detector for optically detecting at least one object
DE102017113286A1 (de) * 2017-06-16 2018-12-20 Vorwerk & Co. Interholding Gmbh System mit mindestens zwei sich selbsttätig fortbewegenden Bodenbearbeitungsgeräten
EP3645972A4 (en) * 2017-06-30 2021-01-13 SZ DJI Technology Co., Ltd. CARD GENERATION SYSTEMS AND METHODS
US11274929B1 (en) * 2017-10-17 2022-03-15 AI Incorporated Method for constructing a map while performing work
US11153503B1 (en) * 2018-04-26 2021-10-19 AI Incorporated Method and apparatus for overexposing images captured by drones
WO2020028244A1 (en) * 2018-07-30 2020-02-06 Fedex Corporate Services, Inc. Enhanced systems, apparatus, and methods for improved automated and autonomous operation of logistics ground support equipment
JP7248943B2 (ja) * 2018-09-28 2023-03-30 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム
US11287826B2 (en) * 2018-10-12 2022-03-29 Boston Dynamics, Inc. Terrain aware step planning system
US10627512B1 (en) * 2018-11-29 2020-04-21 Luminar Technologies, Inc. Early fusion of lidar return data with camera information
US10611028B1 (en) * 2018-11-30 2020-04-07 NextVPU (Shanghai) Co., Ltd. Map building and positioning of robot
KR102198187B1 (ko) * 2018-12-28 2021-01-04 엘지전자 주식회사 이동 로봇
US10870204B2 (en) * 2019-01-25 2020-12-22 Mujin, Inc. Robotic system control method and controller
JP7372350B2 (ja) * 2019-06-14 2023-10-31 ケーピーアイティ テクノロジーズ リミテッド ライダおよびレーダに基づくトラッキングおよびマッピングシステムならびにその方法
US11768504B2 (en) * 2020-06-10 2023-09-26 AI Incorporated Light weight and real time slam for robots
US11928764B2 (en) * 2020-09-15 2024-03-12 Nvidia Corporation Neural network motion controller

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075647A (ja) * 1999-09-06 2001-03-23 Murata Mach Ltd 走行車の位置検知装置
JP2005310043A (ja) * 2004-04-26 2005-11-04 Mitsubishi Heavy Ind Ltd 移動体の障害物回避方法及び該移動体
JP2014174275A (ja) * 2013-03-07 2014-09-22 Advanced Telecommunication Research Institute International 地図作成装置、地図作成プログラムおよび地図作成方法
JP2017102705A (ja) * 2015-12-02 2017-06-08 株式会社リコー 自律移動装置及び自律移動装置システム
US20190064832A1 (en) * 2017-08-25 2019-02-28 Ecovacs Robotics Co., Ltd. Self-propelled robot path planning method, self-propelled robot and storage medium

Also Published As

Publication number Publication date
US20200301439A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
JP7340350B2 (ja) 情報処理装置及び情報処理方法
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
US11003188B2 (en) Method, system and apparatus for obstacle handling in navigational path generation
US20190271984A1 (en) Navigation Control Method and Apparatus in a Mobile Automation System
US20110194755A1 (en) Apparatus and method with traveling path planning
US11410405B2 (en) Imaging-based sensor calibration
KR101341204B1 (ko) 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법
KR101771643B1 (ko) 자율주행로봇 및 이의 네비게이션 방법
JP2017120551A (ja) 自律走行装置
JP2020154764A (ja) 情報処理装置及び読取システム
JP4333611B2 (ja) 移動体用の障害物検出装置
KR20110009547A (ko) 이동 로봇의 위치추정을 위한 회전변화에 불변하는 특징점 검출 장치 및 방법
CN111694358A (zh) 运送机器人的控制方法、装置、运送机器人和存储介质
US10731970B2 (en) Method, system and apparatus for support structure detection
JP5674933B2 (ja) 倉庫内の物体の位置を特定するための方法及び装置
WO2020247271A1 (en) Method, system and apparatus for detecting support structure obstructions
JP7224925B2 (ja) 情報処理装置、読取装置及びプログラム
US20200379468A1 (en) Method, System and Apparatus for Dynamic Task Sequencing
JP7393255B2 (ja) 情報処理装置及び情報処理方法
US11662739B2 (en) Method, system and apparatus for adaptive ceiling-based localization
US11037003B2 (en) Electronic device and method for detecting obstacle
KR100537077B1 (ko) 자율이동운송수단의 환경인식 및 환경대응을 위한스마트태그 시스템 및 그 제어방법
JP7278781B2 (ja) 情報処理装置及び読取システム
US20200182623A1 (en) Method, system and apparatus for dynamic target feature mapping
JP7253348B2 (ja) 読取システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221104

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230221