JP2021512297A - 可変シーンでの複数の設備による視覚ナビゲーション方法及びシステム - Google Patents
可変シーンでの複数の設備による視覚ナビゲーション方法及びシステム Download PDFInfo
- Publication number
- JP2021512297A JP2021512297A JP2020540757A JP2020540757A JP2021512297A JP 2021512297 A JP2021512297 A JP 2021512297A JP 2020540757 A JP2020540757 A JP 2020540757A JP 2020540757 A JP2020540757 A JP 2020540757A JP 2021512297 A JP2021512297 A JP 2021512297A
- Authority
- JP
- Japan
- Prior art keywords
- feature information
- equipment
- feature
- digitized
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000000007 visual effect Effects 0.000 title claims abstract description 25
- 238000010276 construction Methods 0.000 claims description 11
- 238000011156 evaluation Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000012913 prioritisation Methods 0.000 claims description 3
- 230000000717 retained effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/383—Indoor data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
可変シーンでの複数の設備による視覚ナビゲーション方法及びシステムであって、複数の設備によってシーン画像を連続的に撮影して画像のデータ化された特徴情報を取得し、その中からキーフレームのデータ化された特徴情報を抽出し、サーバー端末(又はクラウド)に送信する。サーバー端末(又はクラウド)は最も新たに取得したキーフレームのデータ化された特徴情報でシーンの空白スペースを補填し、シーンのナビゲーションデータの拡充を完成する。最も新たに取得したデータ化された特徴情報を加えた後、領域内の既存データにおる最も類似していないデータ化された特徴情報を置き換え、シーンのナビゲーションデータの更新を完成する。サーバーは修正、更新されたデータ化された特徴情報を各端末デバイスに配布し、従って、ナビゲーションデータのリアルタイム更新も保証され、クラスター化された自律ナビゲーションも実現される。【選択図】図1
Description
本発明は、ロボットナビゲーションの技術分野に関し、具体的には可変シーンでの複数の設備による視覚ナビゲーション方法及びシステムに関するものである。
現在、自動ナビゲーションロボットは倉庫の自動化、特に自動ナビゲーションロボットに基づくGTP(グッズ・トゥ・パーソン)システムにおいて広く応用されている。現在の自動ナビゲーションロボットの倉庫における先進的な位置決め方法として、主に次のようなものがある。
1.レーザー反射に基づくレーザー位置決めシステム
(a)価格が高い。
(b)反射板を設置する場所を遮ってはならないため、使用時は走行経路に広いスペースを確保する必要があり、倉庫内の相当なスペースが無駄になる。
(c)温度による影響を受ける。
(d)屋内でのみ使用できる。
(a)価格が高い。
(b)反射板を設置する場所を遮ってはならないため、使用時は走行経路に広いスペースを確保する必要があり、倉庫内の相当なスペースが無駄になる。
(c)温度による影響を受ける。
(d)屋内でのみ使用できる。
2.屋内シーン再構築に基づく視覚位置決め
(a)精度が低く、使用時は走行経路に広いスペースを確保する必要があり、倉庫内の相当なスペースが無駄になる。
(b)重複シーンに対応できない。
(c)頻繁に変化するシーンに対応できない。特にGTP倉庫保管の分野で、棚が動き続けているため、シーンも変化し続けている。
(d)設備は独自に動作しているため、異なる設備の間の再構築シーンに偏差があり、正確な位置決めと再構築シーンの統一が不可能である。よって、屋内シーン再構築に基づく視覚位置決めシステムにおいて、動作している設備は少ない。
(a)精度が低く、使用時は走行経路に広いスペースを確保する必要があり、倉庫内の相当なスペースが無駄になる。
(b)重複シーンに対応できない。
(c)頻繁に変化するシーンに対応できない。特にGTP倉庫保管の分野で、棚が動き続けているため、シーンも変化し続けている。
(d)設備は独自に動作しているため、異なる設備の間の再構築シーンに偏差があり、正確な位置決めと再構築シーンの統一が不可能である。よって、屋内シーン再構築に基づく視覚位置決めシステムにおいて、動作している設備は少ない。
3.床面識別コードに基づく位置決めシステム
(a)精度が高いが、摩耗しやすい床面標示に依存している。
(b)シーンに入るには、測定と敷設のために多くの人手が必要である。
(c)設備が通常ルートから大幅にずれると、標示によって補正することができない。
(a)精度が高いが、摩耗しやすい床面標示に依存している。
(b)シーンに入るには、測定と敷設のために多くの人手が必要である。
(c)設備が通常ルートから大幅にずれると、標示によって補正することができない。
本発明は従来技術における上記問題を解決する方法及びシステムを提供することを目的とする。
上記目的を達成するために、本発明は具体的な解決手段として、可変シーンでの複数の設備による視覚ナビゲーション方法を提供し、上記方法は、
第1設備はシーンのビデオシーケンスを撮影し、かつビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得するステップと、
第1設備はデータ化された特徴情報に基づいて比較し、ビデオシーケンスにおけるキーフレームを抽出し、かつ前記キーフレームのデータ化された特徴情報を第2設備にアップロードするステップと、
第2設備は第1設備によってアップロードされたデータ化された特徴情報を比較及び選別し、かつシーンのナビゲーションデータの構築、更新、及び配布を完成するために、選別後のデータ化された特徴情報を再構成するステップとを含む。
第1設備はシーンのビデオシーケンスを撮影し、かつビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得するステップと、
第1設備はデータ化された特徴情報に基づいて比較し、ビデオシーケンスにおけるキーフレームを抽出し、かつ前記キーフレームのデータ化された特徴情報を第2設備にアップロードするステップと、
第2設備は第1設備によってアップロードされたデータ化された特徴情報を比較及び選別し、かつシーンのナビゲーションデータの構築、更新、及び配布を完成するために、選別後のデータ化された特徴情報を再構成するステップとを含む。
さらに、前記データ化された特徴情報の取得プロセスは、
第1設備は、シーンにおける床面の画像を収集することと、
前記画像における特徴点を識別し、かつ特徴点から特徴点の特徴情報を抽出することと、
前記画像のデータ化された特徴情報を形成するために、画像中特徴点の特徴情報をフォーマット及びデータ化することと含むことを特徴とする。
第1設備は、シーンにおける床面の画像を収集することと、
前記画像における特徴点を識別し、かつ特徴点から特徴点の特徴情報を抽出することと、
前記画像のデータ化された特徴情報を形成するために、画像中特徴点の特徴情報をフォーマット及びデータ化することと含むことを特徴とする。
さらに、前記画像のデータ化された特徴情報はフォーマットのように配列されて形成された配列データであり、前記データ化された特徴情報は画像位置、特徴点の座標、特徴点の方向、特徴点のサイズ、及び特徴点の記述因子を含む。
さらに、前記キーフレームの抽出プロセスは、
新たに取得した画像のデータ化された特徴情報とデータベースに保存されているキーフレームのデータ化された特徴情報に対して検索と比較を行うことと、
新たに取得した画像とデータベースに保存されているキーフレームのデータ化された特徴情報の比較結果に基づいて類似度評価値を与えることと、
類似度評価値が設定閾値より小さい場合、当該フレームはキーフレームであることとを含む。
新たに取得した画像のデータ化された特徴情報とデータベースに保存されているキーフレームのデータ化された特徴情報に対して検索と比較を行うことと、
新たに取得した画像とデータベースに保存されているキーフレームのデータ化された特徴情報の比較結果に基づいて類似度評価値を与えることと、
類似度評価値が設定閾値より小さい場合、当該フレームはキーフレームであることとを含む。
さらに、特徴点の幾何学的位置と特徴点の記述因子によって前記データ化された特徴情報に対して検索と比較を行い、前記特徴点の幾何学的位置は特徴点の位置、サイズ、及び方向によって算出される。
さらに、前記類似度評価値は、画像のデータ化された特徴情報の比較結果におる記述因子と幾何学的位置が一致する特徴点の数である。
さらに、前記第2設備がデータ化された特徴情報に対して行う選別と構築プロセスは、
データ化された特徴情報を受信して保存し、データ化された特徴情報のデータ集合を形成することと、
データ集合におけるデータ化された特徴情報の数が上限に達した場合、最も新たに受信したデータ化された特徴情報を残し、他のデータ化された特徴情報に対して優先順位付けを行い、かつ優先順位が最も低いデータ化された特徴情報を削除することと、
シーンのナビゲーションデータを構築するために、データ集合中のすべてのデータ化された特徴情報に対して修正と閉ループ検出を行うこととを含む。
データ化された特徴情報を受信して保存し、データ化された特徴情報のデータ集合を形成することと、
データ集合におけるデータ化された特徴情報の数が上限に達した場合、最も新たに受信したデータ化された特徴情報を残し、他のデータ化された特徴情報に対して優先順位付けを行い、かつ優先順位が最も低いデータ化された特徴情報を削除することと、
シーンのナビゲーションデータを構築するために、データ集合中のすべてのデータ化された特徴情報に対して修正と閉ループ検出を行うこととを含む。
さらに、データ集合におるデータ化された特徴情報の数の上限を設定し、前記数の上限は各画像位置におけるデータ化された特徴情報の数の上限である。
さらに、前記データ化された特徴情報の優先順位付けは、
新たに受信したデータ化された特徴情報とその画像位置、及びその隣接範囲内のすべてのデータ化された特徴情報に対して2つずつ類似度を比較することと、
空間変換モデルによって、データ化された特徴情報の間の特徴点位置、特徴点方向、特徴点サイズ、及び特徴記述因子が一致する特徴点の数を検出することと、
一致する特徴点の数によってデータ化された特徴情報の優先順位付けを行うこととを含む。
空間変換モデルによって、データ化された特徴情報の間の特徴点位置、特徴点方向、特徴点サイズ、及び特徴記述因子が一致する特徴点の数を検出することと、
一致する特徴点の数によってデータ化された特徴情報の優先順位付けを行うこととを含む。
さらに、前記空間変換モデルはデータ集合中のデータ化された特徴情報の特徴点位置、特徴点方向、特徴点サイズ、及び特徴点の記述因子を比較することによって生成される。
一方、本発明は可変シーンでの複数の設備による視覚ナビゲーションシステムをさらに提供し、該当システムは、
シーンにおける床面のビデオシーケンスを撮影し、かつビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得し、データ化された特徴情報に基づいて比較し、ビデオシーケンスにおけるキーフレームを抽出し、かつ当該キーフレームのデータ化された特徴情報を第2設備にアップロードするための第1設備と、
第1設備によってアップロードされたデータ化された特徴情報を比較及び選別し、かつシーンのナビゲーションデータの構築、更新、及び配布を完成するために、選別後のデータ化された特徴情報を再構成する第2設備とを含む。
シーンにおける床面のビデオシーケンスを撮影し、かつビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得し、データ化された特徴情報に基づいて比較し、ビデオシーケンスにおけるキーフレームを抽出し、かつ当該キーフレームのデータ化された特徴情報を第2設備にアップロードするための第1設備と、
第1設備によってアップロードされたデータ化された特徴情報を比較及び選別し、かつシーンのナビゲーションデータの構築、更新、及び配布を完成するために、選別後のデータ化された特徴情報を再構成する第2設備とを含む。
さらに、前記第1設備は自律ナビゲーション設備、又はAGV運搬車に設置される自律ナビゲーション設備であり、前記第2設備は第1設備と通信可能に接続されるサーバー端末である。
さらに、前記自律ナビゲーション設備とサーバー端末の数の比率はn:mであり、ここで、nは1より大きい自然数であり、ここで、mは1以上の自然数である。
さらに、前記第1設備は、
シーンにおける床面の画像フレームを収集するためのビデオ収集ユニットと、
前記画像フレームにおける特徴点を識別し、画像フレームのデータ化された特徴情報を形成するための画像情報識別ユニットと、
キーフレームを抽出するために、取得したフレームのデータ化された特徴情報と前に抽出した前記キーフレームのデータ化された特徴情報に対して検索と比較を行うキーフレーム抽出ユニットと、
前記キーフレーム抽出ユニットによって抽出されたキーフレームのデータ化された特徴情報を第2設備に送信するための通信ユニットとを含む。
シーンにおける床面の画像フレームを収集するためのビデオ収集ユニットと、
前記画像フレームにおける特徴点を識別し、画像フレームのデータ化された特徴情報を形成するための画像情報識別ユニットと、
キーフレームを抽出するために、取得したフレームのデータ化された特徴情報と前に抽出した前記キーフレームのデータ化された特徴情報に対して検索と比較を行うキーフレーム抽出ユニットと、
前記キーフレーム抽出ユニットによって抽出されたキーフレームのデータ化された特徴情報を第2設備に送信するための通信ユニットとを含む。
さらに、前記第2設備は、
最も新たに取得したデータ化された特徴情報と前に取得したデータ化された特徴情報に対して類似度を比較し、かつ選別する時に比較結果に基づいて優先順位付けを行うデータ化された特徴情報選別ユニットと、
データ化された特徴情報に基づいてシーンのナビゲーションデータを構築するナビゲーションデータ構築ユニットとを含む。
最も新たに取得したデータ化された特徴情報と前に取得したデータ化された特徴情報に対して類似度を比較し、かつ選別する時に比較結果に基づいて優先順位付けを行うデータ化された特徴情報選別ユニットと、
データ化された特徴情報に基づいてシーンのナビゲーションデータを構築するナビゲーションデータ構築ユニットとを含む。
本発明は従来技術と比べて、以下の利点と有益な効果を有する。
本発明の可変シーンでの複数の設備による視覚ナビゲーション方法及びシステムは、一方、複数の設備でシーンにおける床面の画像を連続的に撮影することによって、床面画像の特徴情報、及び当該特徴情報によって形成された画像データ化された特徴情報を抽出し、さらにネットワークを介して、キーフレームのフォーマットされたデータをサーバー端末(又はクラウド)に送信する。このように、フォーマットされたデータのみを送信する必要があるため、ネットワーク伝送のリアルタイム性が向上し、ネットワークの帯域幅とリソースが節約され、また、床面ビデオを撮影することにより、可変シーンにおける識別精度と信頼性の問題が回避される。他方、サーバー端末(又はクラウド)は当該キーフレームのデータ化された特徴情報に基づいて、前に取得したデータ化された特徴情報と比較、修正、及び選別を行う。最も新たに取得したデータ化された特徴情報でシーンの空白スペースを補填し、それによってシーンのナビゲーションデータが拡充される。或いは、最も新たに取得したデータ化された特徴情報を加えた後、領域内の既存データにおける最も類似していないデータ化された特徴情報を置き換え、それによってシーンのナビゲーションデータの更新が完成される。最後に、サーバーは修正、更新されたデータ化された特徴情報を各端末設備に送信する。このように、ナビゲーションデータのリアルタイム更新も保証され、それと同時に、複数の設備に配布し、クラスター化された自律ナビゲーションを実現することもできる。
本発明の実施例、または従来技術の技術的解決手段をより明確に説明するために、以下に、実施例、または従来技術の記述において必要な図面を用いて簡単に説明を行うが、当然ながら、以下に記載する図面は単に本発明の幾つかの実施例であって、当業者であれば、創造的な労力を要することなく、これらの図面に基づいて他の図面にも想到しうる。
以下において、本発明実施例の図面と共に本発明の実施例の技術的解決手段を明瞭、かつ完全に説明するが、当然ながら,説明する実施例は本発明の一部の実施例にすぎず,すべての実施例ではない。本発明の実施例に基づいて、当業者が創造的な労力を払わずに想到しうるすべての他の実施例は、いずれも本発明の保護する範囲に属する。
本発明が提供する可変シーンでの複数の設備によるビデオナビゲーション方法及びシステムであって、それは主に、倉庫保管の自動化などのような、可変で、複雑なシーンに適用される。倉庫保管の自動化環境は、主に移動棚と自動ナビゲーションロボットを含み、ここで、移動棚の底部には、自動ナビゲーションロボットを収容するスペースがあり、自動ナビゲーションロボットは、四方向から移動棚の底部に入り、そして移動棚を持ち上げ、作業エリア又は保管エリアに運搬することができる。実際の運搬において、大量の移動棚は自動ナビゲーションロボットによって、作業エリアと保管エリアの間に往復運搬されることによってリアルタイムで変化する複雑なシーンに構成される。このような変化しやすく複雑なシーンにおいて、SLAM(位置特定と地図作成を同時に行う)技術、すなわちシーン画像を捕捉することによって識別するものに基づく自動ナビゲーション方法は、棚が移動し続けながら識別することも、棚の重複的な配列を識別することもできない。床面識別コードに基づく識別方式を採用すると、シーンで識別コードを敷設するために多くの人手と資金が要るという問題、及び自動ナビゲーションロボットが運動軌跡からずれる時、識別コードによって路線の偏向補正と再位置決めを行うことができないという問題がある。
上記の技術的課題に基づき、本発明が提供する可変シーンでの複数の設備によるビデオナビゲーション方法は、スタンドアローンシーン識別又は識別コード位置決めの方式を捨てて、分散型の方法、すなわちフロントエンドにおる複数の第1設備がシーンにおける床面画像(又は床面パターン画像と呼ばれる)を取得する方式を採用し、バックグラウンド(例えば、サーバー又はクラウド)において、複数の第1設備によってアップロードされた床面画像情報に対する分析、選別、及び最適化を行うことで、シーンにおける床面画像(又は床面パターン画像と呼ばれる)に基づくシーン構築を完成する。各第1設備はこの動作プロセスにおいて、シーンにおける床面画像をリアルタイムで取得し、アップロードし、更新し、すなわち、可変で、重複的なシーンでの位置決めとナビゲーションが実現できる。
以下において、図1に関連し、本発明の実施例に開示される可変シーンでの複数の設備によるビデオナビゲーション方法について詳しく説明し、図1には、本実施例に開示される可変シーンでの複数の設備によるビデオナビゲーション方法のフローチャートを例示的に示される。
図1に示すように、本実施例が提供する可変シーンでの複数の設備によるビデオナビゲーション方法は、以下のステップが含まれる。
ステップS1、第1設備はシーンのビデオシーケンスを撮影し、かつビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得する。
ステップS1、第1設備はシーンのビデオシーケンスを撮影し、かつビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得する。
ここで、第1設備はAGVロボットであってもよく、AGVロボット又は他の移動設備に統合された自律ナビゲーション設備であってもよい。第1設備は、深度カメラ、ステレオカメラ、単眼/多眼カメラ又は一般カメラなどのような様々な画像収集装置によって床面画像を撮影する。最初の撮影の前に、第1設備の運動軌跡はディスパッチサーバーによって設定される。ディスパッチサーバーにはシーンの形状、サイズ、レイアウトなどの基本情報が保存されており、且つ、シーンの基本情報はディスパッチサーバーに事前に入力されており、その目的は、各第1設備の最初の撮影時の運動軌跡がシーン全体をできるだけカバーすることを確保する。
好ましくは、本実施例は普通カメラを例に挙げ、カメラはAGVロボットに取り付けられ、床面と一定の撮影夾角をなしてもよく、90°の夾角で床面画像を垂直に撮影することに限らない。第1設備は運動軌跡に沿ってシーンにおいて移動し、カメラはシーンにおける床面をリアルタイムで撮影し、連続する複数のフレームで構成されるビデオシーケンスを形成する。ビデオシーケンスを取得すると同時に、第1設備はビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得する。
好ましくは、ビデオシーケンスにおける複数のフレームはビデオシーケンスにおけるすべてのフレームである必要がなく、そのうち一部のフレームであってもよく、一方、複数のフレームは連続する複数のフレームであってもよく、所定のフレーム間隔でビデオシーケンスから抽出して、不連続な複数のフレームの画像であってもよい。
好ましくは、データ化された特徴情報はフォーマットのように配列された、画像のデータ化された特徴情報を含む配列データである。図2に示すように、データ化された特徴情報の取得するプロセスは以下のとおりである。
S101、第1設備は、シーンにおける床面の画像を収集する。
S102、前記画像における特徴点を識別し、且つ特徴点から特徴点の特徴情報を抽出する。
S103、前記画像のデータ化された特徴情報を形成するように、画像におる特徴点の特徴情報をフォーマット及びデータ化する。
S102、前記画像における特徴点を識別し、且つ特徴点から特徴点の特徴情報を抽出する。
S103、前記画像のデータ化された特徴情報を形成するように、画像におる特徴点の特徴情報をフォーマット及びデータ化する。
ここで、特徴点の識別はFASTアルゴリズム、ORBアルゴリズム、又はSURFアルゴリズムなどのような、本分野で一般的に使用される特徴点検出方法で識別することができる。特徴点を識別した後に特徴点の特徴情報を取得すれば、特徴点の特徴情報によって画像を記述することができる。
好ましくは、特徴点の特徴情報を取得した後に、特徴情報をフォーマット及びデータ化し、それによって画像の特徴情報を形成する。従来技術で画像を取得して比較し、キーフレームを取得する方式に対して、帯域幅の占有率が低下し、伝送速度と計算速度が向上し、従って識別のリアルタイム性が保証される。
例示的に、床面画像のデータ化された特徴情報は画像位置、特徴点の座標、特徴点の方向、特徴点のサイズ、及び特徴点の記述因子を含む。下表に示す。
表1に示すように、本発明の好適な実施例のデータ化された特徴情報の概略図であり、そこで、データヘッダは、例えばTCPメッセージのメッセージヘッダが挙げられ、送信元ポート(source port)と宛先ポート(destination port)のポート番号、シーケンス番号(sequence number)、応答確認番号(acknowledgement number)、データオフセット(offset)などを含んでもよく、TCPメッセージのデータ部分には第1設備の名称、撮影時間、画像位置、及び特徴点の特徴情報などがカプセル化されている。特徴点の特徴情報は複数のグループを有してもよく、各グループの特徴点情報には特徴点の座標、特徴点の方向、特徴点のサイズ、及び特徴点の記述因子が含まれる。
好ましくは、画像位置は次の2つの方式を組み合わせて取得することができる。
1,撮影された画像pと前に保存された隣接キーフレームk(複数のキーフレームと同様に演算することができる)に対して特徴点マッチングを行い、ミスマッチング部分を取り除き、空間モデルを構築することで、pとkの間の回転と並進行列を得て、kに対するpの位置情報にkの位置情報を重ね合わせ、最終的にpの位置情報を取得する。
2,第1設備の運動軌跡とエンコーダ、位置センサー、距離測定設備のうちの1つ又は複数と組み合わせることによって、画像の位置情報を算出する。
好ましくは、特徴点の座標は画像における当該特徴点の座標位置である。特徴点のサイズと方向は、特徴点検出方法によって定義される特徴点サイズと2次元ベクトルである。特徴点の記述因子はタグコードであり、当該分類コードは事前に分類された記述因子ライブラリにおいて、当該特徴点の記述に最も近い記述因子の分類コードである。
ステップS2、第1設備はデータ化された特徴情報に基づいて比較し、ビデオシーケンスにおけるキーフレームを抽出し、かつ前記キーフレームのデータ化された特徴情報を第2設備にアップロードする。
図3に示すように、前記キーフレームの抽出するプロセスは以下のステップを含む。
S201、新たに取得した画像のデータ化された特徴情報はデータベースに保存されているキーフレームのデータ化された特徴情報と検索するように比較を行う。
S202、新たに取得した画像とデータベースに保存されているキーフレームのデータ化された特徴情報との比較結果に基づいて類似度評価値を与える。
S203、類似度評価値が設定閾値より小さい場合、当該画像はキーフレームである。
好ましくは、本発明の好適な実施例は、データ化された特徴情報に基づいて、新たに取得した画像とデータベースに保存されているキーフレームにおける特徴点と比較し、それによって両者のマッチングする特徴点の数を取得する。特徴点の比較プロセスにおいて、まず特徴点マッチングとモデルフィッティングの方法で空間換算モデルを取得し、空間換算モデルは両者の特徴点座標、特徴点方向、特徴点サイズを換算し、特徴点の幾何学的位置を得て、両者の幾何学的位置が近い場合、特徴点の記述因子が一致するか否かを確認し、特徴点の幾何学的位置と記述とはどちらも一致すれば、新たに取得した画像と比較されるキーフレームに同様な特徴点があると判断できる。
好ましくは、類似度評価値は新たに取得した画像と比較されるキーフレームとにおる同様な特徴点の数であり、類似度評価値が設定閾値より小さい時、新たに取得したの画像はデータベースに保存されているキーフレームに比べて顕著な変化があると判断でき、当該画像はキーフレームと設定され、続いて第1設備は当該キーフレームのデータ化された特徴情報を第2設備にアップロードする。
ステップS3、第2設備は第1設備によってアップロードされたデータ化された特徴情報を比較及び選別し、かつ選別後のデータ化された特徴情報を再構成することで、シーンのナビゲーションデータの構築、更新を完成し、且つ、第1設備にシーンのナビゲーションデータを配布し、ナビゲーションデータを行う。
好ましくは、第2設備はまずデータ化された特徴情報を受信し且つ保存し、データ化された特徴情報のデータ集合を形成する。データ集合におけるある領域のデータ化された特徴情報の数が上限に達した場合、最も新たに受信したデータ化された特徴情報を残し、他のデータ化された特徴情報に対して優先順位付けを行い、かつ優先順位が最も低いデータ化された特徴情報を削除する。シーンのナビゲーションデータを構築するために、データ集合におけるすべてのデータ化された特徴情報に対して修正と閉ループ検出を行う。
そこで、データ化された特徴情報の数の上限は事前に設定され、システムの演算及び保存性能によって決められる。数の上限は各空間領域におけるデータ化された特徴情報の数の上限である。
好ましくは、データ化された特徴情報の優先順位付けは、
新たに受信したデータ化された特徴情報とその画像位置、及びその隣接範囲内のすべてのデータ化された特徴情報に対して2つずつ類似度を比較することと、
空間変換モデルによって、データ化された特徴情報の間の特徴点位置、特徴点方向、及び特徴点サイズが一致する特徴点の数を検出することと、
一致する特徴点の数をもってデータ化された特徴情報の優先順位付けを行うこととを含む。
新たに受信したデータ化された特徴情報とその画像位置、及びその隣接範囲内のすべてのデータ化された特徴情報に対して2つずつ類似度を比較することと、
空間変換モデルによって、データ化された特徴情報の間の特徴点位置、特徴点方向、及び特徴点サイズが一致する特徴点の数を検出することと、
一致する特徴点の数をもってデータ化された特徴情報の優先順位付けを行うこととを含む。
さらに、前記空間変換モデルはデータ集合中のデータ化された特徴情報の特徴点位置、特徴点方向、特徴点サイズ、及び記述因子を比較することによって生成される。
一方、本発明は可変シーンでの複数の設備による視覚ナビゲーションシステムをさらに提供し、視覚ナビゲーションシステムは、
シーンにおける床面のビデオシーケンスを撮影し、かつビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得し、データ化された特徴情報に基づいて比較し、ビデオシーケンスにおけるキーフレームを抽出し、かつ当該キーフレームのデータ化された特徴情報を第2設備にアップロードする第1設備と、
第1設備によってアップロードされたデータ化された特徴情報を比較及び選別し、かつ選別後のデータ化された特徴情報を再構成することで、シーンのナビゲーションデータの構築、更新、及び配布を完成する為に用いられる第2設備とを含む。
シーンにおける床面のビデオシーケンスを撮影し、かつビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得し、データ化された特徴情報に基づいて比較し、ビデオシーケンスにおけるキーフレームを抽出し、かつ当該キーフレームのデータ化された特徴情報を第2設備にアップロードする第1設備と、
第1設備によってアップロードされたデータ化された特徴情報を比較及び選別し、かつ選別後のデータ化された特徴情報を再構成することで、シーンのナビゲーションデータの構築、更新、及び配布を完成する為に用いられる第2設備とを含む。
さらに、前記第1設備は自律ナビゲーション設備、又はAGV運搬車に設置される自律ナビゲーション設備であり、前記第2設備は第1設備と通信するサーバー端末である。
さらに、前記自律ナビゲーション設備とサーバー端末の数の比率はn:mであり、ここで、nは1より大きい自然数であり、ここで、mは1以上の自然数である。
さらに、前記第1設備は、
シーンにおける床面の画像フレームを収集するためのビデオ収集ユニットと、
前記画像フレームにおける特徴点を識別し、画像フレームのデータ化された特徴情報を形成するための画像情報識別ユニットと、
キーフレームを抽出するために、取得した画像フレームのデータ化された特徴情報と前に抽出した前記キーフレームのデータ化された特徴情報に対して検索と比較を行うキーフレーム抽出ユニットと、
前記キーフレーム抽出ユニットによって抽出されたキーフレームのデータ化された特徴情報を第2設備に送信するための通信ユニットとを含む。
シーンにおける床面の画像フレームを収集するためのビデオ収集ユニットと、
前記画像フレームにおける特徴点を識別し、画像フレームのデータ化された特徴情報を形成するための画像情報識別ユニットと、
キーフレームを抽出するために、取得した画像フレームのデータ化された特徴情報と前に抽出した前記キーフレームのデータ化された特徴情報に対して検索と比較を行うキーフレーム抽出ユニットと、
前記キーフレーム抽出ユニットによって抽出されたキーフレームのデータ化された特徴情報を第2設備に送信するための通信ユニットとを含む。
さらに、前記第2設備は、
最も新たに取得したデータ化された特徴情報と前に取得したデータ化された特徴情報に対して類似度を比較し、かつ選別する時に比較結果に基づいて優先順位付けを行うデータ化された特徴情報選別ユニットと、
データ化された特徴情報に基づいてシーンのナビゲーションデータを構築するナビゲーションデータ構築ユニットとを含む。
最も新たに取得したデータ化された特徴情報と前に取得したデータ化された特徴情報に対して類似度を比較し、かつ選別する時に比較結果に基づいて優先順位付けを行うデータ化された特徴情報選別ユニットと、
データ化された特徴情報に基づいてシーンのナビゲーションデータを構築するナビゲーションデータ構築ユニットとを含む。
以上の記載は本発明の好ましい実施形態に過ぎず、本発明を限定するものではなく、本発明の精神及び原則を逸脱することなく行うあらゆる修正、均等な置き換え、改良などは、いずれも本発明の保護範囲内に含まれるものとする。
Claims (15)
- 第1設備はシーンのビデオシーケンスを撮影し、かつビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得するステップと、
第1設備はデータ化された特徴情報に基づいて比較し、ビデオシーケンスにおけるキーフレームを抽出し、かつ前記キーフレームのデータ化された特徴情報を第2設備にアップロードするステップと、
第2設備は第1設備によってアップロードされたデータ化された特徴情報を比較及び選別し、かつ選別後のデータ化された特徴情報を再構成することで、シーンのナビゲーションデータの構築、更新を完成し、且つ、第1設備にシーンのナビゲーションデータを配布し、ナビゲーションデータを実現するステップと、
を含むことを特徴とする、可変シーンでの複数の設備による視覚ナビゲーション方法。 - 前記データ化された特徴情報の取得プロセスは、
第1設備はシーンにおける床面の画像を収集することと、
前記画像における特徴点を識別し、かつ特徴点から特徴点の特徴情報を抽出することと、
前記画像のデータ化された特徴情報を形成するために、画像中の特徴点の特徴情報をフォーマット及びデータ化することと、
を含むことを特徴とする、請求項1に記載の可変シーンでの複数の設備による視覚ナビゲーション方法。 - 前記画像のデータ化された特徴情報はフォーマットのように配列されて形成された配列データであり、前記データ化された特徴情報は画像位置、特徴点の座標、特徴点の方向、特徴点のサイズ、及び特徴点の記述因子を含むことを特徴とする、請求項2に記載の可変シーンでの複数の設備による視覚ナビゲーション方法。
- 前記キーフレームの抽出プロセスは、
新たに取得した画像のデータ化された特徴情報とデータベースに保存されているキーフレームのデータ化された特徴情報に対して検索と比較を行うことと、
新たに取得した画像とデータベースに保存されているキーフレームのデータ化された特徴情報の比較結果に基づいて類似度評価値を与えることと、
類似度評価値が設定閾値より小さい場合、画像フレームはキーフレームであることと
を含むことを特徴とする、請求項3に記載の可変シーンでの複数の設備による視覚ナビゲーション方法。 - 特徴点の幾何学的位置と特徴点の記述因子によって前記データ化された特徴情報に対して検索と比較を行い、前記特徴点の幾何学的位置は特徴点の位置、サイズ、及び方向によって算出されることを特徴とする、請求項4に記載の可変シーンでの複数の設備による視覚ナビゲーション方法。
- 前記類似度評価値は、画像のデータ化された特徴情報比較結果におる記述因子と幾何学的位置が一致する特徴点の数であることを特徴とする、請求項5に記載の可変シーンでの複数の設備による視覚ナビゲーション方法。
- 前記第2設備がデータ化された特徴情報に対して行う選別と構築プロセスは、
データ化された特徴情報を受信して保存し、データ化された特徴情報のデータ集合を形成することと、
データ集合におけるデータ化された特徴情報の数が上限に達した場合、最も新たに受信したデータ化された特徴情報を残し、他のデータ化された特徴情報に対して優先順位付けを行い、かつ優先順位が最も低いデータ化された特徴情報を削除することと、
シーンのナビゲーションデータを構築するために、データ集合におるすべてのデータ化された特徴情報に対して修正と閉ループ検出を行うことと、
を含むを特徴とする、請求項1〜請求項6の何れか1項に記載の可変シーンでの複数の設備による視覚ナビゲーション方法。 - データ集合におるデータ化された特徴情報の数の上限を設定し、前記数の上限は各画像位置におけるデータ化された特徴情報の数の上限であることを特徴とする、請求項7に記載の可変シーンでの複数の設備による視覚ナビゲーション方法。
- 前記データ化された特徴情報の優先順位付けは、
新たに受信したデータ化された特徴情報とその画像位置の、及びその隣接範囲内のすべてのデータ化された特徴情報に対して2つずつ類似度を比較することと、
空間変換モデルによって、データ化された特徴情報の間の特徴点位置、特徴点方向、及び特徴点サイズが一致する特徴点の数を検出することと、
一致する特徴点の数によってデータ化された特徴情報の優先順位付けを行うことと、
を含むことを特徴とする、請求項8に記載の可変シーンでの複数の設備による視覚ナビゲーション方法。 - 前記空間変換モデルはデータ集合におるデータ化された特徴情報の特徴点位置、特徴点方向、特徴点サイズ、及び特徴点の記述因子を比較することによって生成されることを特徴とする、請求項9に記載の可変シーンでの複数の設備による視覚ナビゲーション方法。
- シーンにおける床面のビデオシーケンスを撮影し、かつビデオシーケンスにおける各フレームの画像のデータ化された特徴情報を取得し、データ化された特徴情報に基づいて比較し、ビデオシーケンスにおけるキーフレームを抽出し、かつ当該キーフレームのデータ化された特徴情報を第2設備にアップロードする第1設備と、
第1設備によってアップロードされたデータ化された特徴情報を比較及び選別し、かつシーンのナビゲーションデータの構築、更新、及び配布を完成するために、選別後のデータ化された特徴情報を再構成する第2設備と、
を含むことを特徴とする、可変シーンでの複数の設備による視覚ナビゲーションシステム。 - 前記第1設備は自律ナビゲーション設備、又はAGV運搬車に設置される自律ナビゲーション設備であり、前記第2設備は第1設備と通信するサーバー端末であることを特徴とする、請求項11に記載の可変シーンでの複数の設備による視覚ナビゲーションシステム。
- 前記自律ナビゲーション設備とサーバー端末の数の比率はn:mであり、ここで、nは1より大きい自然数であり、ここで、mは1以上の自然数であることを特徴とする、請求項12に記載の可変シーンでの複数の設備による視覚ナビゲーションシステム。
- 前記第1設備は、
シーンにおける床面の画像フレームを収集するためのビデオ収集ユニットと、
前記画像フレームにおける特徴点を識別し、画像フレームのデータ化された特徴情報を形成するための画像情報識別ユニットと、
キーフレームを抽出するために、取得した画像フレームのデータ化された特徴情報と前に抽出した前記キーフレームのデータ化された特徴情報に対して検索と比較を行うキーフレーム抽出ユニットと、
前記キーフレーム抽出ユニットによって抽出されたキーフレームのデータ化された特徴情報を第2設備に送信するための通信ユニットと、
を含むことを特徴とする、請求項12に記載の可変シーンでの複数の設備による視覚ナビゲーションシステム。 - 前記第2設備は、
最も新たに取得したデータ化された特徴情報と前に取得したデータ化された特徴情報に対して類似度を比較し、かつ選別する時に比較結果に基づいて優先順位付けを行うデータ化された特徴情報選別ユニットと、
データ化された特徴情報に基づいてシーンのナビゲーションデータを構築するナビゲーションデータ構築ユニットと、
を含むことを特徴とする、請求項12に記載の可変シーンでの複数の設備による視覚ナビゲーションシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810066735.2A CN108267121A (zh) | 2018-01-24 | 2018-01-24 | 一种可变场景下多设备的视觉导航方法及系统 |
CN201810066735.2 | 2018-01-24 | ||
PCT/CN2018/102972 WO2019144617A1 (zh) | 2018-01-24 | 2018-08-29 | 一种可变场景下多设备的视觉导航方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021512297A true JP2021512297A (ja) | 2021-05-13 |
Family
ID=62776429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020540757A Pending JP2021512297A (ja) | 2018-01-24 | 2018-08-29 | 可変シーンでの複数の設備による視覚ナビゲーション方法及びシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210041886A1 (ja) |
EP (1) | EP3745085A1 (ja) |
JP (1) | JP2021512297A (ja) |
KR (1) | KR20200116111A (ja) |
CN (1) | CN108267121A (ja) |
WO (1) | WO2019144617A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108267121A (zh) * | 2018-01-24 | 2018-07-10 | 锥能机器人(上海)有限公司 | 一种可变场景下多设备的视觉导航方法及系统 |
CN111046698B (zh) * | 2018-10-12 | 2023-06-20 | 锥能机器人(上海)有限公司 | 可视化编辑的视觉定位方法和系统 |
KR102203438B1 (ko) * | 2018-12-26 | 2021-01-14 | 엘지전자 주식회사 | 이동 로봇 및 이동 로봇의 제어방법 |
CN110471407B (zh) * | 2019-07-02 | 2022-09-06 | 无锡真源科技有限公司 | 一种模组自动调节的自适应定位系统及方法 |
CN112212871A (zh) * | 2019-07-10 | 2021-01-12 | 阿里巴巴集团控股有限公司 | 一种数据处理方法、装置及机器人 |
CN110751694B (zh) * | 2019-10-25 | 2022-04-22 | 北京理工大学 | 一种基于三色通道融合互信息的图像导航方法 |
CN111735473B (zh) * | 2020-07-06 | 2022-04-19 | 无锡广盈集团有限公司 | 一种能上传导航信息的北斗导航系统 |
CN112034855A (zh) * | 2020-09-07 | 2020-12-04 | 中国南方电网有限责任公司超高压输电公司天生桥局 | 一种提高巡检机器人定位速度的方法及装置 |
CN114554108B (zh) * | 2022-02-24 | 2023-10-27 | 北京有竹居网络技术有限公司 | 图像处理方法、装置和电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185011A (ja) * | 2011-03-04 | 2012-09-27 | Kumamoto Univ | 移動体位置測定装置 |
JP2014505934A (ja) * | 2010-12-30 | 2014-03-06 | アイロボット コーポレイション | 可動式ロボットシステム |
JP2016517084A (ja) * | 2013-03-15 | 2016-06-09 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 動的カテゴリ物体認識のコンピュータベースの方法コンピュータベースの方法及びシステム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7889794B2 (en) * | 2006-02-03 | 2011-02-15 | Eastman Kodak Company | Extracting key frame candidates from video clip |
ITMI20121210A1 (it) * | 2012-07-11 | 2014-01-12 | Rai Radiotelevisione Italiana | A method and an apparatus for the extraction of descriptors from video content, preferably for search and retrieval purpose |
WO2014183004A1 (en) * | 2013-05-10 | 2014-11-13 | Robert Bosch Gmbh | System and method for object and event identification using multiple cameras |
CN103278170B (zh) * | 2013-05-16 | 2016-01-06 | 东南大学 | 基于显著场景点检测的移动机器人级联地图创建方法 |
US9969337B2 (en) * | 2014-09-03 | 2018-05-15 | Sharp Laboratories Of America, Inc. | Methods and systems for mobile-agent navigation |
CN104881029B (zh) * | 2015-05-15 | 2018-01-30 | 重庆邮电大学 | 基于一点ransac和fast算法的移动机器人导航方法 |
CN105676253B (zh) * | 2016-01-15 | 2019-01-01 | 武汉光庭科技有限公司 | 一种自动驾驶中基于城市道路标线地图的纵向定位系统及其方法 |
CN108072370A (zh) * | 2016-11-18 | 2018-05-25 | 中国科学院电子学研究所 | 基于全局地图的机器人导航方法及用该方法导航的机器人 |
CN106840148B (zh) * | 2017-01-24 | 2020-07-17 | 东南大学 | 室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法 |
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建系统 |
CN107860390A (zh) * | 2017-12-21 | 2018-03-30 | 河海大学常州校区 | 基于视觉ros系统的非完整机器人远程定点自导航方法 |
CN108267121A (zh) * | 2018-01-24 | 2018-07-10 | 锥能机器人(上海)有限公司 | 一种可变场景下多设备的视觉导航方法及系统 |
-
2018
- 2018-01-24 CN CN201810066735.2A patent/CN108267121A/zh active Pending
- 2018-08-29 US US16/964,514 patent/US20210041886A1/en not_active Abandoned
- 2018-08-29 KR KR1020207024256A patent/KR20200116111A/ko not_active Application Discontinuation
- 2018-08-29 JP JP2020540757A patent/JP2021512297A/ja active Pending
- 2018-08-29 EP EP18902390.6A patent/EP3745085A1/en not_active Withdrawn
- 2018-08-29 WO PCT/CN2018/102972 patent/WO2019144617A1/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014505934A (ja) * | 2010-12-30 | 2014-03-06 | アイロボット コーポレイション | 可動式ロボットシステム |
JP2012185011A (ja) * | 2011-03-04 | 2012-09-27 | Kumamoto Univ | 移動体位置測定装置 |
JP2016517084A (ja) * | 2013-03-15 | 2016-06-09 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 動的カテゴリ物体認識のコンピュータベースの方法コンピュータベースの方法及びシステム |
Also Published As
Publication number | Publication date |
---|---|
WO2019144617A1 (zh) | 2019-08-01 |
EP3745085A1 (en) | 2020-12-02 |
US20210041886A1 (en) | 2021-02-11 |
CN108267121A (zh) | 2018-07-10 |
KR20200116111A (ko) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021512297A (ja) | 可変シーンでの複数の設備による視覚ナビゲーション方法及びシステム | |
Mühlfellner et al. | Summary maps for lifelong visual localization | |
JP2022520019A (ja) | 画像処理方法、装置、移動可能なプラットフォーム、プログラム | |
CN110969644B (zh) | 人员轨迹追踪方法、装置及系统 | |
CN112165684B (zh) | 基于联合视觉和无线信号特征的高精度室内定位方法 | |
CN110084243B (zh) | 一种基于二维码和单目相机的档案识别与定位方法 | |
CN106647738A (zh) | 一种无人搬运车的对接路径确定方法及系统及无人搬运车 | |
CN111288996A (zh) | 基于视频实景导航技术的室内导航方法及系统 | |
Gualtieri et al. | Viewpoint selection for grasp detection | |
CN107491071A (zh) | 一种智能多机器人协同测图系统及其方法 | |
US11620613B2 (en) | Drone-based inventory management methods and systems | |
CN111693046A (zh) | 机器人系统和机器人导航地图建图系统及方法 | |
Feng et al. | Visual Map Construction Using RGB‐D Sensors for Image‐Based Localization in Indoor Environments | |
US20230280759A1 (en) | Autonomous Robotic Navigation In Storage Site | |
CN114047750A (zh) | 一种基于移动机器人的快递入库方法 | |
CN115649501B (zh) | 一种无人机夜行照明系统及方法 | |
CN116295412A (zh) | 一种基于深度相机的室内移动机器人稠密建图与自主导航一体化方法 | |
Kua et al. | Automatic loop closure detection using multiple cameras for 3d indoor localization | |
Zhou et al. | Robust global localization by using global visual features and range finders data | |
CN111739056A (zh) | 一种轨迹追踪系统 | |
CN111950524A (zh) | 一种基于双目视觉和rtk的果园局部稀疏建图方法和系统 | |
KR102542556B1 (ko) | 고해상도 드론 동영상과 딥러닝 객체 인식기술을 활용한 실시간 습지 지역 주요 식생 탐지와 식생 객체 위치 확인 방법 및 그 시스템 | |
CN109375210B (zh) | 基于雷达和全景联合的无人装置目标检测系统和方法 | |
CN115615436A (zh) | 一种多机重定位的无人机定位方法 | |
CN114782496A (zh) | 一种对象的跟踪方法、装置、存储介质及电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211027 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220524 |