JP2017224280A - 視覚的測位によるナビゲーション装置およびその方法 - Google Patents
視覚的測位によるナビゲーション装置およびその方法 Download PDFInfo
- Publication number
- JP2017224280A JP2017224280A JP2017080318A JP2017080318A JP2017224280A JP 2017224280 A JP2017224280 A JP 2017224280A JP 2017080318 A JP2017080318 A JP 2017080318A JP 2017080318 A JP2017080318 A JP 2017080318A JP 2017224280 A JP2017224280 A JP 2017224280A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- posture
- feature
- image
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000000007 visual effect Effects 0.000 title claims description 32
- 238000012937 correction Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 10
- 230000007613 environmental effect Effects 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 9
- 230000033001 locomotion Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000003064 k means clustering Methods 0.000 claims description 4
- 238000011524 similarity measure Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 claims 2
- 239000000284 extract Substances 0.000 claims 1
- 238000009877 rendering Methods 0.000 claims 1
- 238000013507 mapping Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Manipulator (AREA)
Abstract
Description
Rth2=Rth1+θ
Rx2=Rx1+d*cos(θ)
Ry2=Ry1+d*sin(θ)
により累加して、ロボットの現在の位置・姿勢(Rx、Ry、Rth)の推定値を取得できる。
(1)当該画像フレームを取得する時のロボットの現在の位置・姿勢
(2)画像の特徴点のインデックス番号
(3)画像の特徴点の画素位置
(4)画像の特徴描写
src[i]とdst[i]はそれぞれマッチング点における第i点であり、
はを示す。
SVDを用いてアフィン変換マトリックスを分解し、
ここで、centroidAとcentroidBを画像中心とする。マッチング点の画像の変位変換dx、dyと回転変換dthを取得する。
Movement1=k*sqrt(Fr1.dx*Fr1.dx+Fr1.dy*Fr1.dy)
Movement2=k*sqrt(Fr1.dx*Fr1.dx+Fr1.dy*Fr1.dy)
Angle1=mean(Fr1.angle、Fr1.angle+Fr1.dth)
Angle2=mean(Fr2.angle、Fr2.angle+Fr2.dth)
を算出する。
Rth=Dth+θ
Rx=Dx+pd*k*cos(Rth)
Ry=Dy+pd*k*sin(Rth)
を算出できる。
Rth2=Rth1+θ;
Rx2=Rx1+d*cos(θ);
Ry2=Ry1+d*sin(θ)
により累加して、ロボットの現在の位置・姿勢(Rx、Ry、Rth)の推定値を取得できる。
Claims (16)
- ロボットを駆動し、前記ロボットの現在の位置・姿勢情報をリアルタイムに取得する動作モジュールと、
画像センサーを含み、ロボット移動過程における環境画像を採取するカメラモジュールと、
前記画像センサーによって採取された前記環境画像に対して特徴抽出と特徴描写を行う画像処理モジュールと、
複数の特徴点を含む特徴データベースを構築し、前記環境画像の特徴点描写と前記特徴データベースにおける複数の特徴点とを比較し、前記ロボットの位置・姿勢修正量を算出し、さらに前記ロボットの現在の位置・姿勢情報と前記位置・姿勢修正量に基づいて、修正後のロボットの位置・姿勢を取得する位置・姿勢推定モジュールと、を備えることを特徴とする視覚的測位によるナビゲーション装置。 - 前記動作モジュールは、ジャイロスコープにより、ロボットの現在の偏向角度θを取得し、ロボットのホイール上の光電パルスカウンターにより、ロボットの移動距離dを取得し、以下の数式:
Rth2=Rth1+θ
Rx2=Rx1+d*cos(θ)
Ry2=Ry1+d*sin(θ)
を用いて、ロボットの現在の位置・姿勢(Rx、Ry、Rth)を算出することを特徴とする請求項1に記載の視覚的測位によるナビゲーション装置。 - 前記カメラモジュールは、ロボットの真上に位置し、前記環境画像は、天井の写真であることを特徴とする請求項1に記載の視覚的測位によるナビゲーション装置。
- 前記画像処理モジュールは、
前記環境画像に対して前処理を行うことにより、レンズの歪みが特徴描写に及ぼす影響を取り除く画像前処理ユニットと、
ORB特徴点検出方法を用いて前記環境画像における特徴点を抽出し、前記特徴点を多次元描写する特徴点描写ユニットと、を備えることを特徴とする請求項1に記載の視覚的測位によるナビゲーション装置。 - 前記位置・姿勢推定モジュールは、
複数の特徴点に対する多次元描写に基づいて、前記環境画像の特徴点描写と前記特徴データベースにおける複数の特徴点とを比較し、前記現在の環境画像の特徴点描写が特徴データベースにおける少なくとも1つの特徴点とマッチングしない場合に、前記環境画像の対応するデータを前記特徴データベースに保存するマッチングユニットと、
前記マッチングユニットが前記現在の環境画像の特徴点描写が前記特徴データベースにおける少なくとも1つの特徴点とマッチングすることを示した場合に、前記ロボットの位置・姿勢修正量を算出し、前記ロボットの現在の位置・姿勢と前記位置・姿勢修正量に基づいて、修正後のロボット位置・姿勢を取得する位置・姿勢修正ユニットと、を備えることを特徴とする請求項1に記載の視覚的測位によるナビゲーション装置。 - 前記マッチングユニットは、ユークリッド距離を特徴の類似性尺度として用いて、2フレーム画像における特徴点マッチングセットを取得することを特徴とする請求項5に記載の視覚的測位によるナビゲーション装置。
- 前記位置・姿勢修正ユニットは、
2つの画像におけるマッチング画素の画素距離に表される空間におけるカメラ位置間の距離値を算出し、
各2フレーム画像間の回転角度θと画素の並進量pdに基づいて、1グループの現在のロボットの推定位置・姿勢を算出し、
k−meansクラスタリング手法を用いて、ロボットの位置・姿勢の最終推定値を求め、
当該推定値とロボットの現在の未修正の位置・姿勢の結果を減算して、ロボット位置・姿勢の修正量を取得し、
現在の位置・姿勢と修正量を加算して、修正後の位置・姿勢を取得することを特徴とする請求項5に記載の視覚的測位によるナビゲーション装置。 - 前記位置・姿勢修正ユニットは、以下の数式:
Rth=Dth+θ
Rx=Dx+pd*k*cos(Rth)
Ry=Dy+pd*k*sin(Rth)
を用いて、ロボットの現在の推定位置・姿勢を算出し、
ここで、kは、画素の画素距離と空間におけるカメラ位置間の距離との比であり、Dx、Dy、Dthは、当時のロボットの位置・姿勢であることを特徴とする請求項7に記載の視覚的測位によるナビゲーション装置。 - ロボットを駆動しながら、ロボットの現在の位置・姿勢情報をリアルタイムに取得するステップと、
ロボット移動過程における環境画像を採取するステップと、
前記環境画像に対して特徴抽出と特徴描写を行うステップと、
複数の特徴点を含む特徴データベースを構築するステップと、
前記環境画像の特徴点描写と前記特徴データベースにおける複数の特徴点とを比較し、前記ロボットの位置・姿勢修正量を算出し、さらに前記ロボットの現在の位置・姿勢情報と前記位置・姿勢修正量に基づいて、修正後のロボットの位置・姿勢を取得するステップと、を含むことを特徴とする視覚的測位によるナビゲーション方法。 - 前記ロボットの現在の位置・姿勢情報をリアルタイムに取得するステップは、ジャイロスコープにより、ロボットの現在の偏向角度θを取得し、ロボットのホイール上の光電パルスカウンターにより、ロボットの移動距離dを取得し、以下の数式:
Rth2=Rth1+θ;
Rx2=Rx1+d*cos(θ);
Ry2=Ry1+d*sin(θ)
を用いて、前記ロボットの現在の位置・姿勢(Rx,Ry,Rth)を算出するステップを含むことを特徴とする請求項9に記載の視覚的測位によるナビゲーション方法。 - 前記環境画像は、天井の写真であることを特徴とする請求項9に記載の視覚的測位によるナビゲーション方法。
- 前記環境画像に対して特徴抽出と特徴描写を行うステップは、
前記環境画像に対して前処理を行うことにより、レンズの歪みが特徴描写に及ぼす影響を取り除くステップと、
ORB特徴点検出方法を用いて前記環境画像における特徴点を抽出し、前記特徴点を多次元描写するステップと、を含むことを特徴とする請求項9に記載の視覚的測位によるナビゲーション方法。 - 前記複数の特徴点を含む特徴データベースを構築し、前記環境画像の特徴点描写と前記特徴データベースにおける複数の特徴点とを比較し、前記ロボットの位置・姿勢修正量を算出し、さらに前記ロボットの現在の位置・姿勢情報と前記位置・姿勢修正量に基づいて、修正後のロボットの位置・姿勢を取得するステップは、
複数の特徴点に対する多次元描写に基づいて、前記環境画像の特徴点描写と前記特徴データベースにおける複数の特徴点とを比較し、前記現在の環境画像の特徴点描写が特徴データベースにおける少なくとも1つの特徴点とマッチングしない場合に、前記環境画像の対応するデータを前記特徴データベースに保存するステップと、
前記現在の環境画像の特徴点描写が前記特徴データベースにおける少なくとも1つの特徴点とマッチングする場合に、前記ロボットの位置・姿勢修正量を算出し、前記ロボットの現在の位置・姿勢と前記位置・姿勢修正量に基づいて、修正後のロボット位置・姿勢を取得するステップと、を含むことを特徴とする請求項9に記載の視覚的測位によるナビゲーション方法。 - 前記複数の特徴点に対する多次元描写に基づいて、前記環境画像の特徴点描写をマッチングするステップは、
ユークリッド距離を特徴の類似性尺度として用いて、2フレーム画像における特徴点マッチングセットを取得するステップを含むことを特徴とする請求項13に記載の視覚的測位によるナビゲーション方法。 - 前記ロボットの位置・姿勢修正量を算出し、さらに前記ロボットの現在の位置・姿勢と前記位置・姿勢修正量に基づいて、修正後のロボット位置・姿勢を取得するステップは、
2つの画像におけるマッチング画素の画素距離に表される空間におけるカメラ位置間の距離値を算出するステップと、
各2フレーム画像間の回転角度θと画素の並進量pdに基づいて、1グループの現在のロボットの推定位置・姿勢を算出するステップと、
k−meansクラスタリング手法を用いて、ロボット位置・姿勢の最終推定値を求めるステップと、
当該推定値とロボットの現在の未修正の位置・姿勢の結果を減算して、ロボットの位置・姿勢の修正量を取得するステップと、
現在の位置・姿勢と修正量を加算して、修正後の位置・姿勢を取得するステップと、を含むことを特徴とする請求項13に記載の視覚的測位によるナビゲーション方法。 - 前記1グループの現在のロボットの推定位置・姿勢を算出するステップは、以下の数式:
Rth=Dth+θ
Rx=Dx+pd*k*cos(Rth)
Ry=Dy+pd*k*sin(Rth)
により計算するステップを含み、
ここで、kは、画素の画素距離と空間におけるカメラ位置間の距離との比であり、Dx、Dy、Dthは、当時のロボットの位置・姿勢であることを特徴とする請求項15に記載の視覚的測位によるナビゲーション方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610302662 | 2016-05-09 | ||
CN201610302662.3 | 2016-05-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017224280A true JP2017224280A (ja) | 2017-12-21 |
JP6475772B2 JP6475772B2 (ja) | 2019-02-27 |
Family
ID=60271265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017080318A Active JP6475772B2 (ja) | 2016-05-09 | 2017-04-14 | 視覚的測位によるナビゲーション装置およびその方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6475772B2 (ja) |
CN (1) | CN107357286A (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109506624A (zh) * | 2018-10-31 | 2019-03-22 | 台州职业技术学院 | 一种基于移动机器人的分布式视觉定位系统及方法 |
CN109739254A (zh) * | 2018-11-20 | 2019-05-10 | 国网浙江省电力有限公司信息通信分公司 | 一种电力巡检中采用视觉图像定位的无人机及其定位方法 |
CN110095111A (zh) * | 2019-05-10 | 2019-08-06 | 广东工业大学 | 一种地图场景的构建方法、构建系统及相关装置 |
CN110220476A (zh) * | 2019-06-03 | 2019-09-10 | 西安飞机工业(集团)有限责任公司 | 一种基于三维激光扫描的航空零件自动快速测量方法 |
CN110727009A (zh) * | 2019-10-10 | 2020-01-24 | 武汉理工大学 | 一种基于车载环视图像的高精视觉地图构建和定位方法 |
CN110824525A (zh) * | 2019-11-15 | 2020-02-21 | 中冶华天工程技术有限公司 | 机器人的自定位方法 |
CN110968023A (zh) * | 2019-10-14 | 2020-04-07 | 北京航空航天大学 | 一种基于plc与工业相机的无人机视觉引导系统及方法 |
KR102154043B1 (ko) * | 2019-11-07 | 2020-09-09 | 주식회사 케이스랩 | 이동체의 위치 인식을 위한 비전 모듈 및 이동체의 위치 인식 방법 |
KR102196076B1 (ko) * | 2020-05-15 | 2020-12-29 | 주식회사 케이스랩 | 삼각-육각 지도 생성방법 및 장치와 이를 이용한 이동체의 광역위치 결정방법 및 장치 |
CN112415535A (zh) * | 2020-10-22 | 2021-02-26 | 武汉万集信息技术有限公司 | 导航系统和导航方法 |
CN112621753A (zh) * | 2020-12-09 | 2021-04-09 | 浙江大华技术股份有限公司 | 机器人定位方法、电子设备及存储介质 |
US20210349469A1 (en) * | 2019-01-24 | 2021-11-11 | Imperial College Innovations Limited | Mapping an environment using a state of a robotic device |
CN113793379A (zh) * | 2021-08-12 | 2021-12-14 | 视辰信息科技(上海)有限公司 | 相机姿态求解方法及系统、设备和计算机可读存储介质 |
CN114415698A (zh) * | 2022-03-31 | 2022-04-29 | 深圳市普渡科技有限公司 | 机器人、机器人的定位方法、装置和计算机设备 |
US11662740B2 (en) | 2019-11-15 | 2023-05-30 | Kabushiki Kaisha Toshiba | Position estimating apparatus, method for determining position of movable apparatus, and non-transitory computer readable medium |
CN112215887B (zh) * | 2019-07-09 | 2023-09-08 | 深圳市优必选科技股份有限公司 | 一种位姿确定方法、装置、存储介质及移动机器人 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019104740A1 (zh) * | 2017-12-01 | 2019-06-06 | 深圳市沃特沃德股份有限公司 | 测量视觉扫地机器人里程计补偿系数的方法及系统 |
WO2019104741A1 (zh) * | 2017-12-01 | 2019-06-06 | 深圳市沃特沃德股份有限公司 | 测量视觉扫地机器人里程计补偿系数的方法及系统 |
CN109960254B (zh) * | 2017-12-25 | 2022-09-23 | 深圳市优必选科技有限公司 | 机器人及其路径规划方法 |
CN108256574B (zh) * | 2018-01-16 | 2020-08-11 | 广东省智能制造研究所 | 机器人定位方法及装置 |
JP7032440B2 (ja) | 2018-02-02 | 2022-03-08 | 達闥機器人有限公司 | 測位方法、装置、ロボット及びコンピューター読み取り可能な記憶媒体 |
CN110388922A (zh) * | 2018-04-17 | 2019-10-29 | 菜鸟智能物流控股有限公司 | 位置测量方法和位置测量装置 |
CN108560942A (zh) * | 2018-06-26 | 2018-09-21 | 河南水利与环境职业学院 | 一种大型玻璃外墙的擦窗装置及方法 |
WO2020014864A1 (zh) * | 2018-07-17 | 2020-01-23 | 深圳市大疆创新科技有限公司 | 位姿确定方法、设备、计算机可读存储介质 |
CN108937742A (zh) * | 2018-09-06 | 2018-12-07 | 苏州领贝智能科技有限公司 | 一种扫地机的陀螺仪角度修正方法和扫地机 |
TWI728469B (zh) * | 2018-09-27 | 2021-05-21 | 台灣塔奇恩科技股份有限公司 | 移動載具之教導路徑模組 |
CN114847803B (zh) * | 2018-10-29 | 2024-04-16 | 北京石头创新科技有限公司 | 机器人的定位方法及装置、电子设备、存储介质 |
CN109871863A (zh) * | 2018-12-29 | 2019-06-11 | 北京航天测控技术有限公司 | 一种针对小批量大型装备的便携式视觉检测设备 |
CN110108283B (zh) * | 2019-05-10 | 2020-11-17 | 成都四相致新科技有限公司 | 一种基于多二维码视觉的高精度定位方法 |
WO2021026705A1 (zh) * | 2019-08-09 | 2021-02-18 | 华为技术有限公司 | 匹配关系确定方法、重投影误差计算方法及相关装置 |
CN110686676A (zh) * | 2019-09-12 | 2020-01-14 | 深圳市银星智能科技股份有限公司 | 机器人重定位方法、装置及机器人 |
CN114918944A (zh) * | 2022-06-02 | 2022-08-19 | 哈尔滨理工大学 | 基于卷积神经网络融合的家庭服务机器人抓取检测方法 |
CN114982460B (zh) * | 2022-06-13 | 2024-04-30 | 深圳拓邦股份有限公司 | 一种割草机位置修正方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63124114A (ja) * | 1986-11-14 | 1988-05-27 | Hitachi Ltd | 移動体用環境認識装置 |
JP2008009533A (ja) * | 2006-06-27 | 2008-01-17 | Toyota Industries Corp | 位置検出システム |
WO2011145239A1 (ja) * | 2010-05-19 | 2011-11-24 | 国立大学法人東京工業大学 | 位置推定装置、位置推定方法及びプログラム |
JP2013508874A (ja) * | 2009-10-30 | 2013-03-07 | ユージン ロボット シーオー., エルティーディー. | 移動ロボットの位置認識のための地図生成および更新方法 |
WO2016013095A1 (ja) * | 2014-07-25 | 2016-01-28 | 株式会社日立製作所 | 自律移動装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6496754B2 (en) * | 2000-11-17 | 2002-12-17 | Samsung Kwangju Electronics Co., Ltd. | Mobile robot and course adjusting method thereof |
CN102768042B (zh) * | 2012-07-11 | 2015-06-24 | 清华大学 | 一种视觉-惯性组合导航方法 |
CN103644904A (zh) * | 2013-12-17 | 2014-03-19 | 上海电机学院 | 一种基于sift算法的视觉导航方法 |
CN104023228A (zh) * | 2014-06-12 | 2014-09-03 | 北京工业大学 | 一种基于全局运动估计的自适应室内视觉定位方法 |
CN104729506B (zh) * | 2015-03-27 | 2017-11-14 | 北京航空航天大学 | 一种视觉信息辅助的无人机自主导航定位方法 |
-
2017
- 2017-04-14 CN CN201710247355.4A patent/CN107357286A/zh active Pending
- 2017-04-14 JP JP2017080318A patent/JP6475772B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63124114A (ja) * | 1986-11-14 | 1988-05-27 | Hitachi Ltd | 移動体用環境認識装置 |
JP2008009533A (ja) * | 2006-06-27 | 2008-01-17 | Toyota Industries Corp | 位置検出システム |
JP2013508874A (ja) * | 2009-10-30 | 2013-03-07 | ユージン ロボット シーオー., エルティーディー. | 移動ロボットの位置認識のための地図生成および更新方法 |
WO2011145239A1 (ja) * | 2010-05-19 | 2011-11-24 | 国立大学法人東京工業大学 | 位置推定装置、位置推定方法及びプログラム |
WO2016013095A1 (ja) * | 2014-07-25 | 2016-01-28 | 株式会社日立製作所 | 自律移動装置 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109506624A (zh) * | 2018-10-31 | 2019-03-22 | 台州职业技术学院 | 一种基于移动机器人的分布式视觉定位系统及方法 |
CN109506624B (zh) * | 2018-10-31 | 2021-11-02 | 台州职业技术学院 | 一种基于移动机器人的分布式视觉定位系统及方法 |
CN109739254A (zh) * | 2018-11-20 | 2019-05-10 | 国网浙江省电力有限公司信息通信分公司 | 一种电力巡检中采用视觉图像定位的无人机及其定位方法 |
US11874133B2 (en) * | 2019-01-24 | 2024-01-16 | Imperial College Innovations Limited | Mapping an environment using a state of a robotic device |
US20210349469A1 (en) * | 2019-01-24 | 2021-11-11 | Imperial College Innovations Limited | Mapping an environment using a state of a robotic device |
CN110095111A (zh) * | 2019-05-10 | 2019-08-06 | 广东工业大学 | 一种地图场景的构建方法、构建系统及相关装置 |
CN110220476A (zh) * | 2019-06-03 | 2019-09-10 | 西安飞机工业(集团)有限责任公司 | 一种基于三维激光扫描的航空零件自动快速测量方法 |
CN112215887B (zh) * | 2019-07-09 | 2023-09-08 | 深圳市优必选科技股份有限公司 | 一种位姿确定方法、装置、存储介质及移动机器人 |
CN110727009A (zh) * | 2019-10-10 | 2020-01-24 | 武汉理工大学 | 一种基于车载环视图像的高精视觉地图构建和定位方法 |
CN110727009B (zh) * | 2019-10-10 | 2023-04-11 | 武汉理工大学 | 一种基于车载环视图像的高精视觉地图构建和定位方法 |
CN110968023A (zh) * | 2019-10-14 | 2020-04-07 | 北京航空航天大学 | 一种基于plc与工业相机的无人机视觉引导系统及方法 |
KR102154043B1 (ko) * | 2019-11-07 | 2020-09-09 | 주식회사 케이스랩 | 이동체의 위치 인식을 위한 비전 모듈 및 이동체의 위치 인식 방법 |
CN110824525A (zh) * | 2019-11-15 | 2020-02-21 | 中冶华天工程技术有限公司 | 机器人的自定位方法 |
US11662740B2 (en) | 2019-11-15 | 2023-05-30 | Kabushiki Kaisha Toshiba | Position estimating apparatus, method for determining position of movable apparatus, and non-transitory computer readable medium |
KR102196076B1 (ko) * | 2020-05-15 | 2020-12-29 | 주식회사 케이스랩 | 삼각-육각 지도 생성방법 및 장치와 이를 이용한 이동체의 광역위치 결정방법 및 장치 |
CN112415535A (zh) * | 2020-10-22 | 2021-02-26 | 武汉万集信息技术有限公司 | 导航系统和导航方法 |
CN112415535B (zh) * | 2020-10-22 | 2024-05-28 | 武汉万集信息技术有限公司 | 导航系统和导航方法 |
CN112621753A (zh) * | 2020-12-09 | 2021-04-09 | 浙江大华技术股份有限公司 | 机器人定位方法、电子设备及存储介质 |
CN113793379A (zh) * | 2021-08-12 | 2021-12-14 | 视辰信息科技(上海)有限公司 | 相机姿态求解方法及系统、设备和计算机可读存储介质 |
CN114415698B (zh) * | 2022-03-31 | 2022-11-29 | 深圳市普渡科技有限公司 | 机器人、机器人的定位方法、装置和计算机设备 |
CN114415698A (zh) * | 2022-03-31 | 2022-04-29 | 深圳市普渡科技有限公司 | 机器人、机器人的定位方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
JP6475772B2 (ja) | 2019-02-27 |
CN107357286A (zh) | 2017-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6475772B2 (ja) | 視覚的測位によるナビゲーション装置およびその方法 | |
Zhu et al. | Camvox: A low-cost and accurate lidar-assisted visual slam system | |
Caruso et al. | Large-scale direct SLAM for omnidirectional cameras | |
Lu et al. | Robust RGB-D odometry using point and line features | |
Urban et al. | Mlpnp-a real-time maximum likelihood solution to the perspective-n-point problem | |
CN102313536B (zh) | 基于机载双目视觉的障碍物感知方法 | |
US10260862B2 (en) | Pose estimation using sensors | |
Heng et al. | Leveraging image‐based localization for infrastructure‐based calibration of a multi‐camera rig | |
Alismail et al. | Automatic calibration of a range sensor and camera system | |
JP2015181042A (ja) | 移動オブジェクトの検出及び追跡 | |
JP2016516977A (ja) | 環境の3dモデルの生成 | |
Momeni-k et al. | Height estimation from a single camera view | |
CN104376575A (zh) | 一种基于多摄像头监控的行人计数方法和装置 | |
Lu et al. | Robustness to lighting variations: An RGB-D indoor visual odometry using line segments | |
Zhen et al. | LiDAR-enhanced structure-from-motion | |
Xiang et al. | Vilivo: Virtual lidar-visual odometry for an autonomous vehicle with a multi-camera system | |
Kostavelis et al. | Visual odometry for autonomous robot navigation through efficient outlier rejection | |
Schneider et al. | Real-time accurate geo-localization of a mav with omnidirectional visual odometry and gps | |
Murphy et al. | Experimental comparison of odometry approaches | |
CN109410272B (zh) | 一种变压器螺母识别与定位装置及方法 | |
Hong et al. | Performance evaluation of a pose estimation method based on the SwissRanger SR4000 | |
Buribayev et al. | The Optimized Distance Calculation Method with Stereo Camera for an Autonomous Tomato Harvesting | |
Nguyen et al. | Real-time obstacle detection for an autonomous wheelchair using stereoscopic cameras | |
KR101668649B1 (ko) | 주변 환경 모델링 방법 및 이를 수행하는 장치 | |
Shen et al. | Emv-lio: An efficient multiple vision aided lidar-inertial odometry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6475772 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |