KR20220058846A - Robot positioning method and apparatus, apparatus, storage medium - Google Patents

Robot positioning method and apparatus, apparatus, storage medium Download PDF

Info

Publication number
KR20220058846A
KR20220058846A KR1020217038571A KR20217038571A KR20220058846A KR 20220058846 A KR20220058846 A KR 20220058846A KR 1020217038571 A KR1020217038571 A KR 1020217038571A KR 20217038571 A KR20217038571 A KR 20217038571A KR 20220058846 A KR20220058846 A KR 20220058846A
Authority
KR
South Korea
Prior art keywords
robot
time
position information
image
obtaining
Prior art date
Application number
KR1020217038571A
Other languages
Korean (ko)
Inventor
다첸 야오
유에 헤
쳉 리
Original Assignee
베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20220058846A publication Critical patent/KR20220058846A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇 포지셔닝 방법 및 장치, 기기, 저장 매체에 관한 것으로, 상기 방법은, 제1 시각에서의 로봇의 제1 위치 정보를 획득하는 단계; 제2 시각에서의 로봇의 제2 이미지를 획득하고, 제2 이미지에 기반하여 제2 시각에서의 로봇의 제1 예상 위치 정보를 획득하는 단계; 제1 시각으로부터 제2 시각까지의 과정에서의 로봇의 움직임 파라미터를 수집하는 단계; 제1 위치 정보 및 움직임 파라미터에 기반하여 제2 시각에서의 로봇의 제2 예상 위치 정보를 계산하여 얻는 단계; 및 제1 예상 위치 정보 및 제2 예상 위치 정보를 통해 제2 시각에서의 로봇의 제2 위치 정보를 얻는 단계를 포함한다.The present invention relates to a robot positioning method and apparatus, apparatus and storage medium, the method comprising the steps of: acquiring first position information of the robot at a first time; acquiring a second image of the robot at a second time, and obtaining first expected position information of the robot at a second time based on the second image; collecting motion parameters of the robot in the process from the first time to the second time; calculating and obtaining second expected position information of the robot at a second time based on the first position information and the motion parameter; and obtaining second position information of the robot at a second time through the first expected position information and the second expected position information.

Description

로봇 포지셔닝 방법 및 장치, 기기, 저장 매체Robot positioning method and apparatus, apparatus, storage medium

관련 출원에 대한 상호 참조CROSS-REFERENCE TO RELATED APPLICATIONS

본 발명은 출원 번호가 202011157118.7이고, 출원일이 2020년 10월 26일이며, 발명 명칭이 “로봇 포지셔닝 방법 및 장치, 기기, 저장 매체”인 중국 특허 출원에 기반하여 제출하였고, 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 참조로서 본 발명에 인용된다.The present invention is filed based on a Chinese patent application with an application number of 202011157118.7, an application date of October 26, 2020, entitled "Robot Positioning Method and Apparatus, Apparatus, and Storage Medium", and priority of the Chinese patent application All contents of the above Chinese patent application are incorporated herein by reference.

본 발명은 인공 지능 기술 분야에 관한 것으로, 구체적으로, 로봇 포지셔닝 방법 및 장치, 기기, 저장 매체에 관한 것이다.The present invention relates to the field of artificial intelligence technology, and more particularly, to a robot positioning method and apparatus, an apparatus, and a storage medium.

최근 몇 년 동안, 인공 지능은 점점 인기가 높아지고 있으며, 여러 기능을 포함하고, 다양한 분야에서의 통합된 포지셔닝 시스템의 응용은 점점 더 일반화되고 있다. 예를 들어, 인공 지능(Artificial Intelligence, AI)교육에서, 수업 양측 당사자는 포지셔닝, 플래닝, 컨트롤, 멀티 에이전트 등 콘텐츠를 접하는 경우가 많으며, 그 중 가장 기본적이고 중요한 부분이 바로 로봇 포지셔닝 시스템이다.In recent years, artificial intelligence has become more and more popular, includes multiple functions, and the application of integrated positioning systems in various fields is becoming more and more common. For example, in artificial intelligence (AI) education, both parties in the class often encounter content such as positioning, planning, control, and multi-agent, and the most basic and important part is the robot positioning system.

본 발명은 로봇 포지셔닝 방법 및 장치, 기기, 저장 매체를 제공한다.The present invention provides a robot positioning method and apparatus, an apparatus, and a storage medium.

본 발명이 제공한 첫 번째 기술 방안은 로봇 포지셔닝 방법을 제공하는 것이고, 상기 방법은, The first technical solution provided by the present invention is to provide a robot positioning method, the method comprising:

제1 시각(time)에서의 로봇의 제1 위치 정보를 획득하는 단계; acquiring first position information of the robot at a first time;

제2 시각에서의 로봇의 제2 이미지를 획득하고, 상기 제2 이미지에 기반하여 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 획득하는 단계; obtaining a second image of the robot at a second time, and obtaining first expected position information of the robot at a second time based on the second image;

제1 시각으로부터 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 수집하는 단계; collecting motion parameters of the robot in a process from a first time to a second time;

상기 제1 위치 정보 및 상기 움직임 파라미터에 기반하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 계산하여 얻는 단계; 및 calculating and obtaining second expected position information of the robot at the second time based on the first position information and the motion parameter; and

상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 통해 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻는 단계를 포함한다.and obtaining second position information of the robot at the second time through the first expected position information and the second expected position information.

이러한 방식으로, 시각 시스템(visual system)의 검출 결과와 동력학 시스템의 검출 결과를 융합함으로써, 획득된 위치 정보로 하여금 더욱 정확하도록 한다.In this way, by fusing the detection result of the visual system and the detection result of the dynamic system, the obtained position information is made more accurate.

본 발명의 일부 실시예에 있어서, 상기 제1 시각에서의 로봇의 제1 위치 정보를 획득하는 단계는, In some embodiments of the present invention, obtaining the first position information of the robot at the first time comprises:

상기 제1 시각에서의 상기 로봇의 제1 이미지를 획득하는 단계; 및 acquiring a first image of the robot at the first time; and

상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 상기 제1 위치 정보를 획득하는 단계를 포함한다.and acquiring the first position information of the robot at the first time based on the first image.

본 발명의 일부 실시예에 있어서, 상기 제1 이미지는 제1 참조물을 포함하고, 상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 상기 제1 위치 정보를 획득하는 단계는, In some embodiments of the present invention, the first image includes a first reference, and obtaining the first position information of the robot at the first time based on the first image comprises:

시뮬레이션 샌드 테이블에서의 상기 제1 참조물을 획득하는 단계;obtaining the first reference in a simulation sand table;

상기 제1 이미지에서의 상기 제1 참조물의 픽셀 위치 및 상기 로봇의 제1 픽셀 위치를 결정하는 단계; determining a pixel position of the first reference object and a first pixel position of the robot in the first image;

제1 시각의 상기 시뮬레이션 샌드 테이블에서의 상기 제1 참조물의 시뮬레이션 위치를 결정하는 단계; determining a simulation position of the first reference object in the simulation sand table at a first time;

상기 제1 참조물의 픽셀 위치 및 상기 시뮬레이션 샌드 테이블에서의 상기 제1 참조물의 시뮬레이션 위치를 이용하여 제1 투영 관계를 계산하여 얻는 단계; 상기 제1 투영 관계 및 상기 로봇의 제1 픽셀 위치에 기반하여 상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 계산하여 얻는 단계; 및 calculating and obtaining a first projection relationship using the pixel position of the first reference and the simulated position of the first reference in the simulation sand table; calculating and obtaining a simulation position of the robot in the simulation sand table based on the first projection relationship and a first pixel position of the robot; and

상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 이용하여 제1 시각에서의 상기 로봇의 상기 제1 위치 정보를 결정하는 단계를 포함한다.and determining the first position information of the robot at a first time by using the simulation position of the robot in the simulation sand table.

이러한 방식으로, 시각 시스템을 이용하여 시뮬레이션 샌드 테이블의 방식을 통해 로봇의 초기 위치를 결정함으로써, 추가적으로 참조물을 캘리브레이션할 필요가 없고, 추가적인 캘리브레이션 시각을 감소시킨다.In this way, by using the visual system to determine the initial position of the robot by way of a simulation sand table, there is no need to calibrate the reference additionally, and the additional calibration time is reduced.

본 발명의 일부 실시예에 있어서, 상기 제2 이미지는 제2 참조물을 포함하고, 상기 제2 이미지에 기반하여 상기 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 획득하는 단계는, In some embodiments of the present invention, the second image includes a second reference, and the step of obtaining the first expected position information of the robot at the second time based on the second image comprises:

시뮬레이션 샌드 테이블에서의 상기 제2 참조물을 획득하는 단계;obtaining the second reference in a simulation sand table;

상기 제2 이미지에서의 상기 제2 참조물의 픽셀 위치 및 상기 로봇의 제2 픽셀 위치를 결정하는 단계;determining a pixel position of the second reference object and a second pixel position of the robot in the second image;

제2 시각의 상기 시뮬레이션 샌드 테이블에서의 상기 제2 참조물의 시뮬레이션 위치를 결정하는 단계;determining a simulation position of the second reference object in the simulation sand table at a second time;

상기 제2 참조물의 픽셀 위치 및 상기 시뮬레이션 샌드 테이블에서의 상기 제2 참조물의 시뮬레이션 위치를 이용하여 제2 투영 관계를 계산하여 얻는 단계; calculating and obtaining a second projection relationship using the pixel position of the second reference object and the simulated position of the second reference object in the simulation sand table;

상기 제2 투영 관계 및 상기 로봇의 제2 픽셀 위치에 기반하여 상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 계산하여 얻는 단계; 및 calculating and obtaining a simulation position of the robot in the simulation sand table based on the second projection relationship and a second pixel position of the robot; and

상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 이용하여 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 결정하는 단계를 포함한다.and determining first expected position information of the robot at a second time by using the simulation position of the robot in the simulation sand table.

이러한 방식으로, 시각 시스템을 이용하여 시뮬레이션 샌드 테이블의 방식을 통해 로봇의 종점 위치를 결정함으로써, 추가적으로 참조물을 캘리브레이션할 필요가 없고, 추가적인 캘리브레이션 시각을 감소시킨다.In this way, by using the visual system to determine the end-point position of the robot through the manner of a simulation sand table, there is no need to calibrate the reference additionally, and the additional calibration time is reduced.

본 발명의 일부 실시예에 있어서, 상기 제1 이미지에서의 상기 제1 참조물의 픽셀 위치 및 상기 로봇의 제1 픽셀 위치를 결정하는 단계는, In some embodiments of the present invention, determining the pixel position of the first reference object and the first pixel position of the robot in the first image comprises:

제1 딥러닝 네트워크를 이용하여 상기 제1 이미지에 대해 식별을 수행하여, 상기 제1 이미지에서의 상기 제1 참조물의 픽셀 위치 및 상기 로봇의 제1 픽셀 위치를 결정하는 단계를 포함하고, 상기 제2 이미지에서의 상기 제2 참조물의 픽셀 위치 및 상기 로봇의 제2 픽셀 위치를 결정하는 단계는, 제1 딥러닝 네트워크를 이용하여 상기 제2 이미지에 대해 식별을 수행하여, 상기 제2 이미지에서의 상기 제2 참조물의 픽셀 위치 및 상기 로봇의 제2 픽셀 위치를 결정하는 단계를 포함하고, 상기 제1 딥러닝 네트워크는 RCNN 딥 네트워크 구조, SSD 딥 네트워크 구조, Yolo 딥 네트워크 구조, RetinaNet 네트워크 구조 중 하나 또는 임의의 조합을 포함한다.performing identification on the first image using a first deep learning network to determine a pixel position of the first reference object and a first pixel position of the robot in the first image; The determining of the pixel position of the second reference object and the second pixel position of the robot in the second image includes performing identification on the second image using a first deep learning network, determining the pixel position of the second reference object and the second pixel position of the robot, wherein the first deep learning network is one of RCNN deep network structure, SSD deep network structure, Yolo deep network structure, RetinaNet network structure or any combination.

본 발명의 일부 실시예에 있어서, 상기 제1 시각에서의 상기 로봇의 제1 이미지를 획득하는 단계는, 상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 방향을 획득하는 단계를 더 포함한다.In some embodiments of the present invention, the step of obtaining the first image of the robot at the first time may further include obtaining the direction of the robot at the first time based on the first image. include

여기서, 상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 방향을 획득하는 단계는, 제2 딥러닝 네트워크를 이용하여 상기 로봇이 위치하고 있는 영역 이미지에 대해 식별을 수행하여, 상기 로봇의 방향을 결정하는 단계를 포함하고, 상기 제2 딥러닝 네트워크는 ResNet 딥 네트워크 구조, MobileNet 딥 네트워크 구조, GhostNet 딥 네트워크 구조, EfficientNet 딥 네트워크 중 하나 또는 임의의 조합을 포함한다.Here, in the step of obtaining the direction of the robot at the first time based on the first image, the identification of the area image in which the robot is located is performed using a second deep learning network, determining a direction, wherein the second deep learning network includes one or any combination of a ResNet deep network architecture, a MobileNet deep network architecture, a GhostNet deep network architecture, and an EfficientNet deep network.

이러한 방식으로, 로봇의 방향을 검출함으로써, 동력학 시스템을 통해 로봇의 위치 정보를 후속적으로 계산할 경우, 얻은 결과로 하여금 더욱 정확하도록 한다.In this way, by detecting the direction of the robot, it makes the result obtained more accurate when the position information of the robot is subsequently calculated through the dynamics system.

본 발명의 일부 실시예에 있어서, 상기 포지셔닝 방법은, In some embodiments of the present invention, the positioning method comprises:

상기 제1 시각에 상기 로봇의 이력 움직임 파라미터를 획득하는 단계를 더 포함하고, Further comprising the step of obtaining the historical motion parameter of the robot at the first time,

제1 시각으로부터 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 수집하는 단계는, Collecting the movement parameters of the robot in the process from the first time to the second time comprises:

상기 제2 시각에 상기 로봇의 현재 움직임 파라미터를 획득하는 단계; 및 acquiring a current motion parameter of the robot at the second time; and

상기 이력 움직임 파라미터 및 상기 현재 움직임 파라미터를 통해 제1 시각으로부터 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 획득하는 단계를 포함한다.and acquiring the motion parameter of the robot in the process from a first time to a second time through the historical motion parameter and the current motion parameter.

이러한 방식으로, 제1 시각으로부터 제2 시각까지의 과정에서의 로봇의 움직임 거리를 계산하고, 로봇의 방향과 결합함으로써, 동력학 시스템을 통해 로봇의 위치 정보를 후속적으로 계산할 경우, 얻은 결과로 하여금 더욱 정확하도록 한다.In this way, by calculating the movement distance of the robot in the process from the first time to the second time, and combining it with the direction of the robot, when the position information of the robot is subsequently calculated through the dynamics system, the result obtained make it more accurate.

본 발명의 일부 실시예에 있어서, 상기 제1 위치 정보 및 상기 움직임 파라미터에 기반하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 계산하여 얻는 단계는, In some embodiments of the present invention, the step of calculating and obtaining the second expected position information of the robot at the second time based on the first position information and the motion parameter comprises:

상기 제1 시각으로부터 상기 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 통해, 상기 제1 시각 내의 상기 로봇의 방향과 결합하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 획득하는 단계를 포함한다.Through the movement parameter of the robot in the process from the first time to the second time, it is combined with the direction of the robot in the first time to obtain second expected position information of the robot at the second time including the steps of

이러한 방식으로, 동력학 시스템을 이용하여 제2 시각에서의 로봇의 위치 정보를 검출함으로써, 하드웨어 비용을 절감한다.In this way, by using the dynamic system to detect the position information of the robot at the second time, the hardware cost is reduced.

본 발명의 일부 실시예에 있어서, 상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 통해 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻는 단계는, In some embodiments of the present invention, the step of obtaining the second position information of the robot at the second time through the first expected position information and the second expected position information comprises:

칼만 필터링(Kalman Filtering) 방식을 이용하여 상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보에 대해 가중 평균을 수행하여, 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻는 단계를 포함한다.and performing a weighted average on the first expected position information and the second expected position information using a Kalman filtering method to obtain second position information of the robot at the second time. .

이러한 방식으로, 시각 시스템이 획득한 위치 정보 및 동력학 시스템이 획득한 위치 정보에 대해 융합을 수행하여, 제2 시각에서의 로봇의 위치 정보를 획득함으로써, 포지셔닝 정확성을 향상시키고, 시스템의 배치 용이성을 증가시킨다.In this way, fusion is performed on the position information obtained by the visual system and the position information obtained by the dynamics system to obtain the position information of the robot at the second time, thereby improving the positioning accuracy and improving the ease of deployment of the system. increase

본 발명이 제공한 두 번째 기술 방안은 로봇 포지셔닝 장치를 제공하는 것이고, 상기 장치는, The second technical solution provided by the present invention is to provide a robot positioning device, the device comprising:

제1 시각에서의 로봇의 제1 위치 정보, 및 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 획득하도록 구성된 제1 위치 획득부;a first position acquiring unit configured to acquire first position information of the robot at a first time, and first expected position information of the robot at a second time;

제1 시각으로부터 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 수집하도록 구성된 파라미터 획득부; a parameter acquisition unit configured to collect movement parameters of the robot in a process from a first time to a second time;

상기 제1 위치 정보 및 상기 움직임 파라미터에 기반하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 계산하여 얻도록 구성된 제2 위치 획득부; a second position acquiring unit configured to calculate and obtain second expected position information of the robot at the second time based on the first position information and the motion parameter;

상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 통해 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻도록 구성된 교정부를 포함한다.and a calibration unit configured to obtain second position information of the robot at the second time through the first expected position information and the second expected position information.

본 발명이 제공한 세 번째 기술 방안은 메모리 및 프로세서를 포함하는 로봇 포지셔닝 기기이고, 상기 메모리에는 프로그램 명령어가 저장되어 있고, 상기 프로세서는 상기 메모리에서 상기 프로그램 명령어를 호출하여 상기 로봇 포지셔닝 방법을 실행한다.The third technical solution provided by the present invention is a robot positioning device including a memory and a processor, wherein a program instruction is stored in the memory, and the processor calls the program instruction from the memory to execute the robot positioning method .

본 발명이 제공한 네 번째 기술 방안은 컴퓨터 판독 가능한 저장 매체, 메모리 및 프로세서이고 여기서, 상기 메모리에는 프로그램 명령어가 저장되어 있고, 상기 프로세서는 상기 메모리에서 상기 프로그램 명령어를 호출하여 상기 로봇 포지셔닝 방법을 실행한다.A fourth technical solution provided by the present invention is a computer-readable storage medium, a memory and a processor, wherein the memory stores program instructions, and the processor calls the program instructions from the memory to execute the robot positioning method. do.

본 발명이 제공한 다섯 번째 기술 방안은, 컴퓨터 판독 가능한 코드를 포함하는 컴퓨터 프로그램이고, 상기 컴퓨터 판독 가능한 코드가 로봇 포지셔닝 기기에서 작동되어, 상기 로봇 포지셔닝 기기의 프로세스에 의해 실행될 경우, 상기 로봇 포지셔닝 방법을 실행한다.A fifth technical solution provided by the present invention is a computer program including a computer readable code, and when the computer readable code is operated in a robot positioning device and executed by a process of the robot positioning device, the robot positioning method run

본 발명에서 제공한 로봇 포지셔닝 방법은, 두 가지 상이한 방식을 통해 획득한 로봇 포지셔닝 결과, 즉 시각 시스템의 검출 결과와 동력학 시스템의 검출 결과를 융합하여, 로봇의 위치 정보를 얻는 방법으로서, 상기 포지셔닝 방법은 획득한 위치 정보로 하여금 더욱 정확하고, 로봇의 포지셔닝 정확성을 효과적으로 향상시킨다.The robot positioning method provided in the present invention is a method of obtaining position information of the robot by fusing the robot positioning result obtained through two different methods, that is, the detection result of the visual system and the detection result of the dynamic system, and the positioning method makes the acquired position information more accurate, and effectively improves the positioning accuracy of the robot.

본 발명의 실시예의 기술방안을 더욱 명확하게 설명하기 위해, 아래에서는 실시예에 관한 설명에서 이용하게 될 도면을 간략하게 소개하고자 하며, 아래 설명에서의 도면은 본 발명의 일부 실시예에 불과하며, 본 기술 분야에서의 통상의 기술자라면 창조성 노동을 부여하지 않는 전제 하에서도, 이러한 도면에 따라 기타 도면을 얻을 수 있음은 자명한 것이다.
도 1은 본 발명의 실시예에 의한 로봇 포지셔닝 방법의 일 실시예의 흐름 예시도이다.
도 2는 본 발명의 실시예에 의한 도 1의 단계 S11의 일 실시예의 흐름 예시도이다.
도 3은 본 발명의 실시예에 의한 도 1의 단계 S12의 일 실시예의 흐름 예시도이다.
도 4는 본 발명의 실시예에 의한 도 1의 단계 S13의 일 실시예의 흐름 예시도이다.
도 5는 본 발명의 실시예에 의한 로봇 포지셔닝 방법의 원리 예시도이다.
도 6은 본 발명의 실시예에 의한 로봇 포지셔닝 장치의 일 실시예의 구조 예시도이다.
도 7은 본 발명의 실시예에 의한 로봇 포지셔닝 기기의 일 실시예의 구조 예시도이다.
도 8은 본 발명의 실시예에 의한 컴퓨터 판독 가능한 저장 매체의 구조 예시도이다.
In order to more clearly explain the technical solutions of the embodiments of the present invention, the following will briefly introduce the drawings that will be used in the description of the embodiments, and the drawings in the description below are only some embodiments of the present invention, It is apparent that those skilled in the art can obtain other drawings according to these drawings, even under the premise that creative labor is not given.
1 is a flowchart illustrating an embodiment of a robot positioning method according to an embodiment of the present invention.
2 is a flowchart illustrating an embodiment of step S11 of FIG. 1 according to an embodiment of the present invention.
3 is a flowchart illustrating an embodiment of step S12 of FIG. 1 according to an embodiment of the present invention.
4 is a flowchart illustrating an embodiment of step S13 of FIG. 1 according to an embodiment of the present invention.
5 is a diagram illustrating the principle of a robot positioning method according to an embodiment of the present invention.
6 is a structural illustration of an embodiment of a robot positioning device according to an embodiment of the present invention.
7 is a structural illustration of an embodiment of a robot positioning device according to an embodiment of the present invention.
8 is a structural diagram of a computer-readable storage medium according to an embodiment of the present invention.

아래에 본 발명의 실시예의 도면을 참조하여, 본 발명의 실시예의 기술 방안을 명확하고 완전하게 설명하며, 설명된 실시예는 본 발명 실시예 중 일부일 뿐이며, 모든 실시예가 아닌 것은 명백하다. 본 발명의 실시예에 기반하여, 본 기술 분야 일반 기술자가 창조성 노동 없이 얻은 다른 실시예는 모두 본 발명의 보호 범위에 속한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The technical solutions of the embodiments of the present invention will be clearly and completely described below with reference to the drawings of the embodiments of the present invention, and it is clear that the described embodiments are only some of the embodiments of the present invention and not all embodiments. Based on the embodiment of the present invention, other embodiments obtained by a person skilled in the art without creative labor all fall within the protection scope of the present invention.

본 발명의 “제1”, “제2”, “제3”이라는 용어는 설명을 위한 목적일 뿐이고, 상대적 중요성을 나타내거나 암시하는 것, 또는 나타내는 기술적 특징의 개수를 암시적으로 지시하는 것으로 이해하여셔는 안된다. 이로부터 알다시피, “제1”, “제2”, “제3”으로 한정된 특징은 명시적 또는 암시적으로 상기 특징 중 적어도 하나를 포함할 수 있다. 본 발명의 설명에서 “복수 개”는 특별히 달리 정의되지 않는 한, 적어도 두개, 예를 들어 두개, 세개 등을 의미한다. 본 발명의 실시예 중 모든 방향성 지시(예를 들어 상, 하, 좌, 우, 앞, 뒤...)는 특정 자세(도면에 도시된 바와 같이)에서 각 부재 사이의 상대적인 위치 관계, 동작 상황 등을 해석하기 위한 것일 뿐이고, 상기 특정 자세가 변경될 경우, 상기 방향성 지시도 상응하게 변경된다. 또한, “포함” 및 “갖는다”라는 용어와 이들의 임의의 변형은 비배타적인 포함을 포함하도록 의도된다. 예를 들어, 일련의 단계 또는 유닛이 포함된 과정, 방법, 시스템, 제품 또는 기기는 이미 나열된 단계 또는 유닛에 한정되지 않고, 선택적으로 나열되지 않은 단계 또는 유닛을 더 포함하거나, 선택적으로 이러한 과정, 방법, 제품 또는 기기에 고유한 다른 단계 또는 유닛을 더 포함한다.The terms “first”, “second”, and “third” of the present invention are for illustrative purposes only, and are understood to indicate or imply relative importance, or to implicitly indicate the number of technical features to be represented. you must not do As will be appreciated from this, features defined as “first”, “second”, “third” may explicitly or implicitly include at least one of said features. In the description of the present invention, "a plurality" means at least two, for example, two, three, and the like, unless otherwise defined. All directional indications (eg, up, down, left, right, front, back...) among the embodiments of the present invention are relative positional relationship between each member in a specific posture (as shown in the drawing), operation situation It is only for interpreting the etc., and when the specific posture is changed, the direction indication is also changed correspondingly. Also, the terms “comprising” and “having” and any variations thereof are intended to include non-exclusive inclusions. For example, a process, method, system, product, or device comprising a series of steps or units is not limited to already listed steps or units, but may optionally further include, or optionally include, non-listed steps or units; It further includes other steps or units specific to the method, product, or device.

본 명세서에서의 “실시예”는, 실시예와 결합하여 설명된 특정 특징, 구조 또는 특성이 본 발명의 적어도 하나의 실시예에 포함될 수 있음을 의미한다. 명세서의 여러 곳에서의 상기 문구의 출현은 반드시 모두 동일한 실시예를 가리키는 것은 아니며, 다른 실시예와 상호 배타적인 독립적이거나 대안적인 실시예도 아니다. 본 기술 분야의 기술자는 본문에 설명된 실시예가 다른 실시예에 결합될 수 있음을 명백하고 암시적으로 이해한다.In the present specification, “embodiment” means that a specific feature, structure, or characteristic described in combination with an embodiment may be included in at least one embodiment of the present invention. The appearances of the phrases in various places in the specification are not necessarily all referring to the same embodiment, nor are they mutually exclusive or alternative embodiments of other embodiments. A person skilled in the art clearly and implicitly understands that the embodiments described herein may be combined with other embodiments.

응용 시나리오의 다양성으로 인해, 포지셔닝 시스템 배치의 어려움을 고려해야 하고, 환경 모델링에 많은 시간을 할애하면 종종 사용자 경험이 저하되고, 많은 시간이 낭비되며, 또한, 포지셔닝 시스템에 필요된 계산 자원이 매우 많지만, 종종 정확성이 부족하고, 비용이 높다. 예를 들어, 학교에서는 교육용으로 로봇을 많이 사용하는데, 로봇 내부에 고성능 컴퓨팅 기기를 내장하여 다양한 포지셔닝 알고리즘을 지원하면, 로봇의 비용이 크게 증가되고, 저비용으로는 고성능의 삽입식 포지셔닝 기기를 제조하기 어렵다. 따라서, 우리는 제한된 하드웨어 자원을 이용하여 더 나은 포지셔닝 효과를 구현하고, 고정밀, 저비용, 배치 용이한 로봇 포지셔닝 시스템을 얻도록 한다.Due to the variety of application scenarios, it is necessary to consider the difficulty of positioning system deployment, and spending a lot of time on environmental modeling often degrades the user experience, wastes a lot of time, and also requires a lot of computational resources for the positioning system, Often it lacks accuracy and is expensive. For example, schools use a lot of robots for educational purposes. If a high-performance computing device is embedded inside the robot to support various positioning algorithms, the cost of the robot increases significantly, and it is difficult to manufacture a high-performance implantable positioning device at low cost. it's difficult. Therefore, we use limited hardware resources to achieve a better positioning effect and obtain a high-precision, low-cost, easy-to-deploy robot positioning system.

본 발명의 실시예는 로봇 포지셔닝 방법 및 장치, 기기, 저장 매체를 제공한다. 제1 시각(time)에서의 로봇의 제1 위치 정보 및 제2 시각에서의 제1 예상 위치 정보를 획득하는 것을 통해, 제1 시각으로부터 제2 시각까지의 과정에서의 로봇의 움직임 파라미터를 수집하고, 제1 위치 정보 및 움직임 파라미터에 기반하여 제2 시각에서의 로봇의 제2 예상 위치 정보를 계산하여 얻고; 제1 예상 위치 정보 및 제2 예상 위치 정보를 통해 제2 시각에서의 로봇의 제2 위치 정보를 얻는다. 본 발명의 실시예는 시각 포지셔닝 시스템과 동력학 포지셔닝 시스템의 결합을 통해, 융합을 수행하여 정확성이 비교적 높은 로봇 포지셔닝 결과를 얻는다.An embodiment of the present invention provides a robot positioning method and apparatus, an apparatus, and a storage medium. Collecting movement parameters of the robot in the process from the first time to the second time by acquiring the first position information of the robot at the first time and the first expected position information at the second time, and , calculating and obtaining second expected position information of the robot at a second time based on the first position information and the motion parameter; The second position information of the robot at the second time is obtained through the first expected position information and the second expected position information. An embodiment of the present invention performs fusion through a combination of a visual positioning system and a dynamic positioning system to obtain a robot positioning result with relatively high accuracy.

여기서, 시각(visual) 포지셔닝 시스템은 카메라가 획득한 이미지에 기반하여 포지셔닝을 수행하고, 동력학 포지셔닝 시스템은 로봇의 초기 위치 및 로봇의 워킹 파라미터에 기반하여 포지셔닝을 수행한다. 시각 포지셔닝 시스템이 포지셔닝을 수행할 경우, 카메라를 통해 제2 시각에서의 로봇의 제2 이미지를 획득하고, 제2 이미지에 기반하여 시뮬레이션 샌드 테이블에 결합하여, 시뮬레이션 샌드 테이블에서의 로봇의 제1 예상 위치 정보를 결정하고; 동력학 포지셔닝 시스템이 포지셔닝을 수행할 경우, 제1 시각으로부터 제2 시각까지의 과정에서의 로봇의 움직임 파라미터 및 로봇의 방향을 획득하고, 즉 로봇의 방향 및 움직임 파라미터를 통해 로봇이 특정 방향으로 주행한 거리를 결정할 수 있고, 제1 시각에서의 로봇의 제1 위치 정보와 결합하면, 제2 시각에서의 로봇의 제2 예상 위치 정보를 획득한다. 여기서, 로봇의 포지셔닝 위치를 정확하게 하기 위해, 칼만 필터링을 통해 시각 포지셔닝 시스템이 획득한 제1 예상 위치 정보와 동력학 포지셔닝 시스템이 획득한 제2 예상 위치 정보를 융합하여, 즉 가중 평균을 수행하여, 최종적으로 정확한 제2 시각에서의 로봇의 제2 위치 정보를 획득한다.Here, the visual positioning system performs positioning based on the image acquired by the camera, and the dynamic positioning system performs positioning based on the initial position of the robot and the working parameters of the robot. When the visual positioning system performs positioning, obtain a second image of the robot at the second time through the camera, and combine it with the simulation sand table based on the second image, so that the first prediction of the robot in the simulation sand table is obtained. determine location information; When the dynamic positioning system performs positioning, it acquires the robot's movement parameters and the robot's direction in the process from the first time to the second time, that is, the robot moves in a specific direction through the robot's direction and movement parameters. The distance can be determined, and when combined with the first position information of the robot at the first time, the second expected position information of the robot at the second time is obtained. Here, in order to accurately determine the positioning position of the robot, the first expected position information obtained by the visual positioning system through Kalman filtering and the second expected position information obtained by the dynamic positioning system are fused, that is, by performing a weighted average, finally to acquire the second position information of the robot at an accurate second time.

로봇 포지셔닝 방법의 실행 주체는 로봇 포지셔닝 기기일 수 있고, 예를 들어 로봇 포지셔닝 방법은 단말 기기 또는 서버 또는 다른 처리 기기에 의해 실행될 수 있고, 여기서, 단말 기기는 사용자 기기(User Equipment, UE), 모바일 기기, 사용자 단말, 단말, 셀룰러 폰, 무선 전화, 개인용 정보 단말기(Personal Digital Assistant, PDA), 핸드 헬드 기기, 컴퓨팅 기기, 차량 탑재 기기, 웨어러블 기기 등일 수 있다. 일부 가능한 구현 방식에 있어서, 상기 로봇 포지셔닝 방법은 프로세서가 메모리에 저장된 컴퓨터 판독 가능한 명령어를 호출하는 방식을 통해 구현될 수 있다.The execution subject of the robot positioning method may be a robot positioning device, for example, the robot positioning method may be executed by a terminal device or a server or other processing device, where the terminal device is a user equipment (UE), a mobile device It may be a device, a user terminal, a terminal, a cellular phone, a wireless telephone, a personal digital assistant (PDA), a hand-held device, a computing device, an in-vehicle device, a wearable device, and the like. In some possible implementation manners, the robot positioning method may be implemented through a manner in which a processor calls computer readable instructions stored in a memory.

아래 도면 및 실시예를 결합하여 본 발명에 대해 상세히 설명하고자 한다.The present invention will be described in detail in conjunction with the drawings and examples below.

도 1을 참조하면, 본 발명의 실시예에 의한 로봇 포지셔닝 방법의 일 실시예의 흐름 예시도이고, 상기 방법은 아래 단계를 포함한다.Referring to FIG. 1 , it is a flowchart illustrating an embodiment of a robot positioning method according to an embodiment of the present invention, and the method includes the following steps.

단계 S11에 있어서, 제1 시각에서의 로봇의 제1 위치 정보를 획득한다.In step S11, first position information of the robot at the first time is acquired.

본 발명 실시예의 일 실시 형태에 있어서, 로봇 포지셔닝을 수행할 경우, 포지셔닝 시스템을 직접 이용하여 제1 시각에서의 로봇의 제1 위치 정보 및 제2 시각에서의 로봇의 제1 예상 위치 정보를 획득할 수 있고, 포지셔닝 시스템은 글로벌 포지셔닝 시스템(Global Positioning, GPS)의 포지셔닝 시스템일 수 있다.In one embodiment of the embodiment of the present invention, when performing robot positioning, the first position information of the robot at the first time and the first expected position information of the robot at the second time are obtained by using the positioning system directly. And, the positioning system may be a positioning system of a global positioning system (Global Positioning, GPS).

본 발명 실시예의 일 실시 형태에 있어서, 또한 카메라와 같은 촬상 장치를 통해 제1 시각에서의 로봇의 제1 이미지를 획득할 수 있다. 여기서, 로봇은 움직일 수 있는 기계 설비 또는 스마트 기기이며, 예를 들어 지게차, 기계식 트롤리 등이다.In one embodiment of the embodiment of the present invention, it is also possible to acquire a first image of the robot at a first time through an imaging device such as a camera. Here, the robot is a movable mechanical device or smart device, for example, a forklift, a mechanical trolley, or the like.

가능한 일 실시예에서, 카메라 내에는 타이머가 통합되어 있을 수 있고, 타이머의 설정 시간이 제1 시각에 도달할 경우, 카메라는 로봇에 대해 사진 촬영을 수행하여, 제1 이미지를 획득한다. 여기서, 카메라의 위치는 고정될 수 있고, 고정되지 않을 수도 있으며; 카메라의 촬영 각도는 고정될 수 있고, 고정되지 않을 수도 있으며; 여기서, 카메라는 특정된 위치에 설치되고 회전되지 않을 수 있고, 즉 촬영 범위가 고정될 수 있으며, 카메라는 또한 특정된 위치에 설치되고 회전될 수도 있으며, 즉 반사 범위가 변할 수 있으며; 물론 카메라는 또한 이동 가능한 기기에 설치될 수도 있다. 본 발명은 카메라가 로봇을 촬영할 수만 있으면 카메라의 위치와 촬영 범위에 대해 한정하지 않는다.In one possible embodiment, a timer may be integrated in the camera, and when the set time of the timer reaches the first time, the camera takes a picture of the robot to obtain a first image. Here, the position of the camera may or may not be fixed; The shooting angle of the camera may or may not be fixed; Here, the camera may be installed at a specified position and not rotated, that is, the shooting range may be fixed, and the camera may also be installed and rotated at the specified position, that is, the reflection range may change; Of course, the camera can also be installed on a mobile device. The present invention does not limit the position and shooting range of the camera as long as the camera can take a picture of the robot.

가능한 일 실시예에서, 카메라가 획득한 제1 이미지를 로봇 포지셔닝 기기에 업로드할 수 있고, 예를 들어 로봇 포지셔닝 기기와 카메라는 통신 연결될 수 있으며, 카메라가 제1 이미지를 획득한 후, 통신 연결을 통해 제1 이미지를 로봇 포지셔닝 기기에 송신하고, 다른 실시예에서는, 또한 카메라가 획득한 제1 이미지를 메모리 카드에 저장한 다음, 로봇 포지셔닝 기기에 업로드할 수 있으며, 로봇 포지셔닝 기기가 제1 이미지를 획득할 수만 있으면, 이에 대해 구체적으로 한정하지 않는다.In one possible embodiment, the first image acquired by the camera may be uploaded to the robot positioning device, for example, the robot positioning device and the camera may be communicatively connected, and after the camera acquires the first image, the communication connection is established to send the first image to the robot positioning device via As long as it can be obtained, it is not specifically limited thereto.

여기서, 제1 이미지를 로봇 포지셔닝 기기에 업로드하면, 로봇 포지셔닝 기기로 하여금 시각 시스템을 이용하여 제1 이미지에 기반하여 제1 시각에서의 로봇의 제1 위치 정보를 획득하도록 하고, 구체적으로는 계속하여 도 1을 참조한다.Here, when the first image is uploaded to the robot positioning device, the robot positioning device uses the visual system to acquire the first position information of the robot at the first time based on the first image, and specifically, continuously See FIG. 1 .

로봇 포지셔닝 기기는 시각 시스템을 이용하여 제1 이미지에 기반하여 제1 시각에서의 로봇의 제1 위치 정보를 획득하고, 가능한 일 실시예에서, 시나리오 모델링의 방식을 통해 제1 이미지와 결합하여, 로봇의 제1 위치 정보를 결정하며, 여기서 도 2를 참조하면, 본 발명의 실시예에 의한 도 1의 단계 S11의 일 실시예의 흐름 예시도이고, 구체적으로 아래와 같은 단계를 포함한다.The robot positioning device acquires the first position information of the robot at the first time based on the first image by using the visual system, and in one possible embodiment, combines it with the first image through the method of scenario modeling, determines the first location information of , and here, referring to FIG. 2 , it is a flowchart illustrating an embodiment of step S11 of FIG. 1 according to an embodiment of the present invention, and specifically includes the following steps.

단계 S111에 있어서, 시뮬레이션 샌드 테이블에서의 제1 참조물을 획득한다.In step S111, a first reference in the simulation sand table is obtained.

본 발명 실시예의 일 실시 형태에 있어서, 시뮬레이션 샌드 테이블을 구축하는 방식을 통해 로봇의 제1 위치 정보를 결정한다. 이해해야 할 것은, 구축된 시뮬레이션 샌드 테이블은 로봇이 위치하고 있는 공간의 시뮬레이션 설계도이다.In one embodiment of the embodiment of the present invention, the first position information of the robot is determined through a method of building a simulation sand table. It should be understood that the constructed simulation sand table is a simulation blueprint of the space where the robot is located.

여기서, 시뮬레이션 샌드 테이블은 로봇이 위치하고 있는 시나리오에 따라 구축되고, 시뮬레이션 샌드 테이블은 로봇이 위치하고 있는 시나리오와 1:1 비율에 따라 구축될 수 있으며, 예를 들어, 시뮬레이션 샌드 테이블에서의 모든 객체의 크기, 위치, 좌표와 로봇이 위치하고 있는 시나리오에서의 모든 객체의 크기, 위치, 좌표는 동일하다. 물론, 시뮬레이션 샌드 테이블은 또한 1:2 비율에 따라 구축될 수도 있으며, 예를 들어, 시뮬레이션 샌드 테이블에서의 모든 객체의 크기, 위치, 좌표는 로봇이 위치하고 있는 시나리오에서의 모든 객체의 크기, 위치, 좌표의 2배 또는 1/2배이며, 물론, 이는 다른 비율에 따라 시뮬레이션 샌드 테이블을 구축할 수도 있고, 본 발명은 이에 대해 한정하지 않는다.Here, the simulation sand table is built according to the scenario where the robot is located, and the simulation sand table can be built according to the scenario where the robot is located in a 1:1 ratio, for example, the size of all objects in the simulation sand table. , position, coordinates and the size, position, and coordinates of all objects in the scenario where the robot is located are the same. Of course, the simulation sand table can also be built according to a 1:2 ratio, for example, the size, position, and coordinates of all objects in the simulation sand table are the size, position, and coordinates of all objects in the scenario where the robot is located. It is twice or 1/2 times the coordinates, of course, it is also possible to build the simulation sand table according to other ratios, and the present invention is not limited thereto.

가능한 일 실시예에서, 계산의 간편성을 고려하여, 1:1의 비율을 사용하여 시뮬레이션 샌드 테이블을 구축할 수 있고, 후속 계산 과정에서 비율 환산을 수행할 필요가 없으므로 계산양을 줄인다. 다른 실시예에 있어서, 시뮬레이션 샌드 테이블의 점유 공간을 고려하면, 예를 들어, 로봇이 위차하고 있는 시나리오가 너무 큰 경우, 1:2, 1:3, 1:4 등 비율을 사용하여 시뮬레이션 샌드 테이블을 구축하여, 시뮬레이션 샌드 테이블의 점유 공간을 줄일 수 있다. 예를 들어, 상기 모든 과정은 로봇 포지셔닝 기기에서 수행될 수 있고, 로봇 포지셔닝 기기에서 시뮬레이션 샌드 테이블을 구축하며, 로봇 포지셔닝 기기가 카메라로부터 제1 이미지를 획득한 경우, 로봇 포지셔닝 기기는 시각 시스템을 이용하여 시뮬레이션 샌드 테이블 및 제1 이미지에 기반하여 로봇의 제1 위치 정보를 결정한다.In one possible embodiment, in consideration of the simplicity of calculation, a simulation sand table may be built using a ratio of 1:1, and there is no need to perform ratio conversion in a subsequent calculation process, thereby reducing the amount of calculation. In another embodiment, taking into account the space occupied by the simulation sand table, for example, when the scenario where the robot is positioned is too large, the simulation sand table using a ratio of 1:2, 1:3, 1:4, etc. By building this, it is possible to reduce the space occupied by the simulation sand table. For example, all of the above processes may be performed in a robot positioning device, a simulation sand table is built in the robot positioning device, and when the robot positioning device acquires the first image from the camera, the robot positioning device uses a visual system to determine the first position information of the robot based on the simulation sand table and the first image.

여기서, 시각 시스템을 이용하여 로봇에 대해 포지셔닝을 수행할 경우, 제1 이미지 및 시뮬레이션 샌드 테이블에는 동시에 하나의 제1 참조물이 있어야 하고, 상기 제1 참조물은 제1 이미지가 시뮬레이션 샌드 테이블에 투영된 제1 투영 관계를 계산하기 위해 사용될 수 있다. 여기서, 제1 참조물은 제1 이미지에 따라 선택할 수 있고, 예를 들어, 로봇 이외, 제1 이미지는 시뮬레이션 샌드 테이블에서와 동일한 테이블을 더 포함하여, 테이블을 제1 참조물로 사용할 수 있으며, 또 예를 들어, 로봇 이외, 제1 이미지는 시뮬레이션 샌드 테이블에서와 동일한 티비를 더 포함하여, 티비를 제1 참조물로 사용할 수 있고, 즉 제1 참조물은 제1 이미지와 시뮬레이션 샌드 테이블에서 공유되는 객체이다.Here, when positioning is performed on the robot using the visual system, there must be one first reference object in the first image and the simulation sand table at the same time, and the first reference object is the first image projected on the simulation sand table can be used to calculate the first projection relation. Here, the first reference can be selected according to the first image, for example, other than the robot, the first image further includes the same table as in the simulation sand table, so that the table can be used as the first reference, Also for example, in addition to the robot, the first image further includes the same TV as in the simulation sand table, so that the TV can be used as the first reference, that is, the first reference is shared with the first image in the simulation sand table object that becomes

단계 S112에 있어서, 제1 이미지에서의 제1 참조물의 픽셀 위치 및 로봇의 제1 픽셀 위치를 결정한다.In step S112, a pixel position of a first reference object in the first image and a first pixel position of the robot are determined.

일 실시예에 있어서, 제1 딥러닝 네트워크를 이용하여 제1 이미지에 대해 식별을 수행하여, 제1 이미지에서의 제1 참조물의 픽셀 위치, 및 로봇의 제1 픽셀 위치를 결정할 수 있다.In an embodiment, identification may be performed on the first image using the first deep learning network to determine the pixel position of the first reference in the first image, and the first pixel position of the robot.

일 실시예에 있어서, 제1 딥러닝 네트워크는 포지셔닝 기능을 가진 딥러닝 네트워크를 통합한 모델일 수 있고, 제1 이미지를 상기 모델에 입력하면, 상기 모델은 제1 이미지에 대해 식별을 수행하여, 제1 이미지에서의 제1 참조물의 픽셀 위치 및 제1 이미지에서의 로봇의 제1 픽셀 위치를 획득한다.In one embodiment, the first deep learning network may be a model integrating a deep learning network with a positioning function, and when a first image is input to the model, the model performs identification on the first image, Obtain a pixel position of the first reference in the first image and a first pixel position of the robot in the first image.

일 실시예의 일 실시형태에 있어서, 제1 딥러닝 네트워크를 이용하여 제1 이미지를 검출하여 제1 이미지에서의 제1 참조물의 픽셀 위치 및 제1 이미지에서의 로봇의 제1 픽셀 위치를 결정하고, 제1 딥러닝 네트워크는 타깃 검출(Region-CNN, RCNN) 딥 네트워크 구조, 타깃 검출(Single Shot MultiBox Detector, SSD) 딥 네트워크 구조, 타깃 검출(You Only Look Once, Yolo) 딥 네트워크 구조 및 RetinaNet 네트워크 구조 등을 포함할 수 있다.In an embodiment of one embodiment, detecting the first image using the first deep learning network to determine the pixel position of the first reference in the first image and the first pixel position of the robot in the first image; The first deep learning network includes a target detection (Region-CNN, RCNN) deep network structure, a target detection (Single Shot MultiBox Detector, SSD) deep network structure, a target detection (You Only Look Once, Yolo) deep network structure, and a RetinaNet network structure. and the like.

일 실시예의 실시형태에 있어서, 비용과 위치 좌표 검출의 정확성을 고려하여, Yolo 딥 네트워크 구조를 통해 위치 좌표의 검출을 수행할 수 있다. 여기서, Yolo 딥 네트워크 구조에서의 Yolo-tiny 딥 네트워크 구조를 사용하여 검출을 수행할 수 있다.In an embodiment of one embodiment, in consideration of cost and accuracy of location coordinate detection, the location coordinate detection may be performed through the Yolo deep network structure. Here, detection may be performed using the Yolo-tiny deep network structure in the Yolo deep network structure.

Yolo 딥 네트워크 구조에서, 알고리즘의 사고 방식은 전체 이미지를 일부 그리드로 나누어, 셀 그리드에서 중심이 그리드 내 객체에 있는 일부 가능한 경계 프레임을 예측하고, 신뢰도를 제공함으로써, 이러한 알고리즘은, 한 단계만으로 객체 검출 프레임의 결과를 얻을 수 있어, 두 단계의 Faster-RCNN 시리즈 알고리즘에 비해 알고리즘의 속도가 더 빠르다. 응용 시나리오에서 검출해야 할 객체의 외형, 색상은 상대적으로 고정되었기 때문에, 이러한 빠른 알고리즘에 작은 네트워크 구조에 맞추는 검출은 정확도가 높고, 동시에 계산 자원의 점유 공간이 작기 때문에, 모바일단 운산 속도가 비교적 느린 중앙 처리 장치(central processing unit, CPU), 예를 들어 라즈베리파이(Raspberry Pi)에서 필요한 실시간 검출 효과를 달성할 수 있어, 필요되는 비용이 더 낮다.In the Yolo deep network architecture, the algorithm's mindset divides the whole image into some grids, predicting some possible bounding frames in the cell grid whose center is on the objects in the grid, and by providing confidence, these algorithms can Since the result of detection frame can be obtained, the speed of the algorithm is faster than that of the two-step Faster-RCNN series algorithm. Since the shape and color of the object to be detected in the application scenario are relatively fixed, the detection according to the small network structure for such a fast algorithm has high accuracy, and at the same time, because the space occupied by the computational resources is small, the mobile terminal calculation speed is relatively slow The required real-time detection effect can be achieved in a central processing unit (CPU), for example, a Raspberry Pi, so that the required cost is lower.

여기서, 제1 이미지에서 획득한 제1 참조물의 픽셀 위치 및 상기 로봇의 제1 픽셀 위치는 대표적 포인트일 수 있으며, 예를 들어 제1 이미지에서 제1 참조물의 중심 포인트 픽셀 위치 및 로봇의 중심 포인트 픽셀 위치를 획득할 수 있고, 또한 제1 참조물의 프레임의 픽셀 위치 및 로봇의 프레임의 픽셀 위치를 획득할 수 있고, 또한 제1 참조물 프레임의 대각선의 픽셀 위치 및 로봇의 프레임의 대각선의 픽셀 위치를 선택할 수 있으며, 이에 대해 한정하지 않는다.Here, the pixel position of the first reference object and the first pixel position of the robot obtained in the first image may be representative points, for example, the pixel position of the central point of the first reference and the pixel of the central point of the robot in the first image obtain the position, and also obtain the pixel position of the frame of the first reference object and the pixel position of the frame of the robot, and also obtain the pixel position of the diagonal of the frame of the first reference and the pixel position of the diagonal of the frame of the robot may be selected, but is not limited thereto.

이미지는 복수 개의 R(레드 서브 픽셀), G(그린 서브 픽셀), B(블루 서브 픽셀) 픽셀 포인트를 중첩하여 상이한 색상을 생성하여 구성한 것이다. 따라서 제1 딥러닝 네트워크를 이용하여 로봇 및 제1 참조물의 제1 이미지에서의 픽셀 위치를 획득할 수 있고, 여기서, 로봇이 제1 이미지에서의 제1 픽셀 위치가 이미지에서의 서브 픽셀의 위치이다.An image is constructed by overlapping a plurality of R (red sub-pixel), G (green sub-pixel), and B (blue sub-pixel) pixel points to create different colors. Therefore, the first deep learning network can be used to obtain the pixel positions in the first image of the robot and the first reference, where the robot is the first pixel position in the first image is the position of the sub-pixel in the image .

단계 S113에 있어서, 제1 시각에서의 시뮬레이션 샌드 테이블에서의 제1 참조물의 시뮬레이션 위치를 결정한다.In step S113, the simulation position of the first reference object in the simulation sand table at the first time is determined.

여기서, 제1 이미지에서 선택된 제1 참조물과 시뮬레이션 샌드 테이블에서 선택된 제1 참조물은 동일한 객체이고, 시뮬레이션 샌드 테이블을 구축한 후, 시뮬레이션 샌드 테이블에서의 모든 객체의 시뮬레이션 위치를 모두 이미 알려진 것이다.Here, the first reference object selected from the first image and the first reference object selected from the simulation sand table are the same object, and after the simulation sand table is built, the simulation positions of all objects in the simulation sand table are already known.

본 발명의 실시예에 있어서, 제1 참조물의 시뮬레이션 위치를 획득할 경우, 제1 참조물의 픽셀 위치에 대응하여 결정해야 한다. 예를 들어, 일 실시예에 있어서, 획득된 제1 참조물의 픽셀 위치가 제1 참조물의 중심 포인트의 픽셀 위치인 경우, 획득된 제1 참조물의 시뮬레이션 위치가 제1 참조물의 중심 포인트의 시뮬레이션 위치이고; 또 예를 들어, 획득된 제1 참조물의 픽셀 위치가 제1 참조물의 프레임의 픽셀 위치인 경우, 획득된 제1 참조물의 시뮬레이션 위치가 제1 참조물의 프레임의 시뮬레이션 위치이다.In an embodiment of the present invention, when acquiring the simulated position of the first reference object, it should be determined corresponding to the pixel position of the first reference object. For example, in one embodiment, when the pixel position of the obtained first reference is the pixel position of the center point of the first reference, the simulated position of the obtained first reference is the simulated position of the center point of the first reference ; Also for example, when the pixel position of the obtained first reference object is the pixel position of the frame of the first reference object, the simulated position of the obtained first reference object is the simulation position of the frame of the first reference object.

단계 S114에 있어서, 제1 참조물의 픽셀 위치 및 시뮬레이션 샌드 테이블에서의 제1 참조물의 시뮬레이션 위치를 이용하여 제1 투영 관계를 계산하여 얻는다.In step S114, a first projection relationship is calculated and obtained by using the pixel position of the first reference object and the simulation position of the first reference object in the simulation sand table.

여기서, 상기 단계 S112 및 단계 S113의 방식을 통해 제1 이미지에서의 제1 참조물의 픽셀 위치 및 시뮬레이션 샌드 테이블에서의 제1 참조물의 시뮬레이션 위치를 결정한 후, 제1 이미지에서의 제1 참조물의 픽셀 위치 및 시뮬레이션 샌드 테이블에서의 제1 참조물의 시뮬레이션 위치를 이용하여 제1 투영 관계를 계산하여 얻을 수 있다.Here, after determining the pixel position of the first reference object in the first image and the simulation position of the first reference object in the simulation sand table through the above steps S112 and S113, the pixel position of the first reference object in the first image and calculating the first projection relationship using the simulation position of the first reference object in the simulation sand table.

일 실시예에 있어서, 획득된 제1 이미지에서의 제1 참조물의 픽셀 위치가 제1 참조물의 중심 포인트 픽셀 위치이고, 시뮬레이션 샌드 테이블에서의 제1 참조물의 시뮬레이션 위치가 제1 참조물의 중심 포인트 시뮬레이션 위치라고 가정한다. 여기서, 제1 참조물의 중심 포인트 픽셀 위치가 (u, v, w)이고, 제1 참조물의 중심 포인트 시뮬레이션 위치가 (x’, y’, w’)라고 가정하면, 제1 참조물의 중심 포인트 픽셀 위치(u, v, w) 및 제1 참조물의 중심 포인트 시뮬레이션 위치에 기반하여 관계 방정식을 구축한다.In one embodiment, the pixel position of the first reference in the acquired first image is the center point pixel position of the first reference, and the simulation position of the first reference in the simulation sand table is the center point simulation position of the first reference Assume that Here, assuming that the center point pixel position of the first reference is (u, v, w) and the center point simulation position of the first reference is (x', y', w'), the center point pixel of the first reference A relational equation is constructed based on the position (u, v, w) and the simulated position of the center point of the first reference object.

제1 참조물의 중심 포인트 픽셀 위치(u, v, w) 및 제1 참조물의 중심 포인트 시뮬레이션 위치를 통해 구축한 관계 방정식은 아래 공식(1)과 같다.A relational equation constructed through the pixel positions (u, v, w) of the center point of the first reference and the simulated position of the center point of the first reference is the following formula (1).

Figure pct00001
(1)
Figure pct00001
(One)

여기서, 공식(1)에서,

Figure pct00002
는 제1 투영 관계이다.Here, in formula (1),
Figure pct00002
is the first projection relationship.

본 발명의 실시예에 있어서, 선택해야 할 참조물은 세개 이상이고, 복수 개의 참조물의 중심 포인트의 제1 이미지에서의 픽셀 위치 및 시뮬레이션 샌드 테이블에서의 시뮬레이션 위치를 각각 획득함으로써, 상기 공식(1)의 방식을 통해 여러 세트의 관계 방정식을 구축하고, 값을 구한다. 얻은 결과가 일치하지 않을 경우, 가중 평균 등 방법을 통해 복수 개 투영 관계에 대해 처리를 수행하여, 정확한 결과를 얻는다. 여기서, 동일한 제1 이미지에서, 상이한 제1 참조물을 시뮬레이션 샌드 테이블에 투영한 제1 투영 관계는 동일하다.In the embodiment of the present invention, there are three or more references to be selected, and the above formula (1) Build several sets of relational equations through the method of If the obtained results do not match, processing is performed on a plurality of projection relationships through a method such as weighted average to obtain accurate results. Here, in the same first image, the first projection relationship of different first references to the simulation sand table is the same.

일 실시예에 있어서, 제1 이미지는 2차원 이미지이기 때문에, 획득된 제1 참조물이 제1 이미지에서의 위치 좌표도 2차원 좌표이고, 따라서, 제1 이미지에서의 제1 참조물의 픽셀 위치(u, v, w)의 w는 상수이며, Z좌표가 나타내는 숫자가 아니다. 여기서, w는 1일 수 있다. 구체적으로, 모든 객체는 지면을 기준으로 설정되기 때문에, 따라서, 본 기술 방안에서 구축한 시뮬레이션 샌드 테이블은 2차원 시뮬레이션 샌드 테이블이고, 따라서, 시뮬레이션 샌드 테이블에서의 제1 참조물의 시뮬레이션 위치 (x’, y’, w’)도 2차원 좌표이며, 즉 w’도 상수이고, 마찬가지로 Z좌표가 나타내는 숫자가 아니다. 여기서, w’도 1일 수 있다. 따라서 공식(1)에 따른 제1 투영 관계에서의 오른쪽 하단 모서리 숫자 a_33은 항상 1이다.In one embodiment, since the first image is a two-dimensional image, the position coordinates of the obtained first reference in the first image are also two-dimensional coordinates, and thus the pixel position of the first reference in the first image ( w of u, v, w) is a constant and is not a number indicated by the Z coordinate. Here, w may be 1. Specifically, since all objects are set with respect to the ground, the simulation sand table constructed in the present technical solution is a two-dimensional simulation sand table, and, therefore, the simulation position (x', y', w') are also two-dimensional coordinates, that is, w' is also a constant, and likewise, it is not a number indicated by the Z coordinate. Here, w' may also be 1. Therefore, the lower right corner number a_33 in the first projection relation according to formula (1) is always 1.

공식(1)에서의 제1 투영 관계에는 모두 8개의 미지수가 있고, 이 8개 미지수의 결과를 구해야 하며, 4쌍의 좌표를 계산해야 한다. 여기서, 매 좌표 쌍은 하나의 제1 이미지에서의 픽셀 위치와 하나의 시뮬레이션 샌드 테이블에서의 시뮬레이션 위치를 포함한다. 상기 4쌍 좌표는 동일한 제1 참조물에서 선택될 수 있고, 동일한 제1 참조물로부터 제1 이미지에 위치한 픽셀 위치를 4개 선택한 후, 시뮬레이션 샌드 테이블에 위치한 시뮬레이션 위치를 4개 더 선택한다. 여기서, 상기 제1 참조물은 관계 방정식을 구축할 경우에 사용된 제1 참조물과 동일한 제1 참조물일 수 있고, 상이한 제1 참조물일 수도 있으며, 선택된 4개 포인트는, 관계 방정식을 구축할 경우에 사용된 제1 참조물로부터 선택된 포인트와 동일할 수 있고, 상이할 수도 있다.In the first projection relation in Equation (1), there are all 8 unknowns, the results of these 8 unknowns must be obtained, and 4 pairs of coordinates must be calculated. Here, each coordinate pair includes a pixel position in one first image and a simulation position in one simulation sand table. The four pairs of coordinates may be selected from the same first reference object, and after selecting four pixel positions located in the first image from the same first reference object, four more simulation positions located in the simulation sand table are selected. Here, the first reference may be the same first reference as the first reference used when constructing the relational equation, or may be a different first reference, and the selected four points are, when constructing the relational equation It may be the same as or different from the point selected from the first reference used in .

여기서, 관계 방정식의 값을 구할 경우, 제1 투영 관계 계산 결과의 정확성 및 완건성(Robustness)을 효과적으로 향상시키기 위해, 랜덤 샘플 일치성(Random Sample Consensus, RANSAC) 알고리즘을 이용하여 계산하여 최종적으로 제1 투영 관계를 출력할 수 있다. 여기서, 랜덤 샘플 일치성 알고리즘은 “이상점(outlier)”을 포함한 하나의 관찰 데이터 세트로부터, 반복 방식을 통해 수학 모델의 파라미터를 추정할 수 있어, 제1 투영 관계 계산의 정확성 및 완건성을 향상시킬 수 있다.Here, when the value of the relational equation is obtained, in order to effectively improve the accuracy and robustness of the calculation result of the first projection relation, it is calculated using a Random Sample Consensus (RANSAC) algorithm and finally the 1 You can output the projection relationship. Here, the random sample consistency algorithm can estimate the parameters of the mathematical model through an iterative method from one observation data set including “outliers”, improving the accuracy and robustness of the calculation of the first projection relationship. can do it

본 발명의 실시예는 제1 이미지에서의 제1 참조물의 픽셀 위치 및 시뮬레이션 샌드 테이블에서의 시뮬레이션 위치를 통해 관계 방정식을 구축하고, 상기 관계 방정식의 값을 구하여, 제1 투영 관계를 얻는다. 여기서, 랜덤 샘플 일치성 알고리즘과 결합하여 계산하는 것을 통해, 제1 투영 관계 계산의 정확성 및 완건성을 향상시킨다.An embodiment of the present invention establishes a relational equation through the pixel position of the first reference in the first image and the simulated position in the simulation sand table, and obtains a value of the relational equation to obtain a first projection relation. Here, through the calculation in combination with the random sample coincidence algorithm, the accuracy and robustness of the calculation of the first projection relationship are improved.

단계 S115에 있어서, 제1 투영 관계 및 로봇의 제1 픽셀 위치에 기반하여 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 계산하여 얻는다.In step S115, the simulation position of the robot in the simulation sand table is calculated and obtained based on the first projection relationship and the first pixel position of the robot.

본 발명의 실시예에 있어서, 단계 S112에서 제1 이미지에서의 로봇의 제1 픽셀 위치를 이미 획득하였고, 단계 S114에서는 제1 이미지를 시뮬레이션 샌드 테이블에 투영한 제1 투영 관계를 이미 획득한 경우, 제1 투영 관계 및 로봇의 제1 픽셀 위치를 통해 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 계산하여 얻을 수 있다. 여기서, 상기 공식(1)의 방식을 통해 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 결정한다.In an embodiment of the present invention, when the first pixel position of the robot in the first image has already been obtained in step S112, and the first projection relationship of the first image projected on the simulation sand table is already obtained in step S114, It can be obtained by calculating the simulation position of the robot in the simulation sand table through the first projection relationship and the first pixel position of the robot. Here, the simulation position of the robot in the simulation sand table is determined through the method of formula (1) above.

단계 S116에 있어서, 상기 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 이용하여 제1 시각에서의 로봇의 제1 위치 정보를 결정한다.In step S116, first position information of the robot at the first time is determined using the simulation position of the robot in the simulation sand table.

일 실시예에 있어서, 시뮬레이션 샌드 테이블이 현실 시나리오의 1:1의 비율로 구축될 경우, 계산하여 얻을 수 있는 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치가 제1 시각에서의 로봇의 제1 위치 정보이고; 시뮬레이션 샌드 테이블이 현실 시나리오의 1:2의 비율로 구축될 경우, 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 계산하여 얻은 후, 관련 비율을 통해 환산하여 제1 시각에서의 로봇의 제1 위치 정보를 얻는다.In one embodiment, when the simulation sand table is built at a ratio of 1:1 of the real scenario, the simulation position of the robot in the simulation sand table that can be calculated and obtained is the first position information of the robot at the first time ; When the simulation sand table is built at a ratio of 1:2 of the real scenario, after calculating the simulation position of the robot in the simulation sand table, it is converted through the related ratio to obtain the first position information of the robot at the first time. get

본 발명의 실시예는 시뮬레이션 샌드 테이블을 구축하여, 시뮬레이션 샌드 테이블에 존재하는 객체를 참조물로 사용하는 것에 따라 제1 투영 관계 계산을 수행하고, 상기 방법은 샌드 테이블에 추가적으로 마커를 설정할 필요가 없기 때문에, 작업이 간단하며; 딥러닝을 통해 제1 이미지에서의 로봇의 픽셀 위치를 식별하고, 제1 투영 관계와 결합하여 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 결정하며, 제1 시각에서의 로봇의 제1 위치 정보를 결정한다. 이러한 로봇의 포지셔닝 과정은 작업을 단순화하고 비용을 줄이며 사용자 경험을 크게 향상시킨다.An embodiment of the present invention builds a simulation sand table, performs the first projection relationship calculation according to using an object existing in the simulation sand table as a reference, and the method does not require additional markers to be set in the sand table Therefore, the operation is simple; Identify the pixel position of the robot in the first image through deep learning, combine with the first projection relationship to determine the simulation position of the robot in the simulation sand table, and determine the first position information of the robot at the first time do. The positioning process of these robots simplifies the operation, reduces costs, and greatly improves the user experience.

일 실시예에 있어서, 제1 시각에서의 로봇의 제1 위치 정보를 획득할 경우, 로봇의 방향을 검출, 즉 로봇의 각도를 검출해야 한다.In one embodiment, when acquiring the first position information of the robot at the first time, it is necessary to detect the direction of the robot, that is, to detect the angle of the robot.

여기서, 각도 자세 예상 모델을 통해 로봇의 방향을 검출할 수 있다. 여기서, 먼저 제1 딥러닝 네트워크를 이용하여 제1 이미지에 대해 식별을 수행하고, 제1 이미지에서 로봇의 위치를 획득하며; 다음으로, 로봇이 위치하고 있는 영역 이미지를 추출하고, 추출한 영역 이미지를 각도 예상 모델에 입력하여, 상기 각도 예상 모델을 통해 로봇의 각도를 검출하여, 로봇의 방향을 얻는다. 여기서, 로봇의 방향을 획득한 후, 제1 시각으로부터 제2 시각 내의 로봇의 움직임 방향을 알 수 있다.Here, the direction of the robot may be detected through the angular posture prediction model. Here, first performing identification on the first image by using the first deep learning network, and obtaining the position of the robot in the first image; Next, the area image where the robot is located is extracted, the extracted area image is input to the angle prediction model, the angle of the robot is detected through the angle prediction model, and the direction of the robot is obtained. Here, after obtaining the direction of the robot, it is possible to know the direction of movement of the robot from the first time to the second time.

여기서, 각도 예상 모델에는 제2 딥러닝 네트워크가 통합되어 있을 수 있고, 제2 딥러닝 네트워크를 이용하여 로봇이 위치하고 있는 영역 이미지에 대해 식별을 수행하여, 로봇의 방향을 결정한다. 여기서, 제2 딥러닝 네트워크는 예를 들어, ResNet 딥 네트워크 구조, MobileNet 딥 네트워크 구조, GhostNet 딥 네트워크 구조, EfficientNet 딥 네트워크 구조 등 관련 기술에서 수치 회귀에 사용되는 컨볼루션 네트워크 구조일 수 있다.Here, the second deep learning network may be integrated into the angle prediction model, and the second deep learning network is used to identify the area image where the robot is located to determine the direction of the robot. Here, the second deep learning network may be, for example, a convolutional network structure used for numerical regression in related technologies such as ResNet deep network structure, MobileNet deep network structure, GhostNet deep network structure, EfficientNet deep network structure, and the like.

단계 S12에 있어서, 제2 시각에서의 로봇의 제2 이미지를 획득하고, 제2 이미지에 기반하여 제2 시각에서의 로봇의 제1 예상 위치 정보를 획득한다.In step S12, a second image of the robot at the second time is obtained, and first expected position information of the robot at the second time is obtained based on the second image.

본 발명의 실시예에 있어서, 제1 시각에서의 로봇의 제1 위치 정보를 획득한 후, 계속하여 제2 시각에서의 로봇의 제1 예상 위치 정보를 획득할 수 있다. 여기서, 카메라를 이용하여 제2 시각에서의 로봇의 제2 이미지를 획득할 수 있어, 제2 이미지에 기반하여 제2 시각에서의 로봇의 제1 예상 위치 정보를 획득한다. 구체적으로 도 3을 참조하면, 도 3은 본 발명의 실시예에 의한 도 1의 단계 S12의 일 실시예의 흐름 예시도이며, 구체적으로 아래와 같은 단계를 포함한다.In an embodiment of the present invention, after obtaining the first position information of the robot at the first time, it is possible to continuously obtain the first expected position information of the robot at the second time. Here, a second image of the robot at the second time may be obtained using the camera, and the first expected position information of the robot at the second time may be obtained based on the second image. Referring specifically to FIG. 3, FIG. 3 is a flowchart illustrating an embodiment of step S12 of FIG. 1 according to an embodiment of the present invention, and specifically includes the following steps.

단계 S121에 있어서, 시뮬레이션 샌드 테이블에서의 상기 제2 참조물 획득한다.In step S121, the second reference object in the simulation sand table is obtained.

단계 S122에 있어서, 제2 이미지에서의 상기 제2 참조물의 픽셀 위치 및 로봇의 제2 픽셀 위치를 결정한다.In step S122, a pixel position of the second reference object in a second image and a second pixel position of the robot are determined.

단계 S123에 있어서, 제2 시각에서의 제2 참조물의 시뮬레이션 샌드 테이블에서의 시뮬레이션 위치를 결정한다.In step S123, a simulation position in the simulation sand table of the second reference object at the second time is determined.

단계 S124에 있어서, 제2 참조물의 픽셀 위치 및 시뮬레이션 샌드 테이블에서의 제2 참조물의 시뮬레이션 위치를 이용하여 제2 투영 관계를 계산하여 얻는다.In step S124, a second projection relationship is calculated and obtained using the pixel position of the second reference object and the simulated position of the second reference object in the simulation sand table.

단계 S125에 있어서, 제2 투영 관계 및 로봇의 제2 픽셀 위치에 기반하여 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 계산하여 얻는다.In step S125, the simulation position of the robot in the simulation sand table is calculated and obtained based on the second projection relationship and the second pixel position of the robot.

단계 S126에 있어서, 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 이용하여 제2 시각에서의 로봇의 제1 예상 위치 정보를 결정한다.In step S126, first expected position information of the robot at the second time is determined by using the simulation position of the robot in the simulation sand table.

여기서, 단계 S121 내지 단계 S126은 도2에 도시된 단계 S111 내지 단계 S116의 구체적인 과정과 동일하고, 이에 대해 더 이상 설명하지 않는다.Here, steps S121 to S126 are the same as the specific processes of steps S111 to S116 shown in FIG. 2 , and will not be described any further.

본 발명의 실시예에서 제공한 로봇 포지셔닝 방법은, 일 측면에서 시각 시스템을 이용하여 시뮬레이션 샌드 테이블의 방식을 통해, 먼저 투영 관계를 구하고, 제1 시각에서의 로봇의 제1 위치 정보 및 제2 시각에서의 제1 예상 위치 정보를 구하며; 다른 측면에서는 동력학 시스템을 이용하여, 로봇의 초기 방향, 제1 시각으로부터 제2 시각 내 움직임 거리 및 초기 위치 정보를 통해 제2 시각에서의 로봇의 제2 예상 위치 정보를 구하고; 또한 칼만 필터링을 통해 시각 시스템의 결과 및 동력학 시스템의 결과를 융합하여, 로봇의 제2 위치 정보, 즉 최종 위치 정보를 결정한다. 다중 터미널 융합의 방식을 사용하여 포지셔닝을 수행하여, 글로벌 포지셔닝의 정확성을 향상시키고, 하드웨어 비용을 절감하고, 시스템의 배치를 용이하게 한다. 또한, 시각 시스템을 통해 제1 예상 위치 정보를 구할 경우, 시뮬레이션 샌드 테이블을 구축하고, 추가적인 참조물을 캘리브레이션할 필요가 없음으로써, 캘리브레이션 시간을 단축한다.The robot positioning method provided in the embodiment of the present invention, in one aspect, through the method of a simulation sand table using a visual system, first obtains a projection relationship, and first position information of the robot at the first time and the second time obtaining first predicted location information in ; In another aspect, the dynamic system is used to obtain second expected position information of the robot at the second time through the initial direction of the robot, the movement distance within the second time from the first time, and the initial position information; In addition, the result of the visual system and the result of the dynamics system are fused through Kalman filtering to determine the second position information of the robot, that is, the final position information. Positioning is performed using the method of multi-terminal fusion, improving the accuracy of global positioning, reducing hardware cost, and facilitating the deployment of the system. In addition, when the first predicted position information is obtained through the visual system, there is no need to establish a simulation sand table and calibrate an additional reference object, thereby shortening the calibration time.

단계 S13에 있어서, 제1 시각으로부터 제2 시각까지의 과정에서의 로봇의 움직임 파라미터를 수집한다.In step S13, the movement parameters of the robot in the process from the first time to the second time are collected.

본 발명 실시예의 일 실시 형태에 있어서, 제1 시각으로부터 제2 시각까지의 과정에서 로봇의 움직임 파라미터를 획득하고, 구체적으로 도 4를 참조하면, 도 4는 본 발명의 실시예에 의한 도 1의 단계 S13의 일 실시예의 흐름 예시도이며, 구체적으로 아래와 같은 단계를 포함한다.In one embodiment of the present invention, the movement parameters of the robot are obtained in the process from the first time to the second time, and specifically referring to FIG. 4 , FIG. 4 is a diagram of FIG. 1 according to an embodiment of the present invention. It is a flowchart illustrating an embodiment of step S13, and specifically includes the following steps.

단계 S131에 있어서, 제1 시각에 로봇의 이력 움직임 파라미터를 획득한다.In step S131, a history motion parameter of the robot is acquired at the first time.

이해해야 할 것은, 로봇이 움직일 경우, 로봇 내부의 인코더가 로봇의 워킹 거리를 기록하고, 로봇의 이력 워킹 거리는 스티어링 기어에 반영된다. 따라서, 본 발명의 일 실시예에서, 제1 시각에, 로봇 포지셔닝 기기는 로봇의 인코더 및 스티어링 기어를 통해 로봇의 이력 워킹 정보, 즉 이력 움직임 파라미터를 기록할 수 있다. 여기서, 로봇의 제1 이미지를 촬영하는 동시에 로봇의 이력 움직임 파라미터를 획득한다.To understand, when the robot moves, the encoder inside the robot records the walking distance of the robot, and the historical walking distance of the robot is reflected in the steering gear. Accordingly, in one embodiment of the present invention, at a first time, the robot positioning device may record the robot's historical walking information, ie, the historical motion parameters, through the robot's encoder and steering gear. Here, while capturing the first image of the robot, historical motion parameters of the robot are acquired.

단계 S132에 있어서, 제2 시각에 로봇의 현재 움직임 파라미터를 획득한다.In step S132, a current motion parameter of the robot is acquired at the second time.

본 발명 실시예의 일 실시 형태에 있어서, 제2 시각에 도달하면, 로봇의 인코더 및 스티어링 기어 정보를 다시 판독하여, 로봇의 현재 움직임 파라미터를 얻는다.In one embodiment of the present invention, when the second time is reached, the encoder and steering gear information of the robot are read again to obtain the robot's current motion parameters.

여기서, 이력 움직임 파라미터는 로봇의 이력 움직임 거리를 포함하고, 예를 들어 로봇의 바퀴의 이력 회전 횟수 등일 수 있으며, 현재 움직임 파라미터는 로봇이 제2 시각일 경우의 바퀴의 회전 횟수일 수 있다.Here, the historical motion parameter includes the historical motion distance of the robot, for example, may be the number of historical rotations of the wheels of the robot, and the current motion parameter may be the number of rotations of the wheels when the robot is at the second time.

단계 S133에 있어서, 이력 움직임 파라미터 및 현재 움직임 파라미터를 통해 제1 시각으로부터 제2 시각까지의 과정에서의 로봇의 움직임 파라미터를 계산하여 획득한다.In step S133, the motion parameters of the robot in the process from the first time to the second time are calculated and obtained using the historical motion parameters and the current motion parameters.

예를 들어, 로봇이 제1 시각에서의 이력 움직임 파라미터가 100미터이고, 제2 시각에서 검출된 현재 움직임 파라미터는 101미터라고 가정하면, 로봇이 제1 시각으로부터 제2 시각까지 총 1미터 움직였다는 것을 구할 수 있다. 또는, 로봇이 제1 시각에서의 이력 움직임 파라미터는 바퀴의 이력 회전 횟수가 200바퀴이고, 제2 시각에서의 현재 움직임 파라미터는 바퀴의 회전 횟수가 250바퀴라고 가정하면, 제1 시각으로부터 제2 시각까지 로봇이 50바퀴를 회전하였음을 알 수 있으며, 즉 바퀴의 직경 등을 통해 제1 시각으로부터 제2 시각까지 로봇이 움직인 총 거리를 계산하여 얻을 수 있다.For example, assuming that the historical motion parameter of the robot at the first time is 100 meters and the current movement parameter detected at the second time is 101 meters, it is assumed that the robot moved a total of 1 meter from the first time to the second time. thing can be saved Alternatively, if it is assumed that the historical motion parameter of the robot at the first time is 200 rotations of the wheel, and the current motion parameter at the second time is 250 rotations of the wheel, the historical motion parameter from the first time to the second time It can be seen that the robot has rotated 50 times, that is, it can be obtained by calculating the total distance moved by the robot from the first time to the second time through the diameter of the wheel.

본 발명의 실시예에 있어서, 로봇이 제1 시각에서의 방향을 이미 얻었고, 동시에 제1 시각으로부터 제2 시각까지 로봇의 움직임 거리도 알았으며, 또한 제1 시각에서의 로봇의 제1 위치 정보를 알고 있을 경우, 제2 시각에서의 로봇의 제2 예상 위치 정보를 구할 수 있다. 구체적으로, 계속하여 도 1을 참조한다.In an embodiment of the present invention, the robot has already obtained the direction at the first time, and at the same time knows the movement distance of the robot from the first time to the second time, and also obtains the first position information of the robot at the first time. If known, the second expected position information of the robot at the second time can be obtained. Specifically, reference is continued to FIG. 1 .

본 발명의 실시예에서 제공한 로봇 포지셔닝 방법은, 일 측면에서 시각 시스템을 이용하여 시뮬레이션 샌드 테이블의 방식을 통해, 먼저 투영 관계를 구하고, 제1 시각에서의 로봇의 제1 위치 정보 및 제2 시각에서의 제1 예상 위치 정보를 구하며; 다른 측면에서는 동력학 시스템을 더 이용하여, 로봇의 초기 방향, 제1 시각으로부터 제2 시각 내 움직임 거리 및 초기 위치 정보를 통해 제2 시각에서의 로봇의 제2 예상 위치 정보를 구하고; 또한 칼만 필터링을 통해 시각 시스템의 결과 및 동력학 시스템의 결과를 융합하여, 로봇의 제2 위치 정보, 즉 최종 위치 정보를 결정한다. 다중 터미널 융합의 포지셔닝 방식을 사용하여 글로벌 포지셔닝을 수행하여 정확성을 향상시킬 뿐만 아니라, 하드웨어 비용을 절감하고, 시스템의 배치를 용이하게 한다. 시각 시스템을 통해 제1 예상 위치 정보를 얻을 경우, 시뮬레이션 샌드 테이블을 구축하면, 추가적으로 참조물을 캘리브레이션할 필요가 없음으로써, 캘리브레이션 시간을 단축한다.The robot positioning method provided in the embodiment of the present invention, in one aspect, through the method of a simulation sand table using a visual system, first obtains the projection relationship, and first position information of the robot at the first time and the second time obtaining first predicted location information in ; In another aspect, the dynamic system is further used to obtain second expected position information of the robot at the second time through the initial direction of the robot, the movement distance within the second time from the first time, and the initial position information; In addition, the result of the visual system and the result of the dynamics system are fused through Kalman filtering to determine the second position information of the robot, that is, the final position information. Using the positioning method of multi-terminal fusion to perform global positioning, not only improve accuracy, but also reduce hardware cost and facilitate system deployment. When the first predicted position information is obtained through the visual system, if the simulation sand table is established, there is no need to additionally calibrate the reference object, thereby shortening the calibration time.

단계 S14에 있어서, 제1 위치 정보 및 상기 움직임 파라미터에 기반하여 제2 시각에서의 로봇의 제2 예상 위치 정보를 계산하여 얻는다.In step S14, second expected position information of the robot at the second time is calculated and obtained based on the first position information and the motion parameter.

본 발명의 실시예에 있어서, 상기 단계를 통해, 제1 시각에서의 로봇의 방향을 이미 알고, 동시에 로봇이 제1 시각으로부터 제2 시각까지 움직임 거리도 알고, 또한 제1 시각에서의 로봇의 제1 위치 정보를 이미 알고 있을 경우, 제1 위치 정보에 기초하여 움직임 거리 및 방향과 결합하여, 동력학 시스템을 통해 제2 시각에서의 로봇의 제2 예상 위치 정보를 계산하여 얻을 수 있다.In an embodiment of the present invention, through the above steps, the direction of the robot at the first time is already known, and at the same time, the movement distance of the robot from the first time to the second time is also known, and the second time of the robot at the first time is also known. If the first position information is already known, it can be obtained by calculating the second expected position information of the robot at the second time through the dynamics system by combining it with the movement distance and direction based on the first position information.

일 실시예에 있어서, 로봇의 위치 정보를 실시간으로 검출하기 위해, 제1 시각으로부터 제2 시각까지 간격은 아주 짧고, 예를 들어 간격 시각은 1s일 수 있다. 다른 실시예에 있어서, 로봇이 제1 시각으로부터 제2 시각까지의 과정에서, 방향 변화가 발생한 경우, 제1 시각으로부터 제2 시각까지의 과정에서 연속적으로 로봇에 대해 연속 촬영을 수행하고, 촬영된 이미지에 기반하여 로봇의 방향을 검출한다. 여기서, 로봇을 촬영할 경우, 동시에 로봇의 움직임 거리를 검출할 수 있고, 이로 인해 로봇의 방향이 변화가 발생한 경우, 실시간으로 각 방향의 움직임 거리를 기록할 수 있다.In one embodiment, in order to detect the position information of the robot in real time, the interval from the first time to the second time is very short, for example, the interval time may be 1s. In another embodiment, when the direction change occurs in the process from the first time to the second time, the robot continuously takes pictures from the first time to the second time, Detect the direction of the robot based on the image. Here, when the robot is photographed, the movement distance of the robot can be detected at the same time, and when the direction of the robot is changed due to this, the movement distance in each direction can be recorded in real time.

이해해야 할 것은, 로봇의 위치를 정확하게 획득하기 위해, 제1 시각으로부터 제2 시각까지의 간격 시각은 최대한 짧게 설정할 수 있음으로써, 제1 시각으로부터 제2 시각까지의 과정에서 로봇의 방향이 변화하지 않는다고 볼 수 있다.It should be understood that, in order to accurately acquire the position of the robot, the interval time from the first time to the second time can be set as short as possible, so that the direction of the robot does not change in the process from the first time to the second time. can see.

일 실시예에 있어서, 로봇이 위치하고 있는 장소에 적어도 하나의 카메라를 설치할 수 있고, 카메라가 로봇 포지셔닝 기기에 연결되며, 로봇 포지셔닝 기기 또는 카메라 내부에 타이머가 설정되어, 제1 시각으로부터 제2시각까지의 간격 시각을 타이머의 설정 시각으로 설정한다. 설정 시각에 도달하면, 카메라는 로봇의 이미지 및 로봇의 움직임 파라미터를 획득하고, 이미지를 로봇 포지셔닝 기기에 전송하며, 로봇 포지셔닝 기기는 시각 시스템을 이용하여 상기 도 3에 도시된 방식을 통해 제2 시각에서의 로봇의 제1 예상 위치 정보를 획득하고, 동력학 시스템을 이용하여 로봇의 초기 위치 정보(즉 제1 위치 정보), 로봇의 방향 및 움직임 파라미터를 결합하여 제2 시각에서의 로봇의 제2 예상 위치 정보를 계산하여 얻는다.In one embodiment, at least one camera may be installed in a place where the robot is located, the camera is connected to the robot positioning device, and a timer is set inside the robot positioning device or the camera, from the first time to the second time Set the interval time of the timer to the set time of the timer. When the set time is reached, the camera acquires the image of the robot and the movement parameters of the robot, and sends the image to the robot positioning device, which uses the vision system to use the vision system to obtain a second time through the method shown in FIG. Obtain the first expected position information of the robot at It is obtained by calculating the location information.

여기서, 제2 이미지를 이용하여 제2 시각에서의 로봇의 제1 예상 위치 정보를 획득하는 방식은, 제1 이미지를 이용하여 제1 시각에서의 로봇의 제1 위치 정보를 획득하는 방식과 동일하고, 시뮬레이션 샌드 테이블 및 제2 이미지는 모두 제2 참조물을 포함하며; 먼저 제2 이미지에서 제2 참조물의 픽셀 위치 및 로봇의 제2 픽셀 위치를 획득하고, 시뮬레이션 샌드 테이블에서 제2 참조물의 시뮬레이션 위치를 획득하며; 제2 참조물의 픽셀 위치 및 제2 참조물의 시뮬레이션 위치에 기반하여 제2 투영 관계를 계산하여 획득하고; 다음으로, 제2 투영 관계 및 상기 로봇의 제2 픽셀 위치를 통해 상기 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 계산하여 얻으며, 이러한 방식으로, 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 이용하여 제2 시각에서의 로봇의 제1 예상 위치 정보를 결정한다. 구체적인 것은 도3을 참조하고, 이에 대해 반복하여 설명하지 않는다. Here, the method of obtaining the first expected position information of the robot at the second time by using the second image is the same as the method of obtaining the first position information of the robot at the first time by using the first image, , the simulation sand table and the second image all contain a second reference; first obtain the pixel position of the second reference object and the second pixel position of the robot in the second image, and obtain the simulation position of the second reference object in the simulation sand table; calculating and obtaining a second projection relationship based on the pixel position of the second reference and the simulated position of the second reference; Then, through the second projection relationship and the second pixel position of the robot, the simulation position of the robot in the simulation sand table is calculated and obtained, in this way, using the simulation position of the robot in the simulation sand table, the second Determine the first expected position information of the robot at the time. For details, refer to FIG. 3, which will not be repeatedly described.

단계 S15에 있어서, 제1 예상 위치 정보 및 제2 예상 위치 정보를 통해 제2 시각에서의 로봇의 제2 위치 정보를 얻는다.In step S15, the second position information of the robot at the second time is obtained through the first expected position information and the second expected position information.

일 실시예에 있어서, 칼만 필터링 방식을 이용하여 제1 예상 위치 정보 및 제2 예상 위치 정보에 대해 가중 평균을 수행하여, 제2 시각에서의 로봇의 제2 위치 정보를 얻을 수 있다.In an embodiment, by performing a weighted average on the first predicted location information and the second predicted location information using the Kalman filtering method, the second location information of the robot at the second time may be obtained.

다른 실시예에 있어서, 또한 평균치 통계법, 가우시안 혼합 모델(Gaussian Mixture Model, GMM)을 통해, 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 융합하여, 제2 위치 정보를 얻을 수 있다.In another embodiment, the second location information may be obtained by fusing the first predicted location information and the second predicted location information through an average value statistical method or a Gaussian Mixture Model (GMM).

본 발명 실시예에 의한 포지셔닝 방법에서, 칼만 필터링 방식을 사용하여 제1 예상 위치 정보 및 제2 예상 위치 정보에 대해 가중 평균을 수행하여, 제2 시각에서의 로봇의 제2 위치 정보를 얻을 수 있다. 여기서, 시각 포지셔닝 시스템이 획득한 제1 예상 위치 정보는 이미 알고 있고, 동력학 시스템이 획득한 제2 예상 위치 정보도 이미 알고 있기 때문에, 먼저 제1 예상 위치정보와 제2 예상 위치정보에 대해 상태 예측을 수행하여, 공분산 예측 결과를 얻고, 다음으로, 공분산 예측 결과에 대해 업데이트를 수행하여, 업데이트된 공분산을 얻음으로써, 업데이트된 공분산을 통해 제2 위치 정보를 얻는다.In the positioning method according to the embodiment of the present invention, by performing a weighted average on the first expected position information and the second expected position information using the Kalman filtering method, the second position information of the robot at the second time may be obtained. . Here, since the first expected position information obtained by the visual positioning system is already known, and the second expected position information obtained by the dynamics system is also known, first, state prediction with respect to the first expected position information and the second expected position information to obtain a covariance prediction result, and then perform an update on the covariance prediction result to obtain an updated covariance, thereby obtaining second position information through the updated covariance.

본 발명은 이산 시간의 진화를 통해, 상이한 시간 노드에서의 확장 칼만 필터의 위치 추정을 얻을 수 있다.The present invention can obtain an estimate of the position of the extended Kalman filter at different time nodes through the evolution of discrete time.

이로부터 알 수 있다시피, 본 발명의 실시예는 시각 포지셔닝 시스템과 동력학 포지셔닝 시스템의 결합을 통해, 포지셔닝 결과 융합을 수행함으로써 정확성이 높은 로봇 포지셔닝 결과를 얻는다. 도 5를 참조하면, 본 발명에 실시예에 의한 로봇 포지셔닝 방법의 원리 예시도이고, 시각 포지셔닝 시스템의 포지셔닝 과정은 주로 하기와 같은 과정을 포함한다. (1) 카메라로 이미지를 판독하고; (2) 검출기 YOLO-tiny로 차량 검출을 수행하며, 즉 이미지에서 차량, 다시 말해 로봇의 검출을 수행하여, 로봇이 위치하고 있는 이미지에서의 영역 좌표를 얻고; (3) Mobilenet로 각도 계산을 수행하고; 즉 로봇이 위치하고 있는 영역 이미지를 추출하며, 자세 예상 모듈에 전송하여, 자세 예상을 구현하고; (4) 평면 시각 포지셔닝, 즉 캘리브레이션 파라미터를 이용하여 이미지에서의 자세 및 좌표를 현실 좌표에 매핑한다. 다른 측면에 있어서, 동력학 포지셔닝 시스템의 포지셔닝 과정은 주로 하기와 같은 과정을 포함한다. (1) 챠량 인코더와 스티어링 기어 정보를 획득하고; 즉 상기 정보에 기반하여 로봇의 이력 움직임 파라미터 및 현재 움직임 파라미터를 얻고, 다시 말해 로봇의 워킹 정보를 얻으며; (2) 차량 동력학 모델을 통해 위치를 예상하고; 즉 모델을 통해 이력 움직임 파라미터 및 현재 움직임 파라미터에 기반하여 로봇의 현재 위치 정보를 예상한다. 다음으로, 비디오 포지셔닝 시스템을 통해 획득한 결과와 동력학 시스템을 통해 획득한 결과를 확장 칼만 필터링을 통해 융합함으로써, 로봇의 정확한 포지셔닝을 구현한다.As can be seen from this, the embodiment of the present invention obtains a robot positioning result with high accuracy by performing positioning result fusion through a combination of a visual positioning system and a dynamic positioning system. Referring to FIG. 5 , it is a diagram illustrating the principle of a robot positioning method according to an embodiment of the present invention, and the positioning process of the visual positioning system mainly includes the following processes. (1) reading the image with the camera; (2) performing vehicle detection with the detector YOLO-tiny, that is, performing detection of a vehicle, that is, a robot in the image, to obtain area coordinates in the image where the robot is located; (3) perform angle calculation with Mobilenet; That is, the image of the area where the robot is located is extracted and transmitted to the posture estimation module to implement the posture prediction; (4) Map postures and coordinates in the image to real-world coordinates using planar visual positioning, that is, calibration parameters. In another aspect, the positioning process of the dynamic positioning system mainly includes the following process. (1) obtain vehicle encoder and steering gear information; That is, based on the information, the historical motion parameter and the current motion parameter of the robot are obtained, that is, the robot's walking information is obtained; (2) predict the location through the vehicle dynamics model; That is, the current position information of the robot is predicted based on the historical motion parameter and the current motion parameter through the model. Next, accurate positioning of the robot is realized by fusing the results obtained through the video positioning system and the results obtained through the dynamics system through extended Kalman filtering.

본 발명의 실시예에서 제공한 로봇의 포지셔닝 방법은, 일 측면에 있어서, 시각 시스템을 이용하여 시뮬레이션 샌드 테이블을 구축하는 방식을 통해, 먼저 투영 관계를 구함으로써, 제1 시각에서의 로봇의 제1 위치 정보 및 제2 시각에서의 제1 예상 위치 정보를 얻고; 다른 측면에 있어서 동력학 시스템을 이용하여, 로봇의 초기 방향, 제1 시각으로부터 제2 시각 내 움직임 거리 및 초기 위치 정보를 통해 제2 시각에서의 로봇의 제2 예상 위치 정보를 구함으로써; 칼만 필터를 통해 시각 시스템의 결과 및 동력학 시스템의 결과를 융합하여, 로봇의 제2 위치 정보, 즉 최종 위치 정보를 결정한다. 상기 포지셔닝 방식은 다중 터미널 융합의 방식을 사용하여, 글로벌 포지셔닝의 정확성을 향상시킬 뿐만 아니라, 하드웨어 비용을 절감하고, 시스템의 배치를 용이하게 한다. 시각 시스템을 통해 제1 예상 위치 정보를 얻을 경우, 시뮬레이션 샌드 테이블을 구축하면, 추가적으로 참조물을 캘리브레이션할 필요가 없기 때문에, 캘리브레이션 시간을 단축한다.The positioning method of the robot provided in the embodiment of the present invention, in one aspect, through a method of building a simulation sand table using a visual system, by first obtaining a projection relationship, obtaining location information and first expected location information at a second time; In another aspect, by using the dynamics system, obtaining second expected position information of the robot at the second time through the initial direction of the robot, the movement distance within the second time from the first time, and the initial position information; The result of the visual system and the result of the dynamics system are fused through the Kalman filter to determine the second position information of the robot, that is, the final position information. The positioning scheme uses the scheme of multi-terminal fusion to not only improve the accuracy of global positioning, but also reduce hardware costs and facilitate system deployment. When the first predicted position information is obtained through the visual system, if the simulation sand table is established, the calibration time is shortened because there is no need to calibrate the reference object additionally.

도 6을 참고하면, 도 6은 본 발명의 로봇 포지셔닝 장치의 일 실시예의 구조 예시도이고, 제1 위치 획득부(41), 파라미터 획득부(42), 제2 위치 획득부(43) 및 교정부(44)을 포함한다.Referring to Figure 6, Figure 6 is a structural exemplary diagram of an embodiment of the robot positioning device of the present invention, the first position acquisition unit 41, the parameter acquisition unit 42, the second position acquisition unit 43 and the bridge government 44 .

여기서, 제1 위치 획득부(41)는 제1 시각에서의 로봇의 제1 위치 정보 및 제1 위치를 획득하도록 구성되고, 획득부(41) 는 또한 제2 시각에서의 상기 로봇의 제2 이미지를 획득하고, 상기 제2 이미지에 기반하여 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 획득하도록 구성된다.Here, the first position acquiring unit 41 is configured to acquire the first position information and the first position of the robot at the first time, and the acquiring unit 41 is also configured to obtain the second image of the robot at the second time. is configured to obtain first expected position information of the robot at a second time based on the second image.

일부 실시예에 있어서, 로봇 포지셔닝을 수행할 경우, 포지셔닝 시스템을 직접 이용하여 제1 시각에서의 로봇의 제1 위치 정보 및 제2 시각에서의 로봇의 제1 예상 위치 정보를 획득할 수 있고, 포지셔닝 시스템은 GPS 포지셔닝 시스템일 수 있다.In some embodiments, when performing robot positioning, the positioning system may be directly used to obtain the first position information of the robot at the first time and the first expected position information of the robot at the second time, and positioning The system may be a GPS positioning system.

일부 실시예에 있어서, 또한 카메라와 같은 촬상 장치를 통해 제1 시각에서의 로봇의 제1 이미지를 획득할 수 있다. 여기서, 로봇은 움직일 수 있는 기계 설비 또는 로봇 포지셔닝 기기이며, 예를 들어 지게차, 기계식 트롤리 등이다.In some embodiments, it is also possible to acquire a first image of the robot at a first time through an imaging device such as a camera. Here, the robot is a movable mechanical equipment or robot positioning device, for example, a forklift, a mechanical trolley, or the like.

일부 실시예에 있어서, 카메라 내에는 타이머가 통합되어 있을 수 있고, 타이머의 설정 시간이 제1 시각에 도달할 경우, 카메라는 로봇에 대해 사진 촬영을 수행하여, 제1 이미지를 획득한다. 여기서, 카메라의 위치는 고정될 수 있고, 고정되지 않을 수도 있으며; 카메라의 촬영 각도는 고정될 수 있고, 고정되지 않을 수도 있으며; 여기서, 카메라는 특정된 위치에 설치되고 회전되지 않을 수 있고, 즉 촬영 범위가 고정될 수 있으며, 카메라는 또한 특정된 위치에 설치되고 회전될 수도 있으며, 즉 반사 범위가 변할 수 있으며; 물론 카메라는 또한 이동 가능한 기기에 설치될 수도 있다. 본 발명은 카메라가 로봇을 촬영할 수만 있으면 카메라의 위치와 촬영 범위에 대해 한정하지 않는다.In some embodiments, a timer may be integrated in the camera, and when the set time of the timer reaches the first time, the camera takes a picture of the robot to obtain a first image. Here, the position of the camera may or may not be fixed; The shooting angle of the camera may or may not be fixed; Here, the camera may be installed at a specified position and not rotated, that is, the shooting range may be fixed, and the camera may also be installed and rotated at the specified position, that is, the reflection range may change; Of course, the camera can also be installed on a mobile device. The present invention does not limit the position and shooting range of the camera as long as the camera can take a picture of the robot.

일부 실시예에 있어서, 제1 위치 획득부(41)는 또한, 상기 제1 시각에서의 상기 로봇의 제1 이미지를 획득하고; 상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 상기 제1 위치 정보를 획득하도록 구성된다.In some embodiments, the first position acquisition unit 41 is further configured to acquire a first image of the robot at the first time point; and obtain the first position information of the robot at the first time based on the first image.

일부 실시예에 있어서, 카메라가 획득한 제1 이미지를 로봇 포지셔닝 기기에 업로드할 수 있고, 예를 들어 로봇 포지셔닝 기기와 카메라는 통신 연결될 수 있으며, 카메라가 제1 이미지를 획득한 후, 통신 연결을 통해 제1 이미지를 로봇 포지셔닝 기기에 송신하고, 다른 실시예에서는, 또한 카메라가 획득한 제1 이미지를 메모리 카드에 저장한 다음, 로봇 포지셔닝 기기에 업로드할 수 있으며, 로봇 포지셔닝 기기가 제1 이미지를 획득할 수만 있으면, 이에 대해 한정하지 않는다.In some embodiments, the first image acquired by the camera may be uploaded to the robot positioning device, for example, the robot positioning device and the camera may be communicatively connected, and after the camera acquires the first image, the communication connection is established to send the first image to the robot positioning device via As long as it can be obtained, it is not limited thereto.

일부 실시예에 있어서, 제1 위치 획득부(41)는 또한, 시뮬레이션 샌드 테이블에서의 제1 참조물을 획득하고, 시뮬레이션 샌드 테이블을 구축하는 방식을 통해 로봇의 제1 위치 정보를 결정하도록 구성되고, 이해해야 할 것은, 구축된 시뮬레이션 샌드 테이블은 로봇이 위치하고 있는 공간의 시뮬레이션 설계도이며; 제1 이미지에서의 제1 참조물의 픽셀 위치 및 로봇의 제1 픽셀 위치를 결정한다.In some embodiments, the first position obtaining unit 41 is further configured to obtain a first reference in the simulation sand table, and determine the first position information of the robot through a manner of building the simulation sand table, and , it should be understood that the constructed simulation sand table is a simulation blueprint of the space where the robot is located; Determine a pixel position of a first reference in the first image and a first pixel position of the robot.

일부 실시예에 있어서, 제1 딥러닝 네트워크를 이용하여 제1 이미지에 대해 식별을 수행함으로써, 제1 이미지에서의 제1 참조물의 픽셀 위치 및 로봇의 제1 픽셀 위치를 결정할 수 있다.In some embodiments, by performing the identification on the first image using the first deep learning network, the pixel position of the first reference in the first image and the first pixel position of the robot may be determined.

일부 실시예에 있어서, 제1 딥러닝 네트워크는 포지셔닝 기능을 가진 딥러닝 네트워크를 통합한 모델일 수 있고, 제1 이미지를 상기 모델에 입력하고, 상기 모델은 제1 이미지에 대해 식별을 수행함으로써, 제1 이미지에서의 제1 참조물의 픽셀 위치 및 제1 이미지에서의 로봇의 제1 픽셀 위치를 획득한다.In some embodiments, the first deep learning network may be a model integrating a deep learning network with a positioning function, by inputting a first image to the model, and the model performing identification on the first image, Obtain a pixel position of the first reference in the first image and a first pixel position of the robot in the first image.

여기서, 제1 딥러닝 네트워크를 이용하여 제1 이미지에 대해 검출을 수행하여 제1 이미지에서의 제1 참조물의 픽셀 위치 및 제1 이미지에서의 로봇의 제1 픽셀 위치를 결정하고, 가능한 제1 딥러닝 네트워크는 RCNN 딥 네트워크 구조, SSD 딥 네트워크 구조, Yolo 딥 네트워크 구조, RetinaNet 네트워크 구조 등을 포함한다.Here, the first deep learning network is used to perform detection on the first image to determine the pixel position of the first reference in the first image and the first pixel position of the robot in the first image, and the first possible deep The learning network includes RCNN deep network structure, SSD deep network structure, Yolo deep network structure, RetinaNet network structure and the like.

비용과 위치 좌표 검출의 정확성을 고려하여, Yolo 딥 네트워크 구조를 통해 위치 좌표의 검출을 수행할 수 있고; 여기서, Yolo 딥 네트워크 구조에서의 Yolo-tiny 딥 네트워크 구조를 사용하여 검출을 수행할 수 있다.Considering the cost and accuracy of location coordinate detection, the location coordinate detection can be performed through the Yolo deep network structure; Here, detection may be performed using the Yolo-tiny deep network structure in the Yolo deep network structure.

Yolo 딥 네트워크 구조에서, 알고리즘의 사고 방식은 전체 이미지를 일부 그리드로 나누어, 셀 그리드에서 중심이 그리드 내 객체에 있는 일부 가능한 경계 프레임을 예측하고, 신뢰도를 제공함으로써, 이러한 알고리즘은 한 단계만으로 객체 검출 프레임의 결과를 얻을 수 있어, 두 단계의 Faster-RCNN 시리즈 알고리즘에 비해 알고리즘의 속도가 더 빠르다. 응용 시나리오에서 검출해야 할 객체의 외형, 색상은 상대적으로 고정되었기 때문에, 이러한 빠른 알고리즘에 작은 네트워크 구조에 맞추는 검출은 정확도가 높고, 동시에 계산 자원의 점유 공간이 작기 때문에, 모바일단 운산 속도가 비교적 느린 CPU, 예를 들어 라즈베리파이에서 필요한 실시간 검출 효과를 달성할 수 있어, 필요되는 비용이 더 낮다.In the Yolo deep network architecture, the algorithm's mindset divides the whole image into some grids, predicting some possible bounding frames in the cell grid whose center is on the objects in the grid, and provides confidence, so that these algorithms detect objects in just one step. Since the result of the frame can be obtained, the speed of the algorithm is faster than the two-step Faster-RCNN series algorithm. Since the shape and color of the object to be detected in the application scenario are relatively fixed, the detection according to the small network structure for such a fast algorithm has high accuracy, and at the same time, because the occupied space of the computational resource is small, the mobile terminal calculation speed is relatively slow The required real-time detection effect can be achieved in CPU, for example Raspberry Pi, so the required cost is lower.

일부 실시예에 있어서, 제1 참조물의 픽셀 위치를 통해 제1 참조물의 시뮬레이션 위치를 결정해야 하고, 제1 참조물의 픽셀 위치 및 시뮬레이션 샌드 테이블에서의 제1 참조물의 시뮬레이션 위치를 이용하여 제1 투영 관계를 계산하여 얻는다.In some embodiments, it is necessary to determine the simulated position of the first reference through the pixel position of the first reference, and the first projection relationship using the pixel position of the first reference and the simulated position of the first reference in the simulation sand table is obtained by calculating

일부 실시예에 있어서, 제1 위치 획득부(41)는 또한 시뮬레이션 샌드 테이블에서의 상기 제2 참조물을 획득하도록 구성된다. 상기 제2 이미지에서의 상기 제2 참조물의 픽셀 위치 및 상기 로봇의 제2 픽셀 위치를 결정한다. 제2 시각의 상기 시뮬레이션 샌드 테이블에서의 상기 제2 참조물의 시뮬레이션 위치를 결정한다. 상기 제2 참조물의 픽셀 위치 및 상기 시뮬레이션 샌드 테이블에서의 상기 제2 참조물의 시뮬레이션 위치를 이용하여 제2 투영 관계를 계산하여 얻는다. 상기 제2 투영 관계 및 상기 로봇의 제2 픽셀 위치에 기반하여 상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 계산하여 얻는다. 상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 이용하여 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 결정한다.In some embodiments, the first location obtaining unit 41 is also configured to obtain the second reference in the simulation sand table. Determine a pixel position of the second reference object in the second image and a second pixel position of the robot. A simulation position of the second reference object in the simulation sand table at a second time is determined. A second projection relationship is calculated and obtained using the pixel position of the second reference object and the simulated position of the second reference object in the simulation sand table. The simulation position of the robot in the simulation sand table is calculated and obtained based on the second projection relationship and the second pixel position of the robot. First predicted position information of the robot at a second time is determined by using the simulation position of the robot in the simulation sand table.

본 발명의 실시예는 시뮬레이션 샌드 테이블을 구축하여, 시뮬레이션 샌드 테이블에 존재하는 객체를 참조물로 사용하것에 따라 제1 투영 관계 계산을 수행하고, 샌드 테이블에 추가적으로 마커를 설정할 필요가 없기에, 작업이 간단하며; 딥러닝을 통해 제1 이미지에서의 로봇의 픽셀 위치를 식별하고, 제1 투영 관계와 결합하여 시뮬레이션 샌드 테이블에서의 로봇의 시뮬레이션 위치를 결정하며, 제1 시각에서의 로봇의 제1 위치 정보를 결정한다. 이러한 로봇의 포지셔닝 과정은 작업을 단순화하고 비용을 줄이며 사용자 경험을 크게 향상시킨다.The embodiment of the present invention builds a simulation sand table, performs the first projection relationship calculation according to using an object existing in the simulation sand table as a reference, and there is no need to set additional markers in the sand table, so the operation is simple; Identify the pixel position of the robot in the first image through deep learning, combine with the first projection relationship to determine the simulation position of the robot in the simulation sand table, and determine the first position information of the robot at the first time do. The positioning process of these robots simplifies the operation, reduces costs, and greatly improves the user experience.

일부 실시예에 있어서, 제1 위치 획득부(41)는 또한, 제1 시각에서의 로봇의 제1 위치 정보를 획득할 경우, 로봇의 방향을 검출, 즉 로봇의 각도를 검출하도록 구성된다. 여기서, 각도 자세 예상 모델을 통해 로봇의 방향을 검출할 수 있다.In some embodiments, the first position acquiring unit 41 is further configured to detect the direction of the robot, that is, to detect the angle of the robot, when acquiring the first position information of the robot at the first time. Here, the direction of the robot may be detected through the angular posture prediction model.

여기서, 먼저 제1 딥러닝 네트워크를 이용하여 제1 이미지에 대해 식별을 수행하고, 제1 이미지에서 로봇의 위치를 획득하며; 다음으로, 로봇이 위치하고 있는 영역 이미지를 추출하고, 추출한 영역 이미지를 각도 예상 모델에 입력하여, 상기 각도 예상 모델을 통해 로봇의 각도를 검출하여, 로봇의 방향을 얻으며, 여기서, 로봇의 방향을 획득한 후, 제1 시각으로부터 제2 시각 내의 로봇의 움직임 방향을 알 수 있다.Here, first performing identification on the first image by using the first deep learning network, and obtaining the position of the robot in the first image; Next, the area image where the robot is located is extracted, the extracted area image is input to the angle prediction model, the angle of the robot is detected through the angle prediction model, and the direction of the robot is obtained, where the direction of the robot is obtained After that, the movement direction of the robot within the second time from the first time can be known.

일부 실시예에 있어서, 각도 예상 모델에는 제2 딥러닝 네트워크가 통합되어 있을 수 있고, 제2 딥러닝 네트워크를 이용하여 상기 로봇이 위치하고 있는 영역 이미지에 대해 식별을 수행하여, 상기 로봇의 방향을 결정한다. 여기서, 제2 딥러닝 네트워크는 예를 들어, ResNet 딥 네트워크 구조, MobileNet 딥 네트워크 구조, GhostNet 딥 네트워크 구조, EfficientNet 딥 네트워크 구조 등 관련 기술에서 수치 회귀에 사용되는 컨볼루션 네트워크 구조일 수 있다.In some embodiments, a second deep learning network may be integrated into the angle prediction model, and the second deep learning network is used to identify the area image where the robot is located to determine the direction of the robot do. Here, the second deep learning network may be, for example, a convolutional network structure used for numerical regression in related technologies such as ResNet deep network structure, MobileNet deep network structure, GhostNet deep network structure, EfficientNet deep network structure, and the like.

일부 실시예에 있어서, 파라미터 획득부(42)는 제1 시각으로부터 제2 시각까지의 과정에서의 로봇의 움직임 파라미터를 수집하도록 구성된다. 여기서, 먼저 제1 시각에 로봇의 이력 움직임 파라미터를 획득한다.In some embodiments, the parameter obtaining unit 42 is configured to collect the movement parameters of the robot in the process from the first time to the second time. Here, first, the history motion parameters of the robot are acquired at the first time.

로봇이 움직일 경우, 로봇 내부의 인코더가 로봇의 워킹 거리를 기록하고, 로봇의 이력 워킹 거리는 스티어링 기어에 반영된다. 따라서, 제1 시각에, 로봇 포지셔닝 기기는 로봇의 인코더 및 스티어링 기어를 통해 로봇의 이력 워킹 정보, 즉 이력 움직임 파라미터를 기록한다. 여기서, 로봇의 제1 이미지를 촬영하는 동시에 로봇의 이력 움직임 파라미터를 획득한다.When the robot moves, the encoder inside the robot records the walking distance of the robot, and the historical walking distance of the robot is reflected in the steering gear. Therefore, at the first time, the robot positioning device records the historical walking information of the robot, that is, the historical motion parameters, through the encoder and the steering gear of the robot. Here, while capturing the first image of the robot, historical motion parameters of the robot are acquired.

다음으로, 계속하여 제2 시각에서 로봇의 현재 움직임 파라미터를 획득한다. 여기서, 제2 시각에 도달하면, 로봇 포지셔닝 기기는 로봇의 인코더 및 스티어링 기어 정보를 다시 판독하여, 로봇의 현재 움직임 파라미터를 얻는다.Next, it continues to acquire the current motion parameter of the robot at the second time point. Here, when the second time is reached, the robot positioning device reads the encoder and steering gear information of the robot again to obtain the robot's current movement parameters.

여기서, 이력 움직임 파라미터는 로봇의 이력 움직임 거리를 포함하고, 예를 들어 로봇의 바퀴의 이력 회전 횟수 등일 수 있으며, 현재 움직임 파라미터는 로봇이 제2 시각일 경우의 바퀴의 회전 횟수일 수 있다. 이력 움직임 파라미터 및 현재 움직임 파라미터를 통해 제1 시각으로부터 제2 시각까지의 과정에서의 로봇의 움직임 파라미터를 계산하여 획득한다. 여기서, 로봇이 제1 시각에서의 이력 움직임 파라미터가 100미터이고, 제2 시각에서 검출된 현재 움직임 파라미터는 101미터라고 가정하면, 로봇이 제1 시각으로부터 제2 시각까지 총 1미터 움직였다는 것을 구할 수 있다. 또는, 다른 실시예에 있어서, 로봇이 제1 시각에서의 이력 움직임 파라미터는 바퀴의 이력 회전 횟수가 200바퀴이고, 제2 시각에서의 현재 움직임 파라미터는 바퀴의 회전 횟수가 250바퀴라고 가정하면, 제1 시각으로부터 제2 시각까지 로봇이 50바퀴를 회전하였음을 알 수 있으며, 바퀴의 직경 등을 통해 제1 시각으로부터 제2 시각까지 로봇이 움직인 총 거리를 계산하여 얻을 수 있다.Here, the historical motion parameter includes the historical motion distance of the robot, for example, may be the number of historical rotations of the wheels of the robot, and the current motion parameter may be the number of rotations of the wheels when the robot is at the second time. The motion parameters of the robot in the process from the first time to the second time are calculated and obtained through the historical motion parameters and the current motion parameters. Here, assuming that the historical motion parameter of the robot at the first time is 100 meters and the current motion parameter detected at the second time is 101 meters, it is calculated that the robot moved a total of 1 meter from the first time to the second time. can Alternatively, in another embodiment, assuming that the historical motion parameter of the robot at the first time is 200 revolutions of the wheel and the current motion parameter at the second time is 250 revolutions of the wheel, It can be seen that the robot rotated 50 times from the first time to the second time, and it can be obtained by calculating the total distance the robot moved from the first time to the second time through the diameter of the wheel, etc.

제2 위치 획득부(43)는, 상기 제1 위치 정보 및 상기 움직임 파라미터에 기반하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 계산하여 얻도록 구성된다. 여기서, 로봇이 제1 시각에서의 방향을 이미 알고, 동시에 제1 시각으로부터 제2 시각까지 로봇의 움직임 거리도 알고, 또한 제1 시각에서의 로봇의 제1 위치 정보를 이미 알고 있을 경우, 제1 위치 정보에 기초하여 움직임 거리 및 방향과 결합하여, 동력학 시스템을 통해 제2 시각에서의 로봇의 제2 예상 위치 정보를 계산하여 얻을 수 있다.The second position acquiring unit 43 is configured to calculate and obtain second expected position information of the robot at the second time based on the first position information and the motion parameter. Here, when the robot already knows the direction at the first time, also knows the movement distance of the robot from the first time to the second time, and already knows the first position information of the robot at the first time, the first Based on the position information, combined with the movement distance and direction, it is possible to calculate and obtain second expected position information of the robot at the second time through the dynamics system.

일부 실시예에 있어서, 로봇의 위치 정보를 실시간으로 검출하기 위해, 제1 시각으로부터 제2 시각까지 간격은 아주 짧고, 예를 들어 간격 시각은 1s일 수 있다. 다른 실시예에 있어서, 로봇이 제1 시각으로부터 제2 시각까지의 과정에서, 방향 변화가 발생한 경우, 제1 시각으로부터 제2 시각까지의 과정에서 연속적으로 로봇에 대해 연속 촬영을 수행하고, 촬영된 이미지에 기반하여 로봇의 방향을 검출한다. 여기서, 로봇을 촬영할 경우, 동시에 로봇의 움직임 거리를 검출할 수 있고, 이로 인해 로봇의 방향이 변화가 발생한 경우, 실시간으로 각 방향의 움직임 거리를 기록할 수 있다.In some embodiments, in order to detect the position information of the robot in real time, the interval from the first time to the second time is very short, for example, the interval time may be 1s. In another embodiment, when the direction change occurs in the process from the first time to the second time, the robot continuously takes pictures from the first time to the second time, Detect the direction of the robot based on the image. Here, when the robot is photographed, the movement distance of the robot can be detected at the same time, and when the direction of the robot is changed due to this, the movement distance in each direction can be recorded in real time.

이해해야 할 것은, 로봇의 위치를 정확하게 획득하기 위해, 제1 시각으로부터 제2 시각까지의 간격 시각은 최대한 짧게 설정할 수 있음으로써, 이러한 방식으로, 제1 시각으로부터 제2 시각까지의 과정에서 로봇의 방향이 변화하지 않는다고 볼 수 있다.It should be understood that, in order to accurately acquire the position of the robot, the interval time from the first time to the second time can be set as short as possible, so in this way, the direction of the robot in the process from the first time to the second time It can be seen that this does not change.

일부 실시예에 있어서, 로봇이 위치하고 있는 장소에 적어도 하나의 카메라를 설치할 수 있고, 카메라가 로봇 포지셔닝 기기에 연결되며, 로봇 포지셔닝 기기 또는 카메라 내부에 타이머가 설정되어, 제1 시각으로부터 제2시각까지의 간격 시각을 타이머의 설정 시각으로 설정한다. 설정 시각에 도달하면, 카메라는 로봇의 이미지 및 로봇의 움직임 파라미터를 획득하고, 이미지를 로봇 포지셔닝 기기에 전송하며, 로봇 포지셔닝 기기는 시각 시스템을 이용하여 상기 도 3에 도시된 방식을 통해 제2 시각에서의 로봇의 제1 예상 위치 정보를 획득하고, 동력학 시스템을 이용하여 로봇의 초기 위치 정보(즉 제1 위치 정보), 로봇의 방향 및 움직임 파라미터를 결합하여 제2 시각에서의 로봇의 제2 예상 위치 정보를 계산하여 얻는다.In some embodiments, at least one camera may be installed at the location where the robot is located, the camera is connected to the robot positioning device, and a timer is set inside the robot positioning device or the camera, from a first time to a second time Set the interval time of the timer to the set time of the timer. When the set time is reached, the camera acquires the image of the robot and the movement parameters of the robot, and sends the image to the robot positioning device, which uses the vision system to use the vision system to obtain a second time through the method shown in FIG. Obtain the first expected position information of the robot at It is obtained by calculating the location information.

교정부(44)는 상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 통해 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻도록 구성된다. 본 발명의 일부 실시예에 있어서, 칼만 필터링 방식을 이용하여 상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보에 대해 가중 평균을 수행하여, 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻을 수 있다.The calibration unit 44 is configured to obtain the second position information of the robot at the second time through the first expected position information and the second expected position information. In some embodiments of the present invention, by performing a weighted average on the first expected position information and the second expected position information using a Kalman filtering method, the second position information of the robot at the second time can be obtained

다른 일부 실시예에 있어서, 또한 평균치 통계법, 가우시안 혼합 모델(GMM)을 통해, 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 융합하여, 제2 위치 정보를 얻을 수 있다.In some other exemplary embodiments, the second location information may be obtained by fusing the first predicted location information and the second predicted location information through an average value statistical method or a Gaussian mixed model (GMM).

본 발명의 실시예에서 제공한 로봇 포지셔닝 방법은, 일 측면에서 시각 시스템을 이용하여 시뮬레이션 샌드 테이블을 구축하는 방식을 통해, 먼저 투영 관계를 구함으로써, 제1 시각에서의 로봇의 제1 위치 정보 및 제2 시각에서의 제1 예상 위치 정보를 얻고; 다른 측면에서 동력학 시스템을 이용하여, 로봇의 초기 방향, 제1 시각으로부터 제2 시각 내 움직임 거리 및 초기 위치 정보를 통해 제2 시각에서의 로봇의 제2 예상 위치 정보를 구함으로써; 칼만 필터를 통해 시각 시스템의 결과 및 동력학 시스템의 결과를 융합하여, 로봇의 제2 위치 정보, 즉 최종 위치 정보를 결정한다. 상기 포지셔닝 방식은 다중 터미널 융합의 방식을 사용하여, 글로벌 포지셔닝의 정확성을 향상시킬 뿐만 아니라, 하드웨어 비용을 절감하고, 시스템의 배치를 용이하게 한다. 시각 시스템을 통해 제1 예상 위치 정보를 얻을 경우, 시뮬레이션 샌드 테이블을 구축하면, 추가적으로 참조물을 캘리브레이션할 필요가 없기 때문에, 캘리브레이션 시간을 단축한다.The robot positioning method provided in the embodiment of the present invention, in one aspect, through a method of building a simulation sand table using a visual system, by first obtaining a projection relationship, the first position information of the robot at the first time and obtain first expected location information at a second time; In another aspect, by using the dynamics system, obtaining second expected position information of the robot at the second time through the initial direction of the robot, the movement distance within the second time from the first time, and the initial position information; The result of the visual system and the result of the dynamics system are fused through the Kalman filter to determine the second position information of the robot, that is, the final position information. The positioning scheme uses the scheme of multi-terminal fusion to not only improve the accuracy of global positioning, but also reduce hardware costs and facilitate system deployment. When the first predicted position information is obtained through the visual system, if the simulation sand table is established, the calibration time is shortened because there is no need to calibrate the reference object additionally.

도 7을 참고하면, 도 7은 본 발명의 실시예에 의한 로봇 포지셔닝 기기의 일 실시예의 구조 예시도이다. 서로 연결된 메모리(52) 및 프로세서(51)를 포함한다.Referring to FIG. 7, FIG. 7 is a structural diagram of an embodiment of a robot positioning device according to an embodiment of the present invention. It includes a memory 52 and a processor 51 connected to each other.

메모리(52)는 상기 어느 한 로봇 포지셔닝 방법을 구현하기 위한 프로그램 명령을 저장하도록 구성된다.The memory 52 is configured to store program instructions for implementing any of the above robot positioning methods.

프로세서(51)는 메모리(52)에 저장된 프로그램 명령을 실행하도록 구성된다The processor 51 is configured to execute program instructions stored in the memory 52 .

여기서, 프로세서(51)을 CPU라고도 할 수 있다. 프로세서(51)는 신호 처리 능력을 구비하는 집적 회로 칩일 수 있다. 프로세서(51)는 또한 범용 프로세서, 디지털 신호 프로세서(Digital Signal Processing, DSP), 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA) 또는 다른 프로그래머블 논리 소자, 개별 게이트 또는 트랜지스터 논리 소자, 개별 하드웨어 어셈블리일 수 있다. 범용 프로세서는 마이크로 프로세서 또는 임의의 일반적인 프로세서 등일 수도 있다.Here, the processor 51 may also be referred to as a CPU. The processor 51 may be an integrated circuit chip having signal processing capability. The processor 51 may also be a general purpose processor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or other programmable logic device; It can be a discrete gate or transistor logic device, a discrete hardware assembly. A general-purpose processor may be a microprocessor or any general processor or the like.

메모리(52)는 메모리 스틱, TF 카드 등일 수 있으며, 로봇 포지셔닝 기기의 모든 정보를 저장할 수 있고, 입력한 원시 데이터, 컴퓨터 프로그램, 중간 운행 결과 및 최종 운행 결과를 모두 메모리에 저장할 수 있다. 메모리(52)는 컨트롤러가 지정한 위치에 따라 정보를 저장하고 검색한다. 메모리가 있어야만, 로봇 포지셔닝 기기가 기억 기능이 있고, 정상적인 작업을 보장할 수 있다. 로봇 포지셔닝 기기의 메모리는 용도에 따라 메모리 주 메모리(내부 저장) 및 보조 메모리(외부 저장)으로 나뉠 수 있고, 외부 메모리 및 내부 메모리로 분류하는 방법도 있다. 외부 저장은 일반적으로 정보를 장기간 저장할 수 있는 자성 매체 또는 광 디스크 등 이다. 내부 저장은 마더보드의 저장 구성 요소를 가리키고, 현재 실행중인 데이터 및 프로그램을 저장하는 데 사용되고, 잠시 프로그램 및 데이터를 저장할 뿐이고, 전원을 끄거나 또는 꺼지면, 데이터가 손실된다.The memory 52 may be a memory stick, a TF card, or the like, and may store all information of the robot positioning device, and may store input raw data, computer program, intermediate driving results, and final driving results all in the memory. Memory 52 stores and retrieves information according to a location designated by the controller. Only when there is memory, the robot positioning device can have a memory function and ensure normal operation. The memory of the robot positioning device can be divided into memory main memory (internal storage) and auxiliary memory (external storage) according to the purpose, and there is also a method of classifying it into external memory and internal memory. External storage is generally a magnetic medium or optical disk that can store information for a long period of time. Internal storage refers to the storage component of the motherboard, is used to store the currently running data and programs, only temporarily stores programs and data, and when the power is turned off or turned off, the data is lost.

본 발명의 실시예는 컴퓨터 판독 가능한 코드를 포함하는 컴퓨터 프로그램을 제공하고, 상기 컴퓨터 판독 가능한 코드가 로봇 포지셔닝 기기에서 작동되고, 상기 로봇 포지셔닝 기기의 프로세스에 의해 실행될 경우, 상기 로봇 포지셔닝 방법을 구현한다.An embodiment of the present invention provides a computer program comprising computer readable code, and when the computer readable code is operated on a robot positioning device and executed by a process of the robot positioning device, implements the robot positioning method .

본 발명에서 제공하는 여러 실시예에 있어서, 개시된 방법 및 장치는, 다른 방식에 의해 구현될 수 있음을 이해해야 한다. 예를 들어, 이상에서 설명한 장치 실시예는 다만 예시적인 것이고, 예를 들어, 모듈 또는 유닛의 구획은 다만 논리적 기능 구획일 뿐이고 실제 응용시 다른 구획 방식이 있을 수 있으며, 예를 들어, 복수 개의 유닛 또는 컴포넌트는 다른 하나의 시스템에 결합되거나 통합될 수 있으며, 또는 일부 특징은 생략되거나 실행되지 않을 수 있다. 또한, 나타내거나 논의된 상호간의 결합 또는 직접 결합 또는 통신 연결은, 일부 인터페이스를 통해 구현되며, 장치 또는 유닛을 통한 간접 결합 또는 통신 연결은, 전기, 기계 또는 다른 형태일 수 있다.In the various embodiments provided by the present invention, it should be understood that the disclosed method and apparatus may be implemented in other ways. For example, the device embodiment described above is merely exemplary, for example, the partition of a module or unit is only a logical function partition, and there may be other partitioning methods in actual application, for example, a plurality of units Alternatively, components may be combined or integrated into another system, or some features may be omitted or not implemented. Further, any coupling or direct coupling or communication connection between each other shown or discussed may be implemented through some interface, and the indirect coupling or communication connection through a device or unit may be electrical, mechanical, or other form.

분리 부재로서 설명된 유닛은 물리적으로 분리되거나 분리되지 않은 것일 수 있고, 유닛으로 표시된 부재는 물리적 유닛이거나, 물리적 유닛이 아닐 수 있으며, 하나의 위치에 있거나, 복수 개의 네트워크 유닛에 분포될 수 있다. 실제 필요에 따라 그 중의 일부 또는 전부 유닛을 선택하여 본 실시 형태의 방안의 목적을 구현할 수 있다.A unit described as a separation member may or may not be physically separated, and a member indicated as a unit may or may not be a physical unit, and may be located in one location or distributed in a plurality of network units. According to actual needs, some or all of the units may be selected to implement the purpose of the scheme of the present embodiment.

또한, 본 발명의 각 실시예에서의 각 기능 유닛은 하나의 처리 유닛에 통합될 수 있고, 각 유닛이 독립적인 물리적 존재일 수도 있고, 두 개 또는 두 개 이상의 유닛이 하나의 유닛에 통합될 수도 있다. 상기 통합된 유닛은 하드웨어의 형태를 사용하여 구현될 수 있으며, 소프트웨어 기능 유닛의 형태를 사용하여 구현될 수도 있다.In addition, each functional unit in each embodiment of the present invention may be integrated into one processing unit, each unit may be an independent physical entity, and two or two or more units may be integrated into one unit. there is. The integrated unit may be implemented using a form of hardware or may be implemented using a form of a software functional unit.

통합된 유닛이 소프트웨어 기능 유닛의 형태로 구현되고 독립적인 제품으로 판매되거나 사용되는 경우 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해에 기반하여, 본 발명의 기술 방안, 즉 종래 기술에 기여하는 부분 또는 상기 기술 방안의 일부는 소프트웨어 제품의 형태로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 하나의 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 기기 등일 수 있음) 또는 프로세서(processer)로 하여금 본 발명의 각 실시형태의 상기 방법의 전부 또는 일부 단계를 실행하는데 사용되는 복수 개의 명령어를 포함한다.When the integrated unit is implemented in the form of a software functional unit and sold or used as an independent product, it may be stored in a computer-readable storage medium. Based on this understanding, the technical solution of the present invention, that is, a part contributing to the prior art or a part of the technical solution may be implemented in the form of a software product, the computer software product being stored in one storage medium, one It includes a plurality of instructions used to cause a computer device (which may be a personal computer, server or network device, etc.) or processor of the present invention to execute all or some steps of the method of each embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시예에 의한 컴퓨터 판독 가능한 저장 매체의 구조 예시도이다. 본 발명의 저장 매체는 상기 모든 로봇 포지셔닝 방법을 구현할 수 있는 프로그램 파일(61)을 저장하고, 여기서, 상기 프로그램 파일(61)은 소프트웨어 제품의 형태로 상기 저장 매체에 저장될 수 있고, 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 장치 등일 수 있음) 또는 프로세서로 하여금 본 발명의 실시예에서 설명된 방법의 일부 단계를 실행하도록 하는 몇 가지 명령어를 포함한다. 전술한 저장 장치는 U 디스크, 이동식 하드 디스크, 롬(Read-Only Memory, ROM), 램(Random Access Memory, RAM), 자기 디스크 또는 광 디스크 등 프로그램 코드를 저장할 수 있는 다양한 매체, 또는 컴퓨터, 서버, 휴대폰, 태블릿 등 단말 기기를 포함한다.Referring to FIG. 8 , it is an exemplary structural diagram of a computer-readable storage medium according to an embodiment of the present invention. The storage medium of the present invention stores a program file 61 that can implement all the robot positioning methods, wherein the program file 61 can be stored in the storage medium in the form of a software product, and a computer device ( It may be a personal computer, server, or network device, etc.) or includes some instructions for causing a processor to execute some steps of the methods described in the embodiments of the present invention. The above-mentioned storage device is a U disk, a removable hard disk, ROM (Read-Only Memory, ROM), RAM (Random Access Memory, RAM), a variety of media that can store a program code such as a magnetic disk or an optical disk, or a computer, server , including terminal devices such as mobile phones and tablets.

이상은 본 발명의 바람직한 실시형태일 뿐이며, 이것으로 본 발명의 범위를 한정하지 않으며, 본 발명의 명세서 및 도면의 내용을 이용한 등가 구조 또는 등가 프로세스 변형이거나, 직접 또는 간접적으로 다른 관련 기술 분야에 운용되고, 마찬가지로 본 발명의 특허 보호 범위에 포함된다.The above is only a preferred embodiment of the present invention, it does not limit the scope of the present invention, it is an equivalent structure or equivalent process modification using the contents of the specification and drawings of the present invention, or directly or indirectly operating in other related technical fields and are also included within the scope of patent protection of the present invention.

산업상 이용 가능성Industrial Applicability

본 발명의 실시예에 있어서, 제1 시각에서의 로봇의 제1 위치 정보를 획득하고, 제2 시각에서의 상기 로봇의 제2 이미지를 획득하고, 상기 제2 이미지에 기반하여 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 획득하며; 제1 시각으로부터 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 수집하고; 상기 제1 위치 정보 및 상기 움직임 파라미터에 기반하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 계산하여 얻으며; 상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 통해 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻는다. 두 가지 상이한 방식을 통해 획득된 로봇 포지셔닝 결과를 융합하여, 정확한 위치 정보를 얻고, 포지셔닝 정확성을 효과적으로 향상시킨다.In an embodiment of the present invention, first position information of the robot at a first time is obtained, a second image of the robot at a second time is obtained, and based on the second image at a second time acquiring first expected position information of the robot; collect motion parameters of the robot in the process from the first time to the second time; calculating and obtaining second expected position information of the robot at the second time based on the first position information and the motion parameter; The second position information of the robot at the second time is obtained through the first expected position information and the second expected position information. By fusing the robot positioning results obtained through two different methods, accurate position information is obtained, and positioning accuracy is effectively improved.

Claims (23)

로봇 포지셔닝 방법으로서,
제1 시각에서의 로봇의 제1 위치 정보를 획득하는 단계;
제2 시각에서의 상기 로봇의 제2 이미지를 획득하고, 상기 제2 이미지에 기반하여 상기 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 획득하는 단계;
상기 제1 시각으로부터 상기 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 수집하는 단계;
상기 제1 위치 정보 및 상기 움직임 파라미터에 기반하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 계산하여 얻는 단계; 및
상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 통해 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻는 단계를 포함하는 것을 특징으로 하는 로봇 포지셔닝 방법.
A robot positioning method comprising:
acquiring first position information of the robot at a first time;
obtaining a second image of the robot at a second time, and obtaining first expected position information of the robot at the second time based on the second image;
collecting motion parameters of the robot in the process from the first time to the second time;
calculating and obtaining second expected position information of the robot at the second time based on the first position information and the motion parameter; and
and obtaining second position information of the robot at the second time through the first expected position information and the second expected position information.
제1항에 있어서,
상기 제1 시각에서의 로봇의 제1 위치 정보를 획득하는 단계는,
상기 제1 시각에서의 상기 로봇의 제1 이미지를 획득하는 단계; 및
상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 상기 제1 위치 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 로봇 포지셔닝 방법.
According to claim 1,
Acquiring the first position information of the robot at the first time comprises:
acquiring a first image of the robot at the first time; and
and acquiring the first position information of the robot at the first time based on the first image.
제2항에 있어서,
상기 제1 이미지는 제1 참조물을 포함하고, 상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 상기 제1 위치 정보를 획득하는 단계는,
시뮬레이션 샌드 테이블에서의 상기 제1 참조물을 획득하는 단계;
상기 제1 이미지에서의 상기 제1 참조물의 픽셀 위치 및 상기 로봇의 제1 픽셀 위치를 결정하는 단계;
제1 시각의 상기 시뮬레이션 샌드 테이블에서의 상기 제1 참조물의 시뮬레이션 위치를 결정하는 단계;
상기 제1 참조물의 픽셀 위치 및 상기 시뮬레이션 샌드 테이블에서의 상기 제1 참조물의 시뮬레이션 위치를 이용하여 제1 투영 관계를 계산하여 얻는 단계;
상기 제1 투영 관계 및 상기 로봇의 제1 픽셀 위치에 기반하여 상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 계산하여 얻는 단계; 및
상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 이용하여 상기 제1 시각에서의 상기 로봇의 제1 위치 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 로봇 포지셔닝 방법.
3. The method of claim 2,
The first image includes a first reference, and the step of obtaining the first position information of the robot at the first time based on the first image comprises:
obtaining the first reference in a simulation sand table;
determining a pixel position of the first reference in the first image and a first pixel position of the robot;
determining a simulation position of the first reference object in the simulation sand table at a first time;
calculating and obtaining a first projection relationship using the pixel position of the first reference and the simulated position of the first reference in the simulation sand table;
calculating and obtaining a simulated position of the robot in the simulation sand table based on the first projection relationship and a first pixel position of the robot; and
and determining first position information of the robot at the first time by using the simulated position of the robot in the simulation sand table.
제1 항에 있어서,
상기 제2 이미지는 제2 참조물을 포함하고, 상기 제2 이미지에 기반하여 상기 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 획득하는 단계는,
시뮬레이션 샌드 테이블에서의 상기 제2 참조물을 획득하는 단계;
상기 제2 이미지에서의 상기 제2 참조물의 픽셀 위치 및 상기 로봇의 제2 픽셀 위치를 결정하는 단계;
제2 시각의 상기 시뮬레이션 샌드 테이블에서의 상기 제2 참조물의 시뮬레이션 위치를 결정하는 단계;
상기 제2 참조물의 픽셀 위치 및 상기 시뮬레이션 샌드 테이블에서의 상기 제2 참조물의 시뮬레이션 위치를 이용하여 제2 투영 관계를 계산하여 얻는 단계;
상기 제2 투영 관계 및 상기 로봇의 제2 픽셀 위치에 기반하여 상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 계산하여 얻는 단계; 및
상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 이용하여 상기 제2 시각에서의 상기 로봇의 상기 제1 예상 위치 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 로봇 포지셔닝 방법.
According to claim 1,
The second image includes a second reference, and the step of obtaining the first expected position information of the robot at the second time based on the second image comprises:
obtaining the second reference in a simulation sand table;
determining a pixel position of the second reference object and a second pixel position of the robot in the second image;
determining a simulation position of the second reference object in the simulation sand table at a second time;
calculating and obtaining a second projection relationship using the pixel position of the second reference object and the simulated position of the second reference object in the simulation sand table;
calculating and obtaining a simulation position of the robot in the simulation sand table based on the second projection relationship and a second pixel position of the robot; and
and determining the first expected position information of the robot at the second time by using the simulated position of the robot in the simulation sand table.
제4항에 있어서,
상기 제2 이미지에서의 상기 제2 참조물의 픽셀 위치 및 상기 로봇의 제2 픽셀 위치를 결정하는 단계는,
제1 딥러닝 네트워크를 이용하여 상기 제2 이미지에 대해 식별을 수행하여, 상기 제2 이미지에서의 상기 제2 참조물의 픽셀 위치 및 상기 로봇의 제2 픽셀 위치를 결정하는 단계를 포함하고,
상기 제1 딥러닝 네트워크는 RCNN(Region-CNN) 딥 네트워크 구조, SSD(Single Shot MultiBox Detector) 딥 네트워크 구조, Yolo(You Only Look Once) 딥 네트워크 구조, RetinaNet 네트워크 구조 중 하나 또는 임의의 조합을 포함하는 것을 특징으로 하는 로봇 포지셔닝 방법.
5. The method of claim 4,
Determining the pixel position of the second reference object and the second pixel position of the robot in the second image comprises:
performing identification on the second image using a first deep learning network to determine a pixel position of the second reference object and a second pixel position of the robot in the second image;
The first deep learning network includes one or any combination of a Region-CNN (RCNN) deep network structure, a Single Shot MultiBox Detector (SSD) deep network structure, a You Only Look Once (Yolo) deep network structure, and a RetinaNet network structure. Robot positioning method, characterized in that.
제2항에 있어서,
상기 제1 시각에서의 상기 로봇의 제1 이미지를 획득한 후, 상기 방법은,
상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 방향을 획득하는 단계를 더 포함하는 것을 특징으로 하는 로봇 포지셔닝 방법.
3. The method of claim 2,
After acquiring the first image of the robot at the first time, the method comprises:
The robot positioning method, characterized in that it further comprises the step of obtaining the direction of the robot at the first time based on the first image.
제6항에 있어서,
상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 방향을 획득하는 단계는,
제2 딥러닝 네트워크를 이용하여 상기 로봇이 위치하고 있는 영역 이미지에 대해 식별을 수행하여, 상기 로봇의 방향을 결정하는 단계를 포함하고,
상기 제2 딥러닝 네트워크는 ResNet 딥 네트워크 구조, MobileNet 딥 네트워크 구조, GhostNet 딥 네트워크 구조, EfficientNet 딥 네트워크 중 하나 또는 임의의 조합을 포함하는 것을 특징으로 하는 로봇 포지셔닝 방법.
7. The method of claim 6,
Acquiring the direction of the robot at the first time based on the first image comprises:
and determining the direction of the robot by performing identification on the image of the area where the robot is located using a second deep learning network,
The second deep learning network is a robot positioning method, characterized in that it comprises one or any combination of ResNet deep network structure, MobileNet deep network structure, GhostNet deep network structure, EfficientNet deep network.
제6항에 있어서,
상기 포지셔닝 방법은,
상기 제1 시각에 상기 로봇의 이력 움직임 파라미터를 획득하는 단계를 더 포함하고,
상기 제1 시각으로부터 상기 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 수집하는 단계는,
상기 제2 시각에 상기 로봇의 현재 움직임 파라미터를 획득하는 단계;
상기 이력 움직임 파라미터 및 상기 현재 움직임 파라미터를 통해 제1 시각으로부터 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 계산하여 얻는 단계를 포함하는 것을 특징으로 하는 로봇 포지셔닝 방법.
7. The method of claim 6,
The positioning method is
Further comprising the step of obtaining the historical motion parameter of the robot at the first time,
Collecting the movement parameters of the robot in the process from the first time to the second time,
acquiring a current motion parameter of the robot at the second time;
and calculating and obtaining a motion parameter of the robot in the process from a first time to a second time through the historical motion parameter and the current motion parameter.
제6항에 있어서,
상기 제1 위치 정보 및 상기 움직임 파라미터에 기반하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 계산하여 얻는 단계는,
상기 제1 시각으로부터 상기 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 통해, 상기 제1 시각 내의 상기 로봇의 방향과 결합하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 로봇 포지셔닝 방법.
7. The method of claim 6,
Calculating and obtaining second expected position information of the robot at the second time based on the first position information and the motion parameter includes:
Through the movement parameter of the robot in the process from the first time to the second time, it is combined with the direction of the robot in the first time to obtain second expected position information of the robot at the second time Robot positioning method comprising the step of.
제1항에 있어서,
상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 통해 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻는 단계는,
칼만 필터링(Kalman Filtering) 방식을 이용하여 상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보에 대해 가중 평균을 수행하여, 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻는 단계를 포함하는 것을 특징으로 하는 로봇 포지셔닝 방법.
According to claim 1,
The step of obtaining the second position information of the robot at the second time through the first expected position information and the second expected position information comprises:
Obtaining second position information of the robot at the second time by performing a weighted average on the first expected position information and the second expected position information using a Kalman filtering method Robot positioning method, characterized in that.
로봇 포지셔닝 장치로서,
제1 시각에서의 로봇의 제1 위치 정보를 획득하고, 제2 시각에서의 상기 로봇의 제2 이미지를 획득하며, 상기 제2 이미지에 기반하여 상기 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 획득하도록 구성된 제1 위치 획득부;
제1 시각으로부터 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 수집하도록 구성된 파라미터 획득부;
상기 제1 위치 정보 및 상기 움직임 파라미터에 기반하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 계산하여 얻도록 구성된 제2 위치 획득부;
상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 통해 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻도록 구성된 교정부를 포함하는 것을 특징으로 하는 로봇 포지셔닝 장치.
A robot positioning device comprising:
Obtaining first position information of the robot at a first time, obtaining a second image of the robot at a second time, and obtaining a first expected position of the robot at the second time based on the second image a first location obtaining unit configured to obtain information;
a parameter acquisition unit configured to collect movement parameters of the robot in a process from a first time to a second time;
a second position acquiring unit configured to calculate and obtain second expected position information of the robot at the second time based on the first position information and the motion parameter;
and a calibration unit configured to obtain second position information of the robot at the second time through the first expected position information and the second expected position information.
제11항에 있어서,
상기 제1 위치 획득부는, 구체적으로 상기 제1 시각에서의 상기 로봇의 제1 이미지를 획득하고; 상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 상기 제1 위치 정보를 획득하도록 구성되는 것을 특징으로 하는 로봇 포지셔닝 장치.
12. The method of claim 11,
The first position acquiring unit is specifically configured to acquire a first image of the robot at the first time; and obtain the first position information of the robot at the first time based on the first image.
제12항에 있어서,
상기 제1 이미지는 제1 참조물을 포함하고,
상기 제1 위치 획득부는, 또한 구체적으로, 시뮬레이션 샌드 테이블에서의 상기 제1 참조물을 획득하고; 상기 제1 이미지에서의 상기 제1 참조물의 픽셀 위치 및 상기 로봇의 제1 픽셀 위치를 결정하며; 제1 시각의 상기 시뮬레이션 샌드 테이블에서의 상기 제1 참조물의 시뮬레이션 위치를 결정하고; 상기 제1 참조물의 픽셀 위치 및 상기 시뮬레이션 샌드 테이블에서의 상기 제1 참조물의 시뮬레이션 위치를 이용하여 제1 투영 관계를 계산하여 얻으며; 상기 제1 투영 관계 및 상기 로봇의 제1 픽셀 위치에 기반하여 상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 계산하여 얻고; 상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 이용하여 상기 제1 시각에서의 상기 로봇의 상기 제1 위치 정보를 결정하도록 구성되는 것을 특징으로 하는 로봇 포지셔닝 장치.
13. The method of claim 12,
The first image includes a first reference,
The first location obtaining unit is further specifically configured to: obtain the first reference in the simulation sand table; determine a pixel position of the first reference in the first image and a first pixel position of the robot; determine a simulation position of the first reference object in the simulation sand table at a first time; calculating and obtaining a first projection relationship using the pixel position of the first reference and the simulated position of the first reference in the simulation sand table; calculating and obtaining a simulation position of the robot in the simulation sand table based on the first projection relationship and the first pixel position of the robot; and determine the first position information of the robot at the first time by using the simulated position of the robot in the simulation sand table.
제11항에 있어서,
상기 제2 이미지는 제2 참조물을 포함하고,
상기 제1 위치 획득부는 또한 구체적으로, 시뮬레이션 샌드 테이블에서의 상기 제2 참조물을 획득하고; 상기 제2 이미지에서의 상기 제2 참조물의 픽셀 위치 및 상기 로봇의 제2 픽셀 위치를 결정하며; 제2 시각의 상기 시뮬레이션 샌드 테이블에서의 상기 제2 참조물의 시뮬레이션 위치를 결정하고; 상기 제2 참조물의 픽셀 위치 및 상기 시뮬레이션 샌드 테이블에서의 상기 제2 참조물의 시뮬레이션 위치를 이용하여 제2 투영 관계를 계산하여 얻으며; 상기 제2 투영 관계 및 상기 로봇의 제2 픽셀 위치에 기반하여 상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 계산하여 얻고; 상기 시뮬레이션 샌드 테이블에서의 상기 로봇의 시뮬레이션 위치를 이용하여 상기 제2 시각에서의 상기 로봇의 제1 예상 위치 정보를 결정하도록 구성되는 것을 특징으로 하는 로봇 포지셔닝 장치.
12. The method of claim 11,
the second image includes a second reference,
The first location obtaining unit is also specifically configured to obtain the second reference in the simulation sand table; determine a pixel position of the second reference object and a second pixel position of the robot in the second image; determine a simulation position of the second reference object in the simulation sand table at a second time; calculating and obtaining a second projection relationship using the pixel position of the second reference object and the simulated position of the second reference object in the simulation sand table; calculating and obtaining a simulation position of the robot in the simulation sand table based on the second projection relationship and a second pixel position of the robot; and determine the first expected position information of the robot at the second time by using the simulated position of the robot in the simulation sand table.
제14항에 있어서,
상기 제1 위치 획득부는, 또한 구체적으로, 제1 딥러닝 네트워크를 이용하여 상기 제2 이미지에 대해 식별을 수행하여, 상기 제2 이미지에서의 상기 제2 참조물의 픽셀 위치 및 상기 로봇의 제2 픽셀 위치를 결정하도록 구성되고, 상기 제1 딥러닝 네트워크RCNN(Region-CNN) 딥 네트워크 구조, SSD(Single Shot MultiBox Detector) 딥 네트워크 구조, Yolo(You Only Look Once) 딥 네트워크 구조, RetinaNet 네트워크 구조 중 하나 또는 임의의 조합을 포함하는 것을 특징으로 하는 로봇 포지셔닝 장치.
15. The method of claim 14,
The first position obtaining unit is further specifically configured to perform identification on the second image using a first deep learning network, so that the pixel position of the second reference object in the second image and the second pixel of the robot one of the first deep learning network RCNN (Region-CNN) deep network structure, SSD (Single Shot MultiBox Detector) deep network structure, Yolo (You Only Look Once) deep network structure, RetinaNet network structure. Or robot positioning device comprising any combination.
제11항에 있어서,
상기 제1 위치 획득부는, 또한 구체적으로, 상기 제1 시각에서의 상기 로봇의 제1 이미지를 획득한 후, 상기 제1 이미지에 기반하여 상기 제1 시각에서의 상기 로봇의 방향을 획득하도록 구성되는 것을 특징으로 하는 로봇 포지셔닝 장치.
12. The method of claim 11,
The first position obtaining unit is further specifically configured to obtain a first image of the robot at the first time, and then obtain a direction of the robot at the first time based on the first image Robot positioning device, characterized in that.
제16항에 있어서,
상기 제1 위치 획득부는, 또한 구체적으로, 제2 딥러닝 네트워크를 이용하여 상기 로봇이 위치하고 있는 영역 이미지에 대해 식별을 수행하여, 상기 로봇의 방향을 결정하도록 구성되고, 상기 제2 딥러닝 네트워크는 ResNet 딥 네트워크 구조, MobileNet 딥 네트워크 구조, GhostNet 딥 네트워크 구조, EfficientNet 딥 네트워크 중 하나 또는 임의의 조합을 포함하는 것을 특징으로 하는 로봇 포지셔닝 장치.
17. The method of claim 16,
The first position obtaining unit is further specifically configured to determine the direction of the robot by performing identification on the image of the area where the robot is located using a second deep learning network, and the second deep learning network is A robot positioning device comprising one or any combination of ResNet deep network architecture, MobileNet deep network architecture, GhostNet deep network architecture, and EfficientNet deep network.
제16항에 있어서,
상기 파라미터 획득부는, 구체적으로 상기 제1 시각에 상기 로봇의 이력 움직임 파라미터를 획득하고, 상기 파라미터 획득부는 또한, 상기 제2 시각에 상기 로봇의 현재 움직임 파라미터를 획득하고; 상기 이력 움직임 파라미터 및 상기 현재 움직임 파라미터를 통해 상기 제1 시각으로부터 상기 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 획득하는 것을 포함하는 것을 특징으로 하는 로봇 포지셔닝 장치.
17. The method of claim 16,
The parameter obtaining unit is specifically configured to obtain a historical motion parameter of the robot at the first time, and the parameter obtaining unit is further configured to obtain a current motion parameter of the robot at the second time; and acquiring the motion parameter of the robot in the process from the first time to the second time through the historical motion parameter and the current motion parameter.
제16항에 있어서,
상기 제2 위치 획득부는, 구체적으로 상기 제1 시각으로부터 상기 제2 시각까지의 과정에서의 상기 로봇의 움직임 파라미터를 통해, 상기 제1 시각 내의 상기 로봇의 방향과 결합하여 상기 제2 시각에서의 상기 로봇의 제2 예상 위치 정보를 획득하도록 구성되는 것을 특징으로 하는 로봇 포지셔닝 장치.
17. The method of claim 16,
The second position obtaining unit may be specifically configured to combine with the direction of the robot within the first time through the movement parameter of the robot in the process from the first time to the second time, and the second time at the second time. Robot positioning device, characterized in that configured to obtain the second expected position information of the robot.
제11항에 있어서,
상기 교정부는, 구체적으로 상기 제1 예상 위치 정보 및 상기 제2 예상 위치 정보를 통해 상기 제2 시각에서의 상기 로봇의 제2 위치 정보를 얻도록 구성되는 것을 특징으로 하는 로봇 포지셔닝 장치.
12. The method of claim 11,
The calibration unit is specifically configured to obtain the second position information of the robot at the second time through the first expected position information and the second expected position information.
로봇 포지셔닝 기기로서, 메모리 및 프로세서를 포함하고, 상기 메모리에는 프로그램 명령어가 저장되어 있으며, 상기 프로세서는 상기 메모리에서 상기 프로그램 명령어를 호출하여 제1항 내지 제10항 중 어느 한 항에 따른 로봇 포지셔닝 방법을 실행하는 것을 특징으로 하는 로봇 포지셔닝 기기.A robot positioning device comprising: a memory and a processor, the memory storing program instructions, the processor calling the program instructions from the memory; A robot positioning device, characterized in that it runs. 컴퓨터 판독 가능한 저장 매체로서, 프로그램 파일을 저장하고, 제1항 내지 제10항 중 어느 한 항에 따른 로봇 포지셔닝 방법을 구현하도록 상기 프로그램 파일이 실행 가능한 것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.A computer-readable storage medium storing a program file, the program file being executable to implement the robot positioning method according to any one of claims 1 to 10. 컴퓨터 프로그램으로서, 컴퓨터 판독 가능한 코드를 포함하며, 상기 컴퓨터 판독 가능한 코드가 로봇 포지셔닝 기기에서 작동되어 상기 로봇 포지셔닝 기기의 프로세서에 의해 실행될 경우, 제1항 내지 제10항 중 어느 한 항에 따른 로봇 포지셔닝 방법을 구현하는 것을 특징으로 하는 컴퓨터 프로그램.A computer program comprising computer readable code, wherein the computer readable code is operated on a robot positioning device and executed by a processor of the robot positioning device. A computer program comprising implementing a method.
KR1020217038571A 2020-10-26 2021-04-08 Robot positioning method and apparatus, apparatus, storage medium KR20220058846A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011157118.7A CN112405526A (en) 2020-10-26 2020-10-26 Robot positioning method and device, equipment and storage medium
CN202011157118.7 2020-10-26
PCT/CN2021/085942 WO2022088613A1 (en) 2020-10-26 2021-04-08 Robot positioning method and apparatus, device and storage medium

Publications (1)

Publication Number Publication Date
KR20220058846A true KR20220058846A (en) 2022-05-10

Family

ID=74840550

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217038571A KR20220058846A (en) 2020-10-26 2021-04-08 Robot positioning method and apparatus, apparatus, storage medium

Country Status (4)

Country Link
JP (1) JP2023503750A (en)
KR (1) KR20220058846A (en)
CN (1) CN112405526A (en)
WO (1) WO2022088613A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112405526A (en) * 2020-10-26 2021-02-26 北京市商汤科技开发有限公司 Robot positioning method and device, equipment and storage medium

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9323249B2 (en) * 2011-03-31 2016-04-26 King Abdulaziz City for Science & Technology Matrix code symbols for accurate robot tracking
CN103438904B (en) * 2013-08-29 2016-12-28 深圳市宇恒互动科技开发有限公司 A kind of inertial positioning method and system using vision auxiliary corrective
CN105698784A (en) * 2016-03-22 2016-06-22 成都电科创品机器人科技有限公司 Indoor robot positioning system and method
KR102172602B1 (en) * 2017-10-23 2020-11-02 주식회사 유진로봇 Method and Apparatus for Localization and Mapping Using LIDAR
CN106871904A (en) * 2017-03-02 2017-06-20 南阳师范学院 A kind of mobile robot code-disc positioning correction method based on machine vision
CN109959381B (en) * 2017-12-22 2021-06-04 深圳市优必选科技有限公司 Positioning method, positioning device, robot and computer readable storage medium
CN108481327B (en) * 2018-05-31 2023-11-07 珠海一微半导体股份有限公司 Positioning device, positioning method and robot for enhancing vision
US10373322B1 (en) * 2018-07-16 2019-08-06 Accel Robotics Corporation Autonomous store system that analyzes camera images to track people and their interactions with items
CN110712187A (en) * 2019-09-11 2020-01-21 珠海市众创芯慧科技有限公司 Intelligent walking robot based on integration of multiple sensing technologies
CN110530372B (en) * 2019-09-26 2021-06-22 上海商汤智能科技有限公司 Positioning method, path determining device, robot and storage medium
CN110774319B (en) * 2019-10-31 2021-07-23 深圳市优必选科技股份有限公司 Robot and positioning method and device thereof
CN110977985B (en) * 2019-12-23 2021-10-01 中国银联股份有限公司 Positioning method and device
CN111319041B (en) * 2020-01-17 2021-04-16 深圳市优必选科技股份有限公司 Robot pose determining method and device, readable storage medium and robot
CN112405526A (en) * 2020-10-26 2021-02-26 北京市商汤科技开发有限公司 Robot positioning method and device, equipment and storage medium

Also Published As

Publication number Publication date
CN112405526A (en) 2021-02-26
WO2022088613A1 (en) 2022-05-05
JP2023503750A (en) 2023-02-01

Similar Documents

Publication Publication Date Title
US11295472B2 (en) Positioning method, positioning apparatus, positioning system, storage medium, and method for constructing offline map database
CN109737974B (en) 3D navigation semantic map updating method, device and equipment
EP3943881A1 (en) Method and apparatus for measuring geometric parameter of object, and terminal
WO2021139590A1 (en) Indoor localization and navigation apparatus based on bluetooth and slam, and method therefor
CN112258567B (en) Visual positioning method and device for object grabbing point, storage medium and electronic equipment
CN109559349B (en) Method and device for calibration
CN111121754A (en) Mobile robot positioning navigation method and device, mobile robot and storage medium
KR20220028042A (en) Pose determination method, apparatus, electronic device, storage medium and program
CN110501036A (en) The calibration inspection method and device of sensor parameters
CN108805938B (en) Detection method of optical anti-shake module, mobile terminal and storage medium
JP2020053008A (en) Positioning method, robot, and computer storage medium
CN115578433B (en) Image processing method, device, electronic equipment and storage medium
CN111080682A (en) Point cloud data registration method and device
JP7351892B2 (en) Obstacle detection method, electronic equipment, roadside equipment, and cloud control platform
CN113610702B (en) Picture construction method and device, electronic equipment and storage medium
CN114111776A (en) Positioning method and related device
KR20220058846A (en) Robot positioning method and apparatus, apparatus, storage medium
CN111354037A (en) Positioning method and system
CN114882115B (en) Vehicle pose prediction method and device, electronic equipment and storage medium
CN113628284B (en) Pose calibration data set generation method, device and system, electronic equipment and medium
CN113240754B (en) Method, device, equipment and storage medium for determining internal parameters of PTZ image pickup device
CN111210471B (en) Positioning method, device and system
CN111292288A (en) Target detection and positioning method and device
CN117671007B (en) Displacement monitoring method and device, electronic equipment and storage medium
CN113465600B (en) Navigation method and device, electronic equipment and storage medium