KR20220084435A - 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램 - Google Patents

상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20220084435A
KR20220084435A KR1020227019723A KR20227019723A KR20220084435A KR 20220084435 A KR20220084435 A KR 20220084435A KR 1020227019723 A KR1020227019723 A KR 1020227019723A KR 20227019723 A KR20227019723 A KR 20227019723A KR 20220084435 A KR20220084435 A KR 20220084435A
Authority
KR
South Korea
Prior art keywords
robot
state
noise
actual
current time
Prior art date
Application number
KR1020227019723A
Other languages
English (en)
Inventor
다첸 야오
유에 헤
쳉 리
Original Assignee
베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드
Publication of KR20220084435A publication Critical patent/KR20220084435A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator

Abstract

본 출원의 실시예는 로봇의 상태 결정 방법 및 장치, 로봇 및 저장 매체를 개시하고, 로봇의 상태 결정 방법은, 로봇의 참조 정보를 획득하는 단계 - 참조 정보는, 로봇이 복수 시각에 대응되는 측정 상태 정보, 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함함 - ; 참조 정보에 기반하여, 로봇의 상태 소음을 결정하는 단계; 및 상태 소음을 이용하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는 단계를 포함한다. 상기 방안은, 로봇 상태 결정의 정확성을 향상시킬 수 있다.

Description

상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램{STATE DETERMINING METHOD AND APPARATUS, ROBOT, STORAGE MEDIUM, AND COMPUTER PROGRAM}
[관련 출원에 대한 상호 참조]
본 출원은 출원 번호가 202010872662.3이고, 출원일이 2020년 08월 26일인 중국 특허 출원에 기반하여 제출한 것이며, 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 전부 내용은 본 출원에 참조 자료로서 인용된다.
본 출원은 로봇 기술 분야에 관한 것으로서, 특히 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램에 관한 것이다.
전자 기술 및 컴퓨터 기술의 발전에 따라, 로봇은 택배 배송, 서비스 안내, 호텔 음식 배달 등에 적용되어, 점차 널리 주목받고 있으며, 로봇의 응용 분야는 점점 더 광범위해지고 있다.
예컨대, 최근 인공 지능(Artificial Intelligence, AI) 교육이 부단히 핫해지면서, 대부분 AI 교육 커리큘럼은 모두 온라인 커리큘럼 플랫폼을 기초로 연장되며, 스마트 차량, 스마트 로봇 등과 같은 하드웨어 기기로 보완된다. 교학 역할 이외에도, 학교에서는 로봇에 기반한 시합을 조직하는데, 예를 들어 설계 시합, 자동 운전 시합 등이다. 이러한 시합에서, 선수들은 스스로 회로와 알고리즘을 디자인하여, 시합에서 다른 선수들의 로봇과 대적해야 한다.
본 출원 실시예는 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램을 제공한다.
본 출원 실시예는 로봇의 상태 결정 방법을 제공하며, 상기 방법은 로봇의 참조 정보를 획득하는 단계 - 참조 정보는, 로봇이 복수 시각에 대응되는 측정 상태 정보, 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함함 - ; 참조 정보에 기반하여, 로봇의 상태 소음을 결정하는 단계; 및 상태 소음을 이용하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는 단계를 포함한다.
따라서, 로봇의 참조 정보를 획득하는 것을 통해, 참조 정보는, 로봇이 복수 시각에 대응되는 측정 상태 정보, 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함하며, 참조 정보에 기반하여, 로봇의 상태 소음을 결정함으로써, 상태 소음을 이용하며, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻음으로써, 상태를 결정하는 과정에서, 대량의 입자를 이용하여 시뮬레이션을 진행할 필요가 없으므로, 상태 결정의 속도를 향상시키는데 유리하다. 또한, 상기 상태 소음은 복수 시각의 측정 상태 정보 및 현재 시각의 실제 주행 정보 중 적어도 하나에 따라 결정되므로, 로봇 외부 측정 각도 및 로봇 자체 상태 각도 중 적어도 하나에서 소음을 가늠할 수 있음으로써, 상태 소음이 실제 경우에 더욱 접근하도록 함으로써, 후속 결정된 실제 상태 정보의 정확성을 향상시킨다.
일부 발명의 실시예에 있어서, 참조 정보에 기반하여, 로봇의 상태 소음을 결정하는 단계는, 현재 시각 및 이전의 복수 시각에 대응되는 측정 상태 정보를 이용하여, 로봇의 측정 간섭 소음을 결정하는 단계; 및 현재 시각의 실제 주행 정보를 이용하여 로봇의 상태 전이 소음을 결정하는 단계 중 적어도 하나를 포함한다.
따라서, 현재 시각 및 이전의 복수 시각에 대응되는 측정 상태 정보를 이용하여, 로봇의 측정 간섭 소음을 결정하므로, 외부 측정 각도로부터 로봇의 소음을 결정할 수 있음으로써, 로봇이 주행 과정에서의 외부의 간섭을 가늠할 수 있으며; 현재 시각의 실제 주행 정보를 이용하여, 로봇의 상태 전이 소음을 결정하므로, 로봇 자체 상태의 각도로부터 로봇의 소음을 결정할 수 있음으로써, 로봇이 주행 과정에서의 내부의 간섭을 가늠할 수 있다.
일부 발명의 실시예에 있어서, 현재 시각 및 이전의 복수 시각에 대응되는 측정 상태 정보를 이용하여, 로봇의 측정 간섭 소음을 결정하는 단계는, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도를 획득하는 단계; 및 상기 이산 정도를 이용하여, 측정 간섭 소음을 결정하는 단계를 포함한다.
따라서, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도를 이용하고, 이산 정도를 이용하여 측정 간섭 소음을 결정하므로, 로봇이 주행 과정에서의 외부의 간섭을 정확하게 가늠할 수 있다.
일부 발명의 실시예에 있어서, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도는 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 표준차이며; 대응되게, 이산 정도를 이용하여, 측정 간섭 소음을 결정하는 단계는, 이산 정도와 기설정된 이득 파라미터 사이의 적을 측정 간섭 소음으로 사용하는 단계를 포함한다.
따라서, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도를 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 표준차로 설정하는 것을 통해, 이산 정도의 결정 복잡도 및 계산량을 감소함에 있어서 유리하며, 상태 결정의 속도를 향상함에 있어서 유리하며; 이산 정도와 기설정된 이득 파라미터 사이의 적을 측정 간섭 소음으로 사용하여, 간섭 소음의 측정 정확성을 향상함에 있어서 유리하며, 상태 결정의 정밀도를 향상함에 있어서 유리하다.
일부 발명의 실시예에 있어서, 실제 주행 정보는 로봇의 주행 각도 정보, 모터 구동 정보 및 주행 속도 정보를 포함하고; 현재 시각의 실제 주행 정보를 이용하여, 로봇의 상태 전이 소음을 결정하는 단계는, 제1 상태 소음 및 제2 상태 소음 중 적어도 하나를 이용하여, 로봇의 상태 전이 소음을 얻는 단계를 포함하고; 여기서, 상기 제1 상태 소음은 주행 각도 정보 및 주행 속도 정보를 이용하여 결정하여 얻은 것이며, 상기 제2 상태 소음은 모터 구동 정보 및 주행 속도 정보를 이용하여 결정하여 얻은 것이다.
따라서, 실제 주행 정보를 로봇의 주행 각도 정보, 모터 구동 정보 및 주행 속도 정보를 포함하도록 설정함으로써, 제1 상태 소음 및 제2 상태 소음 중 적어도 하나를 이용하여, 로봇의 상태 전이 소음을 얻고, 제1 상태 소음은 주행 각도 정보 및 주행 속도 정보를 이용하여 결정하여 얻은 것이며, 제2 상태 소음은 모터 구동 정보 및 주행 속도 정보를 이용하여 결정하여 얻은 것이므로, 상태 전이 소음의 정확성을 향상시키는데 유리하다.
일부 발명의 실시예에 있어서, 로봇은 구동 바퀴 및 회전 바퀴를 포함하며, 구동 바퀴는 로봇 주행을 구동하는데 사용되며, 회전 바퀴는 로봇의 주행 방향을 변경하는데 사용되며; 주행 속도 정보는 로봇의 구동 바퀴 사이의 실제 속도 차를 포함하며, 주행 각도 정보는 로봇의 회전 바퀴의 실제 회전 각도를 포함하며; 대응되게, 제1 상태 소음 및 제2 상태 소음 중 적어도 하나를 이용하여, 로봇의 상태 전이 소음을 얻기 전, 속도 차와 회전 각도 사이의 제1 맵핑 관계를 이용하여 실제 회전 각도에 대해 맵핑 처리를 진행하여, 실제 회전 각도에 대응되는 이론 속도를 얻는 단계; 실제 속도 차와 이론 속도 차 사이의 차이를 이용하여, 제1 상태 소음을 결정하는 단계를 더 포함하는 것; 및 로봇은 구동 바퀴를 포함하고, 구동 바퀴는 로봇 주행을 구동하는데 사용되며; 주행 속도 정보는 로봇의 구동 바퀴의 실제 평균 속도를 포함하며, 모터 구동 정보는 로봇의 모터의 실제 평균 구동 신호 값을 포함하며; 대응되게, 제1 상태 소음 및 제2 상태 소음 중 적어도 하나를 이용하여, 로봇의 상태 전이 소음을 얻기 전, 평균 속도와 평균 구동 신호값 사이의 제2 맵핑 관계를 이용하여 실제 평균 구동 신호값에 대해 맵핑 처리를 진행하여, 실제 평균 구동 신호값에 대응되는 이론 평균 속도를 얻는 단계; 및 실제 평균 속도 및 이론 평균 속도 사이의 차이를 이용하여, 제2 상태 소음을 결정하는 단계를 포함하는 것 중 적어도 하나이다.
따라서, 로봇은 구동 바퀴 및 회전 바퀴를 포함하며, 구동 바퀴는 로봇 주행을 구동하는데 사용되며, 회전 바퀴는 로봇의 주행 방향을 변경하는데 사용되며, 주행 속도 정보를 로봇의 구동 바퀴 사이의 실제 속도 차를 포함하도록 설정하며, 주행 각도 정보를 로봇의 회전 바퀴의 실제 회전 각도를 포함하도록 설정함으로써, 속도 차와 회전 각도 사이의 제1 맵핑 관계를 이용하여 실제 회전 각도에 대해 맵핑 처리를 진행하여, 실제 회전 각도에 대응되는 이론 속도 차를 얻으며, 실제 속도 차와 이론 속도 차 사이의 차이를 이용하여, 제1 상태 소음을 결정하므로, 로봇의 회전 바퀴의 각도로부터, 로봇의 제1 상태 소음을 결정할 수 있으며; 로봇은 구동 바퀴를 포함하며, 구동 바퀴는 로봇 주행을 구동하는데 사용되며, 주행 속도 정보를 로봇의 구동 바퀴의 실제 평균 속도를 포함하도록 설정하며, 모터 구동 정보를 로봇의 모터의 실제 평균 구동 신호값을 포함하도록 설정함으로써, 평균 속도와 평균 구동 신호값 사이의 제2 맵핑 관계를 이용하여 실제 평균 구동 신호값에 대해 맵핑 처리를 진행하여, 실제 평균 구동 신호값에 대응되는 이론 평균 속도를 얻으며, 실제 평균 속도 및 이론 평균 속도 사이의 차이를 이용하여, 제2 상태 소음을 결정하므로, 로봇의 구동 바퀴의 각도로부터, 로봇의 제2 상태 소음을 결정할 수 있다.
일부 발명의 실시예에 있어서, 실제 속도 차와 이론 속도 차 사이의 차이를 이용하여, 제1 상태 소음을 결정하는 단계는, 실제 속도 차와 이론 속도 차 사이의 차의 제곱을 제1 상태 소음으로 사용하는 단계를 포함하고; 실제 평균 속도 및 이론 평균 속도 사이의 차이를 이용하여, 제2 상태 소음을 결정하는 단계는, 실제 평균 속도 및 이론 평균 속도 사이의 차의 제곱을 제2 상태 소음으로 사용하는 단계를 포함한다.
따라서, 실제 속도 차와 이론 속도 차 사이의 차의 제곱을 제1 상태 소음으로 사용하며, 실제 평균 속도 및 이론 평균 속도 사이의 차의 제곱을 제2 상태 소음으로 사용하므로, 제1 상태 소음 및 제2 상태 소음 계산의 복잡도 및 계산량을 감소시키며, 상태 결정의 속도를 향상시키는데 유리하다.
일부 발명의 실시예에 있어서, 상태 소음을 이용하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는 단계는, 상태 소음을 이용하여 로봇이 이전 시각에 대응되는 실제 상태 정보 및 현재 시각의 측정 상태 정보를 처리하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는 단계를 포함한다.
따라서, 상태 소음을 이용하여 로봇이 현재 시각에 대응되는 측정 상태 정보 및 이전 시각에 대응되는 실제 상태 정보를 처리하는 것을 통해, 로봇이 현재 시각에서의 측정 상태 정보 및 이전 시각에서의 실제 상태 정보 사이가 균형되도록 하는데 유리하므로, 결정하여 얻은 실제 상태 정보가 측정 상태 정보에 비해 수정되도록 함으로써, 로봇 상태 결정의 정밀도를 향상시키는데 유리하다.
일부 발명의 실시예에 있어서, 상태 소음을 이용하여 로봇이 이전 시각에 대응되는 실제 상태 정보 및 현재 시각의 측정 상태 정보를 처리하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는 단계는, 상태 소음에 기반하여 필터링 이득을 결정하며, 로봇이 이전 인접 시각에 대응되는 실제 상태 정보 및 이전 인접 시각의 실제 주행 정보를 예측하여, 현재 시각에 대응되는 예측 상태 정보를 얻으며, 필터링 이득의 칼만 필터링을 이용하여, 현재 시각의 예측 상태 정보와 현재 시각의 측정 상태 정보를 융합하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는 단계를 포함한다.
따라서, 상태 소음에 기반하여 필터링 이득을 결정하며, 로봇이 이전 인접 시각에 대응되는 실제 상태 정보 및 이전 인접 시각의 실제 주행 정보를 예측하여, 현재 시각에 대응되는 예측 상태 정보를 얻으며, 필터링 이득의 칼만 필터링을 이용하여, 현재 시각의 예측 상태 정보와 현재 시각의 측정 상태 정보를 융합하여, 외부 신호의 로버스트를 증강시킬 수 있음으로써, 현재 시각에 대응되는 실제 상태 정보를 정확하게 결정한다.
일부 발명의 실시예에 있어서, 참조 정보에 기반하여, 로봇의 상태 소음을 결정한 후, 방법은, 상태 소음이 기설정된 소음 조건을 만족시키지 못하면, 기설정된 프롬프트를 진행하는 단계를 더 포함한다.
따라서, 상태 소음이 기설정된 소음 조건을 만족시키지 못할 경우, 기설정된 프롬프트를 진행하므로, 사용자가 이상의 상태 소음을 감지할 수 있도록 하여, 사용자 체험을 향상시킨다.
일부 발명의 실시예에 있어서, 상태 소음은 현재 시각 및 이전의 복수 시각의 측정 상태 정보를 이용하여 얻은 측정 간섭 소음을 포함하며; 대응되게, 기설정된 소음 조건은 측정 간섭 소음이 제1 소음 임계값보다 작은 것을 포함하며; 상태 소음이 기설정된 소음 조건을 만족시키지 못하면, 기설정된 프롬프트를 진행하는 단계는, 측정 간섭 소음이 기설정된 소음 조건을 만족시키지 못하면, 제1 경고 메시지를 출력하는 단계 - 상기 제1 경고 메시지는 상태 측정이 간섭을 받는 것을 프롬프트하기 위한 것임 - 를 포함하는 것; 및 상태 소음은 현재 시각의 실제 주행 정보를 이용하여 얻은 상태 전이 소음을 포함하고; 대응되게, 기설정된 소음 조건은 상태 전이 소음이 제2 소음 임계값보다 작은 것을 포함하며; 상태 소음이 기설정된 소음 조건을 만족시키지 못하면, 기설정된 프롬프트를 진행하는 단계는, 상태 전이 소음이 기설정된 소음 조건을 만족시키지 못하면, 제2 경고 메시지를 출력하는 단계 - 상기 제2 경고 메시지는 로봇에 차체가 미끄러지는 리스크가 존재하는 것을 프롬프트하기 위한 것임 - 를 포함하는 것 중 적어도 하나이다.
따라서, 측정 간섭 소음이 기설정된 조건을 만족시키지 못할 경우, 제1 경고 메시지를 출력하여, 상태 측정이 간섭을 받는 것을 프롬프트를 함으로써, 상태 측정이 간섭을 받을 경우, 사용자가 제때에 감지할 수 있도록 하므로, 사용자 체험을 향상시키며; 상태 전이 소음이 기설정된 조건을 만족시키지 못할 경우, 제2 경고 메시지를 출력하여, 로봇에 차체가 미끄러지는 리스크가 존재하는 것을 프롬프트함으로써, 로봇에 차체가 미끄러지는 리스크가 나타날 경우, 사용자가 제때에 감지할 수 있도록 하므로, 사용자 체험을 향상시킨다.
일부 발명의 실시예에 있어서, 로봇의 참조 정보를 획득하는 단계는, 로봇의 주변 환경에 대해 이미지 수집을 진행하여, 현재 시각에 대응되는 환경 이미지 데이터를 얻는 단계; 및 현재 시각의 환경 이미지 데이터에 기반하여, 로봇이 현재 시각에 대응되는 측정 상태 정보를 결정하는 단계를 포함하고; 측정 상태 정보 및 실제 상태 정보는 로봇의 위치, 로봇의 자세, 로봇의 속도 중 적어도 하나를 포함한다.
따라서, 로봇 주변 환경에 대해 이미지 수집을 진행하는 것을 통해, 현재 시각에 대응되는 환경 이미지 사용자 개수를 얻으며, 현재 시각의 환경 이미지 데이터에 기반하여, 로봇이 현재 시각에 대응되는 측정 상태 정보를 결정하며, 측정 상태 정보 및 실제 상태 정보를 로봇의 위치, 로봇의 자세 및 로봇의 속도 중 적어도 하나를 포함하도록 설정함으로써, 로봇이 현재 시각에 대응되는 측정 상태 정보를 얻을 수 있음으로써, 로봇 상태 결정의 속도를 향상시키는데 유리하다.
본 출원의 실시예는 로봇의 상태 결정 장치를 제공하며, 상기 장치는, 측정 상태 획득 모듈, 상태 소음 결정 모듈 및 실제 상태 획득 모듈을 포함하고, 측정 상태 획득 모듈은 로봇의 참조 정보를 획득하도록 구성되며; 여기서, 참조 정보는 로봇이 복수 시각에 대응되는 측정 상태 정보, 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함하며; 상태 소음 결정 모듈은 참조 정보에 기반하여, 로봇의 상태 소음을 결정하도록 구성되며; 실제 상태 획득 모듈은 상기 상태 소음을 이용하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻도록 구성된다.
본 출원의 실시예는 로봇을 제공하며, 로봇 본체 및 로봇 본체에 설치된 메모리 및 프로세서를 포함하며, 메모리 및 프로세서는 상호 커플링되며, 프로세서는 메모리에 저장된 프로그램 명령어를 실행하여, 상기의 상태 결정 방법을 구현하기 위한 것이다.
본 출원의 실시예는 컴퓨터 판독 가능한 저장 매체를 제공하며, 프로그램 명령어가 저장되고, 프로그램 명령어는 프로세서에 의해 실행될 경우 상기 상태 결정 방법을 구현한다.
본 출원의 실시예는 컴퓨터 판독 가능한 코드를 포함하는 컴퓨터 프로그램을 제공하고, 상기 컴퓨터 판독 가능한 코드가 로봇에서 작동될 경우, 상기 로봇에서의 프로세서는 상기 상태 결정 방법을 구현하기 위한 것이다.
본 출원의 실시예는 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램을 제공하며, 로봇의 참조 정보를 획득하고, 참조 정보는, 로봇이 복수 시각에 대응되는 측정 상태 정보, 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함하며, 참조 정보에 기반하여, 로봇의 상태 소음을 결정함으로써, 상태 소음을 이용하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻음으로써, 상태를 결정하는 과정에서, 대량 입자를 이용하여 시뮬레이션을 진행할 필요가 없으므로, 상태 결정의 속도를 향상시키는데 유리하다. 또한, 상기 상태 소음이 획득된 복수 개의 측정 상태 정보 및 현재 실제 주행 정보 중 적어도 하나에 따라 결정된 것이므로, 로봇 외부 측정 각도 및 로봇 자체 상태 각도 중 적어도 하나로부터 소음을 가늠할 수 있음으로써, 상태 소음이 실제 경우와 더욱 접근되도록 함으로써, 향후 결정된 실제 상태 정보의 정확성을 향상시키다.
도 1은 본 출원의 실시예에서 로봇의 상태 결정 방법 일 실시예의 흐름 예시도이다.
도 2는 본 출원의 실시예에서 칼만 필터를 이용하여 로봇의 실제 상태 정보를 결정하는 흐름 예시도이다.
도 3은 본 출원의 실시예에서 로봇의 상태 결정 장치의 일 실시예의 아키텍처 예시도이다.
도 4는 본 출원의 실시예에서 로봇의 일 실시예의 아키텍처 예시도이다.
도 5는 본 출원 실시예에서 컴퓨터 판독 가능한 저장 매체 일 실시예의 아키텍처 예시도이다.
아래에 명세서 도면을 결합하여, 본 출원 실시예의 방안에 대해 상세하게 설명을 진행한다.
아래의 설명은 설명을 위한 것이지 한정하려는 것은 아니며, 특정 시스템 구조, 인터페이스, 기술과 같은 세부 사항은 본 출원을 완전히 이해하기 위해 제공된다.
본문에서의 용어 “시스템”과 “네트워크”는 본문에서 흔히 서로 교환되어 사용될 수 있다. 본 명세서에서 용어 “및/ 또는”은 다만 관련 대상의 상관 관계를 설명하기 위한 것일 뿐, 세 가지의 관계가 존재함을 나타내며, 예를 들어, A 및/또는 B는, A가 단독적으로 존재, A 및 B가 동시에 존재, B가 단독적으로 존재하는 세 가지 상황을 나타낸다. 이 밖에, 본문에서의 부호 “/”는 일반적으로 전후 연관 대상이 “또는”의 관계임을 의미한다. 또한, 본 명세서의 “복수”는 두개 또는 두개 이상을 나타낸다.
최근 AI 교육이 부단히 핫해지면서, 대부분 AI 교육 커리큘럼은 모두 온라인 커리큘럼 플랫폼을 기초로 연장되며, 스마트 차량, 스마트 로봇 등과 같은 하드웨어 기기로 보완된다. 교학 역할 이외에도, 학교에서는 로봇에 기반한 시합을 조직하는데, 예를 들어 설계 시합, 자동 운전 시합 등이다. 이러한 시합에서, 선수들은 스스로 회로와 알고리즘을 디자인하여, 시합에서 다른 선수들의 로봇과 대적해야 한다.
이러한 시합에서, 로봇은 일반적으로 마스터 컴퓨터로부터 시합의 전부 라운드의 정보를 수신해야 하며, 여기서 로봇 자체 위치, 속도 및 자세 등 로봇 결정에 매우 중요한 정보가 포함된다. 로봇 및 마스터 컴퓨터의 소통은 기본적으로 시리얼 인터페이스 통신을 모두 사용하고, 통신 규칙을 모든 선수들이 모두 미리 알아야 한다. 따라서, 일부 선수들이 로봇에 간섭기를 배치하여 다른 선수들에게 잘못된 통신 신호를 송신하여 상대 선수들을 잘못 유도하는 경우가 나타날 수 있다. 가장 일반적인 것은 잘못된 위치, 속도 및 자세 정보를 송신하여 상대 선수의 판단을 간섭하는 것이다. 간섭받은 로봇의 알고리즘이 로버스트가 강하지 않으면, 통제 불능 현상이 나타날 수 있다.
시합뿐만 아니라, 일부 인공 스마트 전시장에서도 통신 수집 정보를 이용하여 작동된 로봇이 존재하는데, 간섭 신호를 송신하여 통신을 간섭하는 사람이 존재하면, 전시에 문제가 발생되므로, 헤아릴 수 없는 손실을 초래한다. 예컨대, 차량이 미끄러지는 등 현상이 발생할 때, 차량에 사용된 융합 위치 결정 시스템은 위치 결정 드리프트 등이 나타날 수도 있으며, 이는 또한 고유의 위치 결정 납치 문제이다. 현재 기존의 방안에서는 입자 필터링의 방법을 사용하여 납치 저항을 많이 진행하는데, 이러한 방법은 각 스마트체에 대해 수십만의 입자 시뮬레이션을 진행해야 하고, 공간 확장에 따라 계산량도 증가되므로, 현장에 복수 개의 로봇이 존재할 때 실시간 계산의 수요를 만족하기 어렵다.
이와 동시에, 다른 다양한 응용 시나리오에서, 로봇이 주행 과정에서 자유 공간에 광범위하게 존재하는 백소음, 심지어 간섭 신호와 같은간섭을 받을 수 있음으로써, 로봇의 정상 주행에 영향주며, 심각할 경우, 로봇은 심지어 통제 불능, 미끄러지는 등 현상이 나타날 수 있다.
이에 기반하여, 본 출원의 실시예는 로봇의 상태 결정 방법을 제공하여, 로봇 상태 결정의 정확성을 향상시킬 수 있다. 도 1을 참조하면, 도 1은 본 출원의 실시예에서 로봇의 상태 결정 방법의 일 실시예의 흐름 예시도이다. 본 출원의 실시예에서 제공한 방법 단계는 로봇 등 하드웨어 기기를 통해 실행될 수 있거나, 프로세서가 컴퓨터 실행 가능한 코드를 작동하는 방식을 통해 실행될 수 있다. 상기 상태 결정 방법은 아래와 같은 단계를 포함할 수 있다.
단계 S11에 있어서, 로봇의 참조 정보를 획득한다.
본 출원의 실시예에서, 로봇의 참조 정보는 로봇이 복수 시각에 대응되는 측정 상태 정보, 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함할 수 있다.
설명해야 할 것은, 로봇의 상태는 상이한 시각에 변화가 발생될 수 있으며, 예컨대, 로봇이 현재 시각에서 이전 인접 시각에 비해 이동이 발생되고, 물론, 다른 응용 시나리오에서, 로봇의 상태는 변화가 발생되지 않으며, 본 분야의 통상의 기술자는 로봇의 실제 조작 경우에 따라 결정할 수 있다. 이에 대해, 로봇은 상이한 시각에서의 실제 상태를 결정하여, 향후 조작을 진행하는데 편리하다.
본 출원의 실시예에서, 현재 시각에 대응되는 실제 상태 정보를 결정하기 위해, 현재 시각에 대응되는 측정 상태 정보를 먼저 획득할 수 있음으로써, 본 출원 실시예에서의 단계에 기반하여, 현재 시각에 대응되는 측정 상태 정보를 이용하여, 현재 시각에 대응되는 실제 상태 정보를 얻는다. 이해할 수 있는 것은, 본 명세서에서 설명된 특정 시각에 대응되는 정보는, 무조건 상기 시각에 획득된 것은 아니며, 상기 시각 주위에 획득된 것일 수 있다. 예컨대, 현재 시각에 대응되는 측정 상태 정보는 현재 시각에 획득된 것일 수 있으며; 통신 지연을 고려할 경우, 현재 시각에 대응되는 측정 상태 정보는 현재 시각 이전의 복수 시각에(예컨대, 0.5초 전, 1초 전 등) 획득된 것일 수도 있으며, 여기서 한정하지 않는다.
일부 발명의 실시예에 있어서, 측정 상태 정보는 로봇에 대해 상태 측정을 진행하여 얻은 것이며, 발명의 실시 시나리오에서, 로봇의 주변 환경을 수집하여, 현재 시각에 대응되는 환경 이미지 데이터를 얻을 수 있으며, 현재 시각의 환경 이미지 데이터에 기반하여, 로봇이 현재 시각에 대응되는 측정 상태 정보를 결정할 수 있다. 예컨대, 로봇 주행 환경에 장착된 촬영 장치를 통해 로봇의 주변 환경에 대해 이미지 수집을 진행할 수 있으며; 또는, 로봇에 장착된 촬영 장치를 통해 주변 환경에 대해 이미지 수집을 진행할 수도 있으며, 여기서 한정하지 않는다. 일부 발명의 실시예에 있어서, 로봇의 상태를 정확하게 설명하기 위해, 로봇의 측정 상태 정보 및 실제 상태 정보는 로봇의 위치, 로봇의 상태, 로봇의 속도 중 적어도 하나를 포함할 수 있다. 예컨대, 로봇의 위치는 로봇이 위치하는 위치 좌표(예를 들어, 위도)를 포함할 수 있으며, 로봇의 상태는 로봇의 주행 상태(예를 들어, 가속도)를 포함할 수 있다. 측정 상태 정보가 로봇의 위치 및 로봇의 속도를 포함하는 것을 예로 들고, 설명의 용이함을 위해, 현재 시각에 대응되는 측정 상태 정보를 공식 (1)로 표시할 수 있다.
Figure pat00001
(1);
상기 공식에 있어서,
Figure pat00002
는 로봇이 현재 시각(
Figure pat00003
)에 대응되는 측정 상태 정보를 표시하며,
Figure pat00004
는 측정 상태 정보에서 로봇의 위치를 표시하며,
Figure pat00005
는 측정 상태 정보에서 로봇의 속도를 표시한다.
유사하게, 실제 상태 정보가 로봇의 위치 및 로봇의 속도를 포함하는 것을 예로 들고, 설명의 용이함을 위해 현재 시각에 대응되는 실제 상태 정보를 공식 (2)로 표시할 수 있다.
Figure pat00006
(2);
상기 공식에 있어서,
Figure pat00007
는 로봇이 현재 시각(
Figure pat00008
)에 대응되는 실제 상태 정보를 표시하며,
Figure pat00009
는 실제 상태 정보에서 로봇의 위치를 표시하며,
Figure pat00010
는 실제 상태 정보에서 로봇의 속도를 표시한다.
또한, 로봇이 복수 시각에 대응되는 측정 상태 정보는 로봇이 현재 시각 및 이전의 복수 시각에 대응되는 측정 상태 정보를 포함할 수 있다. 현재 시각을
Figure pat00011
시각인 것으로 예로 들면, 현재 시각 이전의 복수 시각은
Figure pat00012
시각 이전의
Figure pat00013
개 시각으로 표시할 수 있으며,
Figure pat00014
의 값은 실제 응용 수요에 따라 설정될 수 있으며, 예컨대,
Figure pat00015
은 5, 10, 15등일 수 있으며, 여기서 한정하지 않는다.
다른 발명의 실시예 시나리오에서, 실제 주행 정보는 로봇의 주행 각도 정보, 모터 구동 정보 및 주행 속도 정보를 포함할 수 있다. 여기서, 주행 각도 정보는 로봇의 조향 기어 제어 기록으로부터 획득될 수 있으며, 로봇은 회전 바퀴를 포함할 수 있으며, 로봇의 조향 기어는 로봇의 회전 바퀴가 일정한 각도로 회전하도록 구동하기 위한 것이다. 모터 구동 정보는 로봇의 모터 제어 기록으로부터 획득될 수 있으며, 로봇은 떠힌 구동 바퀴를 포함할 수 있으며, 로봇의 모터는 로봇의 구동 바퀴가 일정한 속도로 이동하도록 구동하기 위한 것이다. 주행 속도 정보는 로봇의 인코더로부터 획득될 수 있다.
단계 S12에 있어서, 참조 정보에 기반하여, 로봇의 상태 소음을 결정한다.
로봇의 상태 소음은 로봇이 주행 과정에서 상태에 대해 영향을 생성하는 소음을 나타내고, 예컨대, 로봇이 특정된 상태로부터 다른 상태로 전이될 경우 생성된 상태 전이 소음이며; 또는, 로봇이 측정 상태 정보를 수신하는 과정에서 생성된 측정 간섭 소음이며, 여기서 한정하지 않는다.
하나의 발명의 실시 시나리오에서, 현재 시각 및 이전의 복수 시각에 대응되는 측정 상태 정보를 이용하여, 로봇의 측정 간섭 소음을 결정할 수 있다. 여기서, 현재 시각 이전의 복수 시각은 전술한 설명을 참조할 수 있다. 따라서, 외부 측정 각도로부터 로봇의 소음을 결정할 수 있음으로써, 로봇이 주행 과정에서의 외부의 간섭을 가늠할 수 있다.
하나의 발명의 실시 시나리오에서, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도를 획득할 수 있으며, 이산 정도를 이용하여, 측정 간섭 소음을 결정한다. 예컨대, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도는 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 표준 차일 수 있다. 또 예컨대, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도는 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 분산일 수도 있으며, 여기서 한정하지 않는다. 따라서, 이산 정도 결정의 복잡도와 계산량을 감소하는데 유리하며, 상태 결정의 속도를 향상시키는데 유리하다.
다른 발명의 실시예 시나리오에서, 또한 이산 정도와 기설정된 이득 파라미터 사이의 적을 측정 간섭 소음으로 사용할 수 있다. 기설정된 이득 파라미터는 실제 경우에 따라 설정될 수 있으며, 여기서 한정하지 않는다. 일부 발명의 실시예에 있어서, 측정 간섭 소음은 공식 (3)으로 표시할 수 있다.
Figure pat00016
(3);
상기 공식에 있어서,
Figure pat00017
은 측정 간섭 소음을 표시하며,
Figure pat00018
는 현재 시각(
Figure pat00019
) 및 이전의
Figure pat00020
개 시각에 대응되는 측정 상태 정보를 표시하며,
Figure pat00021
는 현재 시각(
Figure pat00022
) 및 이전의
Figure pat00023
개 시각에 대응되는 측정 상태 정보의 표준 차를 표시하며,
Figure pat00024
는 기설정된 이득 파라미터를 표시하며, 여기서, 기설정된 이득 파라미터는 0보다 큰 값일 수 있으며, 예를 들어, 0.5, 1, 1.5 등이며, 여기서 한정하지 않는다.
다른 발명의 실시예 시나리오에서, 현재 시각의 실제 주행 정보를 이용하여, 로봇의 상태 전이 소음을 결정할 수 있다. 현재 시각을
Figure pat00025
시각인 것으로 예를 들면,
Figure pat00026
시각의 실제 주행 정보를 이용하여, 로봇의 상태 전이 소음을 결정할 수 있으며, 따라서, 로봇 자체 상태의 각도로부터 로봇의 소음을 결정할 수 있음으로써, 로봇이 주행 과정에서의 내부의 간섭을 가늠할 수 있다. 일부 발명의 실시예에 있어서, 제1 상태 소음, 제2 상태 소음 중 적어도 하나에 따라, 로봇의 상태 전이 소음을 얻을 수 있으며, 제1 상태 소음은 주행 각도 정보 및 가속도 정보를 이용하여 얻은 것이며, 제2 상태 소음은 모터 구동 정보 및 주행 속도 정보를 이용하여 결정하여 얻은 것이다.
하나의 실시 시나리오에서, 조향 기어의 각도로부터 고려할 수 있으며, 주행 각도 정보 및 주행 속도 정보를 이용하여, 로봇의 제1 상태 소음을 결정함으로써, 제1 상태 소음을 이용하여, 로봇의 상태 전이 소음을 결정한다. 예컨대, 주행 각도 정보 및 주행 속도 정보를 이용하여, 로봇의 제1 상태 소음을 결정할 수 있으며, 제1 상태 소음을 로봇의 상태 전이 소음으로 사용할 수 있다.
다른 하나의 실시 시나리오에서, 또한 모터의 각도로부터 고려할 수 있으며, 모터 구동 정보 및 주행 속도 정보를 이용하여, 로봇의 제2 상태 소음을 결정함으로써, 제2 상태를 이용하여, 로봇의 상태 전이 소음을 결정할 수 있다. 예컨대, 모터 구동 정보 및 주행 속도 정보를 이용하여, 로봇의 제2 상태 소음을 결정할 수도 있으며, 제2 상태 소음을 로봇의 상태 전이 소음으로 사용할 수도 있다.
또 하나의 실시 시나리오에서, 또한 주행 각도 정보 및 주행 속도 정보를 이용하여, 로봇의 제1 상태 소음을 결정할 수 있으며, 모터 구동 정보 및 주행 속도 정보를 이용하여, 로봇의 제2 상태 소음을 결정함으로써, 제1 상태 소음 및 제2 상태 소음을 이용하여, 로봇의 상태 전이 소음을 얻을 수 있음으로써, 조향 기어의 각도 및 모터의 각도를 동시에 고려할 수 있어, 상태 전이 소음의 정확성을 향상시키는데 유리하다.
일부 발명의 실시예에 있어서, 제1 상태 소음 및 제2 상태 소음을 이용하여, 상태 전이 소음을 얻는 경우, 제1 상태 소음 및 제2 상태 소음에 대해 가중 처리를 진행하여, 상태 전이 소음을 얻을 수 있다. 또한, 제1 상태 소음 및 제2 상태 소음에 대응되는 가중치는 실제 경우에 따라 설정될 수 있다. 예컨대, 제1 상태 소음이 제2 상태 소음에 비해 중요할 경우, 제1 상태 소음에 대응되는 가중치를 제2 상태 소음의 가중치보다 크게 설정할 수 있으며; 또 예컨대, 제2 상태 소음이 제1 상태 소음에 비해 중요할 경우, 제2 상태 소음에 대응되는 가중치를 제2 상태 소음의 가중치보다 크게 설정할 수 있다. 또한, 제1 상태 소음에 대응되는 가중치를 제2 상태 소음에 대응되는 가중치와 동일하게 설정할 수도 있으며, 예컨대, 제1 상태 소음에 대응되는 가중치를 0.5로 설정하고, 제2 상태 소음에 대응되는 가중치도 0.5로 설정한다.
일부 발명의 실시예에 있어서, 로봇은 구동 바퀴 및 회전 바퀴를 포함할 수 있으며, 구동 바퀴는 로봇 주행을 구동하는데 사용되며, 회전 바퀴는 로봇의 주행 방향을 변경하는데 사용되므로, 주행 속도 정보는 로봇의 구동 바퀴 사이의 실제 속도 차를 포함할 수 있다. 예컨대, 로봇은 두 개의 구동 바퀴를 포함하므로, 두 개의 구동 바퀴의 속도 차는 실제 속도 차이다. 설명의 용이함을 위해, 실제 속도 차를
Figure pat00027
으로 표시할 수 있고, 주행 각도 정보는 로봇의 회전 바퀴의 실제 회전 각도를 포함할 수 있으며, 설명의 용이함을 위해, 실제 회전 각도를
Figure pat00028
로 표시할 수 있으며, 속도 차와 회전 각도 사이의 제1 맵핑 관계를 이용하여(설명의 용이함을 위해 제1 맵핑 관계를
Figure pat00029
로 표시할 수 있음) 실제 회전 각도(
Figure pat00030
)에 대해 맵핑 처리를 진행하여, 실제 회전 각도(
Figure pat00031
)에 대응되는 이론 속도 차를 얻을 수 있음으로써(설명의 용이함을 위해 이론 속도차를
Figure pat00032
로 표시할 수 있음), 실제 속도 차(
Figure pat00033
) 및 이론 속도 차(
Figure pat00034
) 사이의 차이를 이용하여, 제2 상태 소음을 결정할 수 있으며, 예컨대, 실제 속도 차(
Figure pat00035
) 및 이론 속도 차(
Figure pat00036
) 사이의 차의 제곱을 제1 상태 소음으로 사용할 수 있다. 제1 맵핑 관계는 미리 수집하여 얻은 속도 차와 회전 각도에 대해 통계 분석을 진행하여 얻을 수 있으며, 예컨대, 로봇이 정상적인 주행 과정에서, M쌍의 속도 차와 회전 각도를 수집하고, 수집하여 얻은 M 쌍의 속도 차와 회전 각도를 피팅하여, 속도 차와 회전 각도 사이의 제1 맵핑 관계를 얻으며, M의 값은 실제 경우에 따라 설정될 수 있으며, 여기서 한정하지 않는다.
일부 발명의 실시예에 있어서, 주행 속도 정보는 또한 구동 바퀴의 실제 평균 속도를 포함할 수 있으며, 즉 로봇의 각 구동 바퀴의 속도 평균값이다. 예컨대, 로봇은 두 개의 구동 바퀴를 포함하므로, 두 개의 구동 바퀴의 속도 평균 값은 실제 평균 속도이며, 설명의 용이함을 위해 실제 평균 속도를
Figure pat00037
로 표시할 수 있으며, 모터 구동 정보는 로봇 모터의 실제 평균 구동 신호 값을 포함할 수 있으며, 즉 로봇의 각 구동 바퀴에 대응되는 모터의 신호 평균 값이다. 예컨대, 로봇은 두 개의 구동 바퀴를 포함하며, 구동 신호가 펄스 폭 변조 신호일 경우, 실제 평균 구동 신호 값은 두 개의 구동 바퀴에 대응되는 모터의 펄스 폭 변조 신호 평균 값일 수 있으며, 설명의 용이함을 위해 평균 구동 신호 값을
Figure pat00038
로 표시할 수 있으며, 평균 속도와 평균 구동 신호 값 사이의 제2 맵핑 관계를 이용하여(설명의 용이함을 위해 제2 맵핑 관계를
Figure pat00039
로 표시할 수 있음) 실제 평균 구동 신호 값에 대해 맵핑 처리를 진행하여, 실제 평균 구동 신호 값에 대응되는 이론 평균 속도(설명의 용이함을 위해 이론 평균 속도를
Figure pat00040
로 표시할 수 있음)를 얻을 수 있음으로써, 실제 평균 속도 및 이론 평균 속도 사이의 차이를 이용하여, 제2 상태 소음을 결정할 수 있다. 예컨대, 실제 평균 속도(
Figure pat00041
) 및 이론 평균 속도(
Figure pat00042
) 사이의 차의 제곱을 제2 상태 소음으로 사용할 수 있다. 제2 맵핑 관계는 미리 수집하여 얻은 복수 쌍의 평균 속도와 평균 구동 신호 값에 대해 통계 분석을 진행하여 얻을 수 있다. 예컨대, 로봇의 정상적인 주행 과정에서, N쌍의 평균 속도와 평균 구동 신호값을 수집하고, N쌍의 평균 속도와 평균 구동 신호 값을 피팅하여, 평균 속도와 평균 구동 신호 값 사이의 제2 맵핑 관계를 얻으며, N의 값은 실제 경우에 따라 설정될 수 있으며, 여기서 한정하지 않는다.
상기 단계를 통해, 로봇의 상태 전이 소음을 얻을 수 있으며, 여기서, 상기 상태 전이 소음은 공식 (4)로 표시할 수 있다.
Figure pat00043
(4);
상기 공식에 있어서,
Figure pat00044
는 로봇의 상태 전이 소음을 표시하며,
Figure pat00045
은 제1 상태 소음에 대응되는 가중치를 표시하며,
Figure pat00046
는 제2 상태 소음에 대응되는 가중치를 표시하며,
Figure pat00047
는 제1 상태 소음을 표시하며,
Figure pat00048
는 제2 상태 소음을 표시하며,
Figure pat00049
는 실제 속도 차를 표시하며,
Figure pat00050
은 제1 맵핑 관계를 표시하며,
Figure pat00051
는 실제 회전 각도를 표시하며,
Figure pat00052
는 실제 평균 속도를 표시하며,
Figure pat00053
는 제2 맵핑 관계를 표시하며,
Figure pat00054
은 평균 구동 신호 값을 표시한다.
발명의 실시 시나리오에서, 상기 단계를 통해 상태 전이 소음 및 측정 간섭 소음을 획득할 수 있다. 물론, 실제 응용의 경우, 실제 상황에 따라, 상기 단계를 통해 상태 전이 소음을 획득할 수도 있으며, 측정 간섭 소음을 하나의 고정값으로 설정할 수도 있으며, 예를 들어 이상적인 상황을 고려하면, 측정 간섭 소음을 0으로 설정할 수 있으며, 즉 직접 상태 전이 소음을 로봇의 상태 소음으로 사용한다. 예를 들어 측정 간섭 소음을 1, 2, 3 등 0이 아닌 값으로 설정할 수 있으며, 예를 들어 또한 측정 간섭 소음을 백소음으로 설정할 수 있으며, 여기서 한정하지 않는다. 물론, 또한 실제 상황에 따라, 상기 단계를 통해 측정 간섭 소음을 획득할 수 있으며, 상태 전이 소음을 하나의 고정값으로 설정할 수 있으며, 예를 들어 이상적인 상황을 고려하여, 상태 전이 소음을 0으로 설정할 수 있으며, 즉 직접 측정 간섭 소음을 로봇의 상태 소음으로 사용하며, 예를 들어 상태 전이 소음을 1, 2, 3 등 0이 아닌 값으로 설정할 수도 있으며, 예를 들어 또한 상태 전이 소음을 백소음으로 설정할 수 있으며, 여기서 한정하지 않는다.
단계 S13에 있어서, 상태 소음을 이용하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는다.
일부 발명의 실시예에 있어서, 상태 소음을 이용하여 로봇이 이전 시각에 대응되는 실제 상태 정보 및 현재 시각의 측정 상태 정보를 처리하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻을 수 있다. 예컨대, 칼만 필터링을 이용하여 상태 소음을 결합하여 로봇이 이전의 시각에 대응되는 실제 상태 정보 및 현재 시각의 측정 상태 정보를 처리하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻을 수 있다.
발명의 실시 시나리오에서, 상태 소음에 기반하여 필터링 이득을 결정할 수 있으며, 로봇이 이전 인접 시각에 대응되는 실제 상태 정보 및 이전 인접 시각의 실제 주행 정보를 예측하여, 현재 시각에 대응되는 예측 상태 정보를 얻을 수 있으며, 필터링 이득의 칼만 필터링을 이용하여, 현재 시각의 예측 상태 정보와 현재 시각의 측정 상태 정보를 융합하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는다.
발명의 실시 시나리오에서, 도 2를 참조하면, 도 2는 본 출원의 실시예에서 칼만 필터링을 이용하여 로봇의 실제 상태 정보를 결정하는 흐름 예시도이며, 본 출원의 실시예에서 제공한 방법 단계는 로봇 등 하드웨어 기기를 통해 실행될 수 있거나, 프로세서를 통해 컴퓨터 실행 가능한 코드를 작동하는 방식을 통해 실행될 수 있다. 여기서, 아래와 같은 단계를 통해 칼만 필터링을 이용하여 로봇의 실제 상태 정보를 결정할 수 있다.
단계 S21에 있어서, 로봇의 상태 전이 파라미터 및 상태 전이 소음을 이용하여 이전의 시각에 대응되는 후험적 추정 공분산을 처리하여, 현재 시각에 대응되는 선험적 추정 공분산을 얻는다.
일부 발명의 실시예에 있어서, 현재 시각이
Figure pat00055
시각이며, 현재 시각의 이전 인접 시각을
Figure pat00056
시각인 것으로 예들 들면, 상기 현재 시각에 대응되는 선험적 추정 공분산을 공식 (5)로 표시할 수 있다.
Figure pat00057
(5);
상기 공식에 있어서,
Figure pat00058
는 현재 시각에 대응되는 선험적 추정 공분산을 표시하며,
Figure pat00059
은 이전 인접 시각에 대응되는 후험적 추정 공분산을 표시하며, 후험적 추정 공분산은 이전 인접 시각의 실제 상태 정보(
Figure pat00060
)의 공분산을 표시하며, 즉 이전 인접 시각의 실제 상태 정보(
Figure pat00061
)의 불결정도이다. 설명해야 할 것은, 본 출원의 실시 시나리오에서 설명한 것은 현재 시각에 대응되는 실제 상태 정보(
Figure pat00062
)를 획득하는 단계이므로, 이전 인접 시각의 실제 상태 정보(
Figure pat00063
)는 발명의 실시 시나리오에서 개시된 단계를 참조하여 얻을 수 있다. 후험적 추정 공분산의 획득 방식은 본 출원의 실시예에서의 하기 설명을 참조할 수 있다. 또한,
Figure pat00064
는 매트릭스 형태의 로봇의 상태 전이 파라미터를 표시하며, 상태 전이 파라미터(
Figure pat00065
)는 로봇의 움직임 모델을 표시하는데 사용된다. 예컨대, 상태 전이 파라미터(
Figure pat00066
)를 사용하여 로봇이 일정한 가속도로 가속 운동하거나, 로봇이 일정한 속도로 등속 운동하는 것을 나타낼 수 있으며, 사용자에 의해 설정될 수 있으며,
Figure pat00067
는 상태 전이 파라미터의 전치(transposition)를 표시하며,
Figure pat00068
는 상태 전이 소음을 표시하며, 계산 방식은 이전 관련 설명을 참조할 수 있다.
단계S22에 있어서, 실제 상태 정보로부터 측정 상태 정보의 변환 파라미터 및 측정 간섭 소음을 이용하여 현재 시각에 대응되는 선험적 추정 공분산을 처리하여, 현재 시각에 대응되는 필터링 이득을 얻는다.
일부 발명의 실시예에 있어서, 여전히 현재 시각이
Figure pat00069
시각이며, 현재 시각의 이전 인접 시각이
Figure pat00070
시각인 것으로 예를 들면, 상기 현재 시각에 대응되는 필터링 이득은 공식 (6)으로 표시할 수 있다.
Figure pat00071
(6);
상기 공식에 있어서,
Figure pat00072
는 현재 시각에 대응되는 필터링 이득을 표시하며,
Figure pat00073
는 매트릭스 형태의 변환 파라미터를 표시하며, 변환 파라미터(
Figure pat00074
)는 실제 상태 정보 및 측정 상태 정보 사이의 변환 관계를 설명하는데 사용되며, 예를 들어 실제 상태 정보 및 측정 상태 정보가 선형 관계인 것을 설명하는데 사용되며, 예컨대, 변환 파라미터
Figure pat00075
는 사용자가 설정을 진행할 수 있으며, 예를 들어 변환 파라미터(
Figure pat00076
)를 단위 매트릭스로 설정할 수 있으며, 여기서 한정하지 않으며,
Figure pat00077
는 변환 파라미터의 전치를 표시하며,
Figure pat00078
는 측정 간섭 소음을 표시하며, 계산 방식은 이전 관련 설명을 참조할 수 있다.
Figure pat00079
는 현재 시각에 대응되는 선험적 추정 공분산을 표시하며, 선험적 추정 공분산(
Figure pat00080
)은 현재 시각에 대응되는 예측 상태 정보(
Figure pat00081
)의 공분산을 표시하며, 즉 현재 시각에 대응되는 예측 상태 정보(
Figure pat00082
)의 불결정도이며, 계산 방식은 이전 관련 설명을 참조할 수 있다.
따라서, 측정 간섭 소음 및 상태 전이 소음을 통해 현재 시각에 대응되는 필터링 이득을 결정할 수 있다. 일부 발명의 실시예에 있어서, 측정 간섭 소음 및 상태 전이 소음 중 적어도 하나는 전술한 단계를 통해 계산하여 얻으며, 예컨대, 측정 간섭 소음은 전술한 단계를 이용하여 계산하여 얻으며, 또는, 상태 전이 소음은 전술한 단계를 이용하여 계산하여 얻으며, 또는, 측정 간섭 소음 및 상태 전이 소음은 모두 전술한 단계를 이용하여 계산하여 얻으며, 여기서 한정하지 않는다.
단계 S23에 있어서, 로봇의 상태 전이 파라미터 및 입력 상태 전이 파라미터를 이용하여 각각 로봇이 이전 인접 시각에 대응되는 실제 상태 정보 및 이전 인접 시각의 실제 주행 정보를 처리하여, 현재 시각에 대응되는 예측 상태 정보를 얻는다.
일부 발명의 실시예에 있어서, 여전히 현재 시각이
Figure pat00083
시각이고, 현재 시각의 이전 인접 시각을
Figure pat00084
시각인 것으로 예를 들면, 상기 현재 시각에 대응되는 예측 상태 정보는 공식 (7)로 표시할 수 있다.
Figure pat00085
(7);
상기 공식에 있어서,
Figure pat00086
는 현재 시각에 대응되는 예측 상태 정보를 표시하며,
Figure pat00087
는 이전 인접 시각에 대응되는 실제 상태 정보를 표시하며, 예를 들어 전술한 바와 같이, 본 출원의 실시 시나리오에서 설명한 것은 현재 시각에 대응되는 실제 상태 정보(
Figure pat00088
)를 획득하는 단계이므로, 이전 인접 시각의 실제 상태 정보(
Figure pat00089
)는 본 출원의 실시 시나리오에서 개시된 단계를 참조하여 얻을 수 있다. 특히,
Figure pat00090
가 0일 경우, 실제 상태 정보(
Figure pat00091
) 는 0으로 초기화 설정될 수 있으며,
Figure pat00092
는 이전 인접 시각에 대응되는 실제 주행 정보를 표시하며, 실제 주행 정보는 로봇의 주행 각도 정보, 모터 구동 정보 및 주행 속도 정보를 포함할 수 있고, 획득 방식은 전술한 발명의 실시예에서의 관련 설명을 참조할 수 있다.
Figure pat00093
는 로봇의 상태 전이 파라미터를 표시하며, 이전 관련 설명을 참조할 수 있으며,
Figure pat00094
는 입력 상태 전이 파라미터를 표시하며, 입력 상태 전이 파라미터(
Figure pat00095
)는 입력된 실제 주행 정보 및 상태 정보 사이의 전환 관계를 설명하는데 사용됨으로써, 입력 상태 전이 파라미터(
Figure pat00096
)를 통해 입력된 실제 주행 정보를 상태 정보로 전환할 수 있으며, 로봇이 이전 인접 시각에 대응되는 실제 상태 정보와 결합하여, 로봇이 현재 시각에 대응되는 예측 상태 정보를 얻으며, 즉 이론 상으로, 로봇이 현재 시각에 대응되는 상태 정보를 얻는다.
단계 S24에 있어서, 현재 시각의 예측 상태 정보와 현재 시각의 측정 상태 정보를 융합하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는다.
일부 발명의 실시예에 있어서, 여전히 현재 시각이
Figure pat00097
시각이고, 현재 시각의 이전 인접 시각이
Figure pat00098
시각인 것으로 예를 들면, 상기 현재 시각에 대응되는 실제 상태 정보는 공식 (8)로 표시할 수 있다.
Figure pat00099
(8);
상기 공식에 있어서,
Figure pat00100
는 현재 시각에 대응되는 실제 상태 정보를 표시하며,
Figure pat00101
는 현재 시각에 대응되는 예측 상태 정보를 표시하며,
Figure pat00102
는 현재 시각에 대응되는 필터링 이득을 표시하며,
Figure pat00103
는 현재 시각에 대응되는 측정 상태 정보를 표시하며,
Figure pat00104
는 실제 상태 정보로부터 측정 상태 정보의 변환 파라미터를 표시하며, 이전 관련 설명을 참조할 수 있다. 즉
Figure pat00105
는 측정 상태 정보와 예측 상태 정보 사이의 잔차를 표시하며, 필터링 이득(
Figure pat00106
) 및 예측 상태 정보를 이용하여 상기 잔차를 수정하여, 로봇이 현재 시각에 대응되는 실제 상태 정보(
Figure pat00107
)를 얻는다.
단계 S25에 있어서, 필터링 이득 및 변환 파라미터를 이용하여 현재 시각에 대응되는 선험적 추정 공분산을 업데이트하여, 현재 시각에 대응되는 후험적 추정 공분산을 얻는다.
일부 발명의 실시예에 있어서, 여전히 현재 시각이
Figure pat00108
시각이고, 현재 시각의 이전 인접 시각이
Figure pat00109
시각인 것으로 예를 들면, 상기 현재 시각에 대응되는 후험적 추정 공분산은 공식 (9)로 표시할 수 있다.
Figure pat00110
(9);
상기 공식에 있어서,
Figure pat00111
는 현재 시각에 대응되는 후험적 추정 공분산을 표시하며,
Figure pat00112
는 단위 매트릭스를 표시하며,
Figure pat00113
는 매트릭스 형태의 필터링 이득을 표시하며,
Figure pat00114
는 매트릭스 형태의 변환 파라미터를 표시하며,
Figure pat00115
는 매트릭스 형태의 현재 시각에 대응되는 선험적 추정 공분산을 표시한다. 특히,
Figure pat00116
가 0일 경우, 후험적 추정 공분산(
Figure pat00117
)은 모두 0인 매트릭스로 초기화 설정될 수 있다.
현재 시각에 대응되는 선험적 추정 공분산을 업데이트하는 것을 통해, 현재 시각에 대응되는 후험적 추정 공분산을 얻으므로, 본 출원의 실시예에서의 단계를 중복하면, 다음 시각(즉
Figure pat00118
시각)에 대응되는 실제 상태 정보를 결정할 수 있으며, 이러한 방식으로 순환하면, 로봇 주행 과정에서, 로봇이 각 시각에 대응되는 실제 상태 정보를 결정할 수 있다.
상기 방안에서, 로봇의 참조 정보를 획득하고, 참조 정보는, 로봇이 복수 시각에 대응되는 측정 상태 정보, 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함하며, 참조 정보에 기반하여, 로봇의 상태 소음을 결정함으로써, 상태 소음을 이용하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는다. 이로써 상태 결정의 과정에서, 대량 입자를 이용하여 시뮬레이션을 진행할 필요가 없으며, 상태 결정의 속도를 향상시키는데 유리하다. 또한, 상기 상태 소음이 복수 시각의 측정 상태 정보 및 현재 시각의 실제 주행 정보 중 적어도 하나에 따라 결정된 것이므로, 로봇의 외부 측정 각도 및 로봇 자체 상태 각도 중 적어도 하나로부터 소음을 가늠할 수 있음으로써, 상태 소음이 실제 경우와 더욱 접근하도록 함으로써, 향후 결정된 실제 상태 정보의 정확성을 향상시킨다.
여기서, 일부 발명의 실시예에 있어서, 사용자가 이상의 상태 소음을 제때에 감지하도록 하여, 사용자 체험을 향상시키기 위해, 또한 상태 소음이 기설정된 소음 조건을 만족시키지 못할 경우, 기설정된 프롬프트를 진행할 수 있다. 기설정된 프롬프트는 소리, 빛, 문자 중 적어도 하나의 형태로 구현될 수 있다. 예컨대, 프롬프트 음성을 플레이하거나, 프롬프트 등을 키거나, 프롬프트 문자를 출력하는 것 등이며, 여기서 한정하지 않는다.
발명의 실시 시나리오에서, 상태 소음은 복수 개의 측정 상태 정보를 이용하여 얻은 측정 간섭 소음을 포함할 수 있으며, 획득 방식은 전술한 발명의 실시예에서의 관련 단계를 참조할 수 있다. 또한, 기설정된 소음 조건은 측정 간섭 소음이 제1 소음 임계값보다 작은 것을 포함할 수 있으며, 제1 소음 임계값의 값은 실제 상황에 따라 설정될 수 있다. 측정 간섭 소음이 기설정된 소음 조건을 만족시키지 못할 경우, 제1 경고 메시지를 출력하여, 상태 측정이 간섭을 받는 것을 프롬프트할 수 있음으로써, 상태 측정이 간섭을 받을 경우, 사용자가 제때에 감지하도록 하여, 사용자 체험을 향상시킬 수 있다.
다른 발명의 실시예 시나리오에서, 상태 소음은 현재 시각의 실제 주행 정보를 이용하여 얻은 상태 전이 소음을 포함하며, 획득 방식은 전술한 발명의 실시예에서의 관련 단계를 참조할 수 있다. 또한, 기설정된 소음 조건은 상태 전이 소음이 제2 소음 임계값보다 작은 것을 포함할 수 있으며, 제2 소음 임계값의 값은 실제 상황에 따라 설정될 수 있으며, 여기서 한정하지 않는다. 상태 전이 소음이 기설정된 조건을 만족시키지 못할 경우, 제2 경고 메시지를 출력하여, 로봇에 차체가 미끄러지는 리스크가 존재하는 것을 프롬프트함으로써, 로봇에 차체가 미끄러지는 리스크가 나타날 경우, 사용자가 제때에 감지하도록 하여, 사용자 체험을 향상시킬 수 있다.
상기 제1 경고 메시지, 제2 경고 메시지는 소리, 빛, 문자 중 적어도 하나의 형태로 구현될 수 있다. 예컨대, 프롬프트 음성을 플레이하거나, 프롬프트 등을 키거나, 프롬프트 문자를 출력하는 것 등이며, 여기서 한정하지 않는다.
본 출원의 실시예에서, 칼만 필터링 시스템을 이용하여 내장 인코더와 외부 입력의 융합 위치 결정을 구현하며, 좌우 바퀴 속도 상태에 따라 상태 전이 소음 추정을 제공하며, 상기 소음 추정을 이용하여 외부 입력 변화가 합리한지 여부를 판단하며, 마지막으로 판단 결과에 따라 융합 결책을 진행하여, 위치 결정 납치를 방지하는 것을 구현하며, 고장 신호를 제공하며, 이로써, (1) 신호 납치의 강건성을 향상시키며, 받는 간섭을 감소시킨다. (2) 신호 납치가 발생할 경우, 경고를 제공할 수 있다. (3) 종래 기술에서 통상적으로 사용된 대량 입자 모델로 입자 필터링을 실시하는 방법에 비해, 본 방법의 계산량은 작으며, 수렴 속도가 빠르므로, 로봇의 위치 결정 시스템이 정밀도 및 속도에 대한 요구를 만족시킬 수 있다.
도 3을 참조하면, 도 3은 본 출원의 실시예에서 로봇의 상태 결정 장치(30)의 일 실시예의 아키텍처 예시도이다. 로봇의 상태 결정 장치(30)는 측정 상태 획득 모듈(31), 상태 소음 결정 모듈(32) 및 실제 상태 획득 모듈(33)을 포함한다. 측정 상태 획득 모듈(31)은 로봇의 참조 정보를 획득하도록 구성되며, 여기서, 참조 정보는 로봇이 복수 시각에 대응되는 측정 상태 정보, 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함하며; 상태 소음 결정 모듈(32)은 참조 정보에 기반하여, 로봇의 상태 소음을 결정하도록 구성되며; 실제 상태 획득 모듈(33)은 상기 상태 소음을 이용하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻도록 구성된다.
상기 방안에서, 로봇의 참조 정보를 획득하고, 참조 정보는 로봇이 복수 시각에 대응되는 측정 상태 정보, 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함하며, 참조 정보에 기반하여, 로봇의 상태 소음을 결정함으로써, 상태 소음을 이용하여, 현재 시각에 대응되는 실제 상태 정보를 얻음으로써, 상태 결정의 과정에서, 대량 입자를 이용하여 시뮬레이션을 진행할 필요가 없으므로, 상태 결정의 속도를 향상시키는데 유리하다. 또한, 상기 상태 소음이 복수 시각의 측정 상태 정보 및 현재 시각의 실제 주행 정보 중 적어도 하나에 따라 결정되므로, 로봇 외부 측정 각도 및 로봇 자체 상태 각도 중 적어도 하나로부터 소음을 가늠할 수 있음으로써, 상태 소음이 실제 경우와 더욱 접근되도록 함으로써, 향후 결정된 실제 상태 정보의 정확성을 향상시킨다.
일부 발명의 실시예에 있어서, 상태 소음 결정 모듈(32)은 현재 시각 및 이전의 복수 시각에 대응되는 측정 상태 정보를 이용하여, 로봇의 측정 간섭 소음을 결정하도록 구성된 측정 간섭 결정 서브 모듈을 포함하고; 상태 소음 결정 모듈(32)은 현재 시각의 실제 주행 정보를 이용하여, 로봇의 상태 전이 소음을 결정하도록 구성된 상태 전이 결정 서브 모듈을 포함한다.
전술한 발명의 실시예와 구별되게, 현재 시각 및 이전의 복수 시각에 대응되는 측정 상태 정보를 이용하여, 로봇의 측정 간섭 소음을 결정하므로, 외부 측정 각도로부터 로봇의 소음을 결정할 수 있음으로써, 로봇이 주행 과정에서의 외부의 간섭을 가늠할 수 있으며; 현재 시각의 실제 주행 정보를 이용하여, 로봇의 상태 전이 소음을 결정하므로, 로봇 자체 상태의 각도로부터 로봇의 소음을 결정할 수 있음으로써, 로봇이 주행 과정에서의 내부의 간섭을 가늠할 수 있다.
일부 발명의 실시예에 있어서, 측정 간섭 결정 서브 모듈은 이산 획득 유닛을 포함하고, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도를 획득하도록 구성되며; 측정 간섭 결정 서브 모듈은 이산 정도를 이용하여, 측정 간섭 소음을 결정하도록 구성된 소음 결정 유닛을 포함한다.
전술한 발명의 실시예와 구별되게, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도를 이용하고, 이산 정도를 이용하여 측정 간섭 소음을 결정하여, 로봇이 주행 과정에서의 외부의 간섭을 정확하게 가늠할 수 있다.
일부 발명의 실시예에 있어서, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도는 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 표준 차이다.
전술한 발명의 실시예와 구별되게, 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도를 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 표준차로 설정하는 것을 통해, 이산 정도 결정의 복잡도 및 계산량을 감소함에 있어서 유리하며, 상태 결정의 속도를 향상시킴에 있어서 유리하다.
일부 발명의 실시예에 있어서, 소음 결정 유닛은 이산 정도와 기설정된 이득 파라미터 사이의 적을 측정 간섭 소음으로 사용하도록 구성된다.
전술한 발명의 실시예와 구별되게, 이산 정도와 기설정된 이득 파라미터 사이의 적을 측정 간섭 소음으로 사용하여, 측정 간섭 소음의 정확성을 향상시키는데 유리하며, 상태 결정의 정밀도를 향상시키는데 유리하다.
일부 발명의 실시예에 있어서, 실제 주행 정보는 로봇의 주행 각도 정보, 모터 구동 정보 및 주행 속도 정보를 포함하며; 상태 전이 결정 서브 모듈은 제1 상태 소음 및 제2 상태 소음 중 적어도 하나를 이용하여, 로봇의 상태 전이 소음을 얻도록 구성되며; 여기서, 제1 상태 소음은 주행 각도 정보 및 주행 속도 정보를 이용하여 결정하여 얻으며, 제2 상태 소음은 모터 구동 정보 및 주행 속도 정보를 이용하여 결정하여 얻은 것이다.
전술한 발명의 실시예와 구별되게, 실제 주행 정보를 로봇의 주행 각도 정보, 모터 구동 정보 및 주행 속도 정보를 포함하도록 설정함으로써, 제1 상태 소음 및 제2 상태 소음 중 적어도 하나를 이용하여, 로봇의 상태 전이 소음을 얻으며, 제1 상태 소음은 주행 각도 정보 및 주행 속도 정보를 이용하여 결정하여 얻으며, 제2 상태 소음은 모터 구동 정보 및 주행 속도 정보를 이용하여 결정하여 얻으므로, 상태 전이 소음의 정확성을 향상시키는데 유리하다.
일부 발명의 실시예에 있어서, 로봇은 구동 바퀴 및 회전 바퀴를 포함하며, 구동 바퀴는 로봇 주행을 구동하는데 사용되며, 회전 바퀴는 로봇의 주행 방향을 변경시키는데 사용되며; 주행 속도 정보는 로봇의 구동 바퀴 사이의 실제 속도 차를 포함하며, 주행 각도 정보는 로봇의 회전 바퀴의 실제 회전 각도를 포함하며; 제1 상태 소음 결정 유닛은 속도 차와 회전 각도 사이의 제1 맵핑 관계를 이용하여 실제 회전 각도에 대해 맵핑 처리를 진행하여, 실제 회전 각도에 대응되는 이론 속도 차를 얻도록 구성된 제1 맵핑 서브 유닛을 포함하며; 제1 상태 소음 결정 유닛은 실제 속도 차와 이론 속도 차 사이의 차이를 이용하여, 제1 상태 소음을 결정하도록 구성된 제1 상태 소음 결정 서브 유닛을 포함한다.
전술한 발명의 실시예와 구별되게, 주행 속도 정보를 로봇의 구동 바퀴 사이의 실제 속도 차를 포함하도록 설정하고, 주행 각도 정보를 로봇의 회전 바퀴의 실제 회전 각도를 포함하도록 설정함으로써, 속도 차와 회전 각도 사이의 제1 맵핑 관계를 이용하여 실제 회전 각도에 대해 맵핑 처리를 진행하여, 실제 회전 각도에 대응되는 이론 속도 차를 얻으며, 실제 속도 차와 이론 속도 차 사이의 차를 이용하여, 제1 상태 소음을 결정하므로, 로봇의 회전 바퀴의 각도로부터, 로봇의 제1 상태 소음을 결정할 수 있다.
일부 발명의 실시예에 있어서, 로봇은 로봇 주행을 구동하는데 사용되는 구동 바퀴를 포함하며; 주행 속도 정보는 로봇의 구동 바퀴의 실제 평균 속도를 포함하며, 모터 구동 정보는 로봇의 모터의 실제 평균 구동 신호 값을 포함하며; 제2 상태 소음 결정 유닛은 평균 속도와 평균 구동 신호 값 사이의 제2 맵핑 관계를 이용하여 실제 평균 구동 신호 값에 대해 맵핑 처리를 진행하여, 실제 평균 구동 신호 값에 대응되는 이론 평균 속도를 얻도록 구성된 제2 맵핑 서브 유닛을 포함하며; 제2 상태 소음 결정 유닛은 실제 평균 속도 및 이론 평균 속도 사이의 차이를 이용하여, 제2 상태 소음을 결정하도록 구성된 제2 상태 소음 결정 서브 유닛을 포함한다.
전술한 발명의 실시예와 구별되게, 주행 속도 정보를 로봇의 구동 바퀴의 실제 평균 속도를 포함하도록 설정하고, 모터 구동 정보를 로봇의 모터의 실제 평균 구동 신호 값을 포함하도록 설정함으로써, 평균 속도와 평균 구동 신호 값 사이의 제2 맵핑 관계를 이용하여 실제 평균 구동 신호 값에 대해 맵핑 처리를 진행하여, 실제 평균 구동 신호 값에 대응되는 이론 평균 속도를 얻으며, 실제 평균 속도 및 이론 평균 속도 사이의 차이를 이용하여, 제2 상태 소음을 결정하므로, 로봇의 구동 바퀴의 각도로부터, 로봇의 제2 상태 소음을 결정할 수 있다.
일부 발명의 실시예에 있어서, 제1 상태 소음 결정 서브 유닛은 실제 속도 차와 이론 속도 차 사이의 차의 제곱을 제1 상태 소음으로 사용하도록 구성되며; 제2 상태 소음 결정 서브 유닛은 실제 평균 속도 및 이론 평균 속도 사이의 차의 제곱을 제2 상태 소음으로 사용하도록 구성된다.
전술한 발명의 실시예와 구별되게, 실제 속도 차와 이론 속도 차 사이의 차의 제곱을 제1 상태 소음으로 사용하며, 실제 평균 속도 및 이론 평균 속도 사이의 차의 제곱을 제2 상태 소음으로 사용하여, 제1 상태 소음 및 제2 상태 소음 계산의 복잡도 및 계산량을 감소시킬 수 있으며, 상태 결정의 속도를 향상시키는데 유리하다.
일부 발명의 실시예에 있어서, 실제 상태 획득 모듈(33)은 상태 소음을 이용하여 로봇이 이전의 시각에 대응되는 실제 상태 정보 및 현재 시각의 측정 상태 정보를 처리하여, 현재 시각에 대응되는 실제 상태 정보를 얻도록 구성된다.
전술한 실시예와 구별되게, 상태 소음을 이용하여 로봇이 현재 시각에 대응되는 측정 상태 정보 및 이전의 시각에 대응되는 실제 상태 정보를 처리하는 것을 통해, 로봇이 현재 시각에서의 측정 상태 정보 및 이전의 시각에서의 실제 상태 정보 사이에서 균형되도록하는데 유리하여, 결정하여 얻은 실제 상태 정보가 측정 상태 정보에 비해 수정되도록 함으로써, 로봇 상태 결정의 정밀도를 향상시키는데 유리하다.
일부 발명의 실시예에 있어서, 실제 상태 획득 모듈(33)은 상태 소음에 기반하여 필터링 이득을 결정하며, 로봇이 이전 인접 시각에 대응되는 실제 상태 정보 및 이전 인접 시각의 실제 주행 정보를 예측하여, 현재 시각에 대응되는 예측 상태 정보를 얻으며, 필터링 이득의 칼만 필터링을 이용하여, 현재 시각의 예측 상태 정보와 현재 시각의 측정 상태 정보를 융합하여, 현재 시각에 대응되는 실제 상태 정보를 얻도록 구성된다.
전술한 발명의 실시예와 구별되게, 상태 소음에 기반하여 필터링 이득을 결정하며, 로봇이 이전 인접 시각에 대응되는 실제 상태 정보 및 이전 인접 시각의 실제 주행 정보를 예측하여, 현재 시각에 대응되는 예측 상태 정보를 얻으며, 필터링 이득의 칼만 필터링을 이용하여, 현재 시각의 예측 상태 정보와 현재 시각의 측정 상태 정보를 융합하여, 외부 신호에 대한 로버스트를 강화함으로써, 현재 시각에 대응되는 실제 상태 정보를 정확하게 결정한다.
일부 발명 실시예에 있어서, 로봇의 상태 결정 장치(30)는 상태 소음이 기설정된 소음 조건을 만족시키지 못할 경우, 기설정된 프롬프트를 진행하도록 구성된 프롬프트 모듈을 더 포함한다.
전술한 발명의 실시예와 구별되게, 상태 소음이 기설정된 소음 조건을 만족시키지 못할 경우, 기설정된 프롬프트를 진행하여, 사용자가 이상의 상태 소음을 감지할 수 있도록 하므로, 사용자 체험을 향상시킨다.
일부 발명의 실시예에 있어서, 상태 소음은, 복수 개의 측정 상태 정보를 이용하여 얻은 측정 간섭 소음을 포함하며; 대응되게, 기설정된 소음 조건은, 측정 간섭 소음이 제1 소음 임계값보다 작은 것을 포함하며; 프롬프트 모듈은 측정 간섭 소음이 기설정된 소음 조건을 만족시키지 못할 경우, 제1 경고 메시지를 출력하여, 상태 측정이 간섭을 받는 것을 프롬프트하도록 구성된 제1 경고 서브 모듈을 포함하는 것; 및 상태 소음은 현재 시각의 실제 주행 정보를 이용하여 얻은 상태 전이 소음을 포함하며; 대응되게, 기설정된 소음 조건은, 상태 전이 소음이 제2 소음 임계값보다 작은 것을 포함하며; 프롬프트 모듈은 상태 전이 소음이 기설정된 소음 조건을 만족시키지 못할 경우, 제2 경고 메시지를 출력하여, 로봇에 차체가 미끄러지는 리스크가 존재하는 것을 프롬프트하도록 구성된 제2 경고 서브 모듈을 포함하는 것 중 적어도 하나이다.
전술한 발명의 실시예와 구별되게, 측정 간섭 소음이 기설정된 조건을 만족시키지 못할 경우, 제1 경고 메시지를 출력하여, 상태 측정이 간섭을 받는 것을 프롬프트함으로써, 상태 측정이 간섭을 받을 경우, 사용자가 제때에 감지하도록 하여, 사용자 체험을 향상시키며; 상태 전이 소음이 기설정된 조건을 만족시키지 못할 경우, 제2 경고 메시지를 출력하여, 로봇에 차체가 미끄러지는 리스크가 존재하는 것을 프롬프트함으로써, 로봇에 차체가 미끄러지는 리스크가 나타날 경우, 사용자가 제때에 감지하도록 하여, 사용자 체험을 향상시킨다.
일부 발명의 실시예에 있어서, 측정 상태 획득 모듈(31)은 로봇의 주변 환경에 대해 이미지 수집을 진행하여, 현재 시각에 대응되는 환경 이미지 데이터를 얻도록 구성된 데이터 수집 서브 모듈을 포함하고; 측정 상태 획득 모듈(31)은 현재 시각의 환경 이미지 데이터에 기반하여, 로봇이 현재 시각에 대응되는 측정 상태 정보를 결정하도록 구성된 측정 상태 결정 서브 모듈을 포함하며; 여기서, 측정 상태 정보 및 실제 상태 정보는 로봇의 위치, 로봇의 자세, 로봇의 속도 중 적어도 하나를 포함한다.
전술한 발명의 실시예와 구별되게, 로봇의 주변 환경에 대해 이미지 수집을 진행하는 것을 통해, 현재 시각에 대응되는 환경 이미지 사용자 개수를 얻으며, 현재 시각의 환경 이미지 데이터에 기반하여, 로봇이 현재 시각에 대응되는 측정 상태 정보를 결정하며, 측정 상태 정보 및 실제 상태 정보를 로봇의 위치, 로봇의 자세 및 로봇의 속도 중 적어도 하나를 포함하도록 설정함으로써, 로봇이 현재 시각에 대응되는 측정 상태 정보를 빠르게 획득할 수 있음으로써, 로봇 상태 결정의 속도를 향상시키는데 유리하다.
도 4를 참조하면, 도 4는 본 출원의 실시예에서 로봇(40)의 일 실시예의 아키텍처 예시도이다. 로봇(40)은 로봇 본체(41) 및 로봇 본체(41)에 설치된 메모리(42) 및 프로세서(43)을 포함하며, 메모리(42) 및 프로세서(43)는 상호 커플링되며, 프로세서(43)는 메모리(42)에 저장된 프로그램 명령어를 실행하여, 상기 어느 한 상태 결정 방법 실시예의 단계를 구현하기 위한 것이다.
일부 발명의 실시예에 있어서, 프로세서(43)는 자체 및 메모리(42)를 제어하여 상기 어느 한 상태 결정 방법 실시예의 단계를 구현하기 위한 것이다. 프로세서(43)는 중앙처리장치(Central Processing Unit, CPU)로 지칭될 수 있다. 프로세서(43)는 직접 회로 칩일 수 있으며, 신호 처리 능력을 구비한다. 프로세서(43)는 범용 프로세서, 디지털 신호 프로세서(Digital Signal Processor, DSP), 전용 집성 회로(Application Specific Integrated Circuit, ASIC), 필드 프로그래머블 게이트 어레이(Field-Programmable Gate Array, FPGA) 또는 다른 프로그래머블 논리 장치, 개별 게이트 또는 트랜지스터 논리 장치, 개별 하드웨어 어셈블리 등일 수 있다. 범용 프로세서는 마이크로 프로세서 또는 임의의 일반적인 프로세서 등일 수도 있다. 또한, 프로세서(43)는 집적 회로 칩에 의해 공동으로 구현될 수 있다.
상기 방안에 있어서, 상기 상태 소음이 획득된 복수 개의 측정 상태 정보 및 현재 실제 주행 정보 중 적어도 하나에 따라 결정되므로, 로봇 외부 측정 각도 및 로봇 자체 상태 각도 중 적어도 하나로부터 소음을 가늠할 수 있음으로써, 상태 소음이 실제 경우와 더욱 접근되도록 함으로써, 향후 결정된 실제 상태 정보의 정확성을 향상시킨다.
일부 발명의 실시예에 있어서, 상기 로봇(40)은 로봇 본체(41)에 설치된 복수 개의 바퀴 및 바퀴가 이동하도록 구동하기 위한 모터 및 바퀴가 방향 전환 가능하게 회전하도록 구동하기 위한 조향 기어를 포함한다. 예컨대, 상기 로봇은 제1 바퀴 세트 및 제2 바퀴 세트를 포함하며, 제1 바퀴 세트는 모터에 연결되어, 구동 바퀴로 사용되며, 제2 바퀴 세트는 조향 기어에 연결되어, 회전 바퀴로 사용된다. 또한, 로봇의 주행 정보를 획득하기 위해, 로봇(40)은 또한 속도 측정 컴포넌트를 포함할 수 있으며, 상기 속도 측정 컴포넌트는 구동 바퀴에 설치되어, 구동 바퀴의 속도를 획득하는데 사용될 수 있다. 하나의 응용 시나리오에서, 로봇(40)은 4개의 바퀴를 포함하며, 2개의 앞바퀴는 회전 바퀴로 사용되며, 2개의 뒷바퀴는 구동 바퀴로 사용되며, 각 뒷바퀴에는 인코더가 설치되어, 뒷바퀴에 대응되는 속도를 획득한다. 이로써, 로봇은 인코더를 판독하는 것을 통해 주행 속도를 획득할 수 있으며, 조향 기어 제어 기록을 판독하는 것을 통해 주행 각도를 획득할 수 있다. 또한, 상이한 실제 응용 수요에 따라, 로봇 본체(41)를 상이한 외형으로 설정할 수 있다. 예컨대, 택배 배송 응용의 경우, 로봇 본체(41)를 자동차, 봉고차 등 차형의 외형을 구비하도록 설정할 수 있으며; 또는, 서비스 안내 응용의 경우, 로봇 본체(41)를 일반 휴머노이드, 카툰 동물 등 외형을 구비하도록 설정할 수 있으며, 실제 응용 수요에 따라 설정될 수 있으며, 여기서 더 이상 일일이 예를 들어 설명하지 않는다.
일부 발명의 실시예에 있어서, 측정 상태 정보를 획득하는 것을 구현하기 위해, 로봇(40)에는 또한 촬영 장치가 설치될 수 있으며, 이로써 촬영 장치에 의해 촬영하여 얻은 환경 이미지를 통해, 로봇(40)의 측정 상태 정보를 결정한다.
도 5를 참조하면, 도 5는 본 출원의 실시예의 컴퓨터 판독 가능한 저장 매체(50)의 일 실시예의 아키텍처 예시도이다. 컴퓨터 판독 가능한 저장 매체(50)는 프로세서에 의해 작동 가능한 프로그램 명령어(501)를 저장하고, 프로그램 명령어(501)는 상기 어느 한 상태 결정 방법 실시예의 단계를 구현하는데 사용된다.
상기 방안에 있어서, 상기 상태 소음이 획득된 복수 개의 측정 상태 정보 및 현재 실제 주행 정보 중 적어도 하나에 따라 결정되므로, 로봇 외부 측정 각도 및 로봇 자체 상태 각도 중 적어도 하나로부터 소음을 가늠할 수 있음으로써, 상태 소음이 실제 경우와 더욱 접근되도록 함으로써, 향후 결정된 실제 상태 정보의 정확성을 향상시킨다.
일부 발명의 실시예에 있어서, 본 출원의 실시예는 컴퓨터 판독 가능한 코드를 포함하는 컴퓨터 프로그램을 제공하고, 상기 컴퓨터 판독 가능한 코드가 로봇에서 작동될 경우, 상기 로봇에서의 프로세서는 상기 방법을 실행한다.
본 출원에서 제공된 몇 개의 실시예에 있어서, 개시된 방법 및 장치는 다른 방식으로 구현될 수 있음을 이해해야 한다. 예를 들어, 전술된 장치 실시형태는 다만 예시적이며, 예를 들어, 모듈 또는 유닛에 대한 분할은 다만 논리적 기능 분할이고, 실제로 구현될 경우 다른 분할 방식이 있을 수 있으며, 예를 들어 유닛 또는 컴포넌트는 다른 시스템에 결합되거나 통합될 수 있거나, 일부 특징을 무시하거나 실행하지 않을 수 있다. 또한, 나타내거나 논의된 상호간의 결합 또는 직접 결합 또는 통신 연결은, 일부 인터페이스를 통해 구현되며, 장치 또는 유닛을 통한 간접 결합 또는 통신 연결은, 전기, 기계 또는 다른 형태일 수 있다.
분리 부재로서 설명된 유닛은, 물리적으로 분리된 것이거나 아닐 수 있고, 유닛으로서 나타낸 부재는 물리적 유닛이거나 아닐 수 있고, 즉 한 곳에 위치할 수 있거나, 네트워크 유닛에 분포될 수도 있다. 실제 필요에 따라 유닛의 일부 또는 전부를 선택하여 본 실시형태 방안의 목적을 구현할 수 있다.
또한, 본 출원의 각 실시예에서의 각 기능 유닛은 하나의 처리 유닛에 통합될 수 있고, 각 유닛이 독립적인 물리적 존재일 수도 있고, 두 개 또는 두 개 이상의 유닛이 한 유닛에 통합될 수도 있다. 상기 통합된 유닛은 하드웨어의 형태를 사용하여 구현될 수 있으며, 소프트웨어 기능 유닛의 형태를 사용하여 구현될 수도 있다.
통합된 유닛이 소프트웨어 기능 유닛의 형태로 구현되고 독립적인 제품으로 판매되거나 사용되는 경우 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해에 기반하여, 본 출원의 기술 방안, 즉 종래 기술에 기여하는 부분 또는 상기 기술 방안의 전부 또는 일부는 소프트웨어 제품의 형태로 구현될 수 있고, 상기 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장되며, 하나의 컴퓨터 기기(개인용 컴퓨터, 서버 또는 네트워크 기기 등일 수 있음) 또는 프로세서(Processor)로 하여금 본 출원의 실시예는 각 실시 태의 상기 방법의 전부 또는 일부 단계를 실행하는데 사용되는 복수 개의 명령어를 포함한다. 전술한 장 매체는, 디스크, 모바일 하드 디스크, 판독 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 자기 디스크 또는 광 디스크 등과 같은 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.
본 출원 실시예는 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램을 제공하며, 상기 방법은, 상기 로봇의 참조 정보를 획득하는 단계 - 상기 참조 정보는 상기 로봇이 복수 시각에 대응되는 측정 상태 정보, 상기 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함함 - ; 상기 참조 정보에 기반하여, 상기 로봇의 상태 소음을 결정하는 단계; 및 상기 상태 소음을 이용하여, 상기 로봇에 대응되는 상기 현재 시각의 실제 상태 정보를 얻는 단계를 포함한다. 본 출원의 실시예에서 제공한 로봇의 상태 결정 방법에 따라, 상태 결정의 과정에서, 대량 입자를 이용하여 시뮬레이션을 진행할 필요가 없으므로, 상태 결정의 속도를 향상시키는데 유리하다. 또한, 상기 상태 소음이 획득된 복수 개의 측정 상태 정보 및 현재 실제 주행 정보 중 적어도 하나에 따라 결정되므로, 로봇 외부 측정 각도 및 로봇 자체 상태 각도 중 적어도 하나로부터 소음을 가늠할 수 있음으로써, 상태 소음이 실제 경우와 더욱 접근하도록 함으로써, 향후 결정된 실제 상태 정보의 정확성을 향상시킨다.

Claims (14)

  1. 로봇의 상태 결정 방법으로서,
    상기 로봇의 참조 정보를 획득하는 단계 - 상기 참조 정보는, 상기 로봇이 복수 시각에 대응되는 측정 상태 정보, 상기 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함함 - ;
    상기 참조 정보에 기반하여, 상기 로봇의 상태 소음을 결정하는 단계; 및
    상기 상태 소음을 이용하여, 상기 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는 단계를 포함하고,
    상기 상태 소음을 이용하여, 상기 로봇이 상기 현재 시각에 대응되는 실제 상태 정보를 얻는 단계는,
    상기 상태 소음을 이용하여 상기 로봇이 이전의 시각에 대응되는 실제 상태 정보 및 상기 현재 시각의 측정 상태 정보를 처리하여, 상기 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는 단계를 포함하는 것을 특징으로 하는 로봇의 상태 결정 방법.
  2. 제1항에 있어서,
    상기 참조 정보에 기반하여, 상기 로봇의 상태 소음을 결정하는 단계는,
    상기 현재 시각 및 이전의 복수 시각에 대응되는 측정 상태 정보를 이용하여, 상기 로봇의 측정 간섭 소음을 결정하는 단계; 및
    상기 현재 시각의 실제 주행 정보를 이용하여, 상기 로봇의 상태 전이 소음을 결정하는 단계 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇의 상태 결정 방법.
  3. 제2항에 있어서,
    상기 현재 시각 및 이전의 복수 시각에 대응되는 측정 상태 정보를 이용하여, 상기 로봇의 측정 간섭 소음을 결정하는 단계는,
    상기 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도를 획득하는 단계; 및
    상기 이산 정도를 이용하여, 상기 측정 간섭 소음을 결정하는 단계를 포함하는 것을 특징으로 하는 로봇의 상태 결정 방법.
  4. 제3항에 있어서,
    상기 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 이산 정도는 상기 현재 시각 및 이전의 복수 시각의 측정 상태 정보의 표준차이며; 대응되게,
    상기 이산 정도를 이용하여, 상기 측정 간섭 소음을 결정하는 단계는,
    상기 이산 정도와 기설정된 이득 파라미터 사이의 곱을 상기 측정 간섭 소음으로 사용하는 단계를 포함하는 것을 특징으로 하는 로봇의 상태 결정 방법.
  5. 제2항 내지 제4항 중 어느 한 항에 있어서,
    상기 실제 주행 정보는 상기 로봇의 주행 각도 정보, 모터 구동 정보 및 주행 속도 정보를 포함하고;
    상기 현재 시각의 실제 주행 정보를 이용하여, 상기 로봇의 상태 전이 소음을 결정하는 단계는,
    제1 상태 소음, 제2 상태 소음 중 적어도 하나를 이용하여, 상기 로봇의 상기 상태 전이 소음을 얻는 단계를 포함하며;
    상기 제1 상태 소음은 상기 주행 각도 정보 및 상기 주행 속도 정보를 이용하여 결정하여 얻은 것이며, 상기 제2 상태 소음은 결정한 상기 모터 구동 정보 및 상기 주행 속도 정보를 이용하여 결정하여 얻은 것임을 특징으로 하는 로봇의 상태 결정 방법.
  6. 제5항에 있어서,
    상기 로봇은 구동 바퀴 및 회전 바퀴를 포함하며, 상기 구동 바퀴는 상기 로봇 주행을 구동하는데 사용되며, 상기 회전 바퀴는 상기 로봇의 주행 방향을 변경시키는데 사용되며; 상기 주행 속도 정보는 상기 로봇의 구동 바퀴 사이의 실제 속도차를 포함하며, 상기 주행 각도 정보는 상기 로봇의 회전 바퀴의 실제 회전 각도를 포함하며;
    대응되게, 상기 제1 상태 소음, 제2 상태 소음 중 적어도 하나를 이용하여, 상기 로봇의 상기 상태 전이 소음을 얻기 전, 상기 로봇의 상태 결정 방법은,
    속도차와 회전 각도 사이의 제1 맵핑 관계를 이용하여 상기 실제 회전 각도에 대해 맵핑 처리를 진행하며, 상기 실제 회전 각도에 대응되는 이이론 속도차를 얻는 단계; 및
    상기 실제 속도차와 상기 이론 속도차 사이의 차이를 이용하여, 상기 제1 상태 소음를 결정하는 단계를 더 포함하는 것; 및
    상기 로봇은 구동 바퀴를 포함하며, 상기 구동 바퀴는 상기 로봇 주행을 구동하는데 사용되며; 상기 주행 속도 정보는 상기 로봇의 구동 바퀴의 실제 평균 속도를 포함하며, 상기 모터 구동 정보는 상기 로봇의 모터의 실제 평균 구동 신호값을 포함하며;
    대응되게, 상기 제1 상태 소음, 제2 상태 소음 중 적어도 하나를 이용하여, 상기 로봇의 상기 상태 전이 소음을 얻기 전, 상기 로봇의 상태 결정 방법은,
    평균 속도와 평균 구동 신호값 사이의 제2 맵핑 관계를 이용하여 상기 실제 평균 구동 신호값에 대해 맵핑 처리를 진행하여, 상기 실제 평균 구동 신호값에 대응되는 이론 평균 속도를 얻는 단계; 및
    상기 실제 평균 속도 및 상기 이론 평균 속도 사이의 차이를 이용하여, 상기 제2 상태 소음을 결정하는 단계를 더 포함하는 것 중 적어도 하나인 것을 특징으로 하는 로봇의 상태 결정 방법.
  7. 제6항에 있어서,
    상기 실제 속도 차와 상기 이론 속도 차 사이의 차이를 이용하여, 상기 제1 상태 소음을 결정하는 단계는,
    상기 실제 속도 차와 상기 이론 속도 차 사이의 차의 제곱을 상기 제1 상태 소음으로 사용하는 단계를 포함하고;
    상기 실제 평균 속도 및 상기 이론 평균 속도 사이의 차이를 이용하여, 상기 제2 상태 소음을 결정하는 단계는,
    상기 실제 평균 속도 및 상기 이론 평균 속도 사이의 차의 제곱을 상기 제2 상태 소음으로 사용하는 단계를 포함하는 것을 특징으로 하는 로봇의 상태 결정 방법.
  8. 제1항에 있어서,
    상기 상태 소음을 이용하여 상기 로봇이 이전의 시각에 대응되는 실제 상태 정보 및 상기 현재 시각의 측정 상태 정보를 처리하여, 상기 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻는 단계는,
    상기 상태 소음에 기반하여 필터링 이득을 결정하는 단계;
    상기 로봇이 이전 인접 시각에 대응되는 실제 상태 정보 및 상기 이전 인접 시각의 실제 주행 정보를 예측하여, 현재 시각에 대응되는 예측 상태 정보를 얻는 단계; 및
    상기 필터링 이득의 칼만 필터링을 이용하여, 상기 현재 시각의 예측 상태 정보와 상기 현재 시각의 측정 상태 정보를 융합하여, 상기 로봇이 상기 현재 시각에 대응되는 실제 상태 정보를 얻는 단계를을 포함하는 것을 특징으로 하는 로봇의 상태 결정 방법.
  9. 제8항에 있어서,
    상기 상태 소음에 기반하여 필터링 이득을 결정하는 단계는,
    상기 로봇의 상태 전이 파라미터 및 상태 전이 소음을 이용하여 이전의 시각에 대응되는 후험적 추정 공분산을 처리하여, 현재 시각에 대응되는 선험적 추정 공분산을 얻고, 실제 상태 정보로부터 측정 상태 정보의 변환 파라미터 및 측정 간섭 소음을 이용하여 상기 현재 시각에 대응되는 선험적 추정 공분산을 처리하여, 현재 시각에 대응되는 필터링 이득을 얻는 단계; 및
    상기 로봇이 이전 인접 시각에 대응되는 실제 상태 정보 및 상기 이전 인접 시각에 대응되는 실제 주행 정보를 예측하여, 현재 시각에 대응되는 예측 상태 정보를 얻는 단계는, 상기 로봇의 상태 전이 파라미터 및 입력 상태 전이 파라미터를 이용하여 각각 로봇이 이전 인접 시각에 대응되는 실제 상태 정보 및 이전 인접 시각의 실제 주행 정보를 처리하여, 현재 시각에 대응되는 예측 상태 정보를 얻는 단계를 포함하는 것을 특징으로 하는 로봇의 상태 결정 방법.
  10. 제1항 내지 제4항, 제8항 및 제9항 중 어느 한 항에 있어서,
    상기 로봇의 참조 정보를 획득하는 단계는,
    상기 로봇의 주변 환경에 대해 이미지 수집을 진행하여, 현재 시각에 대응되는 환경 이미지 데이터를 얻는 단계; 및
    상기 현재 시각의 환경 이미지 데이터에 기반하여, 상기 로봇이 현재 시각에 대응되는 측정 상태 정보를 결정하는 단계를 포함하고;
    상기 측정 상태 정보 및 실제 상태 정보는 상기 로봇의 위치, 상기 로봇의 자세, 상기 로봇의 속도 중 적어도 하나를 포함하는 것을 특징으로 하는 로봇의 상태 결정 방법.
  11. 로봇의 상태 결정 장치로서,
    상기 로봇의 참조 정보를 획득하도록 구성된 측정 상태 획득 모듈 - 상기 참조 정보는, 상기 로봇이 복수 시각에 대응되는 측정 상태 정보, 상기 로봇이 현재 시각에 대응되는 실제 주행 정보 중 적어도 하나를 포함함 - ;
    상기 참조 정보에 기반하여, 상기 로봇의 상태 소음을 결정하도록 구성된 상태 소음 결정 모듈; 및
    상기 상태 소음을 이용하여, 상기 로봇이 상기 현재 시각에 대응되는 실제 상태 정보를 얻도록 구성된 실제 상태 획득 모듈을 포함하고,
    실제 상태 획득 모듈은 상태 소음을 이용하여 로봇이 이전의 시각에 대응되는 실제 상태 정보 및 현재 시각의 측정 상태 정보를 처리하여, 로봇이 현재 시각에 대응되는 실제 상태 정보를 얻도록 구성되는 것을 특징으로 하는 로봇의 상태 결정 장치.
  12. 로봇으로서,
    로봇 본체 및 상기 로봇 본체에 설치된 메모리 및 프로세서를 포함하며, 상기 프로세서 및 메모리는 상호 커플링되며, 상기 프로세서는 상기 메모리에 저장된 프로그램 명령어를 실행하여, 제1항 내지 제4항, 제8항 및 제9항 중 어느 한 항에 따른 상태 결정 방법을 구현하기 위한 것임을 특징으로 하는 로봇.
  13. 컴퓨터 판독 가능한 저장 매체로서,
    프로그램 명령어를 저장하고, 상기 프로그램 명령어가 프로세서에 의해 실행될 경우 제1항 내지 제4항, 제8항 및 제9항 중 어느 한 항에 따른 상태 결정 방법을 구현하는 것을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
  14. 컴퓨터 판독 가능한 저장 매체에 기록된 컴퓨터 프로그램으로서,
    컴퓨터 판독 가능한 코드를 포함하며, 상기 컴퓨터 판독 가능한 코드가 로봇에서 작동될 경우, 상기 로봇에서의 프로세서는 제1항 내지 제4항, 제8항 및 제9항 중 어느 한 항에 따른 상태 결정 방법을 구현하기 위한 것임을 특징으로 하는 컴퓨터 프로그램.
KR1020227019723A 2020-08-26 2021-04-19 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램 KR20220084435A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN202010872662.3 2020-08-26
CN202010872662.3A CN112025706B (zh) 2020-08-26 2020-08-26 机器人的状态确定方法及装置、机器人及存储介质
KR1020217039198A KR102412066B1 (ko) 2020-08-26 2021-04-19 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램
PCT/CN2021/088224 WO2022041797A1 (zh) 2020-08-26 2021-04-19 状态确定方法及装置、机器人、存储介质和计算机程序

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020217039198A Division KR102412066B1 (ko) 2020-08-26 2021-04-19 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
KR20220084435A true KR20220084435A (ko) 2022-06-21

Family

ID=73579964

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020217039198A KR102412066B1 (ko) 2020-08-26 2021-04-19 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램
KR1020227019722A KR20220084434A (ko) 2020-08-26 2021-04-19 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램
KR1020227019723A KR20220084435A (ko) 2020-08-26 2021-04-19 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020217039198A KR102412066B1 (ko) 2020-08-26 2021-04-19 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램
KR1020227019722A KR20220084434A (ko) 2020-08-26 2021-04-19 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램

Country Status (4)

Country Link
JP (1) JP2022550231A (ko)
KR (3) KR102412066B1 (ko)
CN (3) CN112025706B (ko)
WO (1) WO2022041797A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112025706B (zh) * 2020-08-26 2022-01-04 北京市商汤科技开发有限公司 机器人的状态确定方法及装置、机器人及存储介质

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0663930B2 (ja) * 1989-10-04 1994-08-22 日産自動車株式会社 車両状態量推定装置
JP2002331478A (ja) * 2001-05-02 2002-11-19 Yaskawa Electric Corp ロボットの動作速度決定方法
KR101234797B1 (ko) * 2006-04-04 2013-02-20 삼성전자주식회사 로봇 및 산출된 공분산을 이용한 로봇의 위치 추정 방법
KR100877071B1 (ko) * 2007-07-18 2009-01-07 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
KR101409990B1 (ko) * 2007-09-14 2014-06-23 삼성전자주식회사 로봇의 위치를 계산하기 위한 장치 및 방법
KR101038581B1 (ko) * 2008-10-31 2011-06-03 한국전력공사 트랙형 이동 로봇을 이용하여 발전설비 시설물의 감시점검을 제공하기 위한 방법, 이동 로봇 시스템 및 운영방법
KR101086364B1 (ko) * 2009-03-20 2011-11-23 삼성중공업 주식회사 칼만 필터를 이용한 로봇 기구학 변수 추정 방법 및 시스템
JP5803155B2 (ja) * 2011-03-04 2015-11-04 セイコーエプソン株式会社 ロボット位置検出装置及びロボットシステム
CN102862666B (zh) * 2011-07-08 2014-12-10 中国科学院沈阳自动化研究所 一种基于自适应ukf的水下机器人状态和参数联合估计方法
KR101390776B1 (ko) * 2013-03-14 2014-04-30 인하대학교 산학협력단 퍼지 확장 칼만 필터를 이용한 위치인식 장치, 방법 및 이동로봇
KR102009481B1 (ko) * 2013-12-26 2019-08-09 한화디펜스 주식회사 이동체 주행 제어 장치 및 방법
US9517561B2 (en) * 2014-08-25 2016-12-13 Google Inc. Natural pitch and roll
JP6541026B2 (ja) * 2015-05-13 2019-07-10 株式会社Ihi 状態データ更新装置と方法
KR101789776B1 (ko) * 2015-12-09 2017-10-25 세종대학교산학협력단 주행로봇의 진행각 추정을 위한 바이어스 보정 장치 및 방법
CN106156790B (zh) * 2016-06-08 2020-04-14 北京工业大学 一种应用于传感器网络的分布式协作算法和数据融合机制
JP6770393B2 (ja) * 2016-10-04 2020-10-14 株式会社豊田中央研究所 トラッキング装置及びプログラム
KR20180068102A (ko) * 2016-12-13 2018-06-21 주식회사 큐엔티 로봇 고장 모니터링 서비스 제공 방법 및 서버
CN106956282B (zh) * 2017-05-18 2019-09-13 广州视源电子科技股份有限公司 角加速度确定方法、装置、机器人及存储介质
CN107644441A (zh) * 2017-08-30 2018-01-30 南京大学 基于三维成像的多足机器人复杂路况离散成落脚点方法
CN107748562A (zh) * 2017-09-30 2018-03-02 湖南应用技术学院 一种综合性服务机器人
CN109959381B (zh) * 2017-12-22 2021-06-04 深圳市优必选科技有限公司 一种定位方法、装置、机器人及计算机可读存储介质
CN108128308B (zh) * 2017-12-27 2020-04-14 长沙理工大学 一种分布式驱动电动汽车的车辆状态估计系统及方法
CN110361003B (zh) * 2018-04-09 2023-06-30 中南大学 信息融合方法、装置、计算机设备和计算机可读存储介质
CN108710295B (zh) * 2018-04-20 2021-06-18 浙江工业大学 一种基于渐进容积信息滤波的机器人跟随方法
CN108621161B (zh) * 2018-05-08 2021-03-02 中国人民解放军国防科技大学 基于多传感器信息融合的足式机器人本体状态估计方法
CN108896049A (zh) * 2018-06-01 2018-11-27 重庆锐纳达自动化技术有限公司 一种机器人室内运动定位方法
CN108645415A (zh) * 2018-08-03 2018-10-12 上海海事大学 一种船舶航迹预测方法
CN109443356A (zh) * 2019-01-07 2019-03-08 大连海事大学 一种含测量噪声的无人船位置与速度估计结构及设计方法
CN109813307A (zh) * 2019-02-26 2019-05-28 大连海事大学 一种无人船多传感器数据融合的导航系统及其设计方法
CN110422175B (zh) * 2019-07-31 2021-04-02 上海智驾汽车科技有限公司 车辆状态估计方法以及装置、电子设备、存储介质、车辆
CN110861123A (zh) * 2019-11-14 2020-03-06 华南智能机器人创新研究院 机器人运行状态的可视化监控和评估的方法及装置
CN111044053B (zh) * 2019-12-31 2022-04-01 三一重工股份有限公司 单舵轮无人车的导航方法、装置和单舵轮无人车
CN111136660B (zh) * 2020-02-19 2021-08-03 清华大学深圳国际研究生院 机器人位姿定位方法及系统
CN112025706B (zh) * 2020-08-26 2022-01-04 北京市商汤科技开发有限公司 机器人的状态确定方法及装置、机器人及存储介质

Also Published As

Publication number Publication date
CN114131604B (zh) 2023-11-03
CN114260890A (zh) 2022-04-01
CN114260890B (zh) 2023-11-03
CN112025706A (zh) 2020-12-04
JP2022550231A (ja) 2022-12-01
CN112025706B (zh) 2022-01-04
CN114131604A (zh) 2022-03-04
KR20220027832A (ko) 2022-03-08
WO2022041797A1 (zh) 2022-03-03
KR102412066B1 (ko) 2022-06-22
KR20220084434A (ko) 2022-06-21

Similar Documents

Publication Publication Date Title
US20180025640A1 (en) Using Virtual Data To Test And Train Parking Space Detection Systems
CN108897836B (zh) 一种机器人基于语义进行地图构建的方法和装置
US11242050B2 (en) Reinforcement learning with scene decomposition for navigating complex environments
US20180232636A1 (en) Learning device, estimating device, estimating system, learning method, estimating method, and storage medium
CN107450511B (zh) 评估车辆控制模型的方法、装置、设备和计算机存储介质
Datta et al. Integrating egocentric localization for more realistic point-goal navigation agents
JP7285933B2 (ja) パラメータ推定の整合性範囲を適応的に決定する方法
US11741720B2 (en) System and method for tracking objects using using expanded bounding box factors
Stević et al. Development and validation of ADAS perception application in ROS environment integrated with CARLA simulator
KR102412066B1 (ko) 상태 결정 방법 및 장치, 로봇, 저장 매체 및 컴퓨터 프로그램
US20230191606A1 (en) Collision detection method, computer-readable storage medium, and robot
CA3086559C (en) Method for predicting a motion of an object, method for calibrating a motion model, method for deriving a predefined quantity and method for generating a virtual reality view
Hanke et al. Classification of sensor errors for the statistical simulation of environmental perception in automated driving systems
CN111738046A (zh) 对用于基于深度学习的装置的学习的虚拟世界模拟器的物理引擎进行标定的方法及装置
EP1353293A2 (en) Behavior control apparatus and method
Haber et al. Jmesim: An open source, multi platform robotics simulator
CN115047769A (zh) 一种基于约束跟随的无人作战平台避障-到达控制方法
CN114282776A (zh) 车路协同评估自动驾驶安全性的方法、装置、设备和介质
JP6293652B2 (ja) 状態予測システム
US20240092397A1 (en) Interpretable kalman filter comprising neural network component(s) for autonomous vehicles
Wang et al. Time-to-contact control: improving safety and reliability of autonomous vehicles
Sundar et al. Demo Abstract: Testbed for Practical Considerations In Mixed-Criticality System Design
Lee et al. Visual route navigation using an adaptive extension of rapidly-exploring random trees
CN116108400A (zh) 基于车辆传感器的感知融合方法及装置
de Freitas Simultaneous Localization and Mapping for Autonomous Mobile Robots

Legal Events

Date Code Title Description
A107 Divisional application of patent