KR20200121756A - 모바일 로봇의 초기화 진단 방법 및 시스템 - Google Patents

모바일 로봇의 초기화 진단 방법 및 시스템 Download PDF

Info

Publication number
KR20200121756A
KR20200121756A KR1020200045835A KR20200045835A KR20200121756A KR 20200121756 A KR20200121756 A KR 20200121756A KR 1020200045835 A KR1020200045835 A KR 1020200045835A KR 20200045835 A KR20200045835 A KR 20200045835A KR 20200121756 A KR20200121756 A KR 20200121756A
Authority
KR
South Korea
Prior art keywords
mobile robot
initialization
command
diagnosis
module
Prior art date
Application number
KR1020200045835A
Other languages
English (en)
Other versions
KR102356752B1 (ko
Inventor
신경철
박성주
이재영
Original Assignee
주식회사 유진로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진로봇 filed Critical 주식회사 유진로봇
Publication of KR20200121756A publication Critical patent/KR20200121756A/ko
Application granted granted Critical
Publication of KR102356752B1 publication Critical patent/KR102356752B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 모바일 로봇의 초기화 진단 방법 및 시스템을 제공한다. 본 발명은 모바일 로봇에 포함된 적어도 하나의 프로세서가, 상기 모바일 로봇에 포함된 진단 대상 모듈이 휴지 상태에서 웨이크-업 상태로 상태 천이됨에 따른 초기화 품질을 판단하기 위해 필요한 초기화 동작을 수행하도록 하는 초기화 진단 지령을 실행하는 단계, 진단 대상 모듈이 웨이크-업된 상태에서 상기 초기화 진단 지령에 따른 응답을 포함하는 진단 획득 정보를 수신하는 단계 및 모바일 로봇이 수행하고자 하는 업무 미션과 상기 진단 획득 정보를 이용하여, 상기 진단 대상 모듈의 초기화 품질을 나타내는 초기화 품질 평가 결과값을 산출하고, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행하는 단계를 포함한다.

Description

모바일 로봇의 초기화 진단 방법 및 시스템 {Initialization Diagnosis Method and System of a Mobile Robot}
본 발명은 모바일 로봇의 초기 상태를 진단하고 보정하기 위한 방법으로서, 특히 모바일 로봇이 웨이크-업(wake-up)될 때, 상태의 초기화와 관련된 진단 및 보정에 대한 방법과 시스템에 관한 것이다.
모바일 로봇이 휴면 상태 또는 충전 중의 상태에 있다가, 동작을 시작하게 될 때, 모바일 로봇의 동작과 관련된 파라미터들에 대한 초기화는 모바일 로봇의 정상적인 동작을 위해서 필요하다.
모바일 로봇의 동작 초기화를 위한 다양한 방법들이 알려진 바 있으나, 청소로봇의 청소 동작의 오작동을 유발시키지 않고, 청소 동작을 안정적으로 수행하기에 충분할 정도의 초기화 방법은 아직 알려진 바 없다.
본 발명은 상술한 종래 기술의 한계를 고려하여, 본 발명의 모바일 로봇의 초기화 진단 방법 및 시스템은 모바일 로봇의 웨이크-업 상태에서 고려되어야 하는 각종 리소스들의 초기 상태를 진단하고, 초기화값을 실시간으로 보정함으로써 안정적인 모바일 로봇의 주행 및 동작을 가능하게 하는 방법을 제공하는 것을 목적으로 한다.
상술한 본 발명의 과제를 달성하기 위하여, 본 발명에 따른 모바일 로봇의 초기화 진단 방법은 상기 모바일 로봇에 포함된 적어도 하나의 프로세서가, 상기 모바일 로봇에 포함된 진단 대상 모듈이 휴지 상태에서 웨이크-업 상태로 상태 천이됨에 따른 초기화 품질을 판단하기 위해 필요한 초기화 동작을 수행하도록 하는 초기화 진단 지령을 실행하는 단계, 상기 진단 대상 모듈이 웨이크-업된 상태에서 상기 초기화 진단 지령에 따른 응답을 포함하는 진단 획득 정보를 수신하는 단계 및 상기 모바일 로봇이 수행하고자 하는 업무 미션과 상기 진단 획득 정보를 이용하여, 상기 진단 대상 모듈의 초기화 품질을 나타내는 초기화 품질 평가 결과값을 산출하고, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행하는 단계를 포함한다.
여기서, 상기 진단 대상 모듈의 상태 천이는, 상기 모바일 로봇을 충전시키거나, 상기 휴지 상태에서 상기 모바일 로봇이 정지하여 위치하는 베이스 스테이션으로부터 미리 정해진 일정 거리 이내에서 이루어지며, 상기 초기화 품질은 상기 모바일 로봇의 자율적인 주행과 관련된 주행 인자들을 보정하거나 상기 모바일 로봇의 오동작을 유발시킬 수 있는 오동작 유발 인자들과 관련된다.
여기서, 상기 베이스 스테이션은 입사되는 광 신호 중 적어도 일부를 다시 반사시키는 성질을 갖는 리플렉터를 포함하여 카메라 모듈 또는 라이다 모듈이 인식할 수 있는 형태의 초기화 진단 마커를 포함하고, 상기 초기화 진단 지령에 따라 상기 베이스 스테이션 또는 상기 베이스 스테이션의 주변의 영상을 획득하는 동작은, 상기 베이스 스테이션에 부착된 상기 초기화 진단 마커를 포함하는 영상을 획득한다.
여기서, 상기 진단 대상 모듈은 카메라 모듈이고, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따라 떨어진 상태에서 상기 베이스 스테이션 또는 상기 베이스 스테이션의 주변의 영상을 획득하는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 획득된 영상에 대한 영상 분석을 통해 카메라의 포즈를 예측한다.
여기서, 상기 진단 대상 모듈은 라이다 모듈이고, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따라 떨어진 상태에서 상기 라이다 모듈이 수직 또는 수평 방향으로 베이스 스테이션을 향해 빔을 주사하고, 반사된 빔을 수신하는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 획득된 라이다 영상에 대한 분석을 통해 상기 라이다 모듈의 피칭 앵글을 예측한다.
여기서, 상기 제2 지령에 따라 획득된 라이다 영상에 대한 분석을 통해 상기 라이다 모듈의 피칭 앵글을 예측하는 것은, 상기 제2 지령에 따라 상기 리플렉터에 의해 반사된 빔을 수신하여 상기 초기화 진단 마커로부터의 거리와 세기를 측정하여 상기 진단 획득 정보로 입력받고, 상기 거리와 세기를 기반으로 상기 초기화 품질 평가 결과값으로 상기 피칭 앵글을 예측한다.
여기서, 상기 진단 대상 모듈은 상기 모바일 로봇의 가속도를 측정하는 관성 측정 장치(IMU) 모듈이고, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따른 동작을 수행하며 상기 관성 측정 장치(IMU) 모듈로부터 가속도 측정값을 상기 진단 획득 정보로 입력 받는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 입력 받은 가속도 측정값과 미리 정해진 가속도 기준값을 비교한 편차를 상기 초기화 품질 평가 결과값으로 산출하여 신호의 이상 상태를 판단한다.
여기서, 상기 진단 대상 모듈은 상기 모바일 로봇의 가속도를 측정하는 관성 측정 장치(IMU) 모듈이고, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따라 떨어진 상태에서 상기 카메라 모듈 또는 라이다 모듈이 기 설정된 방향으로 회전하여 측정한 상대 각도 측정값을 진단 획득 정보로 입력 받는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 입력 받은 상대 각도 측정값과 미리 정해진 상대 각도 기준값을 비교한 오차를 상기 초기화 품질 평가 결과값으로 산출하여 신호의 이상 상태를 판단한다.
여기서, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행하는 것은, 상기 프로세서가 상기 제2 지령에 따라 입력 받은 가속도 측정값과 미리 정해진 가속도 기준값을 비교한 편차를 상기 초기화 품질 평가 결과값으로 산출하여 신호가 정상인 경우, 가속도 기준값을 상기 가속도 측정값으로 보정한다.
여기서, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행하는 것은, 상기 프로세서가 상기 제2 지령에 따라 입력 받은 상대 각도 측정값과 미리 정해진 상대 각도 기준값을 비교한 오차를 상기 초기화 품질 평가 결과값으로 산출하여 상기 오차를 줄이기 위한 스케일 팩터를 역산하여 보정한다.
본 발명에 따른 모바일 로봇의 초기화 진단 시스템은, 상기 모바일 로봇을 충전시키거나, 상기 휴지 상태에서 상기 모바일 로봇이 정지하여 위치하는 베이스 스테이션, 상기 베이스 스테이션에 위치하고, 상기 모바일 로봇의 초기화를 위한 기준을 제공하는 수동적인 초기화 기준 제공부 및 상기 모바일 로봇에 포함된 진단 대상 모듈이 휴지 상태에서 웨이크-업 상태로 상태 천이됨에 따른 초기화 품질을 판단하기 위해 필요한 초기화 동작을 수행하도록 하는 초기화 진단 지령을 실행하고, 상기 진단 대상 모듈이 웨이크-업된 상태에서 상기 초기화 진단 지령에 따른 응답을 포함하는 진단 획득 정보를 수신하며, 상기 모바일 로봇이 수행하고자 하는 업무 미션과 상기 진단 획득 정보를 이용하여, 상기 진단 대상 모듈의 초기화 품질을 나타내는 초기화 품질 평가 결과값을 산출하고, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행시키는 초기화 진단 프로세서를 포함한다.
여기서, 상기 수동적인 초기화 기준 제공부는, i)상기 베이스 스테이션을 향하고 있는 상기 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈이 인식할 수 있는 형태의 초기화 진단 마커 또는 ii) 상기 베이스 스테이션을 향하고 있는 상기 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈이 인식할 수 있는 형태의 마커와, 상기 모바일 로봇이 이동하는 동안 상기 마커를 상기 모바일 로봇이 인식할 수 있도록 상기 모바일 로봇의 휠이 접하도록 위치하는 초기화 기준 휠 플레이트를 포함한다.
여기서, 상기 초기화 진단 마커는, 입사되는 광 신호 중 적어도 일부를 다시 반사시키는 성질을 갖는 리플렉터를 더 포함하며, 상기 리플렉터는 상기 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈의 수평적인 동작 방향과 서로 대응되는 방향으로의 패턴을 갖는다.
여기서, 상기 초기화 진단 마커는, 입사되는 광 신호 중 적어도 일부를 다시 반사시키는 성질을 갖는 리플렉터를 더 포함하고, 상기 리플렉터는 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈에 의하여 인식되며, 상기 리플렉터는 상기 모바일 로봇과의 3차원적인 위치 관계에 따라 다르게 인식될 수 있도록 배치된다.
여기서, 상기 진단 대상 모듈은 라이다 모듈이고, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따라 떨어진 상태에서 상기 라이다 모듈이 수직 또는 수평 방향으로 베이스 스테이션을 향해 빔을 주사하고, 반사된 빔을 수신하는 동작과 관련된 제2 지령을 포함하며, 상기 초기화 진단 프로세서는 상기 제2 지령에 따라 획득된 라이다 영상에 대한 분석을 통해 상기 라이다 모듈의 피칭 앵글을 예측한다.
본 발명의 모바일 로봇의 초기화 진단 방법 및 시스템에 따르면, 모바일 로봇이 정지 상태 또는 휴면 상태에서, 웨이크-업 상태로 상태 천이할 경우, 각종 자원들의 상태 내지는 카메라 피칭 앵글, 라이더 센서의 피칭 앵글을 정확히 진단함으로써, 각종 자원들의 초기화와 관련된 파라미터의 초기값을 보정하거나, 센서를 통해서 획득되는 센서값들을 용이하게 보정하는 것이 가능하다. 이를 통해 모바일 로봇의 주행 내지는 위킹 프로세스의 실현을 안정적으로 하는 것이 가능하다.
도 1은 본 발명의 일 실시예에 따른 모바일 로봇의 초기화 진단 방법을 나타낸 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 모바일 로봇의 초기화 진단 시스템을 나타낸 도면이다.
도 3은 본 발명의 다양한 실시예에 따른 모바일 로봇의 초기화 진단 시스템의 초기화 진단 마커를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 모바일 로봇의 초기화 진단 시스템을 나타낸 블록도이다.
도 5 및 도 6은 본 발명의 일 실시예에 따라, 모바일 로봇의 카메라 피칭 앵글을 예측하는 예를 나타낸 것이다.
도 7은 본 발명의 일 실시예에 따라, 3D 라이더 센서의 피칭 앵글을 예측하는 예에서 전면 뷰를 나타낸 것이다.
도 8은 본 발명의 일 실시예에 따라, 3D 라이더 센서의 피칭 앵글을 예측하는 예에서 측면 뷰를 나타낸 것이다.
도 9는 본 발명의 일 실시예에 따라, 모바일 로봇의 클리프 센서를 진단하는 예를 나타낸 것이다.
도 10은 본 발명의 일 실시예에 따라, 모바일 로봇의 거리 검출 센서를 진단하는 예를 나타낸 것이다.
도 11 내지 도 13은 본 발명의 일 실시예에 따라, 통합UI를 이용한 모바일 로봇의 고장 진단 방법을 나타낸 것이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명의 일 실시예에 따른 모바일 로봇의 초기화 진단 방법을 나타내는 흐름도이다. 도 1의 초기화 진단 방법은, 도 4에 도시된 프로세서(10)에서 시계열적으로 수행되는 하기의 단계들을 포함한다.
여기에서, 모바일 로봇은, 가정용 청소 로봇, 건물 청소 로봇, 물류 로봇, 서비스 로봇 등 자율 주행이 적어도 일부 가능한 로봇을 의미하며, 모바일 로봇의 종류에 특별한 제한이 있는 것은 아니다. 예를 들어, 청소 로봇은 하우징, 범퍼, 휠 어셈블리 모듈, 흡입 모듈, 근접 센서, 카메라, 라이다, 먼지 통, 메인 브러쉬, 사이드 브러쉬, 전원부, 프로세서 및 메모리 등 다양한 모듈들을 포함하여 구현될 수 있다.
본 실시예에서 입출력 장치들은 외부의 물리적 충격 내지는 자체적인 열화에 따라 오차가 발생할 수 있다. 본 실시예에서는 이러한 입출력 장치들의 초기화가 적정한지 진단한다. 초기화 진단의 대상인 진단 대상 모듈은, 독립적으로 탈거 가능한 상태로 또는 분해등의 방법을 통해서 탈거가능한 상태로 모바일 로봇에 장착된다.
진단 대상 모듈은, 예를 들어 통신 모듈, 카메라 모듈, Lidar 모듈, 근접 센서, 절벽 센서, 또는 IMU 센서 등이 있다. 이러한 모듈들은 모바일 로봇 내부의 프로세서와 직접적으로 연결되거나 또는 I/O 인터페이스를 매개로 프로세서와 연결되도록 구현된다. 상술한 모듈들은, 모두 외부 환경에 대한 환경 정보를 획득하기 위한 일종의 입출력 장치이다. 프로세서는 입출력 장치를 통해 획득되는 환경 정보에 의존하여, 모바일 로봇의 현재 상황을 예측하는 연산을 수행한다. 예를 들어, 통신 모듈을 통해 도킹 스테이션으로부터 수신되는 외부 메시지를 수신할 수 있고, 카메라 모듈을 통해 획득되는 영상을 통해 모바일 로봇의 현재 위치 내지는 현재의 상황을 예측할 수 있다. 또한, 근접 센서를 통해 외부 객체 또는 장애물과의 근접 여부를 알 수 있다. 모바일 로봇의 프로세서는 환경 정보에 기초하여 현재의 상황을 예측하고, 예측된 상황을 고려한 작업 동작을 수행한다. 따라서, 환경 정보에 오차가 일정한 한도 보다 크거나, 또는 오차의 누적이 발생될 경우, 현재의 상황은 잘못 예측될 수 있다. 본 실시예는 이러한 입출력 장치들이 정상작동 하는지 여부를 진단하고, 필요에 따라 환경 정보를 보정하는 방법을 제시한다.
또한, 본 발명에서 "웨이크-업"은 모바일 로봇이 스테이션에서 대기 상태에 있다가, 필요한 작업을 위하여 이동하는 상태로 바뀔 때를 의미한다. 이 경우, 모바일 로봇의 동작을 안정적으로 수행하고, 오작동을 방지하기 위해서는, 초기 상태의 고장을 진단하거나, 필요한 경우 보정을 하는 것이 필요하다. 이러한 초기화는 청소로봇에 포함된 각종 센서의 초기 상태를 진단하거나, 보정하는 것을 포함할 수 있다.
상술한 바 있듯이, 로봇이 움직이지 않고 있다가, 이후 깨어날 때 동작을 수행하기 전에 초기화 진단을 정확하게 하는 것은 중요하다. 움직이지 않는, 휴면 중인 상태의 원인은 다양하다. 모바일 로봇이 베이스 스테이션, 충전 스테이션 등에 충전을 수행하고 있는 경우, 또는 필요한 동작을 수행완료하고 대기 상태로 있는 경우, 또는 고장이 발생하여 고장이 발생한 후 스테이션으로 복귀한 상태에 있는 경우 등이 있다. 이러한 상태에서 웨이크-업 상태로 상태 천이가 된 후, 실제의 동작을 수행하기 전에 본 발명이 제안하는 방법을 따를 때 안전한 동작을 수행할 수 있다.
S100 단계에서, 모바일 로봇에 포함된 적어도 하나의 프로세서는, 진단 대상 모듈이 휴지 상태에서 웨이크-업 상태로 상태 천이됨에 따른 초기화 품질을 판단하기 위해 필요한 초기화 동작을 수행하도록 하는 초기화 진단 지령을 실행한다.
휴지 상태는 모바일 로봇이 베이스 스테이션에 고정되어 있는 상태, 또는 베이스 스테이션이 아닌 다른 장소에서 움직이지 않고 정지되어 있는 상태를 의미한다. 웨이크-업 상태는 모바일 로봇이 작업을 수행하거나 또는 작업을 수행하기 위하여 움직이는 상태를 의미한다. 상태 천이는 휴지 상태에서 웨이크-업 상태로 모바일 로봇의 상태가 변화된 것을 의미한다.
상술한 다양한 입출력 장치들에 대한 진단은 모바일 로봇이 작업을 수행하는 과정에서도 진단할 수 있다. 하지만, 작업에 필요한 전력량을 고려할 때, 상태 천이가 발생한 시점으로부터 가까운 시점 이내에, 그리고 도킹 스테이션으로부터 가까운 거리 이내의 위치에서, 입출력 장치들에 대한 초기화 진단 작업을 수행하는 것이 더욱 바람직하다.
S200 단계에서, 프로세서(10)는 진단 대상 모듈이 웨이크-업된 상태에서 상기 초기화 진단 지령에 따른 응답을 포함하는 진단 획득 정보를 수신한다. 예를 들어, 초기화 진단 지령이 카메라 모듈이 전면의 영상을 획득하는 것에 관한 것이라면, 응답은 획득된 영상을 의미한다. 진단 획득 정보는, 획득된 영상 그 자체 또는 영상에 부가되는 부가 정보를 포함할 수 있다. 또한, 영상 처리를 위한 별도의 영상 처리 프로세서가 존재할 경우, 진단 회득 정보는 영상 처리 프로세서로부터의 출력을 포함할 수 있다. 이 경우 출력은, 영상에서 인식된 객체에 대한 정보, 영상의 화소값 정보, 영상을 복수개의 분할된 블록으로 인식할 경우, 분할된 블록별 대표값(ex: 화소값의 평균, 또는 에지 등에 대한 특징값)에 대한 정보 등을 포함할 수 있다.
S300 단계에서, 프로세서(10)는 모바일 로봇이 수행하고자 하는 업무 미션과 상기 진단 획득 정보를 이용하여, 상기 진단 대상 모듈의 초기화 품질을 나타내는 초기화 품질 평가 결과값을 산출하고, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행한다.
모바일 로봇이 청소 로봇인 경우, 업무 미션은 청소 작업 수행에 대한 미션일 수 있다. 서비스 로봇의 경우, 서비스 동작을 수행하기 위해 목적지로 이동하기 위한 이동에 대한 미션일 수 있다.
초기화 품질은 진단 획득 정보를 통해 진단 대상 모듈이 자신의 고유한 환경 센싱 능력을 발휘하는 능력의 정도를 의미한다. 프로세서는 진단 획득 정보와 기 설정된 기준 정보를 입력으로하여, 미리 정해진 알고리즘에 따라 초기화 품질 평가 결과값을 산출할 수 있다. 예를 들어, 초기화 품질 평가 결과값은 초기화 진단 결과 얻어지는 측정값과 오차가 존재하지 않는 상태에서 얻어져야 하는 이상적인 기준값과의 차이 또는 상대적인 비율에 대한 연산을 통해 얻어질 수 있다. 초기화 품질 평가 결과값을 산출하는 방법은, 진단 대상 모듈의 종류에 따라 다양하므로 이하에서 모듈별로 자세히 설명한다.
S400 단계에서, 초기화 품질 평가 결과값에 따른 응답 동작을 실행한다. 여기서, 응답 동작은 진단 대상 모듈의 기준값을 보정하거나, 오차를 줄이기 위한 스케일 팩터를 보정하는 동작을 포함한다.
진단 대상 모듈의 따른 진단 동작을 수행하는 단계와 초기화 상태를 진단하는 방법에 대하여 하기 도 2 내지 도 13에서 상세히 설명한다.
도 2는 본 발명의 일 실시예에 따른 모바일 로봇의 초기화 진단 시스템을 나타낸 도면이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 모바일 로봇의 초기화 진단 시스템은 베이스 스테이션과 초기화 진단 프로세서를 포함한다.
베이스 스테이션(210)은, 모바일 로봇을 충전시키거나, 상기 휴지 상태에서 상기 모바일 로봇이 정지하여 위치하는 도킹 스테이션을 의미한다.
수동적인 초기화 기준 제공부는 베이스 스테이션에 위치하고, 상기 모바일 로봇의 초기화를 위한 기준을 제공한다.
초기화 진단 프로세서는 상기 모바일 로봇에 포함된 진단 대상 모듈이 휴지 상태에서 웨이크-업 상태로 상태 천이됨에 따른 초기화 품질을 판단하기 위해 필요한 초기화 동작을 수행하도록 하는 초기화 진단 지령을 생성하고, 상기 진단 대상 모듈이 웨이크-업된 상태에서 상기 초기화 진단 지령에 따른 응답을 포함하는 진단 획득 정보를 수신하며, 상기 모바일 로봇이 수행하고자 하는 업무 미션과 상기 진단 획득 정보를 이용하여, 상기 진단 대상 모듈의 초기화 품질을 나타내는 초기화 품질 결과값을 산출하고, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행시킨다.
수동적인 초기화 기준 제공부는, 베이스 스테이션을 향하고 있는 상기 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈이 인식할 수 있는 형태의 초기화 진단 마커(310) 또는 베이스 스테이션을 향하고 있는 상기 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈이 인식할 수 있는 형태의 마커와, 상기 모바일 로봇이 이동하는 동안 상기 마커를 상기 모바일 로봇이 인식할 수 있도록 상기 모바일 로봇의 휠이 접하도록 위치하는 초기화 기준 휠 플레이트(220)를 포함한다.
휠 플레이트(220)에 단자(221)가 마련되어 모바일 로봇의 휠이 접하는 경우 충전을 시작할 수 있다. 또한, 휠 플레이트(220)는 모바일 로봇이 안착되는 안착 플레이트(230)를 연장하여 마련할 수 있다. 안착 플레이트(230)는 모바일 로봇이 초기화 진단을 위하여 베이스 스테이션으로부터 뒤로 후퇴할 경우, 모바일 로봇의 모든 휠이 안착 플레이트 위에 평행하게 놓여질 수 있는 사이즈를 갖는 것이 바람직하다. 예를 들어, 모바일 로봇이 청소 로봇인 경우, 안착 플레이트(230) 사이즈는 전방에 위치하는 캐스팅 휠과, 후방에 위치하는 메인 휠이 모두 안착 플레이트(230)에 놓여질 수 있도록 구현되는 것이 바람직하다.
초기화 진단 마커(310)는, 입사되는 광 신호 중 적어도 일부를 다시 반사시키는 성질을 갖는 리플렉터(320)를 더 포함하고, 상기 리플렉터는 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈에 의하여 인식되며, 상기 리플렉터는 상기 모바일 로봇과의 3차원적인 위치 관계에 따라 다르게 인식될 수 있도록 배치된다. 예를 들어, 재귀반사필름을 평평하게 베이스스테이션에 붙이기 보다는, 재귀반사필름이 부착되는 면은 앞으로 튀어 나도오록 베이스스테이션의 하우징을 마련함으로써, 모바일 로봇과 3차원적인 위치관계가 되도록 구성하며, 그럴 경우, 카메라의 피칭각까지 알 수도 있다.
도 3은 본 발명의 다양한 실시예에 따른 모바일 로봇의 초기화 진단 시스템의 초기화 진단 마커를 나타낸 도면이다.
본 발명의 다양한 실시예에서, 모바일 로봇의 초기화 진단 시스템의 초기화 진단 마커는 다양한 형태의 블록으로 구현될 수 있다.
도 3의 (a)에 나타난 바와 같이, 초기화 진단 마커는'ㄱ'또는 'ㄴ'형태의 블록으로 설계될 수 있다.
제1 돌출부(311)에 제1 리플렉터(321)가 포함되고, 제2 돌출부(312)에 제2 리플렉터(322)가 부착되어, 블록을 정면에서 바라볼 경우 도 2에 나타난 초기화 진단 마커의 경우와 같이 하나의 리플렉터에서 광 신호가 반사되는 것처럼 라이다가 신호를 획득할 수 있다. 만약 라이다의 각도가 어긋나는 경우 제1 리플렉터와 제2 리플렉터로부터 분리된 신호를 수신 받게 되므로 라이다 모듈의 기울기를 예측할 수 있다. 또한, 제1 돌출부(311)의 하단에 제3 리플렉터를 더 부착하여, 라이다의 각도가 어긋나는 경우 또 다른 반사 신호를 수신하여 기울기를 예측할 수도 있다.
도 3의 (b)에 나타난 바와 같이, 초기화 진단 마커는 서로 다른 두 종류의 리플렉터를 포함할 수 있다.
하나의 블록(313)에 서로 다르게 광원을 반사시키는 구조의 제1 리플렉터(323)와 제2 리플렉터(324)를 동일한 면상에 상하로 배치시킨다.
모바일 로봇의 라이다는 제1 리플렉터와 제2 리플렉터에 따른 서로 다른 두 광원을 수신하여, 제1 광원에 따른 기울기와 제2 광원에 따른 기울기를 계산하여 기울기를 두 번 확인할 수 있으므로 초기화 진단을 보다 정확히 수행할 수 있다.
도 4는 본 발명의 일 실시예에 따른 모바일 로봇의 초기화 진단 시스템을 나타낸 블록도이다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 모바일 로봇의 초기화 진단 시스템은 프로세서(10), 메모리(20), 영상 획득부(30), 구동부(40), 센서부(50), I/O 인터페이스(60)를 포함한다.
본 발명의 일 실시예에 따른 모바일 로봇의 초기화 진단 시스템은 모바일 로봇이 웨이크-업 상태가 될 때, 초기화를 위한 장치이다.
프로세서(10)는 메모리(20)에 저장된 하나 이상의 지령을 실행한다.
구체적으로, 프로세서(10)는 모바일 로봇에 포함된 진단 대상 모듈이 휴지 상태에서 웨이크-업 상태로 상태 천이됨에 따른 초기화 품질을 판단하기 위해 필요한 초기화 동작을 수행하도록 하는 초기화 진단 지령을 실행하는 단계, 상기 진단 대상 모듈이 웨이크-업된 상태에서 상기 초기화 진단 지령에 따른 응답을 포함하는 진단 획득 정보를 수신하는 단계 및 상기 모바일 로봇이 수행하고자 하는 업무 미션과 상기 진단 획득 정보를 이용하여, 상기 진단 대상 모듈의 초기화 품질을 나타내는 초기화 품질 평가 결과값을 산출하고, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행하는 단계를 수행한다.
여기서, 진단 대상 모듈의 상태 천이는, 상기 모바일 로봇을 충전시키거나, 상기 휴지 상태에서 상기 모바일 로봇이 정지하여 위치하는 베이스 스테이션으로부터 미리 정해진 일정 거리 이내에서 이루어지며, 상기 초기화 품질은 상기 모바일 로봇의 자율적인 주행과 관련된 주행 인자들을 보정하거나 상기 모바일 로봇의 오동작을 유발시킬 수 있는 오동작 유발 인자들과 관련되는 것이다.
여기서, 주행 인자는 모바일 로봇의 자율적인 주행과 관련된 것으로, 카메라의 각도, 라이다의 피칭 앵글, 관성 측정 장치로부터 측정된 각속도와 가속도, 모바일 로봇의 상대 각도를 포함한다.
또한, 오동작 유발 인자는 모바일 로봇의 오동작을 유발시킬 수 있는 요소에 관련된 것으로, 모터에 흐르는 전류, 센서의 단락 상황을 포함한다.
본 실시예에서는 모바일 로봇이 주행 시 모터에 흐르는 전류를 감지하여, 과전류 발생에 따른 오동작을 방지하고, 센서의 단락을 확인하여 센서의 고장 상태를 확인할 수 있다.
진단 대상 모듈은 모바일 로봇에 포함되는 모듈들을 의미하며, 본 발명에서는 통신 모듈, 카메라, 라이다 센서, 클리프 센서, 거리 센서, 모터, 관성 측정 장치(IMU), 배터리를 포함한다.
메모리(20)는 하나 이상의 지령을 저장하며, 지령은 초기화 동작을 수행하도록 하는 지령을 포함한다.
예를 들어, 진단 대상 모듈이 카메라 모듈인 경우, 본 발명의 일 실시예에서 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따라 떨어진 상태에서 상기 베이스 스테이션 또는 상기 베이스 스테이션의 주변의 영상을 획득하는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 획득된 영상에 대한 영상 분석을 통해 카메라 모듈의 포즈를 예측하게 된다.
또한, 진단 대상 모듈은 라이다 모듈인 경우, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따라 떨어진 상태에서 상기 라이다 모듈이 수직 또는 수평 방향으로 베이스 스테이션을 향해 빔을 주사하고, 반사된 빔을 수신하는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 획득된 라이다 영상에 대한 분석을 통해 상기 라이다 모듈의 피칭 앵글을 예측하게 된다.
영상 획득부(30)는 모바일 로봇에 부착되어 베이스 스테이션 또는 상기 베이스 스테이션의 주변의 영상을 획득한다. 카메라를 이용하여 주변의 영상을 획득하며, 본 발명에서는 고장 진단 시 카메라를 통해 기울어진 정도를 확인하고, 영상의 품질을 진단한다.
하나의 카메라로 구현될 수도 있고, 별도로 추가되어 영상을 획득하고, 다른 진단 모듈을 진단하기 위해 사용할 수도 있다.
구동부(40)는 모바일 로봇을 구동하기 위해 사용되는 모듈로서, 모터 및 휠을 포함한다. 본 발명에서는 고장 진단을 위해 모터의 전기적인 신호를 감지한다.
센서부(50)는 모바일 로봇의 주변 환경과 물리적인 변화를 감지하기 위한 것으로, 라이다 센서, 클리프 센서, 거리 센서, 관성 측정 장치(IMU)를 포함한다.
본 발명에서는 고장 진단을 위해 센서의 측정값과 설정된 임계값을 비교하며, 스케일 팩터의 오류를 보정하기 위해 스케일 팩터의 조정을 수행한다.
I/O 인터페이스(60)는 시스템 또는 장비를 연결 할 수 있는 연결매체를 장착할 수 있는 장치로서 본 발명에서는 영상 획득부, 구동부, 센서부와 프로세서를 연결한다.
모바일 로봇이 실시간 보정과 진단을 하는 것은 필요한 것이지만, 종종 보정/진단을 위한 절대적인 기준값이 없을 경우, 모바일 로봇에 종종 문제가 발생할 수 있다. 그러므로, 절대적인 참조값 시스템을 갖고, 초기 보정/진단을 수행하는 것이 바람직하다. 이러한 경우에 있어서 절대적인 참조값으로는, 모바일 로봇의 충전을 위한 도킹스테이션을 고려하는 것이 바람직하다.
모바일 로봇이 동작을 수행하기 전에, 많은 모듈 들의 파라미터값 특히 초기화와 관련된 파라미터들을 보정하는 것이 바람직하다. 아래는 보정 또는 진단이 필요한 리소스 또는 사항들을 예시한 것이다.
1) 클리프 센서(Cliff sensor)
2) 자세(Attitudes) - 주로 모바일 플랫폼의 피칭 각(pitching angle)
3) 모터들
4) 배터리
5) 카메라 자세(Camera attitudes)
본 발명에서 모바일 로봇의 일 구성으로서 진단의 대상이 되는 진단 대상 모듈 또는 보정 대상 파라미터는 상술한 것에 한정되지는 않는다. 모바일 로봇이, 특히 청소 로봇이 실시간으로 절대적인 참조값을 얻는 것은 쉽지 않다. 베이스 스테이션과 같이 이미 알고 있는 구조를 이용하여 절대적인 참조값을 얻는 것이 바람직하다.
본 발명의 모바일 로봇은, 로봇의 외형을 정의하고 전체적인 구조를 지지하는 모바일 플랫폼, 모바일 로봇의 동작을 제어하고 상황을 판단하고 필요한 지령을 생성하는 메인 프로세서, 이동을 위한 동작을 수행하는 휠, 영상을 획득하는 카메라, 절벽/바닥과의 거리를 측정하는 클리프 센서, 라이다 센서, 적외선 센서 외 환경센서등을 모두 또는 선택적으로 포함하도록 마련될 수 있다. 이하에서는 초기화와 관련하여 보정, 진단을 수행하는 주요 모듈의 파라미터 내지는 동작별로 상세히 설명한다.
[이더넷 IP 할당(Ethernet IP Assignment)]
본 발명에서 모바일 로봇에 포함되는 진단 대상 모듈 중 통신부를 진단하기 위한 것으로, 가장 기본적인 진단에 해당한다.
프로세서는 할당된 이더넷 IP(Ethernet IP)를 고지한 후 핑(Packet Internet Groper, Ping)을 확인하며, 핑(Ping) 명령을 통해 하드웨어와 통신 상태를 확인한다.
여기서, 핑(Packet Internet Groper, Ping)은 다른 호스트에 IP데이터그램 도달 여부를 조사하기 위한 프로그램이다.
핑(Ping)은 TCP/IP 프로토콜을 사용하는 응용 프로그램으로 다른 호스트에 IP 데이터그램이 도착할 수 있는지 검사하는 것을 의미한다. 핑(Ping)을 수행하는 프로그램은 ICMP echo request라는 메시지를 원격 호스트로 보낸 후 응답을 기다린다. 송신한 ICMP echo request를 받은 호스트가 동작 중이면 응답할 것이고 호스트가 동작하지 않으면 않을 것이기 때문이다. 이와 같이 ICMP echo reply가 돌아오는지의 여부에 따라 원격 호스트가 동작 중인지 아닌지를 검사할 수 있다.
DSLAM board, Master board, sick board에 각각 할당된 IP를 확인하며, 합격여부는 설정된 조건을 충족시키면 이더넷(Ethernet) 연결은 문제없는 것으로 간주한다. 여기서, 설정된 조건은 응답 속도 10ms 이하, 3회 시도 시 3회 성공인 것이 바람직하다.
[카메라의 피칭 각 추정]
도 5 및 도 6은 본 발명의 일 실시예에 따라, 모바일 로봇의 카메라 피칭 앵글을 예측하는 예를 나타낸 것이다.
본 발명에서 모바일 로봇에 포함되는 진단 대상 모듈 중 카메라를 진단하기 위한 것이다.
도 5를 참조하면, 본 발명의 일 실시예에 따른 모바일 로봇(1)은 일측에 카메라(22)를 부착하며, 모바일 로봇이 대기하고 있는 베이스 스테이션(2)에는 마커(3)를 부착하여, 카메라가 베이스 스테이션 또는 베이스 스테이션의 주변의 영상을 획득할 시 마커를 포함하도록 한다.
본 실시예에서 진단 대상 모듈은 카메라이고, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따라 떨어진 상태에서 상기 베이스 스테이션 또는 상기 베이스 스테이션의 주변의 영상을 획득하는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 획득된 영상에 대한 영상 분석을 통해 카메라의 포즈를 예측할 수 있다.
여기서, 상기 제1 지령에 따라 떨어진 상태에서 상기 베이스 스테이션 또는 상기 베이스 스테이션의 주변의 영상을 획득하는 동작은, 상기 카메라가 상기 베이스 스테이션에 부착된 마커를 포함하는 영상을 획득한다.
이를 위하여, 모바일 로봇의 프로세서는 베이스 스테이션으로부터 떨어지는 동작을 수행하기 위한 지령을 휠에 전달한다. 휠의 동작에 따라 모바일 로봇은 베이스 스테이션으로부터 떨어지는 동작을 수행한다.
다음, 모바일 로봇에 장착된 카메라가 베이스 스테이션과 관련된 영상을 획득한다. 획득된 영상에는 베이스 스테이션의 마커가 포함되어야 한다.
획득된 마커, 주로 비주얼 마커에 기초하여, 모바일 로봇의 프로세서는 카메라의 포즈를 쉽게 예측할 수 있다. 물론, 카메라는 모바일 로봇의 바디, 하우징 등과 같은 모바일 플랫폼에 견고하게 부착되어 있어야 한다.
모바일 로봇의 전방부에는 휠 또는 툴이 전면 바닥에 구비될 수 있다. 이러한 휠 또는 툴은 시간이 경과함에 따라 형태에 변형이 발생할 수 있다. 이 경우, 상기 견고하게 부착되어야 한다는 조건이 깨어질 수 있다. 본 실시예에서 모바일 로봇이 청소 로봇인 경우, 여기에서 "툴"은 청소를 위한 툴로서 청소 흡입을 위한 메인브러쉬 모듈, 사이드 브러쉬 모듈을 포함할 수 있다.
플랫폼에 장착된 카메라(22)를 통해서 베이스 스테이션에 부착된 마커(3)를 촬영하면 도 5와 같은 영상을 구할 수 있다.
마커(Marker)를 기준으로 하는 카메라의 자세를 구한 후에 플랫폼의 기울어진 정보를 구할 수 있는데 이와 더불어 미리 정해진 영역에 마커가 캡쳐되는지를 확인해서 기울어진 정도를 확인할 수 있다.
구체적으로, 프로세서가 상기 제2 지령에 따라 획득된 영상에 대한 영상 분석을 통해 카메라의 포즈를 예측하는 것은, 상기 제2 지령에 따라 획득된 영상에 포함된 마커를 기준으로 상기 카메라의 자세를 예측하고, 상기 모바일 로봇의 기울어진 정도를 감지하는 것으로, 상기 제2 지령에 따라 획득된 영상에 기 설정된 간격의 그리드(G1, G2)를 배치하고, 상기 그리드에서 상기 마커가 위치하는 지점(P)을 확인하여 상기 카메라의 자세를 예측하며, 상기 그리드와 상기 마커가 위치하는 지점 사이의 간격(d1, d2)에 따라 상기 모바일 로봇의 기울어진 정도를 감지하게 된다.
도 6을 확인하면, 도 6의 (a)의 경우 미리 정해진 지점의 위치(영상의 가운데이며, 그리드의 교차점)에서 마커를 감지하였으므로 정상적인 상태로 볼 수 있다. 그러나 도 6의 (b)와 도 6의 (c)와 같이 플랫폼의 명백한 기울어짐이 있는 경우라면 미리 구획된 영역에서 마커의 가운데점이 벗어나므로 이를 통하여 기울어짐을 쉽게 판단할 수 있다.
만약 바닥의 편평도를 보장할 수 없는 경우라면 아래와 같이 바닥면에 가성이 좋은 판을 두어서 편평도에 의한 오차를 제거할 수도 있다.
또한, 도 5과 같이 설계되는 모바일 로봇에 포함되는 진단 대상 모듈 중 카메라(22)를 진단하기 위해 영상의 품질을 확인할 수 있다.
[이미지 품질]
영상의 질이 떨어지게 되면 위치인식이나 객체인식에 문제가 될 수 있기 때문에 기회가 있을 때마다 영상의 질을 확인하는 것이 필요하다.
모바일 로봇의 카메라는 마커가 포함된 영상을 획득하는 것이다. 모바일 로봇의 프로세서는 영상 처리를 통해 이러한 마커 영상이 획득되었는지를 확인할 수 있고, 마커가 포함되었음이 확인될 때, 적어도 카메라 시스템이 정상적으로 동작하는 것으로 결정할 수 있다. 반대로, 모바일 로봇의 프로세서는 마커 영상이 획득되지 않았을 때, 경고 메시지를 발생할 수 있다.
구체적으로, 상기 프로세서는 상기 제1 지령에 따라 떨어진 상태에서 상기 베이스 스테이션 또는 상기 베이스 스테이션의 주변의 영상을 획득하는 동작과 관련된 상기 제2 지령을 수행한 이후, 상기 제2 지령에 따라 획득된 영상에 대한 품질 확인을 통해 상기 카메라의 이상 여부를 판단한다.
여기서, 주변의 영상을 획득하는 동작과 관련된 상기 제2 지령을 수행할 때 첫번째 동작에서 베이스 스테이션에서 수직으로 물러난 상태에서 마커를 감지하고, 두번째 동작에서 카메라 또는 플랫폼을 제1 방향으로 20도 내지 30도 회전하여 마커를 감지하며, 세번째 동작에서 카메라 또는 플랫폼을 제1 방향과 반대인 제2 방향으로 20도 내지 30도 회전하여 마커를 감지하고, 동작들을 이용하여 마커를 식별할 수 있으면 카메라 시스템에 이상이 없음을 판단할 수 있다.
여기서, 제1 방향과 제2 방향은 회전 방향을 의미하는 것으로, 시계 방향과 반시계 방향을 나타낸다.
만약 마커를 인지할 수 없는 상황이라면 카메라 렌즈 등에 이물질이 있는 것으로 간주하고 작업을 수행하지 않는다.
여기서, 상기 제2 지령에 따라 획득된 영상에 대한 품질 확인을 통해 상기 카메라의 이상 여부를 판단하는 것은, 상기 제2 지령에 따라 획득된 영상에서 상기 마커를 인지하여, 상기 마커가 인지되면 획득된 영상의 평균 명도값을 계산하고, 계산한 상기 평균 명도값과 미리 정해진 명도 기준값을 비교하여 카메라의 이상으로 판단하며, 상기 획득된 영상의 평균 명도값을 계산하는 것은, 상기 마커가 포함된 영상을 분할하고, 분할된 부분에서 상기 마커를 제외한 영역의 명도값을 각각 측정하여, 측정한 명도값들의 평균 명도값을 계산한다.
구체적으로, 사용자에게 문제를 파악할 수 있는 부가 정보를 주기 위해서 진행하는 것으로, 캡쳐한 영상의 평균 명도값(Intensity)을 측정하며 이 때 영상을 4x4, 8x8 등과 같이 분할하여 평균값을 추출한다.
만약 각 영역의 평균치가 미리 넣어둔 최대/최소 값에서 벗어나는 경우라면 해당 영역에 문제가 있을 수 있다는 점을 고지한다. 만약 모든 영역의 평균치가 모두 최대값을 벗어나는 경우 포화되었거나 카메라가 고장일 수 있음을 고지한다.
만약 모든 영역의 평균치가 모두 최소값을 벗어나는 경우라면 카메라가 고장일 수 있음을 고지한다.
위의 과정에서는 카메라의 고장이나 카메라가 동작하기 어려운 환경을 인지하기 위한 방편으로 이해할 수 있다. 더불어 마커 훼손이나 마커를 안정적으로 감지할 수 없는 경우가 있을 수 있으므로 아래와 같은 과정을 통해서 이를 감지하고 고지한다.
예를 들어, 마커가 감지된 경우 마커 주위(위, 아래, 좌, 우)의 흰색영역의 평균 명도값(intensity)를 구한다.
평균치가 너무 큰 경우 주위 조도를 조절해 줄 것을 요청하며, 평균치가 너무 낮은 경우 주위의 조도를 올려줄 것을 요청한다. 마커 주위에서 특정영역만 어둡거나 밝은 경우라면 조사(spot light) 효과가 있는 조명이 도킹스테이션 쪽으로 들어와서 감지 성능이 떨어질 수 있음을 고지한다.
마커가 감지되는 주파수(frequency)를 측정한 후 미리 정해진 주파수 (예를 들어서 카메라의 영상 취득 주기)보도 낮으면 훼손여부를 확인해줄 것을 요청한다.
마커가 감지되지 않은 경우를 설명하면, 마커를 감지하는 단계는 일반적으로 형태(사각형 또는 원형) 감지(shape detection), ID 추출(ID extraction) 및 증명(verification)의 단계로 나뉜다.
만약 형태 감지(shape detection)가 되지 않는 경우라면 마커의 훼손여부를 확인한다. 만약 ID 추출(ID extraction)이 되지 않는다면 훼손여부와 더불어 조명 조건을 확인해줄 것을 요청한다.
만약 증명(verification)이 되지 않는다면 훼손여부를 확인해줄 것을 요청한다.
본 발명의 또 다른 일 실시예에 따르면, 마커를 구별되는 복수의 서브영역들로 구현하는 것이 가능하다. 미리 결정된 소정 사이즈의 서브영역들의 색상을 다르게 함으로써, 카메라와 스테이션간의 시선 정렬을 평가할 수 있다. 특히, 수평축, 수직축의 방향으로 서브영역들의 경계를 위치시킬 경우, 좀더 세밀한 정렬이 가능하다. 경계 영역은 카메라에서 좀더 에지 인식을 용이하게 할 수 있도록, 경계를 전후하여 화소값의 차이가 크도록 색상을 배치하는 하는 것이 바람직하다.
도 7은 본 발명의 일 실시예에 따라, 3D 라이더 센서의 피칭 앵글을 예측하는 예에서 전면 뷰를 나타낸 것이고, 도 8은 측면 뷰를 나타낸 것이다.
[3차원 라이다 또는 깊이 카메라에 있어서 피칭 각 예측]
본 발명에서 모바일 로봇에 포함되는 진단 대상 모듈 중 라이다 센서를 진단하기 위한 것으로, 가장 기본적인 진단에 해당한다.
모바일 로봇의 3D 라이다는 스위핑 동작을 수행하는데, 이하에서는 종적으로 스위핑을 할 수 있는 3D 라이다를 고려한 초기화에 대하여 설명한다.
본 실시예에서 상기 진단 대상 모듈은 라이다 모듈로서 구체적으로 3D 라이다 센서이고, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록 하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따라 떨어진 상태에서 상기 3D 라이다 센서가 수직 또는 수평 방향으로 베이스 스테이션을 향해 빔을 주사하고, 반사된 빔을 수신하는 동작과 관련된 제2지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 획득된 라이더 영상에 대한 분석을 통해 상기 3D 라이더 센서의 피칭 앵글을 예측할 수 있다.
먼저 모바일 로봇의 프로세서는 스텝 백(Step back) 동작을 수행시키는 명령을 휠에 전달한다. 여기에서 스텝 백(Step back)은 모바일 로봇이 베이스 스테이션으로부터 후퇴하도록 하는 동작을 의미한다.
다음, 모바일 로봇의 프로세서는, 라이더 센서로 하여금 "Lidar capture distance and intensity"을 수행하도록 한다. 이는, 라이더 센서가 또는 이와 연결된 프로세서가 재귀 반사(retro-reflector)를 갖는 마커로 부터 거리와 세기를 측정하는 것을 의미한다.
구체적으로, 상기 제2 지령에 따라 획득된 라이다 영상에 대한 분석을 통해 상기 라이다 모듈의 피칭 앵글을 예측하는 것은, 상기 제2 지령에 따라 상기 리플렉터에 의해 반사된 빔을 수신하여 상기 초기화 진단 마커로부터의 거리와 세기를 측정하여 상기 진단 획득 정보로 입력받고, 상기 거리와 세기를 기반으로 상기 초기화 품질 평가 결과값으로 상기 피칭 앵글을 예측하는 것이다.
카메라와 마찬가지로, 모바일 로봇의 프로세서는 베이스 스테이션에 있는 마커의 위치 및 크기를 이미 알고 있으므로 모바일 플랫폼에 대한 3D 라이다의 포즈를 계산하는 것이 가능하다.
전면의 뷰를 나타내는 도 7을 참고하면, 오른쪽의 그림(b)는 몇몇의 스캔라인들이 높은 강도의 관찰을 발생시키는 마커(retro-reflector)를 볼 수 없는 예를 나타낸 것이다(Non-Zero Pitching Case). 마커의 아래 부분을 볼 수 없는 예를 나타낸 것이다.
도 7에서 좌측 그림(a)은 베이스 스테이션에 부착된 마커에 스캔 라인이 주사되는 경우를 나타낸 것이다(Zero Pitching Case). 다음, 측면의 뷰를 나타내는 도 8의 (a)와 (b)를 참고하면, 3D 라이더 센서의 스캐닝 모듈은 빔을 여러개의 분할 빔으로 쪼개어 송출할 수도 있다. 피칭 각은 쪼개어지는 정도에 따라 다를 수 있다.
본 발명의 또 다른 일 실시예에 따르면, 재귀 반사 성능을 갖는 리플렉터는 예를 들어 “재귀 반사 필름”이 바람직하다. 예를 들어, 회전형 3D 라이다는, 송광부, 수광부, 플레이트 및 회전부를 포함할 수 있다. 송광부는 레이저를 3차원 공간상에 주사시키며, 도 8에 도시된 바와 같은 형태로 레이저를 리플렉터 측으로 입사된다. 회전형 3D 라이다의 회전축 정렬에 대한 정확한 진단을 위해서는 재귀 반사 필름을 방향성있게 배치하는 것이 바람직하다. 특히, 재귀 반사 필름은 소정 두깨의 띠 형태를 갖는 이종의 재귀 반사 필름을 라이다의 회전축을 중심으로 교대로 배열할 수 있다. 또는, 재귀 반사 필름이 있는 영역과, 재귀 반사 필름이 없는 영역이 교대로 배열하는 것도 가능하다. 재귀 반사 필름이 존재하는 영역의 경우, 수광부로 입사되는 반사광의 세기가 크지만, 재귀 반사 필름이 존재하지 않는 영역의 경우 입사되는 반사광의 크기가 적기 때문에, 이를 통해 3D 라이다의 회전 정렬을 세밀하게 진단할 수 있다. 또는, 띠 형태의 재귀 반사 필름을 반사 영역에 배치시킬 경우, 1개의 라인 내에서도 비반사 영역을 일정 간격으로 배치시킬 수 있다. 또한, 리플렉터의 영역의 외곽, 특히 종방향 외곽 부분에 이질의 재귀반사 필름을 위치시킬 경우, 레이저의 수평 방향 회전 각도에 대한 정렬 진단도 가능하다.
도 9는 본 발명의 일 실시예에 따라, 모바일 로봇의 클리프 센서를 진단하는 예를 나타낸 것이다.
[클리프 센서, 거리 센서]
본 발명에서 모바일 로봇에 포함되는 진단 대상 모듈 중 클리프 센서(24)를 진단하기 위한 것이다.
도 9를 참조하면, 본 발명의 일 실시예에 따른 모바일 로봇은 베이스 스테이션(2)을 바라보는 면에 클리프 센서를 부착한다.
클리프 센서(Cliff sensor)나 거리 센서(distance sensor)는 바닥까지의 거리를 측정할 수 있다. 클리프 센서는 예를 들어 PSD센서일 수 있다. 근접센서로서 적외선 센서를 사용할 수도 있다.
진단 대상 모듈이 클리프 센서, 거리 센서를 포함하는 적어도 하나의 센서인 경우, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따른 동작을 수행하며 상기 센서로부터 각각의 센싱값을 입력 받는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 획득된 센싱값과 미리 정해진 기준값을 비교하여 이상 상태를 판단한다.
바람직한 초기화를 위해서는 베이스 스테이션과 근처에 있는 바닥에는 이물질이 없는 것으로 가정되어야 한다. 모바일 로봇의 프로세서는 클리프 센서나 거리 센서로부터 획득된 거리값을 이용한 연산을 통해 모바일 로봇의 초기 상태를 진단할 수 있다.
특히, 획득된 거리값에 대한 연산에 따라 얻어지는 예측된 평균적인 거리값은, 이미 알려진 것(설계된 모델에 따름)과 동일해야한다. 만약, 예측된 평균적인 거리가 다르다면, 모바일 로봇의 프로세서는 센서 주위에 이물질이 있거나 또는 오작동(malfunction)이 발생한 것으로 판단할 수 있다.
예측되는 편차(deviation)은 센서의 스펙을 고려하여 이미 정해져 있는 평균적인 편차와 유사할 수 있다. 그렇지 않은 경우, 모바일 로봇의 프로세서는 센서 주위에 먼지가 있는 것을 의심할 수 있다. 또한, 모바일 로봇의 프로세서는 오작동 또는 전기적인 문제가 발생한 것으로 판단할 수 있다.
[모터(Motor)]
본 발명에서 모바일 로봇에 포함되는 진단 대상 모듈 중 모터를 진단하기 위한 것이다.
진단 대상 모듈이 상기 모바일 로봇에 포함된 모터인 경우, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따른 동작을 수행하며 상기 모터에 흐르는 전류 측정값을 입력 받는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 감지한 모터의 전류 측정값과 미리 정해진 전류 기준값을 비교하여 상기 모터의 이상 상태를 판단한다.
여기서, 모바일 로봇의 휠을 구동시키기 위한 모터는 청소동작 또는 다른 어떤 동작을 수행하기 전에, 평가되는 것이 바람직하다.
이를 위한 동작으로서, 모바일 로봇의 프로세서는 먼저 정지 명령 상태에서 모터의 서브시스템을 활성화한다.
모터와 연결된 전기적인 신호를 통해, 모터의 서브시스템에서 전류, 전압와 같은 전기적인 정보를 얻을 수 있다. 모바일 로봇의 프로세서는 해당 모터 시스템과 관련하여, 미리 정해진 기준값과 위 얻어진 정보를 비교할 수 있다. 비교 결과와 다른 센서들의 센서값을 분석하여, 모바일 로봇의 프로세서는 현재 모터에 과전류가 흐르는지 여부를 알 수 있고, 경우에 따라서는 과전류의 원인까지도 알 수 있다.
만약 도킹스테이션과 같은 보조장치가 있는 경우라면 지령을 통해 기 설정된 거리만큼 후진을 하도록 제어하며, 이 과정에서 모터에 흐르는 전류를 확인하고, 만약 미리 정해진 최대/최소값에서 벗어나면 고장을 고지한다.
또한, 멈춘 후에는 도킹스테이션과 로봇과의 거리를 거리센서를 이용하여 측정한다. 미리 정해진 오차값을 벗어나면 고장을 고지하며, 위의 과정을 전진하면서 반복한다.
[IMU, 관성측정장치]
본 발명에서 모바일 로봇에 포함되는 진단 대상 모듈 중 관성 측정 장치(IMU)를 진단하기 위한 것이다.
모바일 로봇에 포함된 IMU(Inertial Measurement Unit)는 모바일 로봇의 자세 정보를 수신하기 위한 모듈이다.
지구좌표계인 자북을 기준으로 이동체의 롤(roll), 피치(pitch), 요(yaw) 값을 산출한다. IMU는 가속도 및 회전운동을 측정하는 센서로서 물체의 속도, 방향, 중력을 측정하고 기록한다. 또한 IMU는 물체의 위치를 분석한다. AHRS 또한 물체의 자세, 방위를 측정하는 장치로서 가속도센서, 자이로센서, 마그네틱 센서를 포함할 수 있다.
이외에도, 모바일 로봇의 자세 정보를 수신하기 위해 AHRS(Attitude Heading Reference Unit)을 이용할 수도 있다.
본 실시예에서 관성 측정 장치(IMU)를 진단하기 위한 시나리오는 두 종류의 진단 방법으로 수행될 수 있다.
먼저, 진단 대상 모듈이 상기 모바일 로봇의 가속도를 측정하는 관성 측정 장치(IMU)인 경우, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따른 동작을 수행하며 상기 관성 측정 장치(IMU) 모듈로부터 가속도 측정값을 상기 진단 획득 정보로 입력 받는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 입력 받은 가속도 측정값과 미리 정해진 가속도 기준값을 비교한 편차를 상기 초기화 품질 평가 결과값으로 산출하여 신호의 이상 상태를 판단한다.
모바일 로봇에 적용되는 IMU가 획득하는 대부분 IMU 관측정보에는 불확실성이 포함될 수 있다. 이는 IMU가 많은 정도의 바이어스를 필요로 하지 않음을 의미한다. 제조 공장에서 최초로 보정된 값으로부터의 큰 편차가 발생하였다면, 모바일 로봇의 프로세서는 사용자에게 경고의 알람 메시지를 전달할 필요가 있다.
모바일 로봇의 프로세서는, 먼저 IMU로 부터 얻어지는 모든 값들, 예를 들어 각속도(Angular velosity), 가속도(Acceleration) 값을 체크한다. 이 때 측정 주파수를 확인하여 미리정해진 sampling rate에 벗어나는 경우 고장을 고지한다.
다음, 휠 인코더의 변화를 체크한다. 모바일 로봇의 프로세서는 체크 결과, 모바일 로봇의 현재 상황이 안정적이라면, 각각의 값에 큰 편차가 없을 것인데, 그 경우 해당 값들을 저장한다.
또한, 모바일 로봇의 프로세서는, 획득된 IMU 들의 값들의 평균값과 표준 편차를 계산한다. 정상적인 상황이라면 이것들은 미리 정의된 기준값의 범위 이내일 것이다.
기준값을 설명하면, 멈추어 있는 경우에는 자이로의 모든 출력은 0에 가까워야 하며, 가속도 센서의 출력은 설치각도에 따라서 미리 정해진 방향으로의 중력가속도가 측정되어야 한다.
위의 경우는 raw signal의 문제를 확인하는 과정이며, 움직임이 있는 경우에 raw signal을 처리한 후의 값을 보고 고장을 진단할 수 있다.
다음으로는, 상기 진단 대상 모듈이 상기 모바일 로봇의 가속도를 측정하는 관성 측정 장치(IMU) 모듈인 경우, 상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과, 상기 제1 지령에 따라 떨어진 상태에서 상기 카메라 모듈 또는 라이다 모듈이 기 설정된 방향으로 회전하여 측정한 상대 각도 측정값을 진단 획득 정보로 입력 받는 동작과 관련된 제2 지령을 포함하며, 상기 프로세서는 상기 제2 지령에 따라 입력 받은 상대 각도 측정값과 미리 정해진 상대 각도 기준값을 비교한 오차를 상기 초기화 품질 평가 결과값으로 산출하여 신호의 이상 상태를 판단한다.
구체적으로, 움직임이 있는 경우에 도킹을 기준으로 하는 로봇의 상대각도를 추출하며, 카메라를 이용하는 경우에는 도킹스테이션의 마커를 사용할 수 있다.
라이다를 사용하는 경우 벽면의 각도를 이용하여 유추할 수 있으며, 좌측으로 1회전하고 위의 방법을 이용하여 상대각도를 추출한다. 이 때 회전 전/후의 각도는 일치해야 한다. 일치하지 않는 각도는 IMU의 오차로 한다.
이후, 우측으로 다시 1회전하고 상대각도를 추출하며, 이 때 회전 전/후의 각도는 일치해야 한다. 일치하지 않는 각도는 IMU의 오차로 한다.
각 방향으로의 상대오차를 확인하여 미리 정해진 값을 벗어날 정도로 오차가 크면 고장을 고지한다. 이 과정을 통해서 raw signal을 처리하는 소프트웨어나 부착위치 또는 raw signal의 잠재적인 고장을 예견한다.
이후, 모바일 로봇이 수행하고자 하는 업무 미션과 상기 진단 획득 정보를 이용하여, 상기 진단 대상 모듈의 초기화 품질을 나타내는 초기화 품질 평가 결과값을 산출하고, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행하게 된다.
응답 동작은, 진단 대상 모듈의 기준값을 보정하거나, 오차를 줄이기 위한 스케일 팩터를 보정하는 동작을 포함한다. 본 발명에서 모바일 로봇에 포함되는 진단 대상 모듈 중 관성 측정 장치(IMU)를 보정하기 위한 방법을 설명하면,
먼저 제1 보정 방법에 의해 초기화 품질 평가 결과값에 따른 응답 동작을 실행하는 것은, 상기 프로세서가 상기 제2 지령에 따라 입력 받은 가속도 측정값과 미리 정해진 가속도 기준값을 비교한 편차를 상기 초기화 품질 평가 결과값으로 산출하여 신호가 정상인 경우, 가속도 기준값을 상기 가속도 측정값으로 보정한다.
구체적으로, 모터를 끄고 엔코더에 변화가 없다는 것을 확인하고 각 raw-signal을 확인한 후 stdev를 구하여 평상시의 노이즈 상태를 저장한다. raw signal을 이용하여 로봇의 자세(헤딩)을 구하는 소프트웨어 모듈은 이 값을 읽어서 사용하는 것으로, 칼만필터와 같이 센서의 노이즈 특성을 알아야 하는 경우에 매우 유용하다.
또한, 로봇의 자세를 구하는 소프트웨어 모듈을 통해서 각도를 구할 수 있는데 이 각도 값은 간혹 미세한 스케일 팩터 오류가 있을 수 있다. 이를 보정하기 위해서 좌측/우측으로 회전한 후에 스케일 팩터를 조정한다.
이에 따라, 제2 보정 방법에 의해 초기화 품질 평가 결과값에 따른 응답 동작을 실행하는 것은, 상기 프로세서가 상기 제2 지령에 따라 입력 받은 상대 각도 측정값과 미리 정해진 상대 각도 기준값을 비교한 오차를 상기 초기화 품질 평가 결과값으로 산출하여 상기 오차를 줄이기 위한 스케일 팩터를 역산하여 보정한다.
구체적으로, 도킹을 기준으로 하는 로봇의 상대각도 추출하며, 카메라를 이용하는 경우에는 도킹스테이션의 마커를 사용할 수 있고, 라이다를 사용하는 경우 벽면의 각도를 이용하여 유추할 수 있다.
좌측으로 1회전하고 위의 방법을 이용하여 상대각도를 추출하며, 이 때 회전 전/후의 각도는 일치해야 한다. 일치하지 않는 각도는 IMU의 오차로 한다.
이후, 우측으로 다시 1회전하고 상대각도를 추출한다.
제2 보정 방법의 경우 회전 전/후의 각도는 일치해야 하며, 일치하지 않는 각도는 IMU의 오차로 한다. 해당 오차를 0으로 만들기 위해서 필요한 스케일 팩터를 역산하여 소프트웨어 모듈에 제공한다.
이외에도, 제3 보정 방법을 설명하면, 로봇이 도킹에서 초기화(initialize) 할 때, 뒤로 나오기 전에 앵글(angle)의 초당 변화량을 확인하여 드리프트(drift)가 있는지 확인한다.
드리프트(Drift) 발생 시, 자이로(gyro) 센서를 초기화하고 4초 가량 다시 변화량을 확인한다.
예를 들어, Bosch gyro를 사용하는 RX2의 경우, 4초 동안 초당 0.1(정확한 값은 확인 필요) 이상 드리프트 되는 경우 문제로 판단하고 자이로를 리셋한다.
드리프트(Drift)가 발생하지 않는다고 판단되었을 때는 베이스 스테이션에서 뒤로 나와서 초기화를 계속 진행한다.
[각종 센서들]
모바일 로봇의 프로세서는 모든 센서들로부터의 센서 데이터를 읽는다. 읽혀진 센서 데이터와 미리 정의된 값들을 비교한다. 범퍼의 경우, 더블 체크를 위하여 베이스 스테이션에 의도적으로 범핑하는 동작을 수행할 수 있다.
여기에서 센서들은, 근접 장애물을 센싱하기 위한 적외선 센서나 초음파 센서, 바닥면과의 근접여부를 센싱하기 위한 적외선 센서, 바퀴 빠짐을 센싱하기 위한 바퀴 빠짐 센서나 접촉 센서 등을 포함할 수 있다. 또한, 모바일 로봇의 범퍼에 위치한 범퍼 센서로는 전방 장애물을 감지하기 위한 센서들이 마련될 수 있다.
예를 들어, 거리 센서의 경우 도킹스테이션에서 약 1미터 가량 후진하며, 거리센서를 통하여 도킹스테이션과의 거리를 측정하고, 만약 거리 오차가 있다면 고장을 고지한다.
위의 과정을 각 센서 (초음파라면 전방향으로 있음로 회전이 필요) 별로 모두 진행한다. 이미 IMU오차가 매우 적다는 것을 알고 있기 때문에 정확하게 센서가 도킹스테이션을 바라볼 수 있다고 가정한다.
도 10은 본 발명의 일 실시예에 따라, 모바일 로봇의 거리 검출 센서를 진단하는 예를 나타낸 것이다.
본 실시예에서, 거리 측정 센서는 적외선을 송수신하여 측정된 광의 세기에 따라 거리를 인식할 수 있다. 광의 세기를 기준치와 비교하여 절벽인지 여부를 판단한다.
거리 측정 센서는 적외선을 송신하고, 반사각에 따라 반사 배열에서 측정된 광의 위치에 따라 거리를 인식할 수 있다. 거리 측정 센서는 반사 배열의 최대 폭과 수신한 광이 감지된 위치 간의 비율에 따라 감지 영역 범위 내에서 거리를 측정할 수 있다. 즉, 수신기는 위치 감지 소자(Position Sensitive Device, PSD)로 구현될 수 있다.
거리 측정 센서 또는 절벽 인식 센서가 오작동하면 잘못된 거리 정보를 출력한다. 거리 측정 센서가 오작동하는 유형은 크게 (i) 센서가 광을 송수신하는 전방에 이물질이 삽입 또는 가림으로 비정상 거리를 측정하는 유형과 (ii) 청소 로봇의 내부에서 센서와 제어보드 간의 이물질이 삽입되어 케이블 단락(Short) 등이 발생하는 유형으로 구분할 수 있다.
본 실시예에 따른 거리 측정 센서는 센서의 출력 데이터를 분석하여 데이터의 분산도 또는 대표값을 기반으로 거리 측정 센서가 오작동하는 에러 상태를 검출할 수 있다.
도 10은 본 발명의 실시예들에 따른 거리 검출 센서를 예시한 회로도이며, 도 10을 참조하면, 거리 측정 센서의 데이터 라인이 전원전압 또는 접지에 단락될 경우에 즉각적으로 데이터가 변화하도록, 거리 측정 센서의 데이터 라인은 저항을 통하여 접지에 연결된다. 제어부는 검출 시간 동안 변화한 데이터의 대표값을 제1 단락 상태 임계치 및/또는 제2 단락 상태 임계치와 비교하여 비정상 상태를 검출한다. 제어부는 검출 시간 동안 변화한 데이터의 대표값을 기 설정된 제1 단락 상태 임계치 및/또는 기 설정된 제2 단락 상태 임계치와 비교하여 거리 측정 센서의 회로 일부가 단락된 상태를 검출한다.
제4 에러 상태는 데이터 라인이 전원전압에 단락된 상태이다. 제1핀 및 제3핀이 단락되면, 제어부는 검출 시간 내에 기 설정된 제1 단락 상태 임계치를 기준으로 기 설정된 범위 내의 값을 갖는 전기 신호를 입력받는다.
제1 단락 상태 임계치는 전원전압이 데이터 통신에 연결되고 데이터 통신이 저항을 통해 접지에 연결된 상태에서, 측정된 데이터 통신의 전압값 또는 전류값을 이용하여 설정된다. 대표값이 제1 단락 상태 임계치를 기준으로 기 설정된 범위 내의 값이면, 제어부는 제1핀 및 제3핀이 단락된 상태로 인식한다.
제5 에러 상태는 데이터 라인이 접지에 단락된 상태이다. 제2핀 및 제3핀이 단락되면, 제어부는 검출 시간 내에 기 설정된 제2 단락 상태 임계치를 기준으로 기 설정된 범위 내의 값을 갖는 전기 신호를 입력받는다.
제2 단락 상태 임계치는 접지가 데이터 통신에 직접 연결되고, 데이터 통신이 저항을 통해 접지에 추가로 연결된 상태에서, 측정된 데이터 통신의 전압값 또는 전류값을 이용하여 설정된다. 대표값이 제2 단락 상태 임계치를 기준으로 기 설정된 범위 내의 값이면, 제어부는 제2핀 및 제3핀이 단락된 상태로 인식한다.
제1 단락 상태 임계치 및 제2 단락 상태 임계치를 전압 레벨을 기준으로 설정한다고 가정하면, 전원전압의 근처 값으로 설정되는 제1 단락 상태 임계치는 접지전압의 근처 값으로 설정되는 제2 단락 상태 임계치보다 큰 값을 갖도록 설정된다. 제1 단락 상태 임계치 및 제2 단락 상태 임계치를 전류 레벨을 기준으로 설정하면, 제1 단락 상태 임계치 및 제2 단락 상태 임계치의 대소 관계는 전압 레벨과 반대로 설정될 수 있다.
전압 레벨을 기준으로 설정된 제2 임계치는 데이터의 대표값에 관한 임계치이고, 제2 단락 상태 임계치는 데이터의 대표값에 관한 임계치이다. 제2 임계치와 제2 단락 상태 임계치는 동일 또는 유사한 값으로 설정될 수 있다.
예컨대, 제2 임계치는 10으로 설정되고, 제2 단락 상태 임계치는 10으로 설정될 수 있다.
본 실시예에 따른 거리 측정 센서는 절벽을 정상적으로 인식한 것과 구분하기 위하여, 상태 판단 시간 동안, 검출 시간 동안, 또는 회피 동작 이후, 연속적으로 비정상 상태를 인식하는 조건을 만족하면, 실질적으로 비정상 상태라고 확정한다.
[배터리]
모바일 로봇의 프로세서는 배터리와 관련된 모든 센서 데이터를 읽는다. 배터리와 관련하여, 읽혀진 센서 데이터와 미리 정해진 값들을 비교한다. 특히, 배터리의 용량이 기준 값 보다 낮을 때, 저전력과 관련된 메시지를 사용자에게 제공하는 것이 필요하다.
[환경 센싱]
모바일 로봇 주변의 온도와, 습도를 체크하는 것도 가능하다. 어떤 동작이 되지 않는 상황이 있을 때, 모바일 로봇은 적절하게 동작하지 않을 것이기 때문에 이는 중요하다.
이후, 프로세서가 이상 상태를 판단한 이후, 상기 센싱값을 이용하여 상기 미리 정해진 기준값을 보정하게 된다.
도 11 내지 도 13은 본 발명의 일 실시예에 따라, 통합UI를 이용한 모바일 로봇의 고장 진단 방법을 나타낸 것이다.
본 발명에서는 Distributed system 구현이 가능하도록 구조를 설계하여 추후에 제어 엔지니어가 제작한 고장진단 프로그램을 쉽게 통합 UI(Manager)에 추가할 수 있도록 한다.
도 11을 참조하면, 단계 S10에서 매니저(통합 UI)(61)는 사용자(62)로부터 진단 장치 운용 및 테스트 목록을 제공 받는다.
이후, 단계 S21에서 제1 테스트 프로그램을 개발하고, 단계 S22에서 테스트 프로그램(63)을 이용하여 테스트 결과를 작성한다. 다시 단계 S23에서 제2 테스트 프로그램을 개발하고, 단계 S24에서 테스트 프로그램(63)을 이용하여 테스트 결과를 작성한다. 반복하여 단계 S25에서 X번째 테스트 프로그램을 개발하고, 단계 S26에서 테스트 프로그램(63)을 이용하여 테스트 결과를 작성한다.
구체적으로, 개별적인 고장진단 프로그램을 int main() 구조로 만들어 독립적인 실행파일로 만들며, 통합 UI(manager) 에서 sword_launcher와 같이 개별적인 프로그램들을 포크 프로세스(folk process) 하여 child로 만든다. 단, manager는 sword_launcher와 다르게 프로그램을 순차적으로 실행시킨다.
child가 해당 진단을 마치면 결과를 json 파일로 저장을 하고 종료한다.
Json 파일로 저장하면 유저가 보기쉬울 뿐만 아니라, 추후에 센서 보정을 위한 시스템을 만들때도 parsing하기 용이하다.
그 다음 test program을 새로운 child로 불러온다.
2번부터 4번까지의 패턴을 processTable이 empty가 될 때까지 반복한다.
단계 S31에서 사용자에게 종합 테스트 결과를 전송하며, 단계 S32에서 테스트 결과 요약 파일을 저장한다.
구체적으로, 모든 검사가 끝나면, 매니저는 종합적인 진단결과를 터미널에 보여주고 유저의 응답을 기다린다. 그리고 유저가 이 결과물은 파일로 저장하고자 하면 3번 과정에서 만들어진 json 파일들을 하나로 통합하여 저장한다.
최종적으로, manager는 terminal을 통하여 검사 결과들의 overview를 제공한다. 또한 검수과정에서 실패한 item들을 리스트업 해준다.
도 12는 모바일 로봇의 모터를 진단하기 위한 것이고, 도 13은 핑(Ping) 명령을 통해 하드웨어와 통신 상태를 확인하는 것을 나타내는 도면이다.
상술한 바와 같이, 모바일 로봇이 웨이크 업 될 때 체크 해야하는 각종 센서들, 카메라와 관련된 피칭값, 이미지 품질값들을 체크하고, 진단하고 필요한 경우 보정하는 것은, 모바일 로봇의 프로세서에서 수행가능한 소프트웨어 프로그램의 형태로서 구현될 수 있고, 또한 상술한 동작들은, 상술한 각종 모듈에서 직접 수행될 수 있도록 구현될 수도 있다.
본 발명의 또 다른 일 실시예에 따르면, 본 발명은 상술한 초기화 진단 및 보정 방법을 수행하기 위한 소프트웨어가 구현되도록 마련된 모바일 로봇의 형태로 구현될 수 있다. 이를 위하여 모바일 로봇은 상기 초기화 진단 및 보정 방법을 수행하는 소프트웨어를 비일시적으로 또는 일시적으로 저장하기 위한 메모리를 더욱 포함할 수 있음은 물론이다. 이 경우 프로세서는 메모리에 저장되어 있는 진단 및 보정 루틴에 따른 동작을 통해, 진단 동작의 루틴을 실행하기 위한 각각의 지령을 생성하고, 진단 대상 모듈에 해당 지령을 전달할 수 있다. 이에 따라 진단 대상 모듈은 위 지령에 따른 동작을 수행하고, 동작을 수행함에 따라 얻어지는 데이터를 프로세서에 전달한다. 프로세서는 전달된 데이터에대한 분석을 통해 초기화 상태를 진단하고, 필요한 연산을 통해 기준 값보다 오차가 클 경우 초기화와 관련된 파라미터 등의 초기 보정을 수행할 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (15)

  1. 모바일 로봇의 초기화 진단 방법에 있어서,
    상기 모바일 로봇에 포함된 적어도 하나의 프로세서가, 상기 모바일 로봇에 포함된 진단 대상 모듈이 휴지 상태에서 웨이크-업 상태로 상태 천이됨에 따른 초기화 품질을 판단하기 위해 필요한 초기화 동작을 수행하도록 하는 초기화 진단 지령을 실행하는 단계;
    상기 진단 대상 모듈이 웨이크-업된 상태에서 상기 초기화 진단 지령에 따른 응답을 포함하는 진단 획득 정보를 수신하는 단계; 및
    상기 모바일 로봇이 수행하고자 하는 업무 미션과 상기 진단 획득 정보를 이용하여, 상기 진단 대상 모듈의 초기화 품질을 나타내는 초기화 품질 평가 결과값을 산출하고, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행하는 단계를 포함하는 것을 특징으로 하는 모바일 로봇의 초기화 진단 방법.
  2. 제1항에 있어서, 상기 진단 대상 모듈의 상태 천이는,
    상기 모바일 로봇을 충전시키거나, 상기 휴지 상태에서 상기 모바일 로봇이 정지하여 위치하는 베이스 스테이션으로부터 미리 정해진 일정 거리 이내에서 이루어지며, 상기 초기화 품질은 상기 모바일 로봇의 자율적인 주행과 관련된 주행 인자들을 보정하거나 상기 모바일 로봇의 오동작을 유발시킬 수 있는 오동작 유발 인자들과 관련되는 것을 특징으로 하는 모바일 로봇의 초기화 진단 방법.
  3. 제2항에 있어서,
    상기 베이스 스테이션은 입사되는 광 신호 중 적어도 일부를 다시 반사시키는 성질을 갖는 리플렉터를 포함하여 카메라 모듈 또는 라이다 모듈이 인식할 수 있는 형태의 초기화 진단 마커를 포함하고,
    상기 초기화 진단 지령에 따라 상기 베이스 스테이션 또는 상기 베이스 스테이션의 주변의 영상을 획득하는 동작은,
    상기 베이스 스테이션에 부착된 상기 초기화 진단 마커를 포함하는 영상을 획득하는 것을 특징으로 하는 모바일 로봇의 초기화 진단 방법.
  4. 제3항에 있어서,
    상기 진단 대상 모듈은 카메라 모듈이고,
    상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과,
    상기 제1 지령에 따라 떨어진 상태에서 상기 베이스 스테이션 또는 상기 베이스 스테이션의 주변의 영상을 획득하는 동작과 관련된 제2 지령을 포함하며,
    상기 프로세서는 상기 제2 지령에 따라 획득된 영상에 대한 영상 분석을 통해 카메라의 포즈를 예측하는 것을 특징으로 하는 모바일 로봇의 초기화 진단 방법.
  5. 제3항에 있어서,
    상기 진단 대상 모듈은 라이다 모듈이고,
    상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과,
    상기 제1 지령에 따라 떨어진 상태에서 상기 라이다 모듈이 수직 또는 수평 방향으로 베이스 스테이션을 향해 빔을 주사하고, 반사된 빔을 수신하는 동작과 관련된 제2 지령을 포함하며,
    상기 프로세서는 상기 제2 지령에 따라 획득된 라이다 영상에 대한 분석을 통해 상기 라이다 모듈의 피칭 앵글을 예측하는 것을 특징으로 하는 모바일 로봇의 초기화 진단 방법.
  6. 제5항에 있어서,
    상기 제2 지령에 따라 획득된 라이다 영상에 대한 분석을 통해 상기 라이다 모듈의 피칭 앵글을 예측하는 것은,
    상기 제2 지령에 따라 상기 리플렉터에 의해 반사된 빔을 수신하여 상기 초기화 진단 마커로부터의 거리와 세기를 측정하여 상기 진단 획득 정보로 입력받고, 상기 거리와 세기를 기반으로 상기 초기화 품질 평가 결과값으로 상기 피칭 앵글을 예측하는 것을 특징으로 하는 모바일 로봇의 초기화 진단 방법.
  7. 제1항에 있어서,
    상기 진단 대상 모듈은 상기 모바일 로봇의 가속도를 측정하는 관성 측정 장치(IMU) 모듈이고,
    상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과,
    상기 제1 지령에 따른 동작을 수행하며 상기 관성 측정 장치(IMU) 모듈로부터 가속도 측정값을 상기 진단 획득 정보로 입력 받는 동작과 관련된 제2 지령을 포함하며,
    상기 프로세서는 상기 제2 지령에 따라 입력 받은 가속도 측정값과 미리 정해진 가속도 기준값을 비교한 편차를 상기 초기화 품질 평가 결과값으로 산출하여 신호의 이상 상태를 판단하는 것을 특징으로 하는 모바일 로봇의 초기화 진단 방법.
  8. 제3항에 있어서,
    상기 진단 대상 모듈은 상기 모바일 로봇의 가속도를 측정하는 관성 측정 장치(IMU) 모듈이고,
    상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과,
    상기 제1 지령에 따라 떨어진 상태에서 상기 카메라 모듈 또는 라이다 모듈이 기 설정된 방향으로 회전하여 측정한 상대 각도 측정값을 진단 획득 정보로 입력 받는 동작과 관련된 제2 지령을 포함하며,
    상기 프로세서는 상기 제2 지령에 따라 입력 받은 상대 각도 측정값과 미리 정해진 상대 각도 기준값을 비교한 오차를 상기 초기화 품질 평가 결과값으로 산출하여 신호의 이상 상태를 판단하는 것을 특징으로 하는 모바일 로봇의 초기화 진단 방법.
  9. 제7항에 있어서,
    상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행하는 것은,
    상기 프로세서가 상기 제2 지령에 따라 입력 받은 가속도 측정값과 미리 정해진 가속도 기준값을 비교한 편차를 상기 초기화 품질 평가 결과값으로 산출하여 신호가 정상인 경우, 가속도 기준값을 상기 가속도 측정값으로 보정하는 것을 특징으로 하는 모바일 로봇의 초기화 진단 방법.
  10. 제8항에 있어서,
    상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행하는 것은,
    상기 프로세서가 상기 제2 지령에 따라 입력 받은 상대 각도 측정값과 미리 정해진 상대 각도 기준값을 비교한 오차를 상기 초기화 품질 평가 결과값으로 산출하여 상기 오차를 줄이기 위한 스케일 팩터를 역산하여 보정하는 것을 특징으로 하는 모바일 로봇의 초기화 진단 방법.
  11. 모바일 로봇의 초기화 진단 시스템에 있어서,
    상기 모바일 로봇을 충전시키거나, 휴지 상태에서 상기 모바일 로봇이 정지하여 위치하는 베이스 스테이션;
    상기 베이스 스테이션에 위치하고, 상기 모바일 로봇의 초기화를 위한 기준을 제공하는 수동적인 초기화 기준 제공부; 및
    상기 모바일 로봇에 포함된 진단 대상 모듈이 휴지 상태에서 웨이크-업 상태로 상태 천이됨에 따른 초기화 품질을 판단하기 위해 필요한 초기화 동작을 수행하도록 하는 초기화 진단 지령을 실행하고, 상기 진단 대상 모듈이 웨이크-업된 상태에서 상기 초기화 진단 지령에 따른 응답을 포함하는 진단 획득 정보를 수신하며, 상기 모바일 로봇이 수행하고자 하는 업무 미션과 상기 진단 획득 정보를 이용하여, 상기 진단 대상 모듈의 초기화 품질을 나타내는 초기화 품질 평가 결과값을 산출하고, 상기 초기화 품질 평가 결과값에 따른 응답 동작을 실행시키는 초기화 진단 프로세서를 포함하는, 모바일 로봇의 초기화 진단 시스템.
  12. 제11항에 있어서,
    상기 수동적인 초기화 기준 제공부는,
    i)상기 베이스 스테이션을 향하고 있는 상기 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈이 인식할 수 있는 형태의 초기화 진단 마커; 또는
    ii) 상기 베이스 스테이션을 향하고 있는 상기 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈이 인식할 수 있는 형태의 마커와,
    상기 모바일 로봇이 이동하는 동안 상기 마커를 상기 모바일 로봇이 인식할 수 있도록 상기 모바일 로봇의 휠이 접하도록 위치하는 초기화 기준 휠 플레이트를 포함하는 것을 특징으로 하는, 모바일 로봇의 초기화 진단 시스템.
  13. 제12항에 있어서,
    상기 초기화 진단 마커는, 입사되는 광 신호 중 적어도 일부를 다시 반사시키는 성질을 갖는 리플렉터를 더 포함하며,
    상기 리플렉터는 상기 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈의 수평적인 동작 방향과 서로 대응되는 방향으로의 패턴을 갖는 것을 특징으로 하는, 모바일 로봇의 초기화 진단 시스템.
  14. 제12항에 있어서,
    상기 초기화 진단 마커는,
    입사되는 광 신호 중 적어도 일부를 다시 반사시키는 성질을 갖는 리플렉터를 더 포함하고, 상기 리플렉터는 모바일 로봇에 구비되는 카메라 모듈 또는 라이다 모듈에 의하여 인식되며, 상기 리플렉터는 상기 모바일 로봇과의 3차원적인 위치 관계에 따라 다르게 인식될 수 있도록 배치되는 것을 특징으로 하는 모바일 로봇의 초기화 진단 시스템.
  15. 제11항에 있어서,
    상기 진단 대상 모듈은 라이다 모듈이고,
    상기 초기화 동작을 수행하도록 하는 지령은, 상기 모바일 로봇이 베이스 스테이션으로부터 적어도 일시적으로 떨어지도록하는 동작과 관련된 제1 지령과,
    상기 제1 지령에 따라 떨어진 상태에서 상기 라이다 모듈이 수직 또는 수평 방향으로 베이스 스테이션을 향해 빔을 주사하고, 반사된 빔을 수신하는 동작과 관련된 제2 지령을 포함하며,
    상기 초기화 진단 프로세서는 상기 제2 지령에 따라 획득된 라이다 영상에 대한 분석을 통해 상기 라이다 모듈의 피칭 앵글을 예측하는 것을 특징으로 하는 모바일 로봇의 초기화 진단 시스템.
KR1020200045835A 2019-04-16 2020-04-16 모바일 로봇의 초기화 진단 방법 및 시스템 KR102356752B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190044379 2019-04-16
KR20190044379 2019-04-16

Publications (2)

Publication Number Publication Date
KR20200121756A true KR20200121756A (ko) 2020-10-26
KR102356752B1 KR102356752B1 (ko) 2022-01-28

Family

ID=72837521

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200045835A KR102356752B1 (ko) 2019-04-16 2020-04-16 모바일 로봇의 초기화 진단 방법 및 시스템

Country Status (4)

Country Link
US (1) US20220184811A1 (ko)
EP (1) EP4151372A1 (ko)
KR (1) KR102356752B1 (ko)
WO (1) WO2020213955A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261791B1 (ko) * 2020-12-11 2021-06-07 주식회사 트위니 반사체 및 라이다를 기반으로 한 자율주행 도킹 시스템
CN114418042A (zh) * 2021-12-30 2022-04-29 智昌科技集团股份有限公司 一种基于聚类分析的工业机器人运行趋势诊断方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022536617A (ja) * 2019-06-05 2022-08-18 北京外号信息技術有限公司 相対位置決めを実現するための装置及び対応する相対位置決め方法
CN113068501A (zh) * 2020-01-06 2021-07-06 苏州宝时得电动工具有限公司 一种智能割草机
US11921205B2 (en) 2020-11-24 2024-03-05 Pixart Imaging Inc. Method for eliminating misjudgment of reflective lights and optical sensing system
US11826906B2 (en) * 2020-11-24 2023-11-28 Pixart Imaging Inc. Method for eliminating misjudgment of reflective light and optical sensing system
CN114469354B (zh) * 2022-04-13 2022-06-24 深圳市爱博医疗机器人有限公司 一种介入手术机器人从端初始化方法和可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060032305A (ko) * 2004-10-12 2006-04-17 삼성광주전자 주식회사 로봇 청소기의 좌표보정방법 및 이를 이용한 로봇 청소기시스템
KR100886340B1 (ko) * 2007-04-04 2009-03-03 삼성전자주식회사 이동 로봇의 자이로 센서를 캘리브레이션하는 장치 및 방법
JP2011185764A (ja) * 2010-03-09 2011-09-22 Ihi Corp 遠隔監視システム
KR101324166B1 (ko) * 2011-07-25 2013-11-08 엘지전자 주식회사 로봇 청소기 및 이의 자가 진단 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010062696A1 (de) * 2010-12-09 2012-06-14 Robert Bosch Gmbh Verfahren und Vorrichtung zum Kalibrieren und Justieren eines Fahrzeug-Umfeldsensors.
US8800101B2 (en) * 2011-07-25 2014-08-12 Lg Electronics Inc. Robot cleaner and self testing method of the same
KR101356220B1 (ko) * 2012-09-24 2014-01-29 세종대학교산학협력단 이동체의 센서 고장 검출 방법 및 장치
WO2015008874A1 (ko) * 2013-07-15 2015-01-22 엘지전자 주식회사 로봇 청소기 및 그 로봇 청소기의 3d 센서 자가 교정 방법
JP6274056B2 (ja) * 2013-11-28 2018-02-07 株式会社デンソー 点火装置
US10209080B2 (en) * 2013-12-19 2019-02-19 Aktiebolaget Electrolux Robotic cleaning device
KR101725060B1 (ko) * 2014-06-17 2017-04-10 주식회사 유진로봇 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR102386670B1 (ko) * 2015-07-08 2022-04-14 엘지이노텍 주식회사 차량용 레이더의 자가 보정 장치 및 자가 보정 방법
JP6699301B2 (ja) * 2016-04-04 2020-05-27 いすゞ自動車株式会社 異常検出装置、異常検出方法及び異常検出システム
CN106308685B (zh) * 2016-08-23 2019-10-11 北京小米移动软件有限公司 清洁机器人及其控制方法
US10309777B2 (en) * 2016-12-30 2019-06-04 DeepMap Inc. Visual odometry and pairwise alignment for high definition map creation
CN110998471A (zh) * 2017-05-09 2020-04-10 云海智行股份有限公司 机器人运动控制系统及方法
JP6484287B2 (ja) * 2017-05-19 2019-03-13 ファナック株式会社 リニアガイドの損傷検知装置及び損傷検知方法
CN108247647B (zh) * 2018-01-24 2021-06-22 速感科技(北京)有限公司 一种清洁机器人
US11858128B1 (en) * 2018-06-28 2024-01-02 Amazon Technologies, Inc. Rapid braking system for an autonomous mobile device
JP7215253B2 (ja) * 2019-03-13 2023-01-31 株式会社アイシン 静電容量検出装置
US11293961B2 (en) * 2019-03-13 2022-04-05 Aisin Corporation Capacitance detection device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060032305A (ko) * 2004-10-12 2006-04-17 삼성광주전자 주식회사 로봇 청소기의 좌표보정방법 및 이를 이용한 로봇 청소기시스템
KR100886340B1 (ko) * 2007-04-04 2009-03-03 삼성전자주식회사 이동 로봇의 자이로 센서를 캘리브레이션하는 장치 및 방법
JP2011185764A (ja) * 2010-03-09 2011-09-22 Ihi Corp 遠隔監視システム
KR101324166B1 (ko) * 2011-07-25 2013-11-08 엘지전자 주식회사 로봇 청소기 및 이의 자가 진단 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261791B1 (ko) * 2020-12-11 2021-06-07 주식회사 트위니 반사체 및 라이다를 기반으로 한 자율주행 도킹 시스템
CN114418042A (zh) * 2021-12-30 2022-04-29 智昌科技集团股份有限公司 一种基于聚类分析的工业机器人运行趋势诊断方法
CN114418042B (zh) * 2021-12-30 2022-07-22 智昌科技集团股份有限公司 一种基于聚类分析的工业机器人运行趋势诊断方法

Also Published As

Publication number Publication date
EP4151372A1 (en) 2023-03-22
WO2020213955A1 (ko) 2020-10-22
US20220184811A1 (en) 2022-06-16
KR102356752B1 (ko) 2022-01-28

Similar Documents

Publication Publication Date Title
KR102356752B1 (ko) 모바일 로봇의 초기화 진단 방법 및 시스템
JP6971223B2 (ja) 自律移動ロボットと自律移動ロボットの基地局とを有するシステム、自律移動ロボットの基地局、自律移動ロボットのための方法、自律移動ロボットの基地局への自動ドッキング方法
TWI827649B (zh) 用於vslam比例估計的設備、系統和方法
EP2980546B1 (en) Intelligent noise monitoring device and noise monitoring method using the same
US11493930B2 (en) Determining changes in marker setups for robot localization
US20210271262A1 (en) Autonomous Mobile Robot And Method For Controlling An Autonomous Mobile Robot
CN112445225B (zh) 防撞系统、自动防撞的方法及非暂态计算机可读介质
US10481270B2 (en) Device for detecting an obstacle by means of intersecting planes and detection method using such a device
JPH07281753A (ja) 移動ロボット
US11960296B2 (en) Method and apparatus for autonomous mobile device
WO2022179227A1 (zh) 扫地机的回充对准方法、装置及扫地机
JP2009169581A (ja) 移動体、移動体システム、及びその故障診断方法
JP2002213920A (ja) 移動体の位置認識方法および装置
CN112797986A (zh) 基于无人自主技术的智能物流机器人定位系统及方法
CN110133681B (zh) 基于激光雷达的回充引导系统及其回充引导方法
CN114365003A (zh) 调节设备和激光雷达测量设备
KR101080366B1 (ko) 초음파센서를 이용한 로봇의 위치 인식 방법 및 그 장치
KR20210015126A (ko) 이동 로봇
US20210262804A1 (en) Information processing device, information processing method, and storage medium
JP2019045199A (ja) 物体検出システム及び物体検出プログラム
CN111638715B (zh) 机器人的控制方法、机器人、电子设备及存储介质
CN111352090B (zh) 集成姿态系统的激光雷达及控制方法
KR102082416B1 (ko) 이동용 로봇 및 이의 자가진단 방법
CN101809405A (zh) 容错车轮定位头和系统
JP2016218504A (ja) 移動装置及び移動システム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant