KR102320370B1 - 격자 지도에 기반한 로봇의 애완동물 감시 방법 및 칩 - Google Patents

격자 지도에 기반한 로봇의 애완동물 감시 방법 및 칩 Download PDF

Info

Publication number
KR102320370B1
KR102320370B1 KR1020207019551A KR20207019551A KR102320370B1 KR 102320370 B1 KR102320370 B1 KR 102320370B1 KR 1020207019551 A KR1020207019551 A KR 1020207019551A KR 20207019551 A KR20207019551 A KR 20207019551A KR 102320370 B1 KR102320370 B1 KR 102320370B1
Authority
KR
South Korea
Prior art keywords
robot
cell
uwb positioning
grid
pet
Prior art date
Application number
KR1020207019551A
Other languages
English (en)
Other versions
KR20200096606A (ko
Inventor
강준 시아오
타이밍 황
Original Assignee
아미크로 세미컨덕터 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아미크로 세미컨덕터 씨오., 엘티디. filed Critical 아미크로 세미컨덕터 씨오., 엘티디.
Publication of KR20200096606A publication Critical patent/KR20200096606A/ko
Application granted granted Critical
Publication of KR102320370B1 publication Critical patent/KR102320370B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N5/232
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Biophysics (AREA)
  • Animal Husbandry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 격자 지도에 기반한 로봇의 애완동물 감시 방법 및 칩에 관한 것으로, 애완동물 몸체상의 무선신호장치와 로봇이 무선통신을 수행하여 애완동물과 로봇의 상호 위치 관계를 결정한 다음, 로봇과 애완동물에 대응되는 격자 지도상의 격자 셀 사이에 장애 셀이 존재하는 가를 판단한다. 장애 셀이 없으면 로봇의 현재 위치와 촬영 방향에서 애완동물을 유효하게 촬영할 수 있음을 표시하고 로봇의 현재 위치와 촬영 방향을 변경시킬 필요가 없다. 장애 셀이 있으면 로봇이 현재 위치에서 촬영하면 애완동물은 촬영되지 않고 장애물이 촬영될 가능성이 있으므로 로봇은 애완동물 주위의 격자 셀의 상태를 판단하여 감시 위치점을 다시 선택하여야 한다. 이러한 격자 지도와 결합하여 애완동물을 감시하는 방식을 이용하여 더욱 좋은 감시 위치를 찾아내도록 로봇을 제어할 수 있고 장애물에 의하여 차단되어 감시 효과에 영향을 미치는 문제를 피면하며 애완동물을 감시하는 효과를 향상시킨다.

Description

격자 지도에 기반한 로봇의 애완동물 감시 방법 및 칩
본 발명은 로봇 분야에 관한 것으로, 특히 격자 지도에 기반하여 로봇이 애완동물을 감시하는 방법 및 칩에 관한 것이다.
현재의 애완동물 로봇은 애완동물의 몸체에 착용된 측위 장치와 통신을 수행함으로써 애완동물의 위치를 결정할 수 있다. 이에 따라 애완동물을 추적하고 카메라를 통하여 애완동물의 상태를 감시할 수 있다. 하지만 기존의 로봇 감시 기술에 의하면 감시 위치를 잘 결정할 수 없고, 예를 들어 로봇과 애완동물 사이에 장애물이 있으면 감시 효과에 영향을 미치게 된다.
상기 문제를 해결하기 위하여, 본 발명은 로봇이 애완동물을 감시하는 위치를 잘 결정할 수 있어 양호한 감시 효과를 실현하는 격자 지도에 기반한 로봇의 애완동물 감시 방법 및 칩을 제공한다. 본 발명의 구체적인 기술방안은 하기와 같다.
로봇이 구축한 격자 지도에 근거하여 로봇의 상기 격자 지도상의 현재 위치점과 이에 대응되는 격자 셀을 결정하는 단계1;
로봇과 애완동물 몸체상의 무선신호장치가 수행한 무선 통신에 근거하여 애완동물과 로봇과의 상호 위치 관계를 결정하고 상호 위치 관계에 근거하여 애완동물의 현재 위치점과 이에 대응되는 격자 셀을 결정하는 단계2;
로봇이 위치한 격자 셀과 애완동물이 위치한 격자 셀 사이에 있어서 로봇이 애완동물을 감시하는 카메라의 촬영 각도에 의하여 커버된 소정의 범위내의 격자 셀에 장애 셀이 존재하는 가를 판단하여,
NO이면 애완동물을 향하도록 로봇의 카메라의 촬영 방향을 유지하고 단계2로 되돌아가며,
YES이면 단계4로 진입하는 단계3;
애완동물이 위치한 격자 셀을 중심점으로 하는 소정의 영역을 결정하고 상기 소정의 영역중의 기통과 셀과 로봇과의 가까운 순서에 따른 거리 관계에 근거하여 기통과 셀을 하나하나씩 감시 후보 셀로 하고, 상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 존재하는 가를 판단하여,
NO이면 상기 감시 후보 셀을 감시 셀로 결정하고 단계5로 진입하며,
YES이면 그다음의 기통과 셀이 로봇까지의 거리가 가장 먼 셀인가를 판단하고,
NO이면 단계4로 되돌아가고,
YES이면 직접 그다음의 기통과 셀을 감시 셀로 결정하고 단계5로 진입하는 단계4; 및
현재 위치점으로부터 상기 감시 셀까지 보행하여 애완동물을 감시하도록 로봇을 제어하는 단계5를 포함하고,
상기 장애 셀은 로봇에 의해 장애물이 검측된 경우 대응되는 격자 셀이고 상기 기통과 셀은 로봇이 이미 보행한 격자 셀인 격자 지도에 기반한 로봇의 애완동물 감시 방법.
진일보로, 단계1에 기재된 로봇이 구축한 격자 지도에 근거하여 로봇의 상기 격자 지도상의 현재 위치점과 이에 대응되는 격자 셀을 결정하는 것은,
로봇이 보행과정에 검측한 데이터에 근거하여 (X0, Y0)을 원점으로 하는 XY축 좌표계에 기반한 격자 지도를 구축하는 단계;
상기 격자 지도중의 격자 셀의 변 길이를 L로 하는 단계; 및
로봇 자체의 측위 데이터에 근거하여 로봇의 현재 위치점의 좌표를 (X1, Y1)로 하면 현재 위치점에 대응되는 격자 셀의 격자 좌표는 (S11, S12)이고 S11=(X1-X0)/L, S12=(Y1-Y0)/L(S11과 S12는 정수부분을 취한다)로 하는 단계를 포함한다.
진일보로, 단계2에 기재된 로봇과 애완동물 몸체상의 무선신호장치가 수행한 무선 통신에 근거하여 애완동물과 로봇과의 상호 위치 관계를 결정하고 상호 위치 관계에 근거하여 애완동물의 현재 위치점과 이에 대응되는 격자 셀을 결정하는 것은,
로봇 본체상의 제1 UWB 측위 기지국과 제2 UWB 측위 기지국 사이의 거리를 W로 하는 단계;
상기 제1 UWB 측위 기지국의 좌표를 (X11, Y11)로 하고 상기 제2 UWB 측위 기지국의 좌표를 (X12, Y12)로 하는 단계;
상기 제1 UWB 측위 기지국 및 상기 제2 UWB 측위 기지국과 애완동물 몸체상의 UWB 측위 라벨과의 무선 통신에 근거하여 상기 UWB 측위 라벨로부터 상기 제1 UWB 측위 기지국까지의 제1 거리를 R1로 하고 상기 UWB 측위 라벨로부터 상기 제2 UWB 측위 기지국까지의 제2 거리를 R2로 하는 단계;
상기 제1 UWB 측위 기지국을 꼭지점으로 하여 각각 상기 제2 UWB 측위 기지국과 상기 UWB 측위 라벨을 향하는 선으로 구성되는 각도를 제1 각도로 하고 제1 각도α1를 α1=arccos((W²+R2²-R1²)/(2*W*R2))로 하는 단계;
상기 제2 UWB 측위 기지국을 꼭지점으로 하여 각각 상기 제1 UWB 측위 기지국과 상기 UWB 측위 라벨을 향하는 선으로 구성되는 각도를 제2 각도로 하고 제2 각도α2를 α2=arccos((W²+R1²-R2²)/(2*W*R1))로 하는 단계;
상기 UWB 측위 라벨의 현재 위치점의 좌표를 (Xc, Yc)로 하고 Xc=X12+R2*cos(180°-α1-arccos((X12-X11)/W)), Yc=Y11+R1*cos(180°-α2-arcsin((X12-X11)/W))로 하는 단계; 및
상기 UWB 측위 라벨의 현재 위치점에 대응되는 격자 셀의 격자 좌표를 (S21, S22)로 하고 S21=(Xc-X0)/L, S22=(Yc-Y0)/L(S21과 S22는 정수부분을 취한다)로 하는 단계를 포함한다.
진일보로, 기지국의 좌표를 (X12, Y12)로 하는 것은,
로봇 본체의 중심점의 좌표를 로봇의 현재 위치점의 좌표로 하고 좌표를 (X1, Y1)로 하는 단계;
로봇 본체의 중심점이 상기 제1 UWB 측위 기지국과 상기 제2 UWB 측위 기지국의 연결선의 중점에 있도록 하는 단계;
상기 제1 UWB 측위 기지국과 상기 제2 UWB 측위 기지국 사이의 거리를 W로 하면 로봇 본체의 중심점으로부터 상기 제1 UWB 측위 기지국까지의 거리가 W/2이고 로봇 본체의 중심점으로부터 상기 제2 UWB 측위 기지국까지의 거리가 W/2로 되는 단계;
로봇의 자이로스코프에 의하여 검측된 로봇의 현재 방향을 α로 하는 단계;
로봇 본체상의 제1 UWB 측위 기지국의 좌표를 (X11, Y11)로 하고 X11=X1-((W*cosα)/2), Y11=Y1+((W*sinα)/2)로 하는 단계; 및
로봇 본체상의 제2 UWB 측위 기지국의 좌표를 (X12, Y12)로 하고 X12=X1+((W*cosα)/2), Y12=Y1-((W*sinα)/2)로 하는 단계를 포함한다.
진일보로, 상기 UWB 측위 라벨로부터 상기 제1 UWB 측위 기지국까지의 제1 거리를 R1로 하고 상기 UWB 측위 라벨로부터 상기 제2 UWB 측위 기지국까지의 제2 거리를 R2로 하는 것은,
전파의 전파 속도를 c로 하는 단계;
상기 제1 UWB 측위 기지국이 상기 UWB 측위 라벨로 거리 측정 데이터를 송신한 후부터 상기 UWB 측위 라벨의 확인 신호를 수신할 때까지의 시간을 T11로 하는 단계;
상기 UWB 측위 라벨이 상기 제1 UWB 측위 기지국으로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T12로 하는 단계;
상기 UWB 측위 라벨이 상기 제1 UWB 측위 기지국으로 거리 측정 데이터를 송신한 후부터 상기 제1 UWB 측위 기지국의 확인 신호를 수신할 때까지의 시간을 T13로 하는 단계;
상기 제1 UWB 측위 기지국이 상기 UWB 측위 라벨로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T14로 하는 단계;
상기 UWB 측위 라벨로부터 상기 제1 UWB 측위 기지국까지의 제1 거리를 R1로 하고 R1=c*(T11-T12+T13-T14)/4로 하는 단계;
상기 제2 UWB 측위 기지국이 상기 UWB 측위 라벨로 거리 측정 데이터를 송신한 후부터 상기 UWB 측위 라벨의 확인 신호를 수신할 때까지의 시간을 T21로 하는 단계;
상기 UWB 측위 라벨이 상기 제2 UWB 측위 기지국으로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T22로 하는 단계;
상기 UWB 측위 라벨이 상기 제2 UWB 측위 기지국으로 거리 측정 데이터를 송신한 후부터 상기 제2 UWB 측위 기지국의 확인 신호를 수신할 때까지의 시간을 T23로 하는 단계;
상기 제2 UWB 측위 기지국이 상기 UWB 측위 라벨로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T24로 하는 단계; 및
상기 UWB 측위 라벨로부터 상기 제2 UWB 측위 기지국까지의 제2 거리를 R2로 하고 R2=c*(T21-T22+T23-T24)/4로 하는 단계를 포함한다.
진일보로, 단계3에 기재된 로봇이 위치한 격자 셀과 애완동물이 위치한 격자 셀 사이에 있어서 로봇이 애완동물을 감시하는 카메라의 촬영 각도에 의하여 커버된 소정의 범위내의 격자 셀에 장애 셀이 존재하는 가를 판단하는 것은,
로봇의 애완동물을 감시하는 카메라가 애완동물을 향하는 방향을 촬영 방향으로 하는 단계;
상기 촬영 방향에 따라 카메라의 촬영 각도가 상기 격자 지도에서 커버하는 촬영 영역을 결정하는 단계;
카메라를 꼭지점으로 하여 외부로 연장되는 제1 변과 제2 변으로 구성되는 각도 범위의 상기 격자 지도상의 커버 영역(이 커버 영역은 상기 촬영 영역미만이며 상기 촬영 영역내에 위치한다)에 대응되는 격자 셀을 결정하는 단계; 및
상기 커버 영역에 대응되는 격자 셀에 장애 셀이 존재하는 가를 분석하는 단계를 포함한다.
진일보로, 단계4에 기재된 애완동물이 위치한 격자 셀을 중심점으로 하는 소정의 영역을 결정하고 상기 소정의 영역중의 기통과 셀과 로봇과의 가까운 순서에 따른 거리 관계에 근거하여 기통과 셀을 하나하나씩 감시 후보 셀로 하는 것은,
애완동물이 위치한 격자 셀의 중심을 원심으로 하고 소정의 길이를 반경으로 하는 원형 영역을 결정하는 단계;
상기 원형 영역에서 로봇과의 거리가 가장 가까운 기통과 셀을 감시 후보 셀로 결정하는 단계;
상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 있으며 상기 원형 영역에서 로봇과의 거리가 두번째로 가까운 기통과 셀이 로봇과의 거리가 가장 먼 셀이 아니면, 상기 원형 영역에서 로봇과의 거리가 두번째로 가까운 기통과 셀을 감시 후보 셀로 결정하는 단계;
상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 있으며 상기 원형 영역에서 로봇과의 거리가 세번째로 가까운 기통과 셀이 로봇과의 거리가 가장 먼 셀이 아니면, 상기 원형 영역에서 로봇과의 거리가 세번째로 가까운 기통과 셀을 감시 후보 셀로 결정하는 단계; 및
로봇이 상기 원형 영역중의 로봇과의 거리가 두번째로 먼 기통과 셀을 감시 후보 셀로 할 때까지, 이와 같이 계속하여 결정하는 단계를 포함한다.
진일보로, 상기 소정의 길이는 1미터 내지 2미터의 범위내의 어느 한 값이다.
진일보로, 단계5에 기재된 현재 위치점으로부터 상기 감시 셀까지 보행하여 애완동물을 감시하도록 로봇을 제어하는 것은,
로봇의 현재 위치점을 시작점으로 하여 상기 감시 셀이 위치한 방향으로 격자 지도를 검색하는 단계;
로봇의 현재 위치점과 상기 감시 셀의 중심점 사이에 있어서 기통과 셀에 의하여 직접 연통된 격자 경로중의 경로 길이가 가장 짧은 격자 경로를 안내 격자 경로로 하는 단계;
안내 격자 경로중의 격자 셀의 중심점을 안내 위치점으로 하고 상기 안내 위치점을 연결하여 안내 경로를 구성하는 단계;
현재 위치점으로부터 상기 안내 경로에 따라 상기 감시 위치점까지 보행하도록 로봇을 제어하는 단계; 및
상기 로봇의 카메라의 촬영 방향을 애완동물이 위치한 방향에 맞추도록 로봇의 방향을 조절하는 단계를 포함한다.
상술한 격자 지도에 기반한 로봇의 애완동물 감시 방법을 수행하도록 로봇을 제어하기 위한 프로그램이 저장되는 칩.
본 발명에 의하면 하기와 같은 유익한 효과를 실현할 수 있다. 즉, 애완동물 몸체상의 무선신호장치와 로봇이 무선통신을 수행하여 애완동물과 로봇의 상호 위치 관계를 결정한 다음, 로봇과 애완동물이 격자 지도에서 대응되어 위치하는 셀 사이에 장애 셀이 존재하는 가를 판단함으로써 로봇과 애완동물 사이가 장애물에 의하여 차단되었는가를 판단한다. 차단되지 않았으면, 로봇의 현재 위치와 촬영 방향에서 애완동물을 유효하게 촬영할 수 있음을 표시하고, 로봇의 현재 위치와 촬영 방향을 변경시킬 필요가 없다. 차단되었으면, 로봇이 현재 위치에서 촬영하면 애완동물은 촬영되지 않고 장애물이 촬영될 가능성이 있으므로, 로봇은 애완동물 주위의 셀의 상태를 판단하여 감시 위치점을 다시 선택하여야 한다. 애완동물 주위의 소정의 영역내에 있어서 로봇과의 거리가 가까운 순서에 따라 기통과 셀을 하나하나씩 감시 후보 셀로 하고, 그다음 상기 감시 후보 셀과 애완동물이 위치한 셀 사이의 직선 격자 경로에 장애 셀이 존재하는가를 판단하고, 즉, 감시 후보 셀의 위치로부터 애완동물을 유효하게 감시할 수 있는가를 분석하여, 장애물에 의하여 차단되지 않았으면 그 감시 후보 셀을 감시 셀로 결정하고 차단되었으면 그다음의 기통과 셀을 분석한다. 이러한 애완동물 주위의 소정의 영역내에 있어서 로봇과의 거리가 가까운 순서대로 기통과 셀을 하나하나씩 분석하는 방식에 의하면, 로봇이 가장 빠르게 도착할 수 있고 또한 애완동물을 유효하게 감시할 수 있는 위치점을 찾아내어 로봇이 애완동물을 감시하는 효율을 향상시킬 수 있다. 그리고 소정의 영역내에서 로봇과의 거리가 가장 먼 기통과 셀 외의 기타 기통과 셀과 애완동물 사이가 모두 장애물에 의하여 차단되었으면 로봇과의 거리가 가장 먼 기통과 셀과 애완동물 사이에 장애물이 존재하는지와 상관없이 그것을 감시 셀로 하는데, 이것은 통상 장애물의 분포에 특징이 있기 때문이다. 즉 장애물은 통상 어느 하나 또는 몇개의 영역에 집중되어 나타나고 한 영역에서 장애 셀이 검측되었으면 그 영역에 기타 장애 셀이 더 존재할 가능성이 있고, 로봇이 현재 위치에서 장애물을 검측하였을 경우, 일정한 범위내에서 현재 위치로부터 먼 영역일수록 장애 셀이 있을 확율이 낮으므로 소정의 영역내에서 로봇과의 거리가 가장 먼 기통과 셀을 감시 셀로 함으로써 로봇이 상대적으로 비어 있는 영역에 처하게 되어, 애완동물의 위치가 변화될 경우 인접한 장애물의 간섭을 받지 않고 감시 위치 또는 감시 각도를 더 간단하게 조절할 수 있고 감시 효율을 향상시킨다.
상술한 바와 같이, 본 발명에 의하면 이러한 격자 지도를 결합하여 애완동물을 감시하는 방식을 이용함으로써, 양호한 감시 위치를 찾아내도록 로봇을 제어할 수 있어, 장애물에 의하여 차단되어 감시 효과에 영향을 미치는 문제를 피면하며 애완동물을 감시하는 효과를 향상시킨다.
도 1은 본 발명에 따른 격자 지도에 기반한 로봇의 애완동물 감시 방법을 나타낸 흐름도이다.
도 2는 본 발명에 따른 위치점의 좌표를 셀의 좌표로 변환시키는 것을 분석한 도이다.
도 3은 본 발명에 따른 두 UWB 측위 기지국과 UWB 측위 라벨과의 상호 위치를 분석한 도이다.
도 4는 본 발명에 따른 로봇의 중심점의 좌표로부터 두 UWB 측위 기지국의 좌표를 계산하는 것을 분석한 도이다.
도 5는 UWB 측위 라벨로부터 제1 UWB 측위 기지국까지의 거리를 측정하는 것을 분석한 도이다.
도 6은 로봇이 촬영한 격자 영역을 결정하는 것을 분석한 도이다.
도 7은 감시 셀을 결정하는 것을 분석한 도이다.
도 8은 로봇의 현재 위치점으로부터 감시 위치점까지의 안내 경로를 결정하는 것을 분석한 도이다.
이하 도면을 결합하여 본 발명의 구체적인 실시형태를 진일보로 설명한다.
본 발명에 따른 로봇은 스마트 가전 제품중의 하나로 일정한 인공지능에 기반하여 어떤 곳에서 자동적으로 보행할 수 있다. 로봇의 본체에는 각종 센서가 설치되어 보행 거리, 보행 각도, 본체 상태와 장애물 등을 검측할 수 있고, 벽 또는 기타 장애물에 충돌되면 자발적으로 방향을 변환하며 서로 다른 설정에 따라 다른 로선에 따라 보행하고 규칙적으로 보행할 뿐만아니라, 보행중에 검측된 각종 데이터에 근거하여 격자 지도를 구축한다. 본 발명에 따른 이동 로봇의 구조는 구동륜을 구비한 자율 보행하는 로봇 본체에 있어서 본체에는 인간-컴퓨터 상호작용 인터페이스가 설치되고 본체에 장애 검측유닛이 설치된다. 본체의 중부 상단면에 카메라가 설치되고, 물론 카메라는 본체의 앞부분의 상단면 또는 기타 위치에 설치될 수도 있으며 본체의 앞부분 또는 기타 위치에 설치될 경우, 관련되는 파라미터를 계산하는 경우 중앙에 설치된 카메라에 근거하여 관련 수치를 조절하면 된다. 본체의 내부에는 가속도기와 자이로스코프 등을 포함한 관성 센서가 설치되며 구동륜에는 구동륜의 주행 거리를 검측하기 위한 스피드 미터(일반적으로는 코드 휠이다)가 설치되어, 관련되는 센서의 파라미터를 처리할 수 있고 수행 부품에 제어 신호를 출력할 수 있는 제어수단이 더 설치된다.
본 발명에 따른 격자 지도에 기반한 로봇의 애완동물 감시 방법은 도 1에 도시한 바와 같이, 로봇이 구축한 격자 지도에 근거하여 로봇의 상기 격자 지도상의 현재 위치점과 이에 대응되는 셀을 결정하는 단계1; 로봇과 애완동물 몸체상의 무선신호장치가 수행한 무선 통신에 근거하여 애완동물과 로봇과의 상호 위치 관계를 결정하고 상호 위치 관계에 근거하여 애완동물의 현재 위치점과 이에 대응되는 셀을 결정하는 단계2; 로봇이 위치한 격자 셀과 애완동물이 위치한 격자 셀 사이에 있어서 로봇이 애완동물을 감시하는 카메라의 촬영 각도에 의하여 커버된 소정의 범위내의 격자 셀에 장애 셀이 존재하는 가를 판단하고 NO이면 애완동물을 향하도록 로봇의 카메라의 촬영 방향을 유지하고 단계2로 되돌아가며, YES이면 단계4로 진입하는 단계3; 애완동물이 위치한 격자 셀을 중심점으로 하는 소정의 영역을 결정하고 상기 소정의 영역중의 기통과 셀과 로봇과의 가까운 순서에 따른 거리 관계에 근거하여 기통과 셀을 하나하나씩 감시 후보 셀로 하고, 상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 존재하는 가를 판단하고 NO이면 상기 감시 후보 셀을 감시 셀로 결정하고 단계5로 진입하며, YES이면 그다음의 기통과 셀이 로봇까지의 거리가 가장 먼 셀인가를 판단하고 NO이면 단계4로 되돌아가고 YES이면 직접 그다음의 기통과 셀을 감시 셀로 결정하고 단계5로 진입하는 단계4; 현재 위치점으로부터 상기 감시 셀까지 보행하여 애완동물을 감시하도록 로봇을 제어하는 단계5를 포함한다. 여기서, 상기 격자 지도는 로봇이 보행중에 자체의 각종 센서에 의하여 검측된 데이터에 근거하여 구축한 격자 셀을 기본단위로 하는 지도이다. 상기 격자 셀은 설정된 길이와 폭을 가진 가상 격자로서 정방형으로 설치될 수도 있고 장방형으로 설치될 수도 있다. 바람직하게는, 본 발명에 따른 격자 셀은 변 길이가 0.2미터인 정방형 격자이다. 상기 무선신호장치로서 zigbee 통신수단, 초음파수단, 무선 통신수단, UWB(초 광대역)수단 또는 wifi수단 등을 이용할 수 있고 구체적으로는 제품의 수요에 따라 선택할 수 있다. 상기 소정의 범위도 제품의 수요에 따라 설정할 수 있는데, 바람직하게는 카메라의 촬영 각도에 의하여 커버된 범위 전체의 3분의 1로 설정한다. 상기 소정의 영역도 제품의 수요에 따라 설정할 수 있고, 바람직하게는 원형 영역, 사각형 영역 또는 규칙적인 다각형 영역 등으로 설치할 수 있고, 면적의 크기는 통상 2 내지 6평방미터의 범위내로 설정된다.
로봇은 보행중에 보행한적이 있는 셀을 기통과 셀과 표기하고 장애물이 검측되었을 때 대응되는 격자 셀을 장애 셀로 표기하며 낭떠러지가 검측되었을 때 대응되는 격자 셀을 낭떠러지 셀로 표기하는 등등을 수행하고 표기된 정보에 근거하여 격자 지도를 업데이트한다. 본 발명에 따른 방법에 의하면, 애완동물 몸체상의 무선신호장치와 로봇이 무선통신을 수행하여 애완동물과 로봇의 상호 위치 관계를 결정한 다음, 로봇과 애완동물이 격자 지도에서 위치하는 격자 셀 사이에 장애 셀이 존재하는 가를 판단하여 로봇과 애완동물 사이가 장애물에 의하여 차단되었는 가를 판단한다. 차단되지 않았으면 로봇의 현재 위치와 촬영 방향에서 애완동물을 유효하게 촬영할 수 있음을 표시하고 로봇의 현재 위치와 촬영 방향을 변경시킬 필요가 없고, 애완동물이 달리면 로봇은 본체를 회전시켜 카메라가 항상 애완동물 방향으로 향하도록 유지하고, 이러한 과정에 있어서 장애물에 의하여 차단되지 않으면 로봇은 기타 위치로 보행할 필요가 없다. 차단되었으면 로봇이 현재 위치에서 촬영하면 애완동물은 촬영되지 않고 장애물이 촬영될 가능성이 있으므로 로봇은 애완동물 주위의 격자 셀의 상태를 판단하여 감시 위치점을 다시 선택하여야 한다. 애완동물 주위의 소정의 영역내에 있어서 로봇과의 거리가 가까운 순서에 따라 기통과 셀을 하나하나씩 감시 후보 셀로 한 다음, 상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 존재하는가를 판단하고, 즉, 감시 후보 셀의 위치로부터 애완동물을 유효하게 감시할 수 있는 가를 분석한 결과, 장애물에 의하여 차단되지 않았으면 그 감시 후보 셀을 감시 셀로 결정하고 차단되었으면 그다음의 기통과 셀을 분석한다. 이러한 애완동물 주위의 소정의 영역내에 있어서 로봇과의 거리가 가까운 순서대로 기통과 셀을 하나하나씩 분석하는 방식에 의하면, 로봇이 가장 빠르게 도착할 수 있고 또한 애완동물을 유효하게 감시할 수 있는 위치점을 찾아내어 로봇이 애완동물을 감시하는 효율을 향상시킬 수 있다. 그리고 소정의 영역내에서 로봇과의 거리가 가장 먼 기통과 셀 외의 기타 기통과 셀과 애완동물과의 사이가 모두 장애물에 의하여 차단되었으면, 로봇과의 거리가 가장 먼 기통과 셀과 애완동물과의 사이에 장애물이 존재하는지와 상관없이 그것을 감시 셀로 한다. 이것은 통상 장애물의 분포에 특징이 있기 때문이고, 즉, 장애물은 통상 하나 또는 몇개의 영역에 집중되어 나타나고 한 영역에서 장애 셀이 검측되었으면 그 영역에 기타 장애 셀이 더 존재할 가능성이 있고, 로봇이 현재 위치에서 장애물을 검측하였을 경우, 일정한 범위내에서 현재 위치로부터 먼 영역일수록 장애 셀이 있을 확율이 낮으므로 소정의 영역내에서 로봇과의 거리가 가장 먼 기통과 셀을 감시 셀로 함으로써 로봇이 상대적으로 비어 있는 영역에 처하게 되어 애완동물의 위치가 변화될 경우 인접한 장애물의 간섭을 받지 않고 감시 위치 또는 감시 각도를 진일보로 간단하게 조절할 수 있어 감시 효율을 향상시킨다. 상술한 바와 같이, 본 발명에 따른 방법에 의하면, 이러한 격자 지도와 결합하여 애완동물을 감시하는 방식을 이용하여, 더욱 좋은 감시 위치를 찾아내도록 로봇을 제어할 수 있고 장애물에 의하여 차단되어 감시 효과에 영향을 미치는 문제를 피면하여 애완동물을 감시하는 효과를 향상시킨다.
바람직하게는, 단계1에 기재된 로봇이 구축한 격자 지도에 근거하여 로봇의 상기 격자 지도상의 현재 위치점과 이에 대응되는 격자 셀을 결정하는 단계는, 로봇이 보행과정에 검측한 데이터에 근거하여 (X0, Y0)을 원점으로 하는 XY축 좌표계에 기반한 격자 지도를 구축하는 단계; 상기 격자 지도중의 격자 셀의 변 길이를 L로 하는 단계; 로봇 자체의 측위 데이터에 근거하여 로봇의 현재 위치점의 좌표를 (X1, Y1)로 하면, 현재 위치점에 대응되는 셀의 격자 좌표는 (S11, S12)이고, S11=(X1-X0)/L, S12=(Y1-Y0)/L인 단계를 포함하고, 여기서 S11과 S12에 정수부분을 취한다. 로봇이 보행중에 자체의 스피드 미터와 자이로스코프 등 센서를 통해 검측된 데이터에 근거하여 보행한적이 있는 경로를 기록하고 자체가 위치하는 위치와 방향(즉, 측위 데이터)을 실시간으로 결정한다. 그리고 격자 지도는 격자 셀을 기본단위로 하여 구성되는 것으로 각 격자 셀에는 모두 다수개의 위치점이 포함되고 로봇의 보행은 위치점의 형태로 수행되고, 즉 현재 위치점으로부터 인접한 그다음의 위치점으로 이동한다. 따라서 로봇이 현재 위치하는 격자 셀의 좌표를 결정할 경우, 현재 위치점의 좌표를 격자 셀의 좌표로 변환시켜야 하고, 도 2에 도시한 바와 같이, 각 작은 격자는 하나의 격자 셀을 표시하고 변 길이는 L=0.2미터이며 좌표 원점P의 좌표는 (X0=0, Y0=0)이고 P점의 오른쪽 상부 격자 셀의 격자 좌표를 (0, 0)로 설정한다. 로봇이 D 위치점에 위치할 경우, 좌표가 (0.5, 0.3)로 검측되면, 계산되는 로봇이 위치한 격자 셀의 격자 좌표는 (S11=((0.5-0)/0.2), S12=((0.3-0)/0.2))이고 즉 (S11=2.5, S12=1.5)이고 정수부분을 취하면 (S11=2, S12=1)이므로, 로봇이 D 위치점에 위치한 경우 대응되는 격자 셀의 격자 좌표는 (2, 1)이다. 본 실시예에 따른 방법에 의하면, 동일한 좌표계에 있어서 현재 위치점과 좌표 원점의 위치 관계와 격자 셀의 변 길이에 근거하여 현재 위치점에 대응되는 격자 셀의 격자 좌표를 정확하게 산출하여 후속되는 데이터 처리를 위하여 확실한 데이터를 제공하고 데이터 분석의 정확성을 향상시킬 수 있다.
바람직하게는, 단계2에 기재된 로봇과 애완동물 몸체상의 무선신호장치가 수행한 무선 통신에 근거하여 애완동물과 로봇과의 상호 위치 관계를 결정하고 상호 위치 관계에 근거하여 애완동물의 현재 위치점과 이에 대응되는 격자 셀을 결정하는 단계는, 로봇 본체상의 제1 UWB 측위 기지국과 제2 UWB 측위 기지국 사이의 거리를 W로 하는 단계; 상기 제1 UWB 측위 기지국의 좌표를 (X11, Y11)로 하고 상기 제2 UWB 측위 기지국의 좌표를 (X12, Y12)로 하는 단계; 상기 제1 UWB 측위 기지국 및 상기 제2 UWB 측위 기지국과 애완동물 몸체상의 UWB 측위 라벨과의 무선 통신에 근거하여 상기 UWB 측위 라벨로부터 상기 제1 UWB 측위 기지국까지의 제1 거리를 R1로 하고 상기 UWB 측위 라벨로부터 상기 제2 UWB 측위 기지국까지의 제2 거리를 R2로 하는 단계; 상기 제1 UWB 측위 기지국을 꼭지점으로 하여 각각 상기 제2 UWB 측위 기지국과 상기 UWB 측위 라벨을 향하는 선으로 구성되는 각도를 제1 각도로 하고 제1 각도α1가 α1=arccos((W²+R2²-R1²)/(2*W*R2))인 단계; 상기 제2 UWB 측위 기지국을 꼭지점으로 하여 각각 상기 제1 UWB 측위 기지국과 상기 UWB 측위 라벨을 향하는 선으로 구성되는 각도를 제2 각도로 하고 또한 제2 각도α2가 α2=arccos((W²+R1²-R2²)/(2*W*R1))인 단계; 상기 UWB 측위 라벨의 현재 위치점의 좌표를 (Xc, Yc)로 하고, Xc=X12+R2*cos(180°-α1-arccos((X12-X11)/W)), Yc=Y11+R1*cos(180°-α2-arcsin((X12-X11)/W))인 단계; 상기 UWB 측위 라벨의 현재 위치점에 대응되는 격자 셀의 격자 좌표를 (S21, S22)로 하고, S21=(Xc-X0)/L, S22=(Yc-Y0)/L인 단계를 포함하고, 여기서, S21과 S22는 정수부분을 취한다. 여기서, UWB(Ultra Wideband: 초광대역)은 초광대역 무담체 통신 기술이고, UWB 측위 라벨과 UWB 측위 기지국은 UWB 통신 기술을 이용하는 통신 장치이다. 도 3에 도시한 바와 같이 A가 제1 UWB 측위 기지국이고 B가 제2 UWB 측위 기지국이며 C가 UWB 측위 라벨이다. 제1 UWB 측위 기지국과 제2 UWB 측위 기지국은 모두 로봇의 본체상에 장착되고 UWB 측위 라벨은 애완동물 몸체상에 착용된다. 제1 UWB 측위 기지국과 제2 UWB 측위 기지국 사이의 거리는 로봇을 설계하고 생산시 이미 결정된 것이므로 양자 사이의 거리는 기지사항이고 즉, AB=W이고, 또한 관련 데이터는 이미 시스템에 기록되어 있다. 여기서, W의 값의 크기는 구체적인 제품의 디자인에 따라 설정할 수 있지만, W의 값은 로봇 본체의 직경미만이여야 한다. 그리고 제1 UWB 측위 기지국과 UWB 측위 라벨의 거리 AC=R1 및 제2 UWB 측위 기지국과 UWB 측위 라벨의 거리 BC=R2를 측정하여 삼각형의 3개 변의 길이로부터 제1 각도(∠ABC)의 크기인 α1=arccos((W²+R2²-R1²)/(2*W*R2))를 구할 수 있고, 이와 동일하게 제2 각도(∠CAB)의 크기인 α2=arccos((W²+R1²-R2²)/(2*W*R1))를 구할 수 있다. 로봇이 스피드 미터와 자이로스코프 등 센서의 검측 데이터에 의하여 자체의 좌표 위치(즉, 로봇의 중심점의 좌표)를 결정할 수 있으므로 로봇 본체상의 중심점 위치에 대하여 고정된 두 UWB 측위 기지국의 좌표 값도 결정할 수 있고, 즉, 제1 UWB 측위 기지국의 좌표가 (X11, Y11)이고 제2 UWB 측위 기지국의 좌표가 (X12, Y12)이며, 후술한 실시예에서 구체적인 계산 방식을 설명한다. 도면에 도시한 바와 같이 C점의 X축 좌표를 결정하려면, c11 또는 c21의 길이가 필요하지만, c11=R1*sina2이고 c21=R2*cosb2이며 ∠a2=180°-α2-∠a1, ∠b2=180°-α1-∠b1, ∠a1=arcsin((X12-X11)/W), ∠b1=arccos((X12-X11)/W)이고, 상기와 같이 α1과 α2의 각도를 이미 구했으므로, c11=R1*sin(180°-α2-arcsin((X12-X11)/W)), c21=R2*cos(180°-α1-arcsin((Y11-Y12)/W))를 구하면 애완동물 C점의 X축 좌표는 Xc=X12+c21=X12+R2*cos(180°-α1-arccos((X12-X11)/W)) 또는 Xc=X11+c11=X11+R1*sin(180°-α2-arcsin((X12-X11)/W))이다. 이와 동일하게 C점의 Y축 좌표를 결정하려면, c12 또는 c22의 길이가 필요하지만 c12=R1*cosa2이고 c22=R2*sinb2이며 ∠a2=180°-α2-∠a1, ∠b2=180°-α1-∠b1, ∠a1=arcsin((X12-X11)/W), ∠b1=arccos((X12-X11)/W)이고, 상기와 같이 α1과 α2의 각도를 이미 구했으므로 c12=R1*cos(180°-α2-arcsin((X12-X11)/W)), c22=R2*sin(180°-α1-arccos((X12-X11)/W))를 구할 수 있다. 이러한 경우, 애완동물 C점의 Y축 좌표는 Yc=Y11+c12=Y11+R1*cos(180°-α2-arcsin((X12-X11)/W)) 또는 Yc=Y12+c22=Y12+R2*sin(180°-α1-arccos((X12-X11)/W))이다. UWB 측위 라벨의 현재 위치점의 좌표를 (Xc, Yc)로 한 다음, 상기 실시예에 따른 형태에 따라 UWB 측위 라벨의 현재 위치점에 대응되는 격자 셀의 격자 좌표(S21, S22)를 계산하고 즉, S21=(Xc-X0)/L, S22=(Yc-Y0)/L이고 S21과 S22는 정수부분을 취한다. 본 실시예에 따른 방법은 애완동물에 착용된 UWB 측위 라벨의 높이가 로봇의 UWB 측위 기지국의 높이에 일치하거나(즉, 3개 통신 장치가 동일한 수평면에 위치한다) 또는 차이가 작은 상황에 적용된다. 로봇과 애완동물의 위치가 변화하였을 경우, 검측된 변화 파라미터를 대입하면 애완동물의 위치점에 대응되는 격자 좌표를 바로 얻을 수 있어 데이터 처리 속도가 빠르고 출력 결과가 정확하다. 그리고 UWB 측위 라벨의 높이와 UWB 측위 기지국의 높이의 차이가 크면 로봇의 본체에 제3 UWB 측위 기지국을 설치하여 높이 파라미터를 도입함으로써, UWB 측위 라벨의 3차원 좌표를 결정하여 대응되는 격자 좌표를 결정하여야 하며, 그 구체적인 실시형태가 본 실시예와 원리가 동일하므로 여기서는 상세한 설명을 생략한다. 이러한 UWB 통신 기술에 의하여 애완동물의 측위를 수행하는 형태에 의하면 기존의 기타 측위 방식에 비하여 측위 범위가 더 넓고 정확성을 진일보로 향상시키고 안전성이 더 우수하다.
바람직하게는, 상기 로봇 본체상의 제1 UWB 측위 기지국의 좌표를 (X11, Y11)로 하고 제2 UWB 측위 기지국의 좌표를 (X12, Y12)로 하는 단계는, 로봇 본체의 중심점의 좌표를 로봇의 현재 위치점의 좌표로 하고 또한 좌표를 (X1, Y1)로 하는 단계; 로봇 본체의 중심점이 상기 제1 UWB 측위 기지국과 상기 제2 UWB 측위 기지국의 연결선의 중점에 있도록 하는 단계; 상기 제1 UWB 측위 기지국과 상기 제2 UWB 측위 기지국 사이의 거리를 W로 하면 로봇 본체의 중심점으로부터 상기 제1 UWB 측위 기지국까지의 거리가 W/2이고 로봇 본체의 중심점으로부터 상기 제2 UWB 측위 기지국까지의 거리가 W/2이라고 하는 단계; 로봇의 자이로스코프에 의하여 검측된 로봇의 현재 방향을 α로 하는 단계; 로봇 본체상의 제1 UWB 측위 기지국의 좌표를 (X11, Y11)로 하고 X11=X1-((W*cosα)/2), Y11=Y1+((W*sinα)/2)로 하는 단계; 로봇 본체상의 제2 UWB 측위 기지국의 좌표를 (X12, Y12)로 하고 X12=X1+((W*cosα)/2), Y12=Y1-((W*sinα)/2)로 하는 단계를 포함한다. 도 4에 도시한 바와 같이 제1 UWB 측위 기지국A와 제2 UWB 측위 기지국B는 각각 로봇의 본체의 양단에 설치되고 AB 사이의 연결선이 마침 로봇의 중심점G를 통과하고 AG=BG=W/2이다. G점의 좌표가 (X1, Y1)이고 로봇의 현재 방향의 각도가 α이며, 도면에 있어서 G점을 통과하고 화살표가 달린 직선이 로봇의 현재 방향을 표시하고 그 직선이 AB선과 직각으로 교차되므로 ∠a=∠b=∠α이다. 제1 UWB 측위 기지국의 X축 좌표인 X11를 구할 경우, 우선 X11과 X1 사이의 거리를 구하여야 하고, 즉 X1-X11=AG*cosa=(W*cosα)/2이고 X11=X1-((W*cosα)/2)이다. 제1 UWB 측위 기지국의 Y축 좌표인 Y11를 구할 경우, 우선 Y11과 Y1 사이의 거리를 구하여야 하고, 즉 Y11-Y1=AG*sina=(W*sinα)/2이고 Y11=Y1+((W*sinα)/2)이다. 이와 동일하게 제2 UWB 측위 기지국의 X축 좌표인 X12를 구할 경우, 우선 X12와 X1 사이의 거리를 구하여야 하고, 즉 X12-X1=BG*cosb=W*cosα/2이고 X12=X1+((W*cosα)/2)이다. Y1과 Y12 사이의 거리가 Y1-Y12=GB*sinb=W*sinα/2이고 Y12=Y1-((W*sinα)/2)이다. 본 실시예에 따른 제1 UWB 측위 기지국과 제2 UWB 측위 기지국의 좌표를 결정하는 방법에 의하면, 기지국이 로봇 본체상에서 중심점에 대하여 상호 대칭하도록 관계를 한정함으로써 두 기지국의 좌표를 결정하는 알고리즘을 간소화하여 시스템의 데이터 처리 속도를 높이고 두 기지국의 좌표 값을 빠르고 정확하게 얻을수 있어서, 후속되는 기타 데이터 처리를 위하여 더 빠르게 참조 의거를 제공할 수 있다. 이와 동일하게, 3개 기지국이 설치되는 경우 세번째 기지국을 AB의 수직이등분선에 설치하면 알고리즘을 간소화하여 시스템의 데이터 처리 속도를 높일 수 있고, 그 구체적인 실시형태는 본 실시예와 원리가 같으므로 여기서는 상세한 설명을 생략한다.
바람직하게는, 상기 UWB 측위 라벨로부터 상기 제1 UWB 측위 기지국까지의 제1 거리를 R1로 하고 상기 UWB 측위 라벨로부터 상기 제2 UWB 측위 기지국까지의 제2 거리를 R2로 하는 단계는, 전파의 전파 속도를 c로 하는 단계; 상기 제1 UWB 측위 기지국이 상기 UWB 측위 라벨로 거리 측정 데이터를 송신한 후부터 상기 UWB 측위 라벨의 확인 신호를 수신할 때까지의 시간을 T11로 하는 단계; 상기 UWB 측위 라벨이 상기 제1 UWB 측위 기지국으로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T12로 하는 단계; 상기 UWB 측위 라벨이 상기 제1 UWB 측위 기지국으로 거리 측정 데이터를 송신한 후부터 상기 제1 UWB 측위 기지국의 확인 신호를 수신할 때까지의 시간을 T13로 하는 단계; 상기 제1 UWB 측위 기지국이 상기 UWB 측위 라벨로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T14로 하는 단계; 상기 UWB 측위 라벨로부터 상기 제1 UWB 측위 기지국까지의 제1 거리를 R1로 하고 R1=c*(T11-T12+T13-T14)/4로 하는 단계; 상기 제2 UWB 측위 기지국이 상기 UWB 측위 라벨로 거리 측정 데이터를 송신한 후부터 상기 UWB 측위 라벨의 확인 신호를 수신할 때까지의 시간을 T21로 하는 단계; 상기 UWB 측위 라벨이 상기 제2 UWB 측위 기지국으로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T22로 하는 단계; 상기 UWB 측위 라벨이 상기 제2 UWB 측위 기지국으로 거리 측정 데이터를 송신한 후부터 상기 제2 UWB 측위 기지국의 확인 신호를 수신할 때까지의 시간을 T23로 하는 단계; 상기 제2 UWB 측위 기지국이 상기 UWB 측위 라벨로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T24로 하는 단계; 상기 UWB 측위 라벨로부터 상기 제2 UWB 측위 기지국까지의 제2 거리를 R2로 하고 R2=c*(T21-T22+T23-T24)/4로 하는 단계를 포함한다. 도 5에 도시한 바와 같이 제1 UWB 측위 기지국A는 시각 t1에서 UWB 측위 라벨C로 거리 측정 데이터를 송신하고 UWB 측위 라벨C는 시각 t2에서 거리 측정 데이터를 수신하여 시각 t3에서 확인 신호를 송신하고 제1 UWB 측위 기지국A는 시각 t4에서 그 확인 신호를 수신하였다. 이때, 제1 UWB 측위 기지국A가 거리 측정 데이터를 송신한 후부터 확인 신호를 수신할 때까지 필요한 시간은 T1=t4-t1이고 UWB 측위 라벨C가 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지 필요한 시간은 T2=t3-t2이며, 이로부터 제1 UWB 측위 기지국A와 UWB 측위 라벨C 사이에서 왕복 통신을 한번 수행시 신호 전송 시간이 T1-T2=t4-t1-t3+t2임을 알 수 있다. 이와 동일하게 UWB 측위 라벨C는 시각 t5에서 제1 UWB 측위 기지국A로 거리 측정 데이터를 송신하고 제1 UWB 측위 기지국A는 시각 t6에서 거리 측정 데이터를 수신하고 시각 t7에서 확인 신호를 송신하며 UWB 측위 라벨C는 시각 t8에서 그 확인 신호를 수신하였다. 이때, UWB 측위 라벨C가 거리 측정 데이터를 송신한 후부터 확인 신호를 수신할 때까지 필요한 시간은 T3=t8-t5이고 제1 UWB 측위 기지국A가 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지 필요한 시간은 T4=t7-t6이며 이로부터 UWB 측위 라벨C와 제1 UWB 측위 기지국A 사이에서 왕복 통신을 한번 수행시 신호 전송 시간이 T3-T4=t8-t5-t7+t6임을 알 수 있다. 데이터의 정확도를 확보하기 위하여, 신호가 UWB 측위 라벨C와 제1 UWB 측위 기지국A 사이에서 한번 전송되는데 필요한 시간을 (T1-T2+T3-T4)의 4분의 1로 한다. 데이터 신호의 전송 속도가 전파의 전송 속도c와 동일하므로 거리=속도 * 시간에 의하여 UWB 측위 라벨로부터 제1 UWB 측위 기지국까지의 제1 거리R1=c*(T11-T12+T13-T14)/4를 얻을 수 있다. 이와 동일하게, UWB 측위 라벨로부터 제2 UWB 측위 기지국까지의 제2 거리를 R2로 하고 R2=c*(T21-T22+T23-T24)/4이고, 그 구체적인 실시형태는 본 실시예와 유사하므로 여기서는 상세한 설명을 생략한다. 본 실시예에 따른 기지국으로부터 측위 라벨까지의 거리를 측정하는 방법에 의하면, 데이터 신호의 전송 시간의 평균값을 사용함으로써 더 정확한 전송 시간을 얻을 수 있고 더 정확한 거리 측정 결과를 얻을 수 있으며, 그다음의 애완동물의 위치 결정을 위하여 더 확실한 참조 의거를 제공하여 더욱 우수한 애완동물 감시 효과를 확보할 수 있다.
바람직하게는, 단계3에 기재된 로봇이 위치한 격자 셀과 애완동물이 위치한 격자 셀 사이에 있어서 로봇이 애완동물을 감시하는 카메라의 촬영 각도에 의하여 커버된 소정의 범위내의 격자 셀에 장애 셀이 존재하는 가를 판단하는 단계는, 로봇의 애완동물을 감시하는 카메라가 애완동물을 향하는 방향을 촬영 방향으로 결정하는 단계; 상기 촬영 방향에 따라 카메라의 촬영 각도가 상기 격자 지도에서 커버하는 촬영 영역을 결정하는 단계; 카메라를 꼭지점으로 하여 외부로 연장되는 제1 변과 제2 변으로 구성되는 각도 범위의 상기 격자 지도상의 커버 영역에 대응되는 격자 셀을 결정하고 상기 커버 영역에 대응되는 격자 셀에 장애 셀이 존재하는 가를 분석하는 단계를 포함한다. 여기서, 상기 커버 영역은 상기 촬영 영역미만이며 상기 촬영 영역내에 위치한다. 도 6에 도시한 바와 같이 도면에서 하나의 작은 격자가 하나의 격자 셀을 표시하고, X가 표기된 격자는 그 격자가 장애 셀임을 나타내고, 표기되지 않았거나 또는 기타 문자가 표기된 격자는 그 격자가 기통과 셀임을 나타낸다. G점은 로봇이 위치하는 위치점이고 즉, 카메라의 위치이고 C점은 애완동물이 위치하는 위치점이다. GZ는 촬영 방향이고 GB1과 GB2의 두 선으로 구성되는 각도는 촬영 각도이며 GZ는 상기 촬영 각도의 이등분선이다. GU1이 제1 변이고 GU2가 제2 변이며 GU1과 GU2의 두 선으로 구성되는 각도내의 격자 셀에 장애 셀이 존재하는 가를 분석하고 즉, ∠U1GU2 범위내의 격자에 X가 표기된 격자가 있는가를 판단한 결과, 있으면 장애 셀이 있음을 나타내고 없으면 장애 셀이 존재하지 않음을 나타낸다. 도면에 도시된 ∠U1GU2 범위내에는 장애 셀이 없고 로봇은 애완동물을 정상적으로 촬영할 수 있다. ∠U1GU2 범위내에 X 격자가 있다고 가정하면 로봇의 카메라가 장애물에 의하여 차단되거나 또는 촬영된 애완동물이 장애물에 너무 가까워 촬영 효과에 영향을 미칠 가능성이 있음을 나타내므로 기타 각도로 변환하여 애완동물을 촬영하여야 한다. 본 실시예에 따른 방법에 의하면, 격자 지도와 결합하여 두 위치점 사이에 장애 셀이 있는가를 판단하여 로봇과 애완동물 사이가 장애물에 의하여 차단되었는가를 결정하며 이러한 방식에 의하면 로봇의 기존의 데이터를 충분히 활용하여 판단 과정이 간단하고 실용적이며 효과가 현저하다.
바람직하게는, 단계4에 기재된 애완동물이 위치한 셀을 중심점으로 하는 소정의 영역을 결정하고 상기 소정의 영역중의 기통과 셀과 로봇과의 가까운 순서에 따른 거리 관계에 근거하여 기통과 셀을 하나하나씩 감시 후보 셀로 하는 단계는, 애완동물이 위치한 격자 셀의 중심을 원심으로 하고 소정의 길이를 반경으로 하는 원형 영역을 결정하는 단계; 상기 원형 영역에서 로봇과의 거리가 가장 가까운 기통과 셀을 감시 후보 셀로 결정하는 단계; 상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 있고 상기 원형 영역에서 로봇과의 거리가 두번째로 가까운 기통과 셀이 로봇과의 거리가 가장 먼 셀이 아니면, 상기 원형 영역에서 로봇과의 거리가 두번째로 가까운 기통과 셀을 감시 후보 셀로 결정하는 단계; 상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 있고 상기 원형 영역에서 로봇과의 거리가 세번째로 가까운 기통과 셀이 로봇과의 거리가 가장 먼 셀이 아니면, 상기 원형 영역에서 로봇과의 거리가 세번째로 가까운 기통과 셀을 감시 후보 셀로 결정하는 단계; 로봇이 상기 원형 영역중의 로봇과의 거리가 두번째로 먼 기통과 셀을 감시 후보 셀로 할 때까지, 이와 같이 계속하여 결정하는 단계를 포함한다. 도 7에 도시한 바와 같이, 도면에서 하나의 작은 격자가 하나의 격자 셀을 나타내고 X가 표기된 격자는 그 격자가 장애 셀임을 나타내고 표기되지 않았거나 또는 기타 문자가 표기된 격자는 그 격자가 기통과 셀임을 나타낸다. G점은 로봇이 위치하는 위치점이고, 즉 카메라의 위치이고 C점은 애완동물이 위치하는 위치점이다. GZ는 촬영 방향이고 GU1이 제1 변이며 GU2가 제2 변이다. ∠U1GU2 범위내에 장애 셀(즉, X가 표기된 격자)이 있으므로 로봇의 촬영이 장애물에 의하여 차단될 가능성이 있고 따라서 로봇은 촬영 위치를 조절하여야 한다. 우선 C점이 위치하는 격자 셀의 중심을 원심으로 하고 소정의 길이를 반경으로 하는 원을 그리면 그 원내의 범위가 상기 소정 영역으로 된다. 여기서, 상기 소정의 길이는 구체적인 설계 수요에 따라 설정할 수 있고, 바람직하게는 1미터 내지 2미터의 범위내의 어느 한 값으로 설정할 수 있고 본 실시예에 있어서는 1.5미터로 하였다. 다만, 도 7에 도시한 원형 영역은 예시적인 것으로 도면중의 격자 셀의 길이에 의하여 원형의 반경 또는 직경을 측정하여서는 안되고, 그리고 한 격자 셀이 원형 영역에 일부만 포함되었을 경우 그 격자 셀도 원형 영역의 범위내에 속한 것으로 한다. 도면에 있어서 격자 셀S1이 원형 영역내에서 로봇과의 거리가 가장 먼 기통과 셀이므로 우선 그것을 감시 후보 셀로 하고 S1과 C 사이의 직선 격자 경로(즉, S1과 C를 연결하는 직선이 통과하는 격자 셀로 구성되는 경로)에 X가 표기된 장애 셀이 있으므로 S1을 감시 셀로 결정할 수 없다. 이어서, 로봇과의 거리가 두번째로 가까운 기통과 셀S2를 분석하고 S2가 원형 영역에서 로봇과의 거리가 가장 먼 기통과 셀이 아니므로 로봇과의 거리가 두번째로 가까운 기통과 셀S2를 감시 후보 셀로 하고 S2와 C 사이의 직선 격자 경로에 X가 표기된 장애 셀이 없으므로, 즉 로봇이 애완동물을 촬영하는 것을 차단하는 장애물이 없으므로 S2를 감시 셀로 결정하고 로봇을 기통과 셀S2로 안내하여 애완동물을 감시하도록 한다. S2와 C의 직선 격자 경로에도 장애 셀이 있으면 계속하여 로봇과의 거리가 세번째로 가까운 기통과 셀S3을 분석하고 그 방법은 상기와 동일하므로 상세한 설명을 생략한다. 원형 영역중의 S10 외의 모든 기통과 셀과 로봇과의 사이의 직선 격자 경로에 모두 장애 셀이 있으면 애완동물이 장애물에 의하여 둘러싸인 위치(예를 들어, 소파위, 커피 테이블위 또는 침대위)에 위치함을 나타내고, 이때에는 소정의 영역에 있어서 기통과 셀과 애완동물 사이의 장애 셀을 고려할 필요가 없고 애완동물의 위치로부터 멀리 떨어져 있고 로봇의 현재 위치로부터 멀리 떨어진 위치점을 고려하여야 하므로, 직접 로봇과의 거리가 가장 먼 기통과 셀S10을 감시 셀로 하고 로봇을 그 감시 셀로 안내하여 애완동물을 감시하도록 한다. 이러한 애완동물 주위의 소정의 영역내에 있어서 로봇과의 거리가 가까운 순서대로 기통과 셀을 하나하나씩 분석하는 방식에 의하면, 로봇이 가장 빠르게 도착할 수 있고 또한 애완동물을 유효하게 감시할 수 있는 위치점을 찾아내어 로봇이 애완동물을 감시하는 효율을 향상시킬 수 있다.
바람직하게는, 단계5에 기재된 현재 위치점으로부터 상기 감시 셀까지 보행하여 애완동물을 감시하도록 로봇을 제어하는 단계는, 로봇의 현재 위치점을 시작점으로 하여 상기 감시 셀이 위치한 방향으로 격자 지도를 검색하는 단계; 로봇의 현재 위치점과 상기 감시 셀의 중심점 사이에 있어서 기통과 셀에 의하여 직접 연통된 격자 경로중의 경로 길이가 가장 짧은 격자 경로를 안내 격자 경로로 하는 단계; 안내 격자 경로중의 격자 셀의 중심점을 안내 위치점으로 하고 상기 안내 위치점을 연결하여 안내 경로를 구성하는 단계; 현재 위치점으로부터 상기 안내 경로에 따라 상기 감시 위치점까지 보행하도록 로봇을 제어하는 단계; 상기 로봇의 카메라의 촬영 방향을 애완동물이 위치한 방향에 맞추도록 로봇의 방향을 조절하는 단계를 포함한다. 도 8에 도시한 바와 같이 로봇이 G점으로부터 감시 셀S2까지 보행하려면 우선 보행 경로를 검색하여야 하고, 도면에 있어서 X가 표기된 격자는 그 격자가 장애 셀임을 나타내고 표기되지 않았거나 또는 기타 문자가 표기된 격자는 그 격자가 기통과 셀임을 나타낸다. 우선, 로봇의 현재 위치점인 G점을 시작점으로 하고 상기 감시 셀이 위치한 방향으로 격자 지도의 검색을 수행한다. 여기서 감시 셀이 위치한 방향으로 검색을 수행한다는 것은 감시 셀을 향한 직선 방향에서의 검색에 한정되지 않고 그 방향을 전체적인 검색 추세로 하여 G점으로부터 시작하여 격자 셀을 G점으로부터 사방으로 하나하나씩 검색하고 그리고 사방으로부터 감시 셀로 축소되는 방향에서 각 셀을 검색한다. 그다음, 두개의 격자 경로를 검색하는데 첫번째는 감시 셀의 좌측 하부로부터 감시 셀에 연결되는 것이고 두번째는 감시 셀의 우측 상부로부터 감시 셀에 연결되는 것이며 이 두개의 격자 경로는 장애 셀에 의하여 분리된다. 첫번째 격자 경로의 길이가 두번째 격자 경로보다 작으므로 첫번째 격자 경로를 안내 격자 경로로 한다. 첫번째 격자 경로중의 격자 셀의 중심점을 안내 위치점으로 하고 상기 안내 위치점을 연결하여 안내 경로를 구성하고 즉, L1로 나타낸 점선이다(L2로 나타낸 점선은 두번째 격자 경로의 노선이다). 이어서, G점으로부터 시작하여 L1 노선에 따라 감시 셀S2의 중심점(즉, 감시 위치점)까지 보행하도록 로봇을 제어한다. 마지막으로, 로봇의 카메라의 촬영 방향이 C점 방향(즉, 애완동물이 위치하는 방향)을 향하도록 원곳에서 로봇의 본체를 회전시킨다. 본 실시예에 따른 방법에 의하면, 감시 셀이 위치한 방향으로 격자 지도의 검색을 수행함으로써 감시 셀에 도착할 수 있는 격자 경로는 어떤 것이 있는가를 신속하게 결정할 수 있다. 그리고 각 경로의 길이를 분석하여 가장 가까운 경로를 안내 경로로 함으로써 로봇이 감시 셀에 도착하는 시간을 단축시키고, 마지막으로 격자 셀의 중심점을 안내 위치점으로 하고 각 안내 위치점을 연결하여 구성한 안내 경로가 감시 위치점에 도착하는 최적의 안내 경로이고 로봇이 그 안내 경로에 따라 보행함으로써 목적지에 도착하는 시간을 단축시킬 뿐만 아니라 보행중에 장애물에 부딪칠 위험을 낮추며 로봇이 감시 위치점에 도착하는 효율을 향상시킬 수 있다. 바람직하게는, 본 실시예에서 도시되는 격자 셀의 변의 길이가 로봇의 본체의 직경과 동일하다.
본 발명에 따른 칩은 프로그램을 기억하는 칩이고 상기 프로그램은 상술한 격자 지도에 기반한 로봇의 애완동물 감시 방법을 수행하도록 로봇을 제어한다. 로봇의 본체에 상기 칩이 장착됨으로써 로봇이 애완동물 몸체상의 무선신호장치와 로봇과의 무선 통신에 근거하여 애완동물과 로봇의 상호 위치 관계를 결정한 다음, 로봇과 애완동물이 격자 지도에서 위치하는 격자 셀 사이에 장애 셀이 존재하는 가를 판단하여 로봇과 애완동물 사이가 장애물에 의하여 차단되었는 가를 판단한다. 차단되지 않았으면 로봇의 현재 위치와 촬영 방향에서 애완동물을 유효하게 촬영할 수 있음을 표시하고 로봇의 현재 위치와 촬영 방향을 변경시킬 필요가 없고, 애완동물이 달리면 로봇은 본체를 회전시켜 카메라가 항상 애완동물의 방향으로 향하도록 유지하고 이 과정에 있어서 장애물에 의하여 차단되지 않으면 로봇은 기타 위치로 보행할 필요가 없다. 차단되었으면 로봇이 현재 위치에서 촬영하면 애완동물은 촬영되지 않고 장애물이 촬영될 가능성이 있으므로 로봇은 애완동물 주위의 격자 셀의 상태를 판단하여 감시 위치점을 다시 선택하여야 한다. 애완동물 주위의 소정의 영역내에 있어서 로봇과의 거리가 가까운 순서에 따라 기통과 셀을 하나하나씩 감시 후보 셀로 한 다음 상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 존재하는 가를 판단하고 즉, 감시 후보 셀의 위치로부터 애완동물을 유효하게 감시할 수 있는가를 분석한 결과, 장애물에 의하여 차단되지 않았으면 그 감시 후보 셀을 감시 셀로 결정하고 차단되었으면 그다음의 기통과 셀을 분석한다. 이러한 애완동물 주위의 소정의 영역내에 있어서 로봇과의 거리가 가까운 순서대로 기통과 셀을 하나하나씩 분석하는 방식에 의하면, 로봇이 가장 빠르게 도착할 수 있고 또한 애완동물을 유효하게 감시할 수 있는 위치점을 찾아내어 로봇이 애완동물을 감시하는 효율을 향상시킬 수 있다. 그리고 소정의 영역내에서 로봇과의 거리가 가장 먼 기통과 셀 외의 기타 기통과 셀과 애완동물 사이가 모두 장애물에 의하여 차단되었으면 로봇과의 거리가 가장 먼 기통과 셀과 애완동물과의 사이에 장애물이 존재하는지와 상관없이 그것을 감시 셀로 한다. 이것은 통상 장애물의 분포에 특징이 있기 때문이고, 즉, 장애물은 통상 하나 또는 몇개의 영역에 집중되어 나타나고 한 영역에서 장애 셀이 검측되었으면 그 영역에 기타 장애 셀이 더 존재할 가능성이 있고 로봇이 현재 위치에서 장애물을 검측하면, 일정한 범위내에서 현재 위치로부터 먼 영역일수록 장애 셀이 있을 확율이 낮으므로 소정의 영역내에서 로봇과의 거리가 가장 먼 기통과 셀을 감시 셀로 함으로써 로봇이 상대적으로 비어 있는 영역에 처하게 되어 애완동물의 위치가 변화될 경우 인접한 장애물의 간섭을 받지 않고 감시 위치 또는 감시 각도를 진일보로 간단하게 조절할 수 있고 감시 효율을 향상시킨다. 상술한 바와 같이, 본 발명에 따른 칩에 의하면, 이러한 격자 지도와 결합하여 애완동물을 감시하는 방식을 이용하여 더욱 좋은 감시 위치를 찾아내도록 로봇을 제어할 수 있고 장애물에 의하여 차단되어 감시 효과에 영향을 미치는 문제를 피면하며 애완동물을 감시하는 효과를 향상시킨다.
상술한 실시예는 본 발명을 한정하기 위한 것이 아니라 본 발명을 충분히 개시하기 위한 것이고 본 발명의 창조적 요지에 기반한 창조적 노동이 필요없이 얻은 동등한 기술적 특징의 대체는 본 출원의 개시 범위에 포함된다.

Claims (10)

  1. 로봇이 구축한 격자 지도에 근거하여 로봇의 상기 격자 지도상의 현재 위치점과 이에 대응되는 격자 셀을 결정하는 단계1;
    로봇과 애완동물 몸체상의 무선신호장치가 수행한 무선 통신에 근거하여 애완동물과 로봇과의 상호 위치 관계를 결정하고 상호 위치 관계에 근거하여 애완동물의 현재 위치점과 이에 대응되는 격자 셀을 결정하는 단계2;
    로봇이 위치한 격자 셀과 애완동물이 위치한 격자 셀 사이에 있어서 로봇이 애완동물을 감시하는 카메라의 촬영 각도에 의하여 커버된 소정의 범위내의 격자 셀에 장애 셀이 존재하는 가를 판단하여,
    NO이면 애완동물을 향하도록 로봇의 카메라의 촬영 방향을 유지하고 단계2로 되돌아가며,
    YES이면 단계4로 진입하는 단계3;
    애완동물이 위치한 격자 셀을 중심점으로 하는 소정의 영역을 결정하고 상기 소정의 영역중의 기통과 셀과 로봇과의 가까운 순서에 따른 거리 관계에 근거하여 기통과 셀을 하나하나씩 감시 후보 셀로 하고, 상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 존재하는 가를 판단하여,
    NO이면 상기 감시 후보 셀을 감시 셀로 결정하고 단계5로 진입하며,
    YES이면 그다음의 기통과 셀이 로봇까지의 거리가 가장 먼 셀인가를 판단하고,
    NO이면 단계4로 되돌아가고,
    YES이면 직접 그다음의 기통과 셀을 감시 셀로 결정하고 단계5로 진입하는 단계4; 및
    현재 위치점으로부터 상기 감시 셀까지 보행하여 애완동물을 감시하도록 로봇을 제어하는 단계5를 포함하고,
    상기 장애 셀은 로봇에 의해 장애물이 검측된 경우 대응되는 격자 셀이고 상기 기통과 셀은 로봇이 이미 보행한 격자 셀인 것을 특징으로 하는 격자 지도에 기반한 로봇의 애완동물 감시 방법.
  2. 청구항 1에 있어서,
    단계1에 기재된 로봇이 구축한 격자 지도에 근거하여 로봇의 상기 격자 지도상의 현재 위치점과 이에 대응되는 격자 셀을 결정하는 것은,
    로봇이 보행과정에 검측한 데이터에 근거하여 (X0, Y0)을 원점으로 하는 XY축 좌표계에 기반한 격자 지도를 구축하는 단계;
    상기 격자 지도중의 격자 셀의 변 길이를 L로 하는 단계; 및
    로봇 자체의 측위 데이터에 근거하여 로봇의 현재 위치점의 좌표를 (X1, Y1)로 하면 현재 위치점에 대응되는 격자 셀의 격자 좌표는 (S11, S12)이고 S11=(X1-X0)/L, S12=(Y1-Y0)/L(S11과 S12는 정수부분을 취한다)로 하는 단계를 포함하는 것을 특징으로 하는 애완동물 감시 방법.
  3. 청구항 2에 있어서,
    단계2에 기재된 로봇과 애완동물 몸체상의 무선신호장치가 수행한 무선 통신에 근거하여 애완동물과 로봇과의 상호 위치 관계를 결정하고 상호 위치 관계에 근거하여 애완동물의 현재 위치점과 이에 대응되는 격자 셀을 결정하는 것은,
    로봇 본체상의 제1 UWB 측위 기지국과 제2 UWB 측위 기지국 사이의 거리를 W로 하는 단계;
    상기 제1 UWB 측위 기지국의 좌표를 (X11, Y11)로 하고 상기 제2 UWB 측위 기지국의 좌표를 (X12, Y12)로 하는 단계;
    상기 제1 UWB 측위 기지국 및 상기 제2 UWB 측위 기지국과 애완동물 몸체상의 UWB 측위 라벨과의 무선 통신에 근거하여 상기 UWB 측위 라벨로부터 상기 제1 UWB 측위 기지국까지의 제1 거리를 R1로 하고 상기 UWB 측위 라벨로부터 상기 제2 UWB 측위 기지국까지의 제2 거리를 R2로 하는 단계;
    상기 제1 UWB 측위 기지국을 꼭지점으로 하여 각각 상기 제2 UWB 측위 기지국과 상기 UWB 측위 라벨을 향하는 선으로 구성되는 각도를 제1 각도로 하고 제1 각도α1를 α1=arccos((W²+R2²-R1²)/(2*W*R2))로 하는 단계;
    상기 제2 UWB 측위 기지국을 꼭지점으로 하여 각각 상기 제1 UWB 측위 기지국과 상기 UWB 측위 라벨을 향하는 선으로 구성되는 각도를 제2 각도로 하고 제2 각도α2를 α2=arccos((W²+R1²-R2²)/(2*W*R1))로 하는 단계;
    상기 UWB 측위 라벨의 현재 위치점의 좌표를 (Xc, Yc)로 하고 Xc=X12+R2*cos(180°-α1-arccos((X12-X11)/W)), Yc=Y11+R1*cos(180°-α2-arcsin((X12-X11)/W))로 하는 단계; 및
    상기 UWB 측위 라벨의 현재 위치점에 대응되는 격자 셀의 격자 좌표를 (S21, S22)로 하고 S21=(Xc-X0)/L, S22=(Yc-Y0)/L(S21과 S22는 정수부분을 취한다)로 하는 단계를 포함하는 것을 특징으로 하는 애완동물 감시 방법.
  4. 청구항 3에 있어서,
    상기 로봇 본체상의 제1 UWB 측위 기지국의 좌표를 (X11, Y11)로 하고 제2 UWB 측위 기지국의 좌표를 (X12, Y12)로 하는 것은,
    로봇 본체의 중심점의 좌표를 로봇의 현재 위치점의 좌표로 하고 좌표를 (X1, Y1)로 하는 단계;
    로봇 본체의 중심점이 상기 제1 UWB 측위 기지국과 상기 제2 UWB 측위 기지국의 연결선의 중점에 있도록 하는 단계;
    상기 제1 UWB 측위 기지국과 상기 제2 UWB 측위 기지국 사이의 거리를 W로 하면 로봇 본체의 중심점으로부터 상기 제1 UWB 측위 기지국까지의 거리가 W/2이고 로봇 본체의 중심점으로부터 상기 제2 UWB 측위 기지국까지의 거리가 W/2로 되는 단계;
    로봇의 자이로스코프에 의하여 검측된 로봇의 현재 방향을 α로 하는 단계;
    로봇 본체상의 제1 UWB 측위 기지국의 좌표를 (X11, Y11)로 하고 X11=X1-((W*cosα)/2), Y11=Y1+((W*sinα)/2)로 하는 단계; 및
    로봇 본체상의 제2 UWB 측위 기지국의 좌표를 (X12, Y12)로 하고 X12=X1+((W*cosα)/2), Y12=Y1-((W*sinα)/2)로 하는 단계를 포함하는 것을 특징으로 하는 애완동물 감시 방법.
  5. 청구항 3에 있어서,
    상기 UWB 측위 라벨로부터 상기 제1 UWB 측위 기지국까지의 제1 거리를 R1로 하고 상기 UWB 측위 라벨로부터 상기 제2 UWB 측위 기지국까지의 제2 거리를 R2로 하는 것은,
    전파의 전파 속도를 c로 하는 단계;
    상기 제1 UWB 측위 기지국이 상기 UWB 측위 라벨로 거리 측정 데이터를 송신한 후부터 상기 UWB 측위 라벨의 확인 신호를 수신할 때까지의 시간을 T11로 하는 단계;
    상기 UWB 측위 라벨이 상기 제1 UWB 측위 기지국으로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T12로 하는 단계;
    상기 UWB 측위 라벨이 상기 제1 UWB 측위 기지국으로 거리 측정 데이터를 송신한 후부터 상기 제1 UWB 측위 기지국의 확인 신호를 수신할 때까지의 시간을 T13로 하는 단계;
    상기 제1 UWB 측위 기지국이 상기 UWB 측위 라벨로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T14로 하는 단계;
    상기 UWB 측위 라벨로부터 상기 제1 UWB 측위 기지국까지의 제1 거리를 R1로 하고 R1=c*(T11-T12+T13-T14)/4로 하는 단계;
    상기 제2 UWB 측위 기지국이 상기 UWB 측위 라벨로 거리 측정 데이터를 송신한 후부터 상기 UWB 측위 라벨의 확인 신호를 수신할 때까지의 시간을 T21로 하는 단계;
    상기 UWB 측위 라벨이 상기 제2 UWB 측위 기지국으로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T22로 하는 단계;
    상기 UWB 측위 라벨이 상기 제2 UWB 측위 기지국으로 거리 측정 데이터를 송신한 후부터 상기 제2 UWB 측위 기지국의 확인 신호를 수신할 때까지의 시간을 T23로 하는 단계;
    상기 제2 UWB 측위 기지국이 상기 UWB 측위 라벨로부터 송신된 거리 측정 데이터를 수신한 후부터 확인 신호를 송신할 때까지의 시간을 T24로 하는 단계; 및
    상기 UWB 측위 라벨로부터 상기 제2 UWB 측위 기지국까지의 제2 거리를 R2로 하고 R2=c*(T21-T22+T23-T24)/4로 하는 단계를 포함하는 것을 특징으로 하는 애완동물 감시 방법.
  6. 청구항 1에 있어서,
    단계3에 기재된 로봇이 위치한 격자 셀과 애완동물이 위치한 격자 셀 사이에 있어서 로봇이 애완동물을 감시하는 카메라의 촬영 각도에 의하여 커버된 소정의 범위내의 격자 셀에 장애 셀이 존재하는 가를 판단하는 것은,
    로봇의 애완동물을 감시하는 카메라가 애완동물을 향하는 방향을 촬영 방향으로 하는 단계;
    상기 촬영 방향에 따라 카메라의 촬영 각도가 상기 격자 지도에서 커버하는 촬영 영역을 결정하는 단계;
    카메라를 꼭지점으로 하여 외부로 연장되는 제1 변과 제2 변으로 구성되는 각도 범위의 상기 격자 지도상의 커버 영역(이 커버 영역은 상기 촬영 영역미만이며 상기 촬영 영역내에 위치한다)에 대응되는 격자 셀을 결정하는 단계; 및
    상기 커버 영역에 대응되는 격자 셀에 장애 셀이 존재하는 가를 분석하는 단계를 포함하는 것을 특징으로 하는 애완동물 감시 방법.
  7. 청구항 1에 있어서,
    단계4에 기재된 애완동물이 위치한 격자 셀을 중심점으로 하는 소정의 영역을 결정하고 상기 소정의 영역중의 기통과 셀과 로봇과의 가까운 순서에 따른 거리 관계에 근거하여 기통과 셀을 하나하나씩 감시 후보 셀로 하는 것은,
    애완동물이 위치한 격자 셀의 중심을 원심으로 하고 소정의 길이를 반경으로 하는 원형 영역을 결정하는 단계;
    상기 원형 영역에서 로봇과의 거리가 가장 가까운 기통과 셀을 감시 후보 셀로 결정하는 단계;
    상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 있으며 상기 원형 영역에서 로봇과의 거리가 두번째로 가까운 기통과 셀이 로봇과의 거리가 가장 먼 셀이 아니면, 상기 원형 영역에서 로봇과의 거리가 두번째로 가까운 기통과 셀을 감시 후보 셀로 결정하는 단계;
    상기 감시 후보 셀과 애완동물이 위치한 격자 셀 사이의 직선 격자 경로에 장애 셀이 있으며 상기 원형 영역에서 로봇과의 거리가 세번째로 가까운 기통과 셀이 로봇과의 거리가 가장 먼 셀이 아니면, 상기 원형 영역에서 로봇과의 거리가 세번째로 가까운 기통과 셀을 감시 후보 셀로 결정하는 단계; 및
    로봇이 상기 원형 영역중의 로봇과의 거리가 두번째로 먼 기통과 셀을 감시 후보 셀로 할 때까지, 이와 같이 계속하여 결정하는 단계를 포함하는 것을 특징으로 하는 애완동물 감시 방법.
  8. 청구항 7에 있어서,
    상기 소정의 길이는 1미터 내지 2미터의 범위내의 어느 한 값인 것을 특징으로 하는 애완동물 감시 방법.
  9. 청구항 1에 있어서,
    단계5에 기재된 현재 위치점으로부터 상기 감시 셀까지 보행하여 애완동물을 감시하도록 로봇을 제어하는 것은,
    로봇의 현재 위치점을 시작점으로 하여 상기 감시 셀이 위치한 방향으로 격자 지도를 검색하는 단계;
    로봇의 현재 위치점과 상기 감시 셀의 중심점 사이에 있어서 기통과 셀에 의하여 직접 연통된 격자 경로중의 경로 길이가 가장 짧은 격자 경로를 안내 격자 경로로 하는 단계;
    안내 격자 경로중의 격자 셀의 중심점을 안내 위치점으로 하고 상기 안내 위치점을 연결하여 안내 경로를 구성하는 단계;
    현재 위치점으로부터 상기 안내 경로에 따라 감시 위치점까지 보행하도록 로봇을 제어하는 단계; 및
    상기 로봇의 카메라의 촬영 방향을 애완동물이 위치한 방향에 맞추도록 로봇의 방향을 조절하는 단계를 포함하는 것을 특징으로 하는 애완동물 감시 방법.
  10. 청구항 1 내지 9중의 어느 한 항에 기재된 격자 지도에 기반한 로봇의 애완동물 감시 방법을 수행하도록 로봇을 제어하기 위한 프로그램이 저장되는 것을 특징으로 하는 칩.
KR1020207019551A 2017-12-07 2018-07-06 격자 지도에 기반한 로봇의 애완동물 감시 방법 및 칩 KR102320370B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711281586.3 2017-12-07
CN201711281586.3A CN108012326B (zh) 2017-12-07 2017-12-07 基于栅格地图的机器人监视宠物的方法及芯片
PCT/CN2018/094744 WO2019109635A1 (zh) 2017-12-07 2018-07-06 基于栅格地图的机器人监视宠物的方法及芯片

Publications (2)

Publication Number Publication Date
KR20200096606A KR20200096606A (ko) 2020-08-12
KR102320370B1 true KR102320370B1 (ko) 2021-11-02

Family

ID=62057124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207019551A KR102320370B1 (ko) 2017-12-07 2018-07-06 격자 지도에 기반한 로봇의 애완동물 감시 방법 및 칩

Country Status (6)

Country Link
US (1) US11470821B2 (ko)
EP (1) EP3723423B1 (ko)
JP (1) JP7136898B2 (ko)
KR (1) KR102320370B1 (ko)
CN (1) CN108012326B (ko)
WO (1) WO2019109635A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102453797B1 (ko) 2022-06-16 2022-10-14 주식회사 디디케어스 효율적인 건강검진을 통한 반려동물의 건강관리 방법 및 서버
KR102478305B1 (ko) 2022-02-04 2022-12-19 주식회사 디디케어스 웨어러블 디바이스로 수집된 정보를 기초로 반려동물의 보험금 지급을 결정하는 방법 및 관리서버
KR102500380B1 (ko) 2022-06-28 2023-02-16 주식회사 디디케어스 반려견 견주전용 대출 심사 방법 및 서버
KR102574972B1 (ko) 2023-05-04 2023-09-06 주식회사 디디케어스 맞춤형 반려견 사료 추천 방법 및 그 서버
KR102574975B1 (ko) 2023-05-12 2023-09-06 주식회사 디디케어스 Ai기반 반려견에 대한 건강검진대상 판별 방법 및 그 서버
KR20230147475A (ko) 2022-04-14 2023-10-23 주식회사 디디케어스 반려동물의 약품구매를 중개하는 방법 및 서버

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108012326B (zh) * 2017-12-07 2019-06-11 珠海市一微半导体有限公司 基于栅格地图的机器人监视宠物的方法及芯片
CN108366343B (zh) * 2018-03-20 2019-08-09 珠海市一微半导体有限公司 机器人智能监视宠物的方法
US11126198B2 (en) * 2018-12-30 2021-09-21 Ubtech Robotics Corp Robot movement control method, apparatus and robot using the same
EP3939752A4 (en) * 2019-03-15 2022-10-26 OMRON Corporation ROBOT CONTROL DEVICE, METHOD AND PROGRAM
CN109901590B (zh) * 2019-03-30 2020-06-05 珠海市一微半导体有限公司 桌面机器人的回充控制方法
CN112212863A (zh) * 2019-07-09 2021-01-12 苏州科瓴精密机械科技有限公司 栅格地图的创建方法及创建系统
CN110488876A (zh) * 2019-08-20 2019-11-22 斯威方德(深圳)智能科技有限公司 宠物喂食的方法、装置、存储介质以及计算机设备
CN112415524A (zh) * 2019-08-23 2021-02-26 深圳市优必选科技股份有限公司 机器人及其定位导航方法和装置
CN111121754A (zh) * 2019-12-31 2020-05-08 深圳市优必选科技股份有限公司 移动机器人定位导航方法、装置、移动机器人及存储介质
CN112947435A (zh) * 2021-02-04 2021-06-11 沈阳仪表科学研究院有限公司 一种用于爬壁机器人的导航控制方法
CN113532436B (zh) * 2021-07-12 2024-05-10 中通服咨询设计研究院有限公司 一种室内相对位置定位方法
JP7467400B2 (ja) 2021-09-22 2024-04-15 Kddi株式会社 移動店舗管理システム、移動店舗管理装置、移動店舗管理方法及びコンピュータプログラム
CN114037807B (zh) * 2021-11-24 2023-03-28 深圳市云鼠科技开发有限公司 低内存占用的链式栅格地图构建方法、装置及计算机设备
CN114302326B (zh) * 2021-12-24 2023-05-23 珠海优特电力科技股份有限公司 定位区域的确定方法、定位方法、装置和定位设备
CN114265412B (zh) * 2021-12-29 2023-10-24 深圳创维数字技术有限公司 车辆控制方法、装置、设备及计算机可读存储介质
CN115019167B (zh) * 2022-05-26 2023-11-07 中国电信股份有限公司 基于移动终端的融合定位方法、系统、设备及存储介质
CN115437299A (zh) * 2022-10-10 2022-12-06 北京凌天智能装备集团股份有限公司 一种伴随运输机器人行进控制方法及系统
CN115685223B (zh) * 2022-12-15 2023-03-21 深圳市智绘科技有限公司 位置识别方法、装置、电子设备及可读存储介质
CN116068956B (zh) * 2023-03-07 2023-07-14 深圳华龙讯达信息技术股份有限公司 基于plc的生产线过程监视系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090021367A1 (en) 2007-07-19 2009-01-22 Davies Daniel F Apparatus, system, and method for tracking animals
US20110050732A1 (en) 2009-09-03 2011-03-03 Nokia Corporation Method and apparatus for customizing map presentations based on user interests

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07193742A (ja) * 1993-12-27 1995-07-28 Hitachi Ltd ビデオカメラ
NL1012137C2 (nl) 1999-05-25 2000-11-28 Lely Res Holding Onbemand voertuig dat inzetbaar is in een stal of een weide.
KR20040042242A (ko) 2002-11-13 2004-05-20 삼성전자주식회사 홈서버를 이용하는 홈로봇 및 이를 포함하는 홈네트워크시스템
JP3913186B2 (ja) * 2003-03-28 2007-05-09 株式会社東芝 移動撮影機器
CN101278654B (zh) 2007-09-26 2010-12-01 深圳先进技术研究院 一种宠物看护机器人系统
US20100179689A1 (en) * 2009-01-09 2010-07-15 National Taiwan University Of Science And Technology Method of teaching robotic system
US11249495B2 (en) * 2012-09-19 2022-02-15 Botsitter, Llc Method and system for remote monitoring, care and maintenance of animals
KR102165437B1 (ko) * 2014-05-02 2020-10-14 한화디펜스 주식회사 이동 로봇의 경로 계획 장치
KR101583376B1 (ko) * 2014-06-05 2016-01-08 김명환 동물 휴대폰 서비스 시스템 및 방법
US9475195B2 (en) * 2014-09-12 2016-10-25 Toyota Jidosha Kabushiki Kaisha Anticipatory robot navigation
CN106455523B (zh) * 2014-10-31 2020-08-04 深圳市大疆创新科技有限公司 用于遛宠物的系统和方法
KR20170053351A (ko) * 2015-11-06 2017-05-16 삼성전자주식회사 청소 로봇 및 그 제어 방법
US10409292B2 (en) * 2015-12-10 2019-09-10 Panasonic Intellectual Property Corporation Of America Movement control method, autonomous mobile robot, and recording medium storing program
JP2017114270A (ja) * 2015-12-24 2017-06-29 株式会社ナカヨ 特定ビーコン追跡機能を有する無人飛行体および追跡ビーコン発信ユニット
CN105706951B (zh) 2016-04-18 2019-03-08 宁波力芯科信息科技有限公司 一种智能宠物项圈及其实现方法
CN106125730B (zh) * 2016-07-10 2019-04-30 北京工业大学 一种基于鼠脑海马空间细胞的机器人导航地图构建方法
US10354515B2 (en) * 2016-07-21 2019-07-16 Vivint, Inc. Methods and system for providing an alarm trigger bypass
CN106172059A (zh) 2016-08-31 2016-12-07 长沙长泰机器人有限公司 宠物喂养机器人
KR102559745B1 (ko) * 2016-10-13 2023-07-26 엘지전자 주식회사 공항 로봇 및 그를 포함하는 공항 로봇 시스템
CN106577345B (zh) * 2016-10-27 2023-08-29 重庆掌中花园科技有限公司 一种智能宠物互动系统
CN106584472A (zh) * 2016-11-30 2017-04-26 北京贝虎机器人技术有限公司 用于控制自主移动式设备的方法及装置
CN106982741A (zh) * 2017-04-06 2017-07-28 南京三宝弘正视觉科技有限公司 一种宠物监控机器人和系统
CN107368079B (zh) * 2017-08-31 2019-09-06 珠海市一微半导体有限公司 机器人清扫路径的规划方法及芯片
CN108012326B (zh) 2017-12-07 2019-06-11 珠海市一微半导体有限公司 基于栅格地图的机器人监视宠物的方法及芯片
US11016491B1 (en) * 2018-01-26 2021-05-25 X Development Llc Trajectory planning for mobile robots
US20190286145A1 (en) * 2018-03-14 2019-09-19 Omron Adept Technologies, Inc. Method and Apparatus for Dynamic Obstacle Avoidance by Mobile Robots
CN108366343B (zh) * 2018-03-20 2019-08-09 珠海市一微半导体有限公司 机器人智能监视宠物的方法
KR102466940B1 (ko) * 2018-04-05 2022-11-14 한국전자통신연구원 로봇 주행용 위상 지도 생성 장치 및 방법
US11269336B2 (en) * 2018-09-21 2022-03-08 Tata Consultancy Services Limited Method and system for free space detection in a cluttered environment
CN109540142B (zh) * 2018-11-27 2021-04-06 达闼科技(北京)有限公司 一种机器人定位导航的方法、装置、计算设备
CN109946715B (zh) * 2019-04-09 2021-06-25 云鲸智能科技(东莞)有限公司 探测方法、装置、移动机器人及存储介质
KR102302575B1 (ko) * 2019-07-16 2021-09-14 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN110703747B (zh) * 2019-10-09 2021-08-03 武汉大学 一种基于简化广义Voronoi图的机器人自主探索方法
KR20210056694A (ko) * 2019-11-11 2021-05-20 엘지전자 주식회사 충돌을 회피하는 방법 및 이를 구현한 로봇 및 서버
CN111006666B (zh) * 2019-11-21 2021-10-29 深圳市优必选科技股份有限公司 机器人路径规划方法、装置、存储介质和机器人
CN111024100B (zh) * 2019-12-20 2021-10-29 深圳市优必选科技股份有限公司 一种导航地图更新方法、装置、可读存储介质及机器人
WO2021178812A1 (en) * 2020-03-06 2021-09-10 Edda Technology, Inc. Method and system for obstacle avoidance in robot path planning using depth sensors
US11454974B2 (en) * 2020-06-29 2022-09-27 Baidu Usa Llc Method, apparatus, device, and storage medium for controlling guide robot
US20220206505A1 (en) * 2020-12-30 2022-06-30 Southeast University Geometric folding full coverage path for robot and method for generating same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090021367A1 (en) 2007-07-19 2009-01-22 Davies Daniel F Apparatus, system, and method for tracking animals
US20110050732A1 (en) 2009-09-03 2011-03-03 Nokia Corporation Method and apparatus for customizing map presentations based on user interests

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102478305B1 (ko) 2022-02-04 2022-12-19 주식회사 디디케어스 웨어러블 디바이스로 수집된 정보를 기초로 반려동물의 보험금 지급을 결정하는 방법 및 관리서버
KR20230147475A (ko) 2022-04-14 2023-10-23 주식회사 디디케어스 반려동물의 약품구매를 중개하는 방법 및 서버
KR102453797B1 (ko) 2022-06-16 2022-10-14 주식회사 디디케어스 효율적인 건강검진을 통한 반려동물의 건강관리 방법 및 서버
KR102500380B1 (ko) 2022-06-28 2023-02-16 주식회사 디디케어스 반려견 견주전용 대출 심사 방법 및 서버
KR102574972B1 (ko) 2023-05-04 2023-09-06 주식회사 디디케어스 맞춤형 반려견 사료 추천 방법 및 그 서버
KR102574975B1 (ko) 2023-05-12 2023-09-06 주식회사 디디케어스 Ai기반 반려견에 대한 건강검진대상 판별 방법 및 그 서버

Also Published As

Publication number Publication date
CN108012326B (zh) 2019-06-11
EP3723423C0 (en) 2023-09-06
EP3723423A4 (en) 2021-08-25
US20210169049A1 (en) 2021-06-10
CN108012326A (zh) 2018-05-08
JP2021505150A (ja) 2021-02-18
US11470821B2 (en) 2022-10-18
KR20200096606A (ko) 2020-08-12
EP3723423B1 (en) 2023-09-06
EP3723423A1 (en) 2020-10-14
WO2019109635A1 (zh) 2019-06-13
JP7136898B2 (ja) 2022-09-13

Similar Documents

Publication Publication Date Title
KR102320370B1 (ko) 격자 지도에 기반한 로봇의 애완동물 감시 방법 및 칩
KR102412685B1 (ko) 로봇에 의한 애완동물의 지능적 감시 방법
US11275163B2 (en) Slam method and apparatus robust to wireless environment change
KR101948728B1 (ko) 데이터 수집 방법 및 시스템
EP3507572B1 (en) Apparatus and method for providing vehicular positioning
US10278333B2 (en) Pruning robot system
US20220161430A1 (en) Recharging Control Method of Desktop Robot
US20140379256A1 (en) Mapping and Positioning System
KR102110813B1 (ko) 무선 환경 변화에 강인한 slam 방법 및 장치
CN105486311A (zh) 室内机器人定位导航方法及装置
CN104333903A (zh) 基于rssi和惯性测量的室内多目标的定位系统和方法
KR101308555B1 (ko) 실내보행 위치산출방법
TWI557421B (zh) 定位輔助方法及其電子移動裝置
WO2016068742A1 (ru) Способ и система позиционирования мобильного терминала внутри зданий
CN107632601A (zh) 一种无轨智能导引装置、系统及方法
WO2019234858A1 (ja) 移動体端末及び現在位置補正システム
JP6699034B2 (ja) 自律移動ロボット
KR20140051188A (ko) 보행자 경로안내 장치
KR101502071B1 (ko) 랜드마크 기반 비전항법시스템을 위한 카메라 데이터 생성기와 그것을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체
KR102527951B1 (ko) 자율 주행 장치, 자율 주행 장치의 위치 관리 시스템 및 이를 이용한 자율 주행 장치의 이동 경로 결정 방법
JP2022000618A (ja) 走行台車システム
Chen et al. Multi-Mobile Robot Localization and Navigation based on Visible Light Positioning
CN116685872A (zh) 用于移动设备的定位系统和方法
KR20240037518A (ko) 로봇 관리 서버, 자율주행 로봇 및 이의 동작 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant