KR20230119468A - 지상용 자율주행 무인정찰 장치 - Google Patents

지상용 자율주행 무인정찰 장치 Download PDF

Info

Publication number
KR20230119468A
KR20230119468A KR1020220015657A KR20220015657A KR20230119468A KR 20230119468 A KR20230119468 A KR 20230119468A KR 1020220015657 A KR1020220015657 A KR 1020220015657A KR 20220015657 A KR20220015657 A KR 20220015657A KR 20230119468 A KR20230119468 A KR 20230119468A
Authority
KR
South Korea
Prior art keywords
ultrasonic sensor
motor
rotating body
obstacle
camera
Prior art date
Application number
KR1020220015657A
Other languages
English (en)
Other versions
KR102654371B1 (ko
Inventor
백수빈
유경미
윤나영
Original Assignee
백수빈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 백수빈 filed Critical 백수빈
Priority to KR1020220015657A priority Critical patent/KR102654371B1/ko
Publication of KR20230119468A publication Critical patent/KR20230119468A/ko
Application granted granted Critical
Publication of KR102654371B1 publication Critical patent/KR102654371B1/ko

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 카메라가 장착된 회전체, 바퀴가 장착되고 회전체의 하부에 형성된 이동체, 상기 회전체의 회전을 위한 제1 모터, 상기 이동체의 이동을 위한 제2 모터, 상기 회전체의 설정된 위치에 형성된 제1 초음파센서, 상기 이동체의 설정된 위치에 형성된 제2 초음파센서 및 상기 제1 모터와 제2 모터의 구동을 제어하는 제어부를 포함하여, 상기 제1 초음파센서와 제2 초음파센서는 바퀴의 크기를 고려하여 설정된 위치에 형성되고, 제어부는 제1 초음파센서와 제2 초음파센서를 이용하여 전방 장애물의 등반여부를 판별하는 것을 특징으로 하는 지상용 자율주행 무인정찰 장치를 개시한다.

Description

지상용 자율주행 무인정찰 장치{UNMANNED GROUND RECONNAISSANCE APPARATUS FOR AUTOMATIC DRIVING}
본 발명은 지상용 자율주행 무인정찰 장치에 관한 것으로서, 더욱 상세하게는 정찰, 탐사 또는 수색을 위한 지상용 자율주행 무인정찰 장치에 관한 것이다.
종래에는 초음파센서와 카메라를 구비하는 자율주행 장치를 이용하여 선행기술로 기재된 특허문헌 1과 같이 온실환경을 계측할 수 있으며, 특허문헌 2와 같이 토목시설 붕괴지역을 탐사할 수 있고, 소방진입로를 정찰할 수 있으며, 다양한 안전분야에 활용할 수 있다.
초음파센서는 장애물을 탐지하기 위해 사용되고, 카메라는 전방을 촬영하기 위해 사용된다. 카메라는 특허문헌 2와 같이 전방과 후방을 촬영하기 위해 복수로 구성될 수 있다. 그러나 종래에는 아래와 같이 다양한 문제점이 있다.
탐사현장에서 장애물은 자율주행 장치가 등반할 수 있는 파편이나 작은 사물일 수 있고, 자율주행 장치보다 큰 사물이거나 벽일 수 있으며, 부상당하거나 쓰러진 사람일 수 있다.
종래에는 특허문헌 1과 같이 초음파센서를 전후측방으로 복수로 설치하여 측방의 벽과 같은 장애물을 탐지할 수 있었으나, 6개의 초음파센서를 구비하여야 하므로, 센서 설치비용이 증가할 수 있고, 자율주행 장치의 무게가 증가되어 이동성이나 전력소모에서 제약이 발생할 수 있다.
종래에는 특허문헌 1과 특허문헌 2와 같이 초음파센서를 이용하여 장애물을 감지하면 장애물을 회피하면서 자율주행을 유도하였으나, 자율주행 장치가 등반할 수 있는 장애물까지 회피하였으므로, 탐사 또는 자율주행의 효율이 감소되는 문제점이 있다.
종래에는 특허문헌 1과 같이 전후방 등 복수의 카메라를 이용하여 탐사현장을 실시간으로 모니터링 할 수 있으나, 센서 설치비용이 증가할 수 있고, 자율주행 장치의 무게가 증가되어 이동성이나 전력소모에서 제약이 발생할 수 있다. 또한 종래에는 자유주행 장치의 측방에 대응하는 탐사현장을 모니터링하기 어려운 문제점이 있다.
한국등록특허 제10-1568853호 한국등록특허 제10-1711277호
상기 문제점을 해결하기 위하여 본 발명은 회전체의 설정된 위치에 형성된 제1 초음파센서와 이동체의 설정된 위치에 형성된 제2 초음파센서를 이용하여 전방 장애물의 등반여부를 판별하는 지상용 자율주행 무인정찰 장치를 제공한다.
본 발명은 회전체가 회전되어 제1 초음파센서가 측방의 장애물을 감지하고, 동시에 카메라가 전방과 측방의 상황을 모니터링하는 지상용 자율주행 무인정찰 장치를 제공한다.
상기의 해결하고자 하는 과제를 위한 본 발명의 실시예에 따른 지상용 자율주행 무인정찰 장치는, 카메라(410)가 장착된 회전체(110); 바퀴(220)가 장착되고 회전체의 하부에 형성된 이동체(120); 상기 회전체의 회전을 위한 제1 모터(311); 상기 이동체의 이동을 위한 제2 모터(312); 상기 회전체의 설정된 위치에 형성된 제1 초음파센서(421); 상기 이동체의 설정된 위치에 형성된 제2 초음파센서(422) 및 상기 제1 모터와 제2 모터의 구동을 제어하는 제어부(490)를 포함하여, 상기 제1 초음파센서와 제2 초음파센서는 바퀴의 크기를 고려하여 설정된 위치에 형성되고, 제어부는 제1 초음파센서와 제2 초음파센서를 이용하여 전방 장애물의 등반여부를 판별하는 것을 특징으로 한다.
상기 제어부는 카메라 기반의 자세추정 모델을 이용하여 전방 장애물이 사람인지 여부를 판별하고, 전방 장애물이 사람으로 판별되면 사람을 우회하도록 제2 모터의 구동을 제어하며, 전방 장애물이 사물로 판별되면 제1 초음파센서와 제2 초음파센서를 이용하여 사물의 등반여부를 판별하는 것을 특징으로 할 수 있다.
상기 회전체는 제1 모터의 동력을 전달받아 회전하여 제1 초음파센서의 측방 장애물 감지를 위해 사용되고, 동시에 카메라의 전방과 측방 상황을 모니터링하기 위해 사용되는 것을 특징으로 할 수 있다.
본 발명은 회전체의 설정된 위치에 형성된 제1 초음파센서와 이동체의 설정된 위치에 형성된 제2 초음파센서를 이용하여 전방 장애물의 등반여부를 판별할 수 있고, 탐사 또는 자율주행의 효율을 향상시킬 수 있다.
본 발명은 최소의 개수로 구성된 초음파센서와 단일의 카메라를 이용하여 전방과 측방에 대한 장애물과 상황을 감지함으로써, 저비용의 경량화된 지상용 자율주행 무인정찰 장치를 제공할 수 있고, 모니터링의 효율을 향상시킬 수 있다.
도 1은 본 발명의 실시예에 따른 지상용 자율주행 무인정찰 장치를 도시한 블록도이다.
도 2는 본 발명의 실시예에 따른 지상용 자율주행 무인정찰 장치를 도시한 사시도이다.
도 3은 본 발명의 실시예에 따른 지상용 자율주행 무인정찰 장치를 도시한 회로도이다.
도 4는 바퀴에 포함된 제1 기어를 도시한 예이다.
도 5는 바퀴에 포함된 제2 기어를 도시한 예이다.
도 6은 바퀴에 포함된 무한궤도를 도시한 예이다.
도 7과 도 8은 바퀴의 구조를 도시한 예이다.
도 9는 초음파센서를 동작원리를 도시한 예이다.
도 10은 라즈베리파이 얼굴인식 코딩화면을 도시한 예이다.
도 11은 아두이노 자율주행 코딩을 도시한 예이다.
도 12는 제2 모터에 관한 H-bridge 회로를 도시한 예이다.
도 13은 제2 모터의 속도를 제어하기 위한 듀티 사이클을 도시한 예이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.
도 1은 본 발명의 실시예에 따른 지상용 자율주행 무인정찰 장치를 도시한 블록도이고, 도 2는 본 발명의 실시예에 따른 지상용 자율주행 무인정찰 장치를 도시한 사시도이며, 도 3은 본 발명의 실시예에 따른 지상용 자율주행 무인정찰 장치를 도시한 회로도이다.
지상용 자율주행 무인정찰 장치(10)는 온실환경의 계측, 토목시설의 붕괴지역 탐사 및 소방진입로의 정찰 등 다양한 탐사현장에 적용하여 사용될 수 있고, 이에 한정하지 않는다.
탐사현장에는 장애물이 존재할 수 있다. 장애물은 지상용 자율주행 무인정찰 장치(10)가 등반할 수 있는 파편이나 작은 사물일 수 있고, 지상용 자율주행 무인정찰 장치(10)보다 큰 사물이거나 벽일 수 있으며, 부상당하거나 쓰러진 사람일 수 있다.
지상용 자율주행 무인정찰 장치(10)는 회전체(110), 이동체(120), 회전축(210), 바퀴(220), 모터(310), 카메라(410), 초음파센서(420) 및 제어부(490)를 포함한다.
회전체(110)는 카메라(410)의 장착을 제공하고, 이동체(120)는 바퀴(220)의 장착을 제공한다. 모터(310)는 회전체(110)의 회전을 위한 제1 모터(311) 및 이동체의 이동을 위한 제2 모터(312)를 포함한다.
제1 모터(311)는 회전축(210)에 동력을 전달하여 회전체(110)를 회전시키고, 제2 모터(312)는 바퀴(220)에 동력을 전달하여 이동체(120)를 이동시킨다.
도 4는 바퀴에 포함된 제1 기어를 도시한 예이고, 도 5는 바퀴에 포함된 제2 기어를 도시한 예이며, 도 6은 바퀴에 포함된 무한궤도를 도시한 예이고, 도 7과 도 8은 바퀴의 구조를 도시한 예로서, 바퀴(220)는 장애물을 등반하기 위하여 무한궤도형으로 제작될 수 있다.
바퀴(220)는 제1 기어(221), 제2 기어(222), 무한궤도(223) 및 축 연결부(224)를 포함한다. 제1 기어(221)는 복수로 구성되고, 제2 기어(222)는 제1 기어(221)의 사이에 형성되며, 무한궤도(223)는 제1 기어(221)의 외주면과 맞물리고, 축 연결부(224)는 제1 기어(221)와 제2 기어(222)의 축을 연결한다.
도 9는 초음파센서를 동작원리를 도시한 예로서, 초음파센서(420)는 초음파를 방사하고 반사된 초음파를 받아 장애물과의 거리나 방향을 알아내기 위해 사용된다.
초음파센서(420)는 회전체(110)의 설정된 위치에 형성된 제1 초음파센서(421) 및 이동체(120)의 설정된 위치에 형성된 제2 초음파센서(422)를 포함한다.
제1 초음파센서(421)와 제2 초음파센서(422)는 바퀴(222)의 폭이나 너비 등 크기를 고려하여 설정된 위치에 형성된다. 제어부(490)는 제1 초음파센서(421)와 제2 초음파센서(422)를 이용하여 전방 장애물의 등반여부를 판별한다.
카메라(410)는 적외선 카메라 일수 있고, 탐사현장의 모니터링을 위해 사용될 수 있다. 제어부(490)는 카메라(410)에서 촬영된 영상을 이용하여 장애물의 종류를 판별할 수 있다.
도 10은 라즈베리파이 얼굴인식 코딩화면을 도시한 예로서, 제어부(490)는 얼굴인식 알고리즘을 이용하여 영상에서 사람의 객체를 알아낼 수 있다.
제어부(490)는 사람 얼굴의 대칭적인 구도, 생김새, 머리카락, 눈의 색상, 얼굴 근육의 움직임 등 얼굴의 특징에 관한 학습 이미지를 이용하여 사전에 사람의 얼굴을 학습할 수 있고, 얼굴학습이 적용된 얼굴인식 알고리즘을 이용하여 영상에서 얼굴에 관한 특징점을 추출할 수 있으며, 사전에 학습된 특징점과 추출된 특징점 비교를 통하여 얼굴을 인식할 수 있다.
탐사현장에서는 사람이 다쳐 바닥에 누어 있을 수 있고, 얼굴인식이 어려운 환경일 수 있다. 제어부(490)는 자세추정 모델을 이용하여 사람을 인식할 수 있다. 자세추정 모델은 신체의 부위별 연결구조를 분석하여 자세를 추정하는 모델이다.
제어부(490)는 2차원 형태의 영상 이미지 프레임을 3차원 공간으로 확장하여 2차원 이미지의 한계인 평면 해석에 의해 왜곡되는 인체 자세 추정을 보정함으로써, 객체겹침 및 카메라(410)의 설치위치에 의한 오탐률을 낮출 수 있다.
제어부(490)는 영상 데이터로부터 3차원 공간에서의 자체를 추정하는 영상기반 자세추정 모델을 구현할 수 있고, 자세추정 모델로부터 얻게 된 3차원 위치적 자세 데이터를 기반으로 자세에 대한 전체적인 특징 및 각 관절 부위의 구체적 특성을 추출하여 3차원 메시(mesh)망 형태의 인체 모델을 추출할 수 있다.
제어부(490)는 신체를 몸(body), 손(hand) 및 얼굴(Face)로 나누고, 나열된 각각의 자세추정 모델 기법을 사용하여 최종적인 추정자세의 결과를 보정함으로써, 쓰러짐 행위와 같은 사람을 판별할 수 있다.
제어부(490)는 카메라(410) 기반의 자세추정 모델을 이용하여 전방 장애물이 사람인지 여부를 판별하고, 전방 장애물이 사람으로 판별되면 사람을 우회하도록 제2 모터(312)의 구동을 제어하며, 전방 장애물이 사물로 판별되면 제1 초음파센서(421)와 제2 초음파센서(422)를 이용하여 사물의 등반여부를 판별할 수 있다.
제1 초음파센서(421)와 제2 초음파센서(422)는 바퀴(220)가 장애물을 등반할 수 있는지 알아내기 위하여 서로 간의 설정된 높이가 있고, 제어부(490)는 각각의 초음파센서(421, 422)의 거리값을 연산하여 바퀴(220)가 등반할 수 있는 전방 장애물인지 판별할 수 있다.
본 발명은 회전체(110)의 설정된 위치에 형성된 제1 초음파센서(421)와 이동체(120)의 설정된 위치에 형성된 제2 초음파센서(422)를 이용하여 전방 장애물의 등반여부를 판별할 수 있고, 탐사 또는 자율주행의 효율을 향상시킬 수 있다.
상기 제어부(490)는 제1 모터(311)의 구동을 제어하여 회전체(110)를 회전시키고, 제1 초음파센서(421)를 이용하여 측방 장애물과의 거리를 산출할 수 있다.
회전체(110)는 제1 모터(311)의 동력을 전달받아 회전하여 제1 초음파센서(421)의 측방 장애물 감지를 위해 사용되고, 동시에 카메라(410)의 전방과 측방 상황을 모니터링하기 위해 사용된다.
본 발명은 최소의 개수로 구성된 초음파센서(420)와 단일의 카메라(410)를 이용하여 전방과 측방에 대한 장애물과 상황을 감지함으로써, 저비용의 경량화된 지상용 자율주행 무인정찰 장치(10)를 제공할 수 있고, 모니터링의 효율을 향상시킬 수 있다.
도 11은 아두이노 자율주행 코딩을 도시한 예로서, 제어부(490)는 초음파센서(420)를 이용하여 제2 모터(312)의 동작을 제어함으로써, 자율주행을 수행한다.
도 12는 제2 모터에 관한 H-bridge 회로를 도시한 예로서, 제2 모터(312)는 정방향과 역방향으로 제어할 수 있는 정역제어 회로를 포함하고, 전압의 극성을 바꾸어 정역을 제어할 수 있다.
도 13은 제2 모터의 속도를 제어하기 위한 듀티 사이클을 도시한 예로서, 제어부(490)는 전력소모와 상황 모니터링을 위해 제2 모터(312)의 구동이 정지된 상태에서 제1 초음파센서(421)와 제2 초음파센서(422)를 이용하여 전방 장애물과의 거리값을 연산하고, 제1 모터(311)와 제1 초음파센서(421)를 이용하여 측방 장애물과의 거리값을 연산하며, 제1 모터(311)의 구동이 정지된 상태에서 장애물과의 거리값을 이용하여 자율주행을 위한 주행값과 속도값을 생성하고, 주행값과 속도값으로 제2 모터(312)의 구동을 제어할 수 있다.
제어부(490)는 장애물과의 거리값과 장애물의 등반여부에 기반하여 속도값이 복수로 설정될 수 있다. 예를 들어 제어부(490)는 장애물의 등반이 필요하다면 장애물과의 접촉에 따른 충격을 최소화하기 위하여 제1 속도값을 설정하고, 장애물을 우회한다면 제1 속도값보다 빠른 제2 속도값을 설정하며, 장애물과의 소정거리로 이격되면 제2 속도값보다 빠른 제3 속도값을 설정하고, 장애물이 소정거리 이상으로 미존재하면 제3 속도값보다 빠른 제4 속도값을 설정한다.
주행값은 설정된 속도의 듀티 사이클을 결정하기 위하여 전방 장애물의 등반을 위한 거리값을 포함할 수 있다.
제어부(490)는 제1 초음파센서(421)와 제2 초음파센서(422)를 이용하여 장애물 등반여부뿐만 아니라 경사진 언덕을 알아낼 수 있고, 경사진 언덕을 올라가기 위한 속도값을 결정할 수 있으며, 결정된 속도값으로 제2 모터(312)를 제어함으로써, 제2 모터(312)의 과부하를 방징할 수 있고, 제2 모터(312)의 수명을 연장시킬 수 있다.
지상용 자율주행 무인정찰 장치(10)는 통신부(430) 및 배터리(440)를 더 포함할 수 있다. 통신부(430)는 촬영된 영상을 관리자 단말기(미도시) 또는 관리 서버(미도시)에게 전송하기 위해 사용될 수 있다. 배터리(440)는 모터(310), 카메라(410) 및 초음파센서(420)의 구동을 위한 전력을 제공한다.
10: 자율주행 무인정찰 장치 110: 회전체
120: 이동체 210: 회전축
220: 바퀴 310: 모터
311: 제1 모터 312: 제2 모터
410: 카메라 420: 초음파센서
421: 제1 초음파센서 422: 제2 초음파센서
430: 통신부 440: 배터리
490: 제어부

Claims (3)

  1. 카메라(410)가 장착된 회전체(110);
    바퀴(220)가 장착되고 회전체의 하부에 형성된 이동체(120);
    상기 회전체의 회전을 위한 제1 모터(311);
    상기 이동체의 이동을 위한 제2 모터(312);
    상기 회전체의 설정된 위치에 형성된 제1 초음파센서(421);
    상기 이동체의 설정된 위치에 형성된 제2 초음파센서(422) 및
    상기 제1 모터와 제2 모터의 구동을 제어하는 제어부(490)를 포함하여,
    상기 제1 초음파센서와 제2 초음파센서는 바퀴의 크기를 고려하여 설정된 위치에 형성되고, 제어부는 제1 초음파센서와 제2 초음파센서를 이용하여 전방 장애물의 등반여부를 판별하는 것을 특징으로 하는 지상용 자율주행 무인정찰 장치.
  2. 제1항에 있어서,
    상기 제어부는 카메라 기반의 자세추정 모델을 이용하여 전방 장애물이 사람인지 여부를 판별하고, 전방 장애물이 사람으로 판별되면 사람을 우회하도록 제2 모터의 구동을 제어하며, 전방 장애물이 사물로 판별되면 제1 초음파센서와 제2 초음파센서를 이용하여 사물의 등반여부를 판별하는 것을 특징으로 하는 지상용 자율주행 무인정찰 장치.
  3. 제1항에 있어서,
    상기 회전체는 제1 모터의 동력을 전달받아 회전하여 제1 초음파센서의 측방 장애물 감지를 위해 사용되고, 동시에 카메라의 전방과 측방 상황을 모니터링하기 위해 사용되는 것을 특징으로 하는 지상용 자율주행 무인정찰 장치.
KR1020220015657A 2022-02-07 2022-02-07 지상용 자율주행 무인정찰 장치 KR102654371B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220015657A KR102654371B1 (ko) 2022-02-07 2022-02-07 지상용 자율주행 무인정찰 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220015657A KR102654371B1 (ko) 2022-02-07 2022-02-07 지상용 자율주행 무인정찰 장치

Publications (2)

Publication Number Publication Date
KR20230119468A true KR20230119468A (ko) 2023-08-16
KR102654371B1 KR102654371B1 (ko) 2024-04-02

Family

ID=87848484

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220015657A KR102654371B1 (ko) 2022-02-07 2022-02-07 지상용 자율주행 무인정찰 장치

Country Status (1)

Country Link
KR (1) KR102654371B1 (ko)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
KR101040528B1 (ko) * 2011-02-17 2011-06-16 국방과학연구소 지형감지 센서조립체 및 이를 구비하는 자율이동 플랫폼
KR101049155B1 (ko) * 2011-02-01 2011-07-14 국방과학연구소 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치
KR101049906B1 (ko) * 2010-12-30 2011-07-15 국방과학연구소 자율 이동 장치 및 이의 충돌 회피 방법
KR101568853B1 (ko) 2015-01-12 2015-11-13 충남대학교산학협력단 초음파센서를 측부에 구비한 자율주행형 온실환경 계측장치
KR101711277B1 (ko) 2015-05-11 2017-03-06 부산외국어대학교 산학협력단 건물 및 토목시설 붕괴지역 탐사 대응 로봇
JP2018025880A (ja) * 2016-08-08 2018-02-15 シャープ株式会社 自律走行装置及び自律走行制御方法と制御プログラム
JP6456346B2 (ja) * 2013-03-12 2019-01-23 ザ・ボーイング・カンパニーThe Boeing Company 非破壊検査のための自己完結型ホロノミックトラッキングの方法及び装置
KR101985188B1 (ko) * 2012-09-20 2019-06-04 엘지전자 주식회사 이동 로봇 및 이동 로봇의 주행방법
KR20190142505A (ko) * 2018-06-18 2019-12-27 공병익 실시간 객체 추적 장치

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
KR101049906B1 (ko) * 2010-12-30 2011-07-15 국방과학연구소 자율 이동 장치 및 이의 충돌 회피 방법
KR101049155B1 (ko) * 2011-02-01 2011-07-14 국방과학연구소 자율이동장치의 장애물 판단방법 및 이를 이용한 자율이동장치
KR101040528B1 (ko) * 2011-02-17 2011-06-16 국방과학연구소 지형감지 센서조립체 및 이를 구비하는 자율이동 플랫폼
KR101985188B1 (ko) * 2012-09-20 2019-06-04 엘지전자 주식회사 이동 로봇 및 이동 로봇의 주행방법
JP6456346B2 (ja) * 2013-03-12 2019-01-23 ザ・ボーイング・カンパニーThe Boeing Company 非破壊検査のための自己完結型ホロノミックトラッキングの方法及び装置
KR101568853B1 (ko) 2015-01-12 2015-11-13 충남대학교산학협력단 초음파센서를 측부에 구비한 자율주행형 온실환경 계측장치
KR101711277B1 (ko) 2015-05-11 2017-03-06 부산외국어대학교 산학협력단 건물 및 토목시설 붕괴지역 탐사 대응 로봇
JP2018025880A (ja) * 2016-08-08 2018-02-15 シャープ株式会社 自律走行装置及び自律走行制御方法と制御プログラム
KR20190142505A (ko) * 2018-06-18 2019-12-27 공병익 실시간 객체 추적 장치

Also Published As

Publication number Publication date
KR102654371B1 (ko) 2024-04-02

Similar Documents

Publication Publication Date Title
JP3994950B2 (ja) 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
US20170080565A1 (en) Humanoid robot with collision avoidance and trajectory recovery capabilitles
US20050212680A1 (en) Self-propelled cleaner
Walas et al. Messor–verstatile walking robot for serach and rescue missions
Huang A Semi-Autonomous Vision-Based Navigation System for a Mobile Robotic Vehicle
Johnson et al. Indoor navigation of mobile robot using fuzzy logic controller
KR102654371B1 (ko) 지상용 자율주행 무인정찰 장치
Madhevan et al. Modelling, simulation and mechatronics design of a wireless automatic fire fighting surveillance robot
Tanaka Robust parameter estimation of road condition by Kinect sensor
CN110696003A (zh) 基于slam技术和深度学习的水边救援机器人
Nagasawa et al. Development of a walking assistive robot for elderly people in outdoor environments
Mano et al. Treaded control system for rescue robots in indoor environment
Machaiah et al. IoT based human search and rescue robot using swarm robotics
Ueda et al. Visual information assist system using 3D SOKUIKI sensor for blind people, system concept and object detecting experiments
Mori et al. HITOMI: Design and development of a robotic travel aid
Dijkshoorn et al. Amsterdam Oxford Joint Rescue Forces− Team Description Paper− Virtual Robot competition− Rescue Simulation League− RoboCup 2011
CN111240323A (zh) 一种双面运行的移动机器人及其控制方法
Shin et al. Mechanism and control of a jumping robot
Milella et al. Laser-based people-following for human-augmented mapping of indoor environments.
TWI527724B (zh) 擺臂式履帶機器人及其控制方法
Vashistha et al. Ahrd-autonomous human recognition device
Nejati et al. Automated incline detection for assistive powered wheelchairs
Rohde et al. PointCom: semi-autonomous UGV control with intuitive interface
Lee et al. Implementation of a Fuzzy Control Based Intelligent Robot Fish.
Sato et al. FUMA: Platform development and system integration for rescue missions

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant