KR20240016707A - 라이다 센서가 탑재된 로봇 및 그의 제어 방법 - Google Patents

라이다 센서가 탑재된 로봇 및 그의 제어 방법 Download PDF

Info

Publication number
KR20240016707A
KR20240016707A KR1020220094789A KR20220094789A KR20240016707A KR 20240016707 A KR20240016707 A KR 20240016707A KR 1020220094789 A KR1020220094789 A KR 1020220094789A KR 20220094789 A KR20220094789 A KR 20220094789A KR 20240016707 A KR20240016707 A KR 20240016707A
Authority
KR
South Korea
Prior art keywords
robot
mirror
light
lidar sensor
transparent area
Prior art date
Application number
KR1020220094789A
Other languages
English (en)
Inventor
이태희
구동한
김중회
최구영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220094789A priority Critical patent/KR20240016707A/ko
Priority to PCT/KR2023/006102 priority patent/WO2024025093A1/ko
Priority to US18/203,860 priority patent/US20240036213A1/en
Publication of KR20240016707A publication Critical patent/KR20240016707A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture

Abstract

로봇이 개시된다. 본 로봇은 로봇의 몸체 내부에 장착된 라이다 센서, 몸체의 자세를 감지하기 위한 센서, 미러를 이용하여 라이다 센서에서 출력되는 광을 반사시켜, 반사된 광을 로봇에 마련된 투명 영역을 통해 로봇의 외부로 출력하는 광학 장치 및 센서를 통해 몸체의 자세에 대한 정보를 획득하고, 획득된 몸체의 자세 및 투명 영역의 굴절률에 기초하여 미러의 틸팅 각도에 대한 정보를 획득하고, 획득된 틸팅 각도에 대한 정보에 기초하여 미러를 제어하는 프로세서를 포함한다.

Description

라이다 센서가 탑재된 로봇 및 그의 제어 방법 { ROBOT COMPRISING LiDAR SENSOR AND CONTROLLING THE ROBOT }
본 개시는 라이다 센서가 탑재된 로봇 및 그의 제어 방법에 관한 것이다.
로봇은 라이다 센서를 이용하여 로봇 주변의 장애물과의 거리를 감지하고, 감지된 거리를 이용하여 주행을 수행한다.
본 개시의 일 실시 예에 따른 로봇은 상기 로봇의 몸체 내부에 장착된 라이다 센서, 상기 몸체의 자세를 감지하기 위한 센서, 미러를 이용하여 상기 라이다 센서에서 출력되는 광을 반사시켜, 상기 반사된 광을 상기 로봇에 마련된 투명 영역을 통해 상기 로봇의 외부로 출력하는 광학 장치 및 프로세서를 포함할 수 있다. 프로세서는 상기 센서를 통해 상기 몸체의 자세에 대한 정보를 획득할 수 있다. 프로세서는 상기 획득된 몸체의 자세 및 상기 투명 영역의 굴절률에 기초하여 상기 미러의 틸팅 각도에 대한 정보를 획득할 수 있다. 프로세서는 상기 획득된 틸팅 각도에 대한 정보에 기초하여 상기 미러를 제어할 수 있다.
본 개시의 일 실시 예에 따른 몸체 내부에 라이다 센서가 장착된 로봇의 제어 방법은 상기 몸체의 자세에 대한 정보를 획득하는 단계, 상기 획득된 몸체의 자세 및 상기 로봇에 마련된 투명 영역의 굴절률에 기초하여 미러의 틸팅 각도에 대한 정보를 획득하는 단계, 상기 획득된 틸팅 각도에 대한 정보에 기초하여 상기 미러를 제어하는 단계 및 상기 미러를 통해 상기 라이다 센서에서 출력되는 광을 반사시켜, 상기 반사된 광을 상기 투명 영역을 통해 상기 로봇의 외부로 출력하는 단계를 포함한다.
본 개시의 일 실시 예에 따른 몸체 내부에 라이다 센서가 장착된 로봇의 프로세서에 의해 실행되는 경우 상기 로봇이 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체에 있어서 상기 동작은 상기 몸체의 자세에 대한 정보를 획득하는 단계, 상기 획득된 몸체의 자세 및 상기 로봇에 마련된 투명 영역의 굴절률에 기초하여 미러의 틸팅 각도에 대한 정보를 획득하는 단계, 상기 획득된 틸팅 각도에 대한 정보에 기초하여 상기 미러를 제어하는 단계 및 상기 미러를 통해 상기 라이다 센서에서 출력되는 광을 반사시켜, 상기 반사된 광을 상기 투명 영역을 통해 상기 로봇의 외부로 출력하는 단계를 포함한다.
도 1은 본 개시의 일 실시 예에 따른 로봇을 도시한 도면,
도 2, 도 3a 내지 도 3d는 본 개시의 일 실시 예에 따른 로봇의 투명 영역을 설명하기 위한 도면들,
도 4a 및 도 4b는 본 개시의 일 실시 예에 따라 로봇의 몸체가 기울어지는 상황을 설명하기 위한 도면들,
도 5는 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하기 위한 블록도,
도 6은 본 개시의 일 실시 예에 따라 메모리에 저장된 틸팅 각도에 대한 정보의 일 예를 나타내는 도면,
도 7a 및 도 7b는 본 개시의 일 실시 예에 따라 로봇 외부로 출력되는 광을 설명하기 위한 도면들,
도 8은 본 개시의 일 실시 예에 따른 로봇의 세부 구성을 설명하기 위한 블록도, 그리고
도 9는 본 개시의 일 실시 예에 따른 로봇의 제어 방법을 설명하기 위한 흐름도이다.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다.
덧붙여, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려, 이들 실시 예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.
본 개시에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.
반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다.
대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
실시 예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.
한편, 도면에서의 다양한 요소와 영역은 개략적으로 그려진 것이다. 따라서, 본 발명의 기술적 사상은 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되지 않는다.
이하에서는 첨부한 도면을 참고하여 본 개시에 따른 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
도 1은 본 개시의 일 실시 예에 따른 로봇을 도시한 도면이다.
도 1을 참조하면, 로봇(100)은 몸체(11)를 포함할 수 있다. 몸체(11)는 로봇(100)의 중앙 부분을 구성할 수 있다. 몸체(11)의 양 측에는 한 쌍의 바퀴(21, 22)가 마련될 수 있다. 즉, 몸체(11)의 좌측에는 좌측 바퀴(21)가 마련되고, 몸체(11)의 우측에는 우측 바퀴(22)가 마련될 수 있다. 바퀴(21, 22)는 서로 대칭으로 마련될 수 있다.
몸체(11)와 바퀴(21, 22)로 구성된 로봇(100)의 형상은 구(sphere) 형상일 수 있다. 즉, 로봇(100)은 전체적으로 구 형상일 수 있다.
좌측 바퀴(21) 및 우측 바퀴(22)는 360도 회전 가능하도록 마련될 수 있다. 바퀴(21, 22) 각각에는 몸체(11)와 인접한 부분에 마련되는 접촉부재(23)가 마련될 수 있다. 이 경우, 접촉부재(23)는 바퀴(21, 22)와 몸체(11)의 경계 부분에 마련될 수 있다. 또한, 접촉부재(23)는 바퀴(21, 23)의 외면의 일부를 둘러싸도록 마련되고, 지면과 접촉될 수 있다. 이에 따라, 로봇(100)은 바퀴(21, 22)가 회전되면, 이동할 수 있다.
한편, 로봇(100)은 투명 영역을 포함할 수 있는데, 이하에서 도 1, 도 2 및 도 3a 내지 도 3d를 참조하여 투명 영역에 대해 구체적으로 설명하도록 한다.
본 개시의 일 실시 예에 따르면, 로봇(100)은 투명 영역(31, 32, 33, 34)을 포함할 수 있다. 즉, 몸체(11)의 전면 및 후면 각각의 일부 영역(31, 32)은 투명 영역이고, 좌측 및 우측 바퀴(21, 22) 각각의 일부 영역(33, 34)은 투명 영역일 수 있다.
여기에서, 투명하다는 것은 로봇(100) 내부에 장착된 라이다 센서에서 출력되는 광(즉, 레이저)을 투과(또는 통과)시킬 수 있다는 것을 의미할 수 있다. 이를 위해, 투명 영역(21, 22, 23, 24)은 광을 투과시키는 물질로 구현될 수 있다.
예를 들어, 라이다 센서가 905nm 파장의 광을 출력하는 경우, 투명 영역(31, 32, 33, 34)은 905nm 파장의 광을 투과할 수 있는 물질로 구현될 수 있다. 즉, 투명 영역(31, 32, 33, 34)은 적외선 대역의 빛을 투과할 수 있는 물질로 구현될 수 있다. 다른 예로, 라이다 센서가 1550nm 파장의 광을 출력하는 경우, 투명 영역(31, 32, 33, 34)은 1550nm 파장의 광을 투과할 수 있는 물질로 구현될 수 있다. 즉, 투명 영역(31, 32, 33, 34)은 마이크로파 대역의 빛을 투과할 수 있는 물질로 구현될 수 있다.
한편, 투명 영역(31, 32, 33, 34)은 로봇(100) 내부에 장착된 라이다 센서에서 출력되는 광을 로봇(100) 외부로 방출시키는 역할을 한다는 점에서, 로봇(100) 내부에서 라이다 센서가 장착된 위치에 대응되는 몸체(11) 및 바퀴(21, 22)의 일부 영역에 마련될 수 있다.
예를 들어, 도 2를 참조하면, 라이다 센서(110)는 로봇(100)의 몸체(11) 내부에 장착될 수 있다. 예를 들어, 라이다 센서(110)는 몸체(11)의 하단을 기준으로 기설정된 높이를 갖는 위치에 설치될 수 있다.
라이다 센서(110)는 360도 방향으로 회전하며, 광을 출력할 수 있다. 이를 위해, 라이다 센서(110)는 광을 송수신하기 위한 발광 소자/수광 소자 및 이들 소자를 360도 회전시키기 위한 모터를 포함할 수 있다.
이때, 투명 영역은 몸체(11)의 전면 및 후면 각각에서 라이다 센서(110)의 위치에 대응되는 위치에 마련된 제1 투명 영역 및 좌측 바퀴 및 우측 바퀴 각각에서 도넛 형상으로 마련된 제2 투명 영역을 포함할 수 있다.
예를 들어, 도 2, 도 3a 및 도 3d를 참조하면, 몸체(11)의 전면 및 후면 각각에서 투명 영역(31, 34)은 라이다 센서(110)가 몸체(11) 내에 설치된 높이와 동일한 높이에 형성될 수 있다. 투명 영역(31, 34)의 폭은 몸체(11)의 폭과 동일할 수 있다. 그리고, 투명 영역(31, 34)은 기설정된 두께를 가질 수 있다. 이에 따라, 라이다 센서(110)에서 출력되는 광이 몸체(11)의 전면 및 후면 각각에 마련된 투명 영역(31, 34)을 통해 로봇(100)의 앞뒤 방향으로 방출될 수 있다.
또한, 도 2, 도 3c 및 도 3d를 참조하면, 좌측 바퀴(21) 및 우측 바퀴(22) 각각에 투명 영역(32, 33)은 도넛 형상으로 형성될 수 있다. 이 경우, 바퀴(21, 22)에서 도넛 형상이 형성되는 위치 및 도넛 형상의 두께는 라이다 센서(110)가 몸체(11) 내에 설치된 높이에 기초하여 결정될 수 있다. 예를 들어, 도넛 형상의 외측은 접촉부재(23)와 인접할 수 있다. 그리고, 라이다 센서(110)를 중심으로 하며 지면에 평행한 가상의 평면이 있다고 가정하였을 때, 가상의 평면이 투명 영역(32, 33)을 통과할 수 있도록, 도넛 형상의 두께가 결정될 수 있다. 이에 따라, 좌측 바퀴(21) 및 우측 바퀴(22)가 회전하더라도, 라이다 센서(110)에서 출력되는 광이 좌측 바퀴(21) 및 우측 바퀴(22) 각각에 마련된 투명 영역(32, 33)을 통해 로봇(100)의 좌우측 방향으로 방출될 수 있다.
한편, 전술한 예에서는 몸체(11) 및 바퀴(21, 22)의 일부 영역에 투명 영역이 마련되는 것으로 설명하였으나, 이는 일 예에 불과하다. 예를 들어, 몸체(11)의 전체 영역이 투명 영역으로 형성될 수 있다. 또한, 좌측 바퀴(21) 및 우측 바퀴(22)의 전체 영역이 투명 영역으로 형성될 수 있다.
이와 같이, 본 개시의 일 실시 예에 따라 로봇(100)의 몸체(11) 및 바퀴(21, 22)에 투명 영역(21, 22, 23, 24)을 형성하는 경우, 비록, 라이다 센서(110)에서 출력되는 광이 접촉부재(23)를 통과하지 못해 일정 범위에서 라이다 센서(110)의 화각 손실이 발생될 수 있지만, 대부분 광이 로봇(100) 외부로 출력될 수 있다. 이에 따라, 로봇(100) 내부에 라이다 센서(110)를 설치하여도, 라이다 센서(110)를 이용하여 로봇(100) 주변의 장애물 등을 감지할 수 있게 된다.
한편, 로봇(100)의 주행 시, 관성에 의해 몸체(11)가 기울어지고, 이에 따라, 몸체(11) 내부에 설치된 라이다 센서(110)가 기울어지는 상황이 발생될 수 있다. 이 경우, 라이다 센서(110)에서 출력되는 광은 지면과 평행한 방향이 아닌, 몸체(11)가 기울어진 방향을 향할 수 있다.
예를 들어, 도 4a와 같이, 로봇(100)이 이동을 시작할 때, 로봇(100)의 몸체(11)는 관성에 의해 이동 방향과 반대 방향으로 기울어지는 상황이 발생될 수 있다. 이 경우, 라이다 센서(110)에서 출력되는 광은 위쪽 방향을 향할 수 있다. 다른 예로, 도 4b와 같이, 이동하던 로봇(100)이 정지하면, 로봇(100)의 몸체(11)는 관성에 의해 이동하던 방향으로 기울어지는 상황이 발생될 수 있다. 이 경우, 라이다 센서(110)에서 출력되는 광은 아래쪽 방향으로 향할 수 있다.
이와 같은 경우, 라이다 센서(110)를 통해 로봇(100) 주변의 장애물과의 거리를 정확히 측정할 수 없다.
따라서, 본 개시의 일 실시 예에 따르면, 로봇(100)은 몸체(11)의 자세 및 투명 영역의 굴절률을 고려하여, 광학 장치를 통해 라이다 센서(110)에서 출력된 광의 방향을 변경하여 로봇(100) 외부로 출력할 수 있다. 이에 따라, 본 개시의 일 실시 예에 따르면, 로봇(100)의 몸체(11)가 기울어진 경우에도 지면과 평행하게 광이 출력될 수 있고, 라이다 센서(110)를 통해 주변 장애물과의 거리를 정확히 감지할 수 있게 된다.
도 5는 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하기 위한 블록도이다.
도 5를 참조하면, 로봇(100)은 라이다 센서(110), 센서(120), 광학 장치(130) 및 프로세서(140)를 포함할 수 있다
라이다 센서(110)는 광을 조사하고, 조사된 광이 로봇(100) 주변의 오브젝트(가령, 벽, 가전제품, 가구, 사람, 자동차 등과 같은 장애물)로부터 반사되어 수신되면, 광이 수신된 시간에 기초하여 오브젝트와의 거리를 감지할 수 있다.
이를 위해, 라이다 센서(110)는 발광 소자 및 수광 소자를 포함할 수 있다.
발광 소자는 광을 출력할 수 있다. 발광 소자는 광을 출력하기 위한 회로를 포함할 수 있다. 수광 소자는 출력된 광이 오브젝트에 의해 반사되면, 반사된 광을 수신할 수 있다. 이를 위해, 수광 소자는 광을 수신하기 위한 회로를 포함할 수 있다.
또한, 라이다 센서(110)는 360도 방향으로 회전하며, 광을 출력할 수 있다. 이를 위해, 라이다 센서(110)는 발광 소자 및 수광 소자를 360도 회전시키기 위한 모터를 포함할 수 있다.
센서(120)는 몸체(11)의 자세를 감지할 수 있다. 여기에서, 몸체(11)의 자세는 몸체(11)가 기울어진 각도를 의미할 수 있다.
이를 위해, 센서(120)는 IMU(inertial measurement unit) 센서를 포함할 수 있다. 예를 들어, 센서(120)는 3축 가속도 센서 및 3축 자이로 센서 중 적어도 하나를 이용하여 몸체(11)가 기울어진 각도를 감지할 수 있다. 센서(120)는 프로세서(140)에 탑재되어 있거나, 또는 프로세서(140)와 별도로 로봇(100)에 마련될 수 있다.
광학 장치(130)는 광의 경로를 변경할 수 있다. 이를 위해, 광학 장치(130)는 미러를 포함할 수 있다. 여기에서, 미러는 MEMS(micro electro mechanical system) 미러일 수 있다.
구체적으로, 광학 장치(130)는 미러를 이용하여 라이다 센서(110)에서 출력되는 광을 반사시켜, 반사된 광을 로봇(100)에 마련된 투명 영역(31, 32, 33, 34)를 통해 로봇(100)의 외부로 출력할 수 있다.
그리고, 광학 장치(130)는 로봇(100) 외부로 출력된 광이 로봇(100) 주변의 오브젝트에 의해 반사되어 로봇(100)으로 수신되면, 미러를 이용하여 수신된 광을 반사시켜, 라이다 센서(110)로 출력할 수 있다.
이를 위해, 미러는 각도 조정이 가능하며, 발광 소자의 전방에 배치된 제1 미러를 포함할 수 있다. 또한, 미러는 각도 조정이 가능하며, 수광 소자의 전방에 배치된 제2 미러를 포함할 수 있다.
프로세서(140)는 로봇(100)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(140)는 라이다 센서(110), 센서(120) 및 광학 장치(130)를 포함하는 로봇(100)의 구성과 연결되며, 메모리에 저장된 적어도 하나의 인스트럭션을 실행함으로써, 로봇(100)의 동작을 전반적으로 제어할 수 있다. 이 경우, 프로세서(140)는 하나의 프로세서로 구현될 수 있을 뿐만 아니라, 복수의 프로세서로 구현될 수도 있다. 한편, 본 개시에서 프로세서(140)라는 용어는 CPU(central processing unit), AP(application processor) 등을 포함하는 의미로 사용될 수 있다.
프로세서(140)는 센서(120)를 통해 몸체(11)의 자세에 대한 정보를 획득할 수 있다. 여기에서, 몸체(11)의 자세는 몸체(11)가 기울어진 각도를 의미할 수 있다.
또한, 프로세서(140)는 획득된 몸체(11)의 자세 및 투명 영역(31, 32, 33, 34)의 굴절률에 기초하여 미러의 틸팅 각도에 대한 정보를 획득할 수 있다. 그리고, 프로세서(140)는 획득된 틸팅 각도에 대한 정보에 기초하여 미러를 제어할 수 있다.
즉, 로봇(100)의 몸체(11)가 기울어지는 경우, 몸체(11) 내부에 설치된 라이다 센서(110)도 기울어지고, 이에 따라, 라이다 센서(110)에서 출력되는 광 역시 몸체(11)가 기울어진 방향으로 출력될 수 있다.
이러한 점을 방지하기 위해, 프로세서(140)는 몸체(11)의 자세에 대응되는 미러의 틸팅 각도에 대한 정보를 획득하고, 획득된 틸팅 각도에 따라 미러가 기울어지도록 미러의 각도를 조정할 수 있다. 이에 따라, 몸체(11)가 기울어진 상황에서도, 미러에 의해 반사된 광은 지면과 평행한 방향으로 출력될 수 있다.
한편, 라이다 센서(110)는 로봇(100) 내부에 탑재되고, 라이다 센서(110)에서 출력된 광은 투명 영역(31, 32, 33, 34)을 투과하여 로봇(100) 외부로 출력된다. 여기에서, 광이 투명 영역(31, 32, 33, 34)을 통과할 때, 투명 영역(31, 32, 33, 34)에 의해 굴절될 수 있다. 이에 따라, 프로세서(140)는 로봇(100)의 몸체(11)의 자세 뿐만 아니라 투명 영역(31, 32, 33, 34)의 굴절률까지 고려하여 미러의 각도를 조정하여, 투명 영역(31, 32, 33, 34)을 통과한 광이 수평한 방향으로 나아갈 수 있도록 할 수 있다.
이를 위해, 로봇(100)은 투명 영역(31, 32, 33, 34)의 굴절률에 기초하여 획득된 몸체(11)의 복수의 자세에 대응되는 복수의 틸팅 각도에 대한 정보가 저장된 메모리를 더 포함할 수 있다.
여기에서, 복수의 틸팅 각도는 복수의 몸체의 자세 각각에서 미러에 의해 반사된 광이 투명 영역에 의해 굴절되어 지면과 평행한 방향으로 출력되도록 하는 각도일 수 있다. 즉, 투명 영역으로부터 로봇(100) 외부로 출력된 빛은 수평한 방향으로 진행할 수 있다.
이러한 복수의 틸팅 각도는 실험적으로 측정되어, 로봇(100)의 메모리에 저장될 수 있다. 구체적으로, 본 개시의 일 실시 예에 따르면, 광이 어떠한 입사 각도로 투명 영역으로 입사되어야 투명 영역에서 굴절된 후 투명 영역 밖으로 출력될 때, 지면과 평행한 방향으로 출력되는지를 측정할 수 있다. 그리고, 몸체(11)가 기울어진 각도 별로, 라이다 센서(110)에서 출력된 광이 측정된 입사 각도로 투명 영역에 입사되기 위해, 미러가 어느 정도 기울어져야 하는지를 측정할 수 있다. 이와 같은 방법에 따라 몸체(11)가 기울어진 각도 별로 미러의 틸팅 각도가 측정되고, 측정된 틸팅 각도에 대한 정보가 메모리에 저장될 수 있다.
이에 따라, 프로세서(140)는 메모리에 저장된 정보 중 획득된 몸체(11)의 자세에 대응되는 미러의 틸팅 각도에 대한 정보를 획득할 수 있다. 즉, 프로세서(140)는 센서(120)를 통해 몸체(11)가 기울어진 각도에 대한 정보를 획득하고, 몸체(11)의 복수의 각도에 매칭되어 저장된 복수의 틸팅 각도 중에서 센서(120)를 통해 획득된 각도에 대응되는 틸팅 각도를 식별할 수 있다.
예를 들어, 도 6과 같이, 메모리에는 몸체(11)의 각도 별로, 그에 대응되는 미러의 틸팅 각도에 대한 정보(610)가 테이블 형태로 저장되어 있을 수 있다. 일 예로, 센서(120)에 의해 감지된 몸체(11)의 각도가 a1인 것으로 가정한다. 이 경우, 프로세서(140)는 복수의 틸팅 각도(θ1, θ2, θ3,...) 중 몸체(11)의 각도 a1에 매칭된 틸팅 각도(θ1)를 획득할 수 있다.
프로세서(140)는 획득된 틸팅 각도에 따라 미러가 기울어지도록 미러의 각도를 조정할 수 있다. 그리고, 프로세서(140)는 라이다 센서(110)를 통해 광을 출력할 수 있다. 이에 따라, 라이다 센서(110)에서 출력된 광은 미러에 의해 반사되어, 투명 영역을 통해 로봇(100) 외부로 출력될 수 있다.
구체적으로, 프로세서(140)는 획득된 틸팅 각도로 제1 미러 및 제2 미러가 기울어지도록 제1 미러 및 제2 미러의 각도를 조정할 수 있다. 이에 따라, 발광 소자에서 출력된 광은 제1 미러에 의해 반사된 후 투명 영역에 의해 굴절되어 로봇(100) 외부로 출력될 수 있다. 이 경우, 출력된 광은 수평으로 날아갈 수 있다. 또한, 로봇(100) 외부로 출력된 광이 로봇(100) 주변의 오브젝트에 의해 반사되면, 반사된 광은 투명 영역을 통해 로봇(100) 내부로 들어올 수 있다. 이때, 광은 제2 미러에 의해 반사되어 라이다 센서(110)로 제공될 수 있다.
예를 들어, 도 7a와 같이, 로봇(100)의 몸체(11)가 반시계 방향으로 기울어진 경우를 가정한다. 프로세서(140)는 몸체(11)의 기울어진 각도에 대응되는 미러의 틸팅 각도(가령, θ2)를 획득하고, 틸팅 각도(θ2) 만큼 제1 미러(131) 및 제2 미러(132)가 기울어지도록 제1 미러(131) 및 제2 미러(132)를 제어할 수 있다.
이에 따라, 발광 소자(111)에서 출력된 광은 틸팅 각도(θ2) 만큼 기울어진 제1 미러(131)에 의해 반사되고, 반사된 광은 투명 영역에 의해 굴절되어 로봇(100) 외부로 출력될 수 있다. 이때, 로봇(100) 외부로 출력된 광은 수평으로 진행할 수 있다(도 7a의 ① 참조). 또한, 투명 영역을 통과하여 로봇(100) 외부로 출력된 광이 로봇(100) 주변의 오브젝트에 의해 반사되어 로봇(100)에 수신될 수 있다. 이 경우, 반사된 광은 투명 영역에 의해 굴절되고, 굴절된 광은 틸팅 각도(θ2) 만큼 제2 미러(132)에 의해 반사되어 수광 소자(112)에 수신될 수 있다(도 7a의 ② 참조).
다른 예로, 도 7b와 같이, 로봇(100)의 몸체(11)가 시계 방향으로 기울어진 경우를 가정한다. 프로세서(140)는 몸체(11)의 기울어진 각도에 대응되는 미러의 틸팅 각도(가령, θ3)를 획득하고, 틸팅 각도(θ3) 만큼 제1 미러(131) 및 제2 미러(132)가 기울어지도록 제1 미러(131) 및 제2 미러(132)를 제어할 수 있다.
이에 따라, 발광 소자(111)에서 출력된 광은 틸팅 각도(θ3) 만큼 기울어진 제1 미러(131)에 의해 반사되고, 반사된 광은 투명 영역에 의해 굴절되어 로봇(100) 외부로 출력될 수 있다. 이때, 로봇(100) 외부로 출력된 광은 수평으로 진행할 수 있다(도 7b의 ① 참조). 또한, 투명 영역을 통과하여 로봇(100) 외부로 출력된 광이 로봇(100) 주변의 오브젝트에 의해 반사되어 로봇(100)에 수신될 수 있다. 이 경우, 반사된 광은 투명 영역에 의해 굴절되고, 굴절된 광은 틸팅 각도(θ3) 만큼 제2 미러(132)에 의해 반사되어 수광 소자(112)에 수신될 수 있다(도 7b의 ② 참조).
이상과 같은 본 개시의 일 실시 예에 따르면, 로봇(100)의 몸체(11)가 기울어진 경우에도, 로봇(100) 내부에 설치된 라이다 센서(110)에서 출력된 광이 로봇(100) 외부에서 지면과 평행하게 날아갈 수 있게 된다. 이에 따라, 라이다 센서(110)가 내부에 탑재된 로봇(100)의 몸체(11)가 기울어진 경우에도, 주변 장애물을 정확히 감지할 수 있게 된다.
한편, 프로세서(140)는 라이다 센서(110)를 통해 로봇(100) 주변의 오브젝트와의 거리를 식별할 수 있다.
구체적으로, 프로세서(140)는 라이다 센서(110)에서 출력된 광이 로봇(100) 주변의 오브젝트로부터 반사되어 수신되면, 광이 수신된 시간에 기초하여 로봇(100)과 오브젝트 간의 거리를 감지할 수 있다.
그리고, 프로세서(140)는 감지된 거리를 이용하여 다양한 동작을 수행할 수 있다. 예를 들어, 프로세서(140)는 감지된 거리 및 SLAM(simultaneous localization and mapping) 알고리즘을 이용하여, 로봇(100)이 위치하는 공간에 대한 맵을 생성하거나, 맵 상에서 로봇(100)의 위치를 식별할 수 있다. 또한, 프로세서(140)는 맵 상에서 로봇(100)의 위치를 고려하여, 주행 계획을 수립하고, 맵 상에서 오브젝트를 회피하여 주행하도록 로봇(100)을 제어할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 로봇의 세부 구성을 설명하기 위한 블록도이다.
도 8에 도시된 바와 같이, 로봇(100)은 라이다 센서(110), 센서(120), 광학 장치(130) 및 프로세서(140) 뿐만 아니라, 메모리(150), 구동부(160), 통신부(160), 입력부(170) 및 출력부(180) 등을 더 포함할 수 있다. 그러나, 이와 같은 구성은 예시적인 것으로서, 본 개시를 실시함에 있어 이와 같은 구성에 더하여 새로운 구성이 추가되거나 일부 구성이 생략될 수 있음을 물론이다. 한편, 도 8을 설명함에 있어, 도 1 내지 도 7과 중복되는 설명은 생략하도록 한다.
메모리(150)는 로봇(100)을 구동시키기 위한 적어도 하나의 인스트럭션(instruction) 및 적어도 하나의 소프트웨어 프로그램이 저장될 수 있다. 이 경우, 메모리(150)는 플래시 메모리(Flash Memory) 등과 같은 반도체 메모리 등을 포함할 수 있다. 한편, 본 개시에서 메모리(130)라는 용어는 메모리(150), 프로세서(140) 내 롬(미도시), 램(미도시) 또는 로봇(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함하는 의미로 사용될 수 있다.
특히, 메모리(150)는 투명 영역(31, 32, 33, 34)의 굴절률에 기초하여 획득된 몸체(11)의 복수의 자세에 대응되는 복수의 틸팅 각도에 대한 정보가 저장될 수 있다. 이 경우, 프로세서(140)는 메모리(150)에 저장된 정보를 이용하여, 센서(120)를 통해 획득된 몸체(11)의 자세에 대응되는 미러의 틸팅 각도에 대한 정보를 획득할 수 있다.
구동부(160)는 바퀴(21, 22)를 구동시키기 위한 구성이다. 이를 위해, 구동부(160)는 바퀴(21, 22)에 연결되는 회전축 및 회전축에 동력을 전달하여 바퀴(21, 22)를 구동시키기 위한 모터 등을 포함할 수 있다. 이에 따라, 프로세서(140)는 구동부(160)를 통해 바퀴(21, 22)를 구동하여, 로봇(100)의 이동, 정지, 속도 제어, 방향 전환 및 각속도 변경 등과 같은 다양한 주행 동작을 수행할 수 있다. 예를 들어, 프로세서(140)는 라이다 센서(110)를 통해 획득된 오브젝트와의 거리 등에 대한 정보를 이용하여, 오브젝트를 회피하여 주행하도록 구동부(160)를 제어할 수 있다.
통신부(170)는 회로를 포함한다. 통신부(170)는 외부 장치와의 통신을 수행할 수 있다. 프로세서(140)는 통신부(170)를 통해 연결된 외부 장치로부터 각종 데이터 또는 정보를 수신할 수 있으며, 외부 장치로 각종 데이터 또는 정보를 전송할 수도 있다.
입력부(180)는 회로를 포함한다. 입력부(180)는 로봇(100)에서 지원하는 각종 기능을 설정 또는 선택하기 위한 사용자 명령을 입력받을 수 있다. 이를 위해, 입력부(180)는 복수의 버튼을 포함할 수 있다. 또한, 입력부(180)는 디스플레이(191)의 기능을 동시에 수행할 수 있는 터치 스크린으로 구현될 수도 있다.
이 경우, 프로세서(140)는 입력부(180)를 통해 입력된 사용자 명령에 기초하여 로봇(100)의 동작을 제어할 수 있다. 예를 들어, 프로세서(140)는 로봇(100)의 입력부(180)를 통해 입력된 로봇(100)의 온/오프 명령, 로봇(100)의 기능의 온/오프 명령 등에 기초하여, 로봇(100)을 제어할 수 있다.
출력부(190)는 디스플레이(191) 및 스피커(192)를 포함할 수 있다.
디스플레이(191)는 다양한 정보를 표시할 수 있다. 이를 위해, 디스플레이(191)는 LCD(Liquid Crystal Display) 등으로 구현될 수 있다. 디스플레이(191)는 입력부(180)의 기능을 동시에 수행할 수 있는 터치 스크린으로 구현될 수도 있다. 구체적으로, 프로세서(140)는 로봇(100)의 동작과 관련된 정보를 디스플레이(191)에 표시할 수 있다.
스피커(192)는 오디오를 출력할 수 있다. 구체적으로, 프로세서(140)는 로봇(100)의 동작과 관련된 다양한 알림음 또는 음성 안내 메시지를 스피커(192)를 통해 출력할 수 있다.
한편, 도 8에 도시되지 않았지만, 로봇(100)은 카메라를 더 포함할 수 있다. 카메라는 로봇(100)의 전방을 촬영할 수 있다. 이 경우, 프로세서(140)는 카메라를 통해 획득된 이미지에서 오브젝트를 인식하여, 로봇(100) 주변에 존재하는 오브젝트의 종류, 크기, 오브젝트와의 거리 등에 대한 정보를 획득할 수 있다. 그리고, 프로세서(140)는 식별된 오브젝트를 회피하여 주행하도록 구동부(160)를 제어할 수 있다.
도 9는 본 개시의 일 실시 예에 따른 로봇의 제어 방법을 설명하기 위한 흐름도이다.
여기에서, 로봇은 몸체 내부에 라이다 센서가 장착될 수 있다.
먼저, 몸체의 자세에 대한 정보를 획득한다(S910).
이후, 획득된 몸체의 자세 및 로봇에 마련된 투명 영역의 굴절률에 기초하여 미러의 틸팅 각도에 대한 정보를 획득한다(S920).
그리고, 획득된 틸팅 각도에 대한 정보에 기초하여 미러를 제어한다(S930).
그리고, 미러를 통해 라이다 센서에서 출력되는 광을 반사시켜, 반사된 광을 투명 영역을 로봇의 외부로 출력한다(S940).
한편, S920 단계는 투명 영역의 굴절률에 기초하여 획득된 몸체의 복수의 자세에 대응되는 복수의 틸팅 각도에 대한 정보 중 획득된 몸체의 자세에 대응되는 틸팅 각도에 대한 정보를 획득할 수 있다.
여기에서, 복수의 틸팅 각도는 복수의 몸체의 자세 각각에서 미러에 의해 반사된 광이 투명 영역에 의해 굴절되어 지면과 평행한 방향으로 출력되도록 하는 각도일 수 있다.
한편, 로봇의 중앙 부분을 구성하는 몸체의 좌측 및 우측에는 360도 회전 가능한 좌측 바퀴 및 우측 바퀴가 마련될 수 있다. 몸체 및 바퀴로 구성된 로봇의 형상은 구 형상일 수 있다. 또한, 라이더 센서는 360도 회전하며 광을 출력할 수 있다
여기에서, 투명 영역은 몸체의 전면 및 후면 각각에서 라이다 센서의 위치에 대응되는 위치에 마련된 제1 투명 영역 및 좌측 바퀴 및 우측 바퀴 각각에서 도넛 형상으로 마련된 제2 투명 영역을 포함할 수 있다.
한편, 라이다 센서는 광을 출력하기 위한 발광 소자 및 출력된 광이 오브젝트에 의해 반사되면, 반사된 광을 수신하기 위한 수광 소자를 포함한다. 그리고, 미러는 각도 조정이 가능하며, 발광 소자의 전방에 배치된 제1 미러를 포함할 수 있다. 미러는 각도 조정이 가능하며, 수광 소자의 전방에 배치된 제2 미러를 포함할 수 있다.
여기에서, S930 단계는 획득된 틸팅 각도로 제1 미러 및 제2 미러가 기울어지도록 제1 미러 및 제2 미러의 각도를 조정할 수 있다.
한편, 투명 영역은 라이다 센서에서 출력되는 광을 투과시키는 물질로 구현될 수 있다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
이상에서 상술한 바와 같은 본 개시의 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다.
다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
한편, 본 개시에서 사용된 용어 "부" 또는 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "부" 또는 "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
한편, 본 개시에 따른 제어 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 본 개시의 실시 예는 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 로봇(100))를 포함할 수 있다.
상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.
110 : 라이다 센서 120 : 센서
130 : 광학 장치 140 : 프로세서

Claims (16)

  1. 로봇에 있어서,
    상기 로봇의 몸체 내부에 장착된 라이다 센서;
    상기 몸체의 자세를 감지하기 위한 센서;
    미러를 이용하여 상기 라이다 센서에서 출력되는 광을 반사시켜, 상기 반사된 광을 상기 로봇에 마련된 투명 영역을 통해 상기 로봇의 외부로 출력하는 광학 장치; 및
    상기 센서를 통해 상기 몸체의 자세에 대한 정보를 획득하고, 상기 획득된 몸체의 자세 및 상기 투명 영역의 굴절률에 기초하여 상기 미러의 틸팅 각도에 대한 정보를 획득하고, 상기 획득된 틸팅 각도에 대한 정보에 기초하여 상기 미러를 제어하는 프로세서;를 포함하는 로봇.
  2. 제1항에 있어서,
    상기 투명 영역의 굴절률에 기초하여 획득된 몸체의 복수의 자세에 대응되는 복수의 틸팅 각도에 대한 정보가 저장된 메모리;를 더 포함하며,
    상기 프로세서는,
    상기 매모리에 저장된 정보 중 상기 획득된 몸체의 자세에 대응되는 틸팅 각도에 대한 정보를 획득하는 로봇.
  3. 제2항에 있어서,
    상기 복수의 틸팅 각도는,
    상기 복수의 몸체의 자세 각각에서 상기 미러에 의해 반사된 광이 상기 투명 영역에 의해 굴절되어 지면과 평행한 방향으로 출력되도록 하는 각도인 로봇.
  4. 제1항에 있어서,
    상기 로봇의 중앙 부분을 구성하는 몸체의 좌측 및 우측에는, 360도 회전 가능한 좌측 바퀴 및 우측 바퀴가 마련되며,
    상기 몸체 및 상기 바퀴로 구성된 상기 로봇의 형상은, 구 형상이며,
    상기 라이더 센서는, 360도 회전하며 상기 광을 출력하는 로봇.
  5. 제4항에 있어서,
    상기 투명 영역은,
    상기 몸체의 전면 및 후면 각각에서 상기 라이다 센서의 위치에 대응되는 위치에 마련된 제1 투명 영역 및 상기 좌측 바퀴 및 우측 바퀴 각각에서 도넛 형상으로 마련된 제2 투명 영역을 포함하는 로봇.
  6. 제1항에 있어서,
    상기 라이다 센서는,
    상기 광을 출력하기 위한 발광 소자; 및
    상기 출력된 광이 오브젝트에 의해 반사되면, 상기 반사된 광을 수신하기 위한 수광 소자;를 포함하며,
    상기 미러는,
    각도 조정이 가능하며, 상기 발광 소자의 전방에 배치된 제1 미러; 및
    각도 조정이 가능하며, 상기 수광 소자의 전방에 배치된 제2 미러;를 포함하는 로봇.
  7. 제6항에 있어서,
    상기 프로세서는,
    상기 획득된 틸팅 각도로 상기 제1 미러 및 상기 제2 미러가 기울어지도록 상기 제1 미러 및 상기 제2 미러의 각도를 조정하는 로봇.
  8. 제1항에 있어서,
    상기 투명 영역은, 상기 라이다 센서에서 출력되는 광을 투과시키는 물질로 구현되는 로봇.
  9. 몸체 내부에 라이다 센서가 장착된 로봇의 제어 방법에 있어서,
    상기 몸체의 자세에 대한 정보를 획득하는 단계;
    상기 획득된 몸체의 자세 및 상기 로봇에 마련된 투명 영역의 굴절률에 기초하여 미러의 틸팅 각도에 대한 정보를 획득하는 단계;
    상기 획득된 틸팅 각도에 대한 정보에 기초하여 상기 미러를 제어하는 단계; 및
    상기 미러를 통해 상기 라이다 센서에서 출력되는 광을 반사시켜, 상기 반사된 광을 상기 투명 영역을 통해 상기 로봇의 외부로 출력하는 단계;를 포함하는 제어 방법.
  10. 제9항에 있어서,
    상기 미러의 틸팅 각도에 대한 정보를 획득하는 단계는,
    상기 투명 영역의 굴절률에 기초하여 획득된 몸체의 복수의 자세에 대응되는 복수의 틸팅 각도에 대한 정보 중 상기 획득된 몸체의 자세에 대응되는 틸팅 각도에 대한 정보를 획득하는 제어 방법.
  11. 제10항에 있어서,
    상기 복수의 틸팅 각도는,
    상기 복수의 몸체의 자세 각각에서 상기 미러에 의해 반사된 광이 상기 투명 영역에 의해 굴절되어 지면과 평행한 방향으로 출력되도록 하는 각도인 제어 방법.
  12. 제9항에 있어서,
    상기 로봇의 중앙 부분을 구성하는 몸체의 좌측 및 우측에는, 360도 회전 가능한 좌측 바퀴 및 우측 바퀴가 마련되며,
    상기 몸체 및 상기 바퀴로 구성된 상기 로봇의 형상은, 구 형상이며,
    상기 라이더 센서는, 360도 회전하며 상기 광을 출력하는 제어 방법.
  13. 제12항에 있어서,
    상기 투명 영역은,
    상기 몸체의 전면 및 후면 각각에서 상기 라이다 센서의 위치에 대응되는 위치에 마련된 제1 투명 영역 및 상기 좌측 바퀴 및 우측 바퀴 각각에서 도넛 형상으로 마련된 제2 투명 영역을 포함하는 제어 방법.
  14. 제9항에 있어서,
    상기 라이다 센서는,
    상기 광을 출력하기 위한 발광 소자; 및
    상기 출력된 광이 오브젝트에 의해 반사되면, 상기 반사된 광을 수신하기 위한 수광 소자;를 포함하며,
    상기 미러는,
    각도 조정이 가능하며, 상기 발광 소자의 전방에 배치된 제1 미러; 및
    각도 조정이 가능하며, 상기 수광 소자의 전방에 배치된 제2 미러;를 포함하는 제어 방법.
  15. 제14항에 있어서,
    상기 제어하는 단계는,
    상기 획득된 틸팅 각도로 상기 제1 미러 및 상기 제2 미러가 기울어지도록 상기 제1 미러 및 상기 제2 미러의 각도를 조정하는 제어 방법.
  16. 제9항에 있어서,
    상기 투명 영역은, 상기 라이다 센서에서 출력되는 광을 투과시키는 물질로 구현되는 제어 방법.
KR1020220094789A 2022-07-29 2022-07-29 라이다 센서가 탑재된 로봇 및 그의 제어 방법 KR20240016707A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220094789A KR20240016707A (ko) 2022-07-29 2022-07-29 라이다 센서가 탑재된 로봇 및 그의 제어 방법
PCT/KR2023/006102 WO2024025093A1 (ko) 2022-07-29 2023-05-04 라이다 센서가 탑재된 로봇 및 그의 제어 방법
US18/203,860 US20240036213A1 (en) 2022-07-29 2023-05-31 Robot comprising lidar sensor and method controlling robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220094789A KR20240016707A (ko) 2022-07-29 2022-07-29 라이다 센서가 탑재된 로봇 및 그의 제어 방법

Publications (1)

Publication Number Publication Date
KR20240016707A true KR20240016707A (ko) 2024-02-06

Family

ID=89706897

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220094789A KR20240016707A (ko) 2022-07-29 2022-07-29 라이다 센서가 탑재된 로봇 및 그의 제어 방법

Country Status (2)

Country Link
KR (1) KR20240016707A (ko)
WO (1) WO2024025093A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2712061B2 (ja) * 1991-04-11 1998-02-10 本田技研工業株式会社 移動体の位置検出装置
JP2005288655A (ja) * 2004-04-02 2005-10-20 Victor Co Of Japan Ltd 移動ロボット
JP2006004334A (ja) * 2004-06-21 2006-01-05 Toshiba Tec Corp 自律走行ロボット
AU2011352997B2 (en) * 2010-12-30 2015-06-18 Irobot Corporation Mobile human interface robot
KR20220102058A (ko) * 2021-01-12 2022-07-19 삼성전자주식회사 로봇 및 그 제어 방법

Also Published As

Publication number Publication date
WO2024025093A1 (ko) 2024-02-01

Similar Documents

Publication Publication Date Title
KR102570355B1 (ko) 라이다 장치 및 라이다 장치에 이용되는 회전 다면 미러
EP3257420A1 (en) Cleaning robot and control method therefor
JP7022547B2 (ja) ロボット
KR20190047595A (ko) 색 선별 거울을 이용하는 자율 주행 차량용 3d lidar 시스템
US20200326775A1 (en) Head-mounted display device and operating method of the same
JP2019060871A (ja) 物体に接触して姿勢及び力を検出するための変形可能なセンサ及び方法
US10747229B2 (en) Environment arrangement robot and control program thereof
US9291447B2 (en) Method for controlling motion of a coordinate measuring machine
KR102551686B1 (ko) 외부 전자 장치의 위치 및 움직임에 기반하여 외부 전자 장치와 관련된 객체를 표시하는 전자 장치 및 방법
US11192253B2 (en) Systems and methods for conditional robotic teleoperation
TWI582676B (zh) 物件指示符顯示技術
WO2011108210A1 (ja) 三次元測距装置及び移動ロボット
US11548432B2 (en) Apparatus for emitting road surface information and method thereof
US10860032B2 (en) System and method for adaptive infrared emitter power optimization for simultaneous localization and mapping
KR20240016707A (ko) 라이다 센서가 탑재된 로봇 및 그의 제어 방법
KR102293657B1 (ko) 이동 로봇
US20240036213A1 (en) Robot comprising lidar sensor and method controlling robot
JP2023157020A (ja) 自走装置
US9417688B2 (en) Measurement method, measurement device, projection apparatus, and computer-readable recording medium
KR20200130885A (ko) 이동 로봇
US11653808B2 (en) Robot cleaner and controlling method thereof
JP6098386B2 (ja) プロジェクタ
US11548154B2 (en) Systems and methods for dimensionally-restricted robotic teleoperation
Święcki et al. Tests of selected sensors applicable in autonomous mini sumo robots
KR20240041655A (ko) 질량부를 이용하여 무게 중심을 이동시키는 로봇 및 그의 무게 중심 이동 방법