KR20210060038A - 로봇 및 그 제어 방법 - Google Patents

로봇 및 그 제어 방법 Download PDF

Info

Publication number
KR20210060038A
KR20210060038A KR1020190147588A KR20190147588A KR20210060038A KR 20210060038 A KR20210060038 A KR 20210060038A KR 1020190147588 A KR1020190147588 A KR 1020190147588A KR 20190147588 A KR20190147588 A KR 20190147588A KR 20210060038 A KR20210060038 A KR 20210060038A
Authority
KR
South Korea
Prior art keywords
projector
main body
robot
disposed
processor
Prior art date
Application number
KR1020190147588A
Other languages
English (en)
Inventor
손정규
김진수
김보연
이혜선
김비나
서민아
강진원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190147588A priority Critical patent/KR20210060038A/ko
Priority to US16/803,277 priority patent/US11717955B2/en
Publication of KR20210060038A publication Critical patent/KR20210060038A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/04Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs motor-driven
    • A61G5/041Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs motor-driven having a specific drive-type
    • A61G5/045Rear wheel drive
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • A61G5/1094Tables, working plates or trays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • A61G5/12Rests specially adapted therefor, e.g. for the head or the feet
    • A61G5/125Rests specially adapted therefor, e.g. for the head or the feet for arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • A61G5/12Rests specially adapted therefor, e.g. for the head or the feet
    • A61G5/128Rests specially adapted therefor, e.g. for the head or the feet for feet
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • H04N9/3161Modulator illumination systems using laser light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/14Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/20Displays or monitors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • A61G2203/36General characteristics of devices characterised by sensor means for motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/30General characteristics of devices characterised by sensor means
    • A61G2203/40General characteristics of devices characterised by sensor means for distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/70General characteristics of devices with special adaptations, e.g. for safety or comfort
    • A61G2203/72General characteristics of devices with special adaptations, e.g. for safety or comfort for collision prevention
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/04Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs motor-driven
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G5/00Chairs or personal conveyances specially adapted for patients or disabled persons, e.g. wheelchairs
    • A61G5/10Parts, details or accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs

Abstract

본 실시 예는 적어도 주행휠과, 주행휠을 회전시키는 주행모터가 제공된 본체와; 본체의 상측에 배치된 착석 바디와; 본체의 좌측에 배치되어 좌측 아래를 향해 빔을 주사하는 좌측 프로젝터와; 본체의 우측에 배치되어 우측 아래를 향해 빔을 주사하는 우측 프로젝터와; 주행모터와, 좌측 프로젝터 및 우측 프로젝터를 제어하는 프로세서를 포함한다.

Description

로봇 및 그 제어 방법{Robot and Control method of the same}
본 발명은 로봇 및 그 제어 방법에 관한 것이다.
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계로서, 로봇의 응용분야는 대체로, 산업용, 의료용, 우주용, 해저용 등으로 분류될 수 있고, 다양한 분야에서 사용될 수 있다.
최근에는 공항이나 관공서 등에서 각종 안내 서비스를 제공하는 안내 로봇(Guidance Robot)이나, 물품을 운반하는 운반 로봇이나, 사용자가 탑승하는 탑승형 로봇이 점차 증가되는 추세이다.
로봇은 외부로 각종 정보를 전달하기 위한 이미지나 영상 등을 주사할 수 있는 프로젝션을 포함하는 것이 가능하고, 이러한 프로젝션의 일 예는 대한민국 등록특허공보 10-1089735(2011년12월07일 공고)에 개시된 바닥면에 도넛 형상으로 이미지 빔을 출력하는 프로젝션이 있다.
상기 프로젝션은 이동이 가능하며 영상을 주사할 수 있는 외부 영상제공장치로 구성된 이동 로봇과, 이동 로봇의 상단에서 세로로 세워지게 놓여지고 상단 방향으로 이미지 빔을 출력시키기 위한 빔 프로젝터와, 빔 프로젝터의 이미지 빔을 전방으로 확대시키는 확대 렌즈부와, 확대 렌즈부 상측에 위치되어 확대 렌즈부에서 출력된 이미지 빔을 바닥측으로 확대 반시시키는 역 원뿔 형태의 반사경을 포함한다.
대한민국 등록특허공보 10-1089735(2011년12월07일 공고)
종래 기술에 따른 로봇은 이동로봇 위에 배치된 빔 프로젝터 및 반사경으로 인해 사용자가 탑승로봇에 탑승하여 이동하기 용이하지 않은 문제점이 있다.
본 발명은 탑승자가 착석 바디에 앉은 상태로 이동될 수 있고, 착석 바디에 앉은 탑승자나 주변의 보행자가 로봇의 좌측 또는 우측에 형성된 빔에 의해 로봇의 정보를 쉽게 인지할 수 있는 로봇 및 그 제어 방법을 제공하는데 있다.
본 발명의 다른 목적은 탑승자의 신속한 이동을 도울 수 있는 로봇 및 그 제어 방법을 제공하는 데 있다.
본 발명의 실시 예에 따른 로봇은 적어도 주행휠과, 주행휠을 회전시키는 주행모터가 제공된 본체와; 본체의 상측에 배치된 착석 바디와; 본체의 좌측에 배치되어 좌측 아래를 향해 빔을 주사하는 좌측 프로젝터와; 본체의 우측에 배치되어 우측 아래를 향해 빔을 주사하는 우측 프로젝터와; 주행모터와, 좌측 프로젝터 및 우측 프로젝터를 제어하는 프로세서를 포함한다.
로봇은 본체의 전방 하부에 배치된 발 받침대를 더 포함할 수 있다. 좌측 프로젝터의 빔 주사 영역은 바닥 중 본체의 좌측 아래의 지점부터 발 받침대의 좌측 아래의 지점까지를 포함할 수 있다. 그리고, 우측 프로젝터의 빔 주사 영역은 바닥 중 상기 본체의 우측 아래의 지점부터 발 받침대의 우측 아래의 지점까지를 포함할 수 있다.
좌측 프로젝터와 우측 프로젝터 중 어느 하나의 온시, 좌측 프로젝터와 우측 프로젝터 중 다른 하나는 오프 유지될 수 있다.
프로세서는 본체의 방향전환 이전에, 좌측 프로젝터 및 우측 프로젝터 중 본체의 방향전환과 대응되는 프로젝터를 미리 온시킬 수 있다.
프로세서는 좌측 프로젝터과 우측 프로젝터 중 어느 하나의 온이 유지되는 도중에 본체의 방향을 전환 개시할 수 있다.
프로세서는 좌측 프로젝터과 우측 프로젝터 중 어느 하나의 온 이후 설정시간이 경과되면, 본체의 방향을 전환할 수 있다.
프로세서는 본체의 방향 전환 도중에 온된 프로젝터의 온 상태를 유지할 수 있다.
프로세서는 본체의 방향 전환이 완료되면, 온된 프로젝터를 오프시킬 수 있다.
본체에는 좌측 프로젝터가 배치되는 좌측 홀과, 우측 프로젝터가 개치되는 우측 홀이 형성될 수 있다.
좌측 홀은 좌측 방향과 전방 방향의 사이를 향하고 하측 방향으로 경사지게 형성될 수 있다. 우측 홀은 우측 방향과 전방 방향의 사이를 향하고 하측 방향으로 경사지게 형성될 수 있다.
좌측 프로젝터와 우측 프로젝터 각각은 레이져 라이트 모듈과, 본체에 형성된 홀에 배치된 모듈 캡과, 모듈 캡 외면을 덮는 투과판을 포함할 수 있다.
좌측 프로젝터와 우측 프로젝터 각각은 전후 방향으로 발 받침대와 이격될 수 있다.
좌측 프로젝터와 우측 프로젝터 각각의 적어도 일부는 전후 방향으로 발 받침대를 향할 수 있다.
로봇은 본체와; 본체에 이격되게 배치된 좌측 주행휠 및 우측 주행휠과; 좌측 주행휠을 회전시키는 좌측 주행모터와; 우측 주행휠을 회전시키는 우측 주행모터와; 본체의 상측에 배치된 착석 바디와; 본체의 좌측에 배치되어 좌측 좌측 아래를 향해 빔을 주사하는 좌측 프로젝터와; 본체의 우측에 배치되어 우측 아래를 향해 빔을 주사하는 우측 프로젝터와; 좌측 주행모터와 우측 주행모터와 좌측 프로젝터 및 우측 프로젝터를 제어하는 프로세서를 포함할 수 있다. 프로세서는 좌측 방향전환 이전에 좌측 프로젝터를 온시키고, 좌측 프로젝터의 온시킨 이후에 우측 주행모터를 좌측 주행모터 보다 고속으로 회전시킬 수 있다. 프로세서는 우측 방향전환 이전에 우측 프로젝터를 온시키고, 우측 프로젝터의 온시킨 이후에 좌측 주행모터를 우측 주행모터 보다 고속으로 회전시킬 수 있다.
로봇은 본체의 전방 하부에 배치된 발 받침대와; 본체의 후방에 배치된 리어 액세서리를 더 포함할 수 있고, 발 받침대와 리어 액세서리는 좌측 프로젝터의 빔 주사영역과 우측 프로젝터의 빔 주사영역 이외에 배치될 수 있다.
프로세서는 본체의 좌회전이 완료되면, 좌측 프로젝터를 오프시킬 수 있다. 프로세서는 본체의 우회전이 완료되면, 우측 프로젝터를 오프시킬 수 있다.
좌측 프로젝터와 우측 프로젝터 중 어느 하나의 온시, 좌측 프로젝터와 우측 프로젝터 중 다른 하나는 오프 유지될 수 있다.
로봇의 제어 방법은 로봇을 제어할 수 있고, 로봇은 적어도 하나의 주행휠과, 주행휠을 회전시키는 주행모터가 제공되며, 상측에 착석 바디가 제공된 본체를 포함하고, 본체의 좌측에 좌측 프로젝터가 제공될 수 잇으며, 본체의 우측에 배치되어 우측 프로젝터가 제공될 수 있다.
로봇의 제어 방법은 본체의 방향전환 이전에 좌측 프로젝터 및 우측 프로젝터 중 본체의 방향전환과 대응되는 프로젝터를 미리 온시키는 단계와; 프로젝터가 온인 도중에 상기 본체의 방향을 전환하는 단계를 포함할 수 있다.
본체의 방향을 전환하는 단계는 프로젝터가 온된 후 설정시간이 경과되면 개시될 수 있다.
본체의 방향을 전환하는 단계는 상기 본체의 방향 전환이 완료되면, 종료될 수 있다.
프로젝터는 본체의 방향을 전환하는 단계의 도중에 온 유지되고, 온 유지 중인 프로젝터는 본체의 방향을 전환하는 단계가 종료되면, 오프될 수 있다.
본 발명의 실시 예에 따르면, 착석 바디에 앉은 탑승자나 로봇 주변의 보행자가 좌측 프로젝터에서 주사된 빔 또는 우측 프로젝터에서 주사된 빔을 보고 로봇의 정보를 쉽게 인지할 수 있다.
또한, 빔이 발 받침대의 좌측 아래 또는 발 받침대의 우측 아래에 주사되므로, 착석 바디에 앉은 사용자도 편안한 자세로 빔의 주사 여부를 인식할 수 있다.
또한, 빔이 본체의 좌측 아래 또는 본체의 우측 아래에 주사되므로, 로봇 주변의 보행자가 빔의 주사 여부를 인식할 수 있다.
또한, 로봇 주변의 보행자가 좌측 프로젝터에서 주사된 빔이나 우측 프로젝터에서 주사된 빔을 보고 로봇의 주행 방향을 시각적으로 인지할 수 있고, 안전사고를 최소화할 수 있다.
또한, 착석 바디에 앉은 탑승자가 로봇의 방향 전환 이전에 로봇의 방향 전환을 인지할 수 있고, 착석 바디에 앉은 사용자에게 편안함을 제공할 수 있다.
또한, 로봇 주변의 보행자가 로봇의 좌회전이나 우회전을 인지하여 로봇을 대기하거나 로봇을 피할 수 있으므로, 로봇이 보다 신속하게 주행할 수 있다.
또한, 좌측 프로젝터 및 우측 프로젝터가 전후 방향으로 발 받침대와 이격되어, 빔이 발 받침대에 방해 받지 않고 로봇 주변의 바닥을 향해 주사될 수 있다.
또한, 전후 방향으로 좌측 프로젝터와 우측 프로젝터 전방에 위치하는 발 받침대가 좌측 프로젝터와 우측 프로젝터를 보호할 수 있다.
또한, 발 받침대와 액세서리가 좌측 프로젝터의 빔 주사영역과 우측 프로젝터의 빔 주사영역 이외에 배치되므로, 빔이 발 받침대나 액세서리에 의해 간섭되지 않고 빔 주사영역으로 주사될 수 있다.
도 1은 본 발명의 실시 예에 따른 로봇 시스템을 포함하는 AI 장치가 도시된 도,
도 2는 본 발명의 실시 예에 따른 로봇 시스템과 연결되는 AI 서버가 도시된 도,
도 3은 본 발명의 실시 예에 따른 로봇 시스템을 포함하는 AI 시스템이 도시된 도,도 4는 본 발명의 실시 예에 따른 로봇이 도시된 사시도이고,
도 5는 본 발명의 실시 예에 따른 로봇이 도시된 평면도이며,
도 6은 본 발명의 실시 예에 따른 로봇이 도시된 정면도이며,
도 7은 본 발명의 실시 예에 따른 로봇이 도시된 측면도이며,
도 8은 본 발명의 실시 예에 따른 프로젝터가 본체에서 분리되었을 때의 분해 사시도,
도 9는 본 발명의 실시 예에 따른 좌측 프로젝터가 온일 때의 사시도,
도 10은 본 발명의 실시 예에 따른 좌측 프로젝터가 온일 때의 평면도,
도 11은 본 발명의 실시 예에 따른 우측 프로젝터가 온일 때의 사시도,
도 12는 본 발명의 실시 예에 따른 우측 프로젝터가 온일 때의 평면도,
도 13은 본 발명의 실시 예에 따른 로봇이 좌측으로 방향전환하는 과정이 도시된 도,
도 14는 본 발명의 실시 예에 따른 로봇이 우측으로 방향전환하는 과정이 도시된 도,
도 15는 본 발명의 실시 예에 따른 로봇의 제어 방법이 도시된 순서도이다.
이하에서는 본 발명의 구체적인 실시 예를 도면과 함께 상세히 설명하도록 한다.
<로봇(Robot)>
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.
<인공 지능(AI: Artificial Intelligence)>
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
<자율 주행(Self-Driving)>
자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.
도 1은 본 발명의 실시 예에 따른 로봇 시스템을 포함하는 AI 장치가 도시된 도이다.
AI 장치(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 1을 참조하면, AI 장치(100)는 커뮤니케이터(110), 입력 인터페이스(120), 러닝 프로세서(130), 센서(140), 출력 인터페이스(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
커뮤니케이터(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(500) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 커뮤니케이터(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 커뮤니케이터(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력 인터페이스(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력 인터페이스(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력 인터페이스 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력 인터페이스(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력 인터페이스(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(500)의 러닝 프로세서(540)과 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센서(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센서(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력 인터페이스(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력 인터페이스(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력 인터페이스(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(500)의 러닝 프로세서(540)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(500) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 2는 본 발명의 실시 예에 따른 로봇 시스템과 연결되는 AI 서버가 도시된 도이다.
도 2를 참조하면, AI 서버(500)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(500)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(500)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(500)는 커뮤니케이터(510), 메모리(530), 러닝 프로세서(540) 및 프로세서(520) 등을 포함할 수 있다.
커뮤니케이터(510)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(530)는 모델 저장부(531)를 포함할 수 있다. 모델 저장부(531)는 러닝 프로세서(540)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 531a)을 저장할 수 있다.
러닝 프로세서(540)는 학습 데이터를 이용하여 인공 신경망(531a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(500)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(530)에 저장될 수 있다.
프로세서(520)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 3은 본 발명의 실시 예에 따른 로봇 시스템을 포함하는 AI 시스템이 도시된 도이다.
도 3을 참조하면, AI 시스템(1)은 AI 서버(500), 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 등을 AI 장치(100a 내지 100e)라 칭할 수 있다.
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.
즉, AI 시스템(1)을 구성하는 각 장치들(100a 내지 100e, 500)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(100a 내지 100e, 500)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.
AI 서버(500)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.
AI 서버(500)는 AI 시스템(1)을 구성하는 AI 장치들인 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상과 클라우드 네트워크(10)을 통하여 연결되고, 연결된 AI 장치들(100a 내지 100e)의 AI 프로세싱을 적어도 일부를 도울 수 있다.
이때, AI 서버(500)는 AI 장치(100a 내지 100e)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(100a 내지 100e)에 전송할 수 있다.
이때, AI 서버(500)는 AI 장치(100a 내지 100e)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(100a 내지 100e)로 전송할 수 있다.
또는, AI 장치(100a 내지 100e)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.
이하에서는, 상술한 기술이 적용되는 AI 장치(100a 내지 100e)의 다양한 실시 예들을 설명한다. 여기서, 도 3에 도시된 AI 장치(100a 내지 100e)는 도 1에 도시된 AI 장치(100)의 구체적인 실시 예로 볼 수 있다.
<AI+로봇>
로봇(100a)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇(100a)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇(100a)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(100a)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
여기서, 로봇(100a)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
로봇(100a)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(100a)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(100a)에서 직접 학습되거나, AI 서버(500) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 로봇(100a)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(500) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
로봇(100a)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(100a)을 주행시킬 수 있다.
맵 데이터에는 로봇(100a)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 로봇(100a)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 로봇(100a)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+로봇+자율주행>
로봇(100a)은 AI 기술 및 자율 주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
AI 기술과 자율 주행 기술이 적용된 로봇(100a)은 자율 주행 기능을 가진 로봇 자체나, 자율 주행 차량(100b)과 상호작용하는 로봇(100a) 등을 의미할 수 있다.
자율 주행 기능을 가진 로봇(100a)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.
자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.
자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)과 별개로 존재하면서, 자율 주행 차량(100b)의 내부에서 자율 주행 기능에 연계되거나, 자율 주행 차량(100b)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.
이때, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)을 대신하여 센서 정보를 획득하여 자율 주행 차량(100b)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율 주행 차량(100b)에 제공함으로써, 자율 주행 차량(100b)의 자율 주행 기능을 제어하거나 보조할 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율 주행 차량(100b)의 기능을 제어할 수 있다. 예컨대, 로봇(100a)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율 주행 차량(100b)의 자율 주행 기능을 활성화하거나 자율 주행 차량(100b)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(100a)이 제어하는 자율 주행 차량(100b)의 기능에는 단순히 자율 주행 기능뿐만 아니라, 자율 주행 차량(100b)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)의 외부에서 자율 주행 차량(100b)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(100a)은 스마트 신호등과 같이 자율 주행 차량(100b)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율 주행 차량(100b)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.
이하, 로봇(100a)은 사용자가 탑승할 수 있는 탑승로봇을 예로 들어 설명한다.
도 4는 본 발명의 실시 예에 따른 로봇이 도시된 사시도이고, 도 5는 본 발명의 실시 예에 따른 로봇이 도시된 평면도이며, 도 6은 본 발명의 실시 예에 따른 로봇이 도시된 정면도이며, 도 7은 본 발명의 실시 예에 따른 로봇이 도시된 측면도이다.
로봇(100a)은 본체(200)을 포함할 수 있다.
본체(200)은 적어도 하나의 주행휠을 포함할 수 있고, 사용자의 입력에 따라 주행하거나 자율 주행할 수 있는 주행모듈 또는 모바일 로봇일 수 있다.
본체(200)는 복수개 부품의 결합체일 수 있고, 본체(200)는 주행휠에 연결되어 주행휠을 정,역 회전시킬 수 있는 구동기구(또는 주행기구)를 더 포함할 수 있다.
주행휠은 본체(200)에 한 쌍 제공될 수 있고, 한 쌍의 주행휠(202)(204)는 본체(200)에 좌우방향(Y)으로 이격되게 제공될 수 있다.
구동기구는 주행휠(202)(204)을 회전시키는 구동력을 발생하는 주행모터를 포함할 수 있다. 구동기구의 일 예는 주행모터가 주행휠(202)(204)에 직접 연결되어 주행모터가 주행휠(202)(204)를 직접 정,역 회전시키는 것이 가능하다. 구동기구의 다른 예는 주행모터가 회전축, 기어 등의 각종 동력전달부재를 통해 주행휠(202)(204)에 연결되어 동력전달부재를 통해 주행휠(202)(204)를 정,역 회전시키는 것이 가능하다.
본체(200)는 로봇(100a)의 주행 방향을 전환하기 위해 주행휠(202)(204)와 이격되게 배치된 별도의 조향 휠(steering wheel, 미도시)을 포함하는 것이 가능하고, 후술하는 스티어링(600)에 의해 조향 휠의 방향 및 본체(200)의 주행방향이 결정될 수 있다.
본체(200)은 본체(200)의 주행방향을 전환하기 위한 별도의 조향 휠을 포함하지 않고, 한 쌍의 주행휠(202)(204)를 이용하여 본체(200)의 주행방향이 결정될 수 있다. 본체(200)은 한 쌍의 주행휠(202)(204) 각각의 회전방향이나 한 쌍의 주행휠(202)(204)의 회전속도의 차를 이용하여 본체(200)의 주행방향이 결정될 수 있다.
본체(200)은 한 쌍의 주행휠(202)(204)을 서로 독립적으로 회전시키도록 구성될 수 있고, 본체(200)는 한 쌍의 주행휠(202)(204)을 회전시키기 위한 한 쌍의 주행모터(206)(208)를 포함할 수 있다. 한 쌍의 주행모터(206)(208)는 한 쌍의 주행휠(202)(204) 중 우측 주행휠(202)를 회전시키는 우측 주행모터(206)와, 한 쌍의 주행휠(202)(204) 중 좌측 주행휠(204)를 회전시키는 좌측 주행모터(208)을 포함할 수 있다.
본체(200)은 로봇(100a)의 각 구성에 전원을 공급하기 위한 배터리(210)을 더 포함할 수 있다. 배터리(210)는 로봇(100a)의 전체의 무게중심을 고려하여, 본체(200)에 배치될 수 있다.
본체(200)은 외관을 형성하는 하우징(220)을 포함할 수 있다. 하우징(220)은 복수개 부재의 결합체로 형성될 수 있고, 하우징(220)은 상면(221)과 하면(222)과 둘레면(223)을 포함할 수 있다.
하우징(220)의 상면(221)과 하면(222) 각각은 평면 형상일 수 있고, 하우징(220)의 둘레면(223)은 곡면 형상일 수 있다.
둘레면(223)은 좌측면(224)과, 우측면(225)과, 배면(226) 및 전면(227)을 포함할 수 있다.
좌측면(224)는 좌측을 향해 볼록할 수 있고, 우측면(225)는 우측을 향해 볼록할 수 있다. 그리고, 배면(226)은 상단과 하단 사이가 후방을 향해 볼록할 수 있다. 전면(227)은 상단과 하단 사이가 전방을 향해 볼록할 수 있다.
둘레면(223) 중 전면(227)의 상단은 상면(221)의 선단과 상면(221)의 후단 중 후단에 더 근접하게 연장될 수 있다.
둘레면(223)는 볼록한 전면(227)의 일측에서 상면(221)의 선단으로 연장된 평면(228)을 더 포함할 수 있다. 평면(228)은 전방 하측을 향하도록 경사진 경사면일 수 있다.
하우징(220)은 볼록한 배면(226)의 상부에서 상측 방향으로 연장되는 상측 배면(229)를 더 포함할 수 있다.
하우징(220)은 상면(221), 하면(222), 둘레면(223)을 포함하는 로어 하우징(220a)과, 로어 하우징(220a)의 일측에서 상측 방향으로 돌출되게 연장되고 상측 배면(229)를 포함하는 어퍼 하우징(220b)을 포함할 수 있다.
로어 하우징(220a)은 전체적으로 상면(221)과 하면(222) 각각이 평평한 구형 형상으로 형성될 수 있다.
어퍼 하우징(220b)은 로어 하우징(220a)의 뒤쪽 상부에서 후술하는 등받이(320)의 후방으로 연장될 수 있다.
주행휠(202)(204)는 하우징(220)에 회전 가능하게 배치될 수 있고, 그 하부가 하우징(220)의 하부에 형성된 휠 관통공을 관통하게 하우징(220)에 배치될 수 있다.
하우징(220)의 내부에는 공간이 형성될 수 있고, 배터리(210)는 하우징(220)의 내부에 형성된 공간에 수용될 수 있다.
로봇(100a)은 본체(200)의 상측에 배치된 착석 바디(300)와, 본체(200) 전방에 배치된 발 받침대(400)를 더 포함할 수 있다.
착석 바디(300)는 사용자가 착석할 수 있도록 구성될 수 있다. 착석 바디(300)에는 사용자가 착석하는 시트가 제공될 수 있다. 그리고, 착석 바디(300)에는 사용자가 팔을 올릴 수 있는 팔 걸이가 제공될 수 있다. 팔 걸이의 높이는 시트의 높이 보다 높을 수 있다.
착석 바디(300)는 사용자가 앉는 시트 바디(310)과, 사용자가 등을 기댈 수 있는 등받이(320)를 더 포함할 수 있다.
시트 바디(310)는 로어 쿠션(311)과, 로어 쿠션(311)이 올려진 로어 시트 바디(312)을 포함할 수 있다.
로어 쿠션(311)은 로어 시트 바디(312)의 상면에 배치될 수 있다. 로어 쿠션(311)는 로어 시트 바디(312) 보다 탄성을 갖게 제공될 수 있다.
로어 시트 바디(312)는 하우징(220) 특히, 로어 하우징(220a)의 상부에 배치될 수 있다. 로어 시트 바디(312)는 하우징(220)의 내부에 형성된 공간을 덮을 수 있다.
시트 바디(310)는 로어 쿠션(311)을 포함하지 않고, 로어 시트 바디(312)를 포함하는 것도 가능하다.
등받이(320)는 리어 쿠션(321)과, 리어 쿠션(321)을 지지하는 리어 시트 바디(322)를 포함할 수 있다. 리어 시트 바디(322)는 리어 서포터(324)에 의해 지지될 수 있고, 등받이(320)는 리어 서포터(324)를 더 포함할 수 있다.
리어 쿠션(321)은 리어 시트 바디(322)의 전면에 배치될 수 있다. 리어 쿠션(321)은 리어 시트 바디(322) 보다 탄성을 갖게 제공될 수 있다.
리어 시트 바디(322)는 그 전부 또는 일부가 어퍼 하우징(220b)와 전후방향으로 오버랩될 수 있고, 리어 서포터(324)는 어퍼 하우징(220b)와 전후방향으로 오버랩될 수 있다. 리어 시트 바디(322) 및 리어 서포터(324)는 어퍼 하우징(220b)에 의해 보호될 수 있다.
리어 서포터(324)의 하부는 로어 시트 바디(312)에 연결될 수 있다. 리어 서포터(324)는 하부를 중심으로 상부가 휠 수 있게 구성될 수 있다. 리어 서포터(324)의 하부는 로어 시트 바디(312)에 힌지 축으로 회전 가능하게 연결될 있고, 등받이(320)는 하부를 중심으로 회전되게 배치될 수 있다.
등받이(320)는 리어 쿠션(321)을 포함하지 않고, 리어 시트 바디(322)와 리어 서포터(324)를 포함하는 것도 가능하다.
팔 걸이는 시트 바디(310)에 진퇴 가능하게 배치될 수 있다. 팔 걸이는 착석 바디(300)에 한 쌍 제공될 수 있다.
한 쌍의 팔 걸이(330)(340)는 좌우방향(Y)으로 서로 이격되게 배치된 우측 팔 걸이(330)와 좌측 팔 걸이(340)를 포함할 수 있고, 우측 팔 걸이(330)와 좌측 팔 걸이(340)는 좌우방향(Y)으로 서로 이격될 수 있고, 좌우 대칭되게 배치될 수 있다.
한 쌍의 팔 걸이(330)(340)는 시트 바디(310) 특히, 로어 시트 바디(312)에 진퇴 가능하게 배치될 수 있고, 한 쌍의 팔 걸이(330)(340) 각각의 하부에는 로어 시트 바디(312)의 내부에 삽입될 수 있다. 한 쌍의 팔 걸이(330)(340) 각각의 하부는 시트 바디(310)에 제공된 가이드를 따라 전후방향(X)으로 진퇴 안내될 수 있다.
발 받침대(400)는 본체(200)에 배치될 수 있다. 발 받침대(400)는 본체(200)에 전방 방향으로 돌출되게 배치될 수 있다. 발 받침대(400)는 본체(200)의 전방 하부에 배치될 수 있다. 발 받침대(400)는 본체(200)에 전후방향(X)으로 진퇴되게 배치될 수 있다.
발 받침대(400)에는 발 받침대(400)를 지지하는 보조 휠이 배치될 수 있다. 보조 휠은 발 받침대(400)에 한 쌍 제공될 수 있고, 한 쌍의 보조 휠(402)(404)는 발 받침대(400)에 수평 방향으로 이격되게 배치될 수 있다.
로봇(100a)은 사용자가 조작하는 스티어링(600, Stearing)을 포함할 수 있다. 스티어링(600)은 조그 셔틀(Jog & shuttle) 이나 조이스틱(joystick)와 같은 조정장치일 수 있다.
스티어링(600)은 사용자가 손으로 잡는 손잡이(612)를 포함할 수 있다. 스티어링(600)은 사용자가 손으로 잡고 조작하여 로봇(100a)의 주행방향이나 주행속도를 입력할 수 있는 입력 인터페이스(input interface)일 수 있다.
스티어링(600)은 적어도 하나의 팔 걸이에 배치될 수 있다. 스티어링(600)은 한 쌍의 팔 걸이(330)(340) 각각에 제공되는 것이 가능하고, 한 쌍의 팔 걸이(330)(340) 중 어느 하나에 배치되는 것도 가능하다.
스티어링(600)은 사용자가 손으로 잡는 스티어링 바디(610)를 포함할 수 있다. 스티어링 바디(610)는 사용자가 손으로 잡고 전,후,좌,우 등의 다양한 방향으로 조작하는 바디일 수 있다. 스트어링 바디(610)의 상부에는 사용자가 손으로 잡는 손잡이(612)가 형성될 수 있다. 스티어링 바디(610)는 손잡이(612)의 하부에 연장된 스티어링 축(614)를 포함할 수 있다.
사용자는 시트 바디(310)에 앉은 상태에서 손잡이(612)를 잡고 스티어링 바디(610)를 앞으로 밀거나 뒤로 당기거나 좌측이나 우측으로 밀 수 있다.
스티어링 바디(610)의 일 예는 스티어링 축(614)을 중심으로 손잡이(612)가 전,후,좌,우 등의 일측으로 기울여질 수 있게 배치될 수 있다. 로봇(100a)은 스티어링 바디(610)의 경사 각도 및 경사 방향을 센싱하는 센서를 포함할 수 있다. 로봇(100a)은 센서에 의해 센싱된 스티어링 바디(610)의 경사 각도(또는 기울림 각도), 경사 방향 등에 의해 조향 방향이나 속도을 센싱할 수 있다.
스티어링 바디(610)의 다른 예는 스티어링 축(614) 및 손잡이(612)가 전,후,좌,후 등으로 이동되게 배치될 수 있다. 로봇(100a)은 스티어링 바디(610)의 위치를 센싱하는 센서를 포함할 수 있다. 로봇(100a)은 센서에 의해 센싱된 스티어링 바디(610)의 위치에 따라 조향 방향이나 속도를 센싱할 수 있다.
스티어링 바디(610)의 또 다른 예는 스티어링 축(614) 및 손잡이(612)가 시계방향 또는 반시계 방향으로 회전되게 배치될 수 있다. 로봇(100a)은 스티어링 바디(610)의 회전 각도를 센싱하는 센서를 포함할 수 있다. 로봇(100a)은 센서에 의해 센싱된 스티어링 바디(610)의 회전각도에 따라 조향 방향이나 속도를 센싱할 수 있다.
센서는 센싱된 조향 방향이나 속도의 신호를 프로세서(180)로 전송할 수 잇고, 프로센서(180)는 센서에서 송출된 신호에 따라, 후술하는 주행모터(206)(208)를 제어할 수 있다.
로봇(100a)은 디스플레이(700)를 더 포함할 수 있다. 디스플레이(700)는 한 쌍의 팔 걸이(330)(340) 중 적어도 하나에 배치될 수 있다. 디스플레이(700)는 수평한 회전 중심을 중심으로 회전되게 배치될 수 있다. 디스플레이(700)는 주행정보 등의 각종 정보를 표시할 수 있는 출력 인터페이스(Output interface)일 수 있다.
디스플레이(700)는 스티어링 하우징(360)에 회전 가능하게 연결될 수 있다. 디스플레이(700)는 스티어링 하우징(360)의 선단에 연결될 수 있다.
스티어링 하우징(360)에는 디스플레이(700)가 회전 가능하게 연결되는 디스플레이 연결부(364)가 형성될 수 있다.
디스플레이 연결부(364)는 스티어링 바디(610)의 상승시, 스티어링 바디(610)와 수평방향으로 이격될 수 있다.
로봇(100a)은 디스플레이(700)를 회전시키는 디스플레이 로테이터(370)을 더 포함할 수 있다. 디스플레이 로테이터(370)는 디스플레이(700)에 연결되는 디스플레이(700)를 회전시키는 회전기구일 수 있다. 디스플레이 로테이터(370)는 디스플레이(700)에 연결되어 디스플레이(700)를 회전시키는 디스플레이 모터를 포함할 수 있다. 이하, 편의를 위해, 디스플레이 모터에 대해 디스플레이 로테이터(370)와 같이, 도면부호 370를 병기하여 설명한다. 디스플레이 모터(370)는 디스플레이 연결부(364) 내부에 수용되게 배치될 수 있다. 디스플레이 연결부(364)의 내부에는 디스플레이 모터(370)가 수용될 수 있는 모터 공간이 형성될 수 있다.
디스플레이 모터(370)에는 디스플레이(700)을 회전시키는 회전축이 제공될 수 있고, 회전축은 수평하게 배치될 수 있다. 회전축은 좌우방향(Y)으로 길게 배치될 수 있다. 디스플레이 모터(370)는 디스플레이(700)가 회전축을 중심으로 세워지거나 디스플레이(700)가 눕혀지게 디스플레이(700)를 회전시킬 수 있다.
본 명세서에서 디스플레이(700)가 세워지는 것은 디스플레이(700)가 수직하게 세워지는 것에 한정되지 않고, 소정 각도 경사지게 세워지는 것을 포함하는 것으로 정의될 수 있다.
디스플레이(700)는 세워졌을 때를 기준으로 전방을 향하는 전면(701)과, 후방을 향하는 배면(702)를 포함할 수 있다. 디스플레이(700)의 배면(702)에는 사용자에게 각종 정보를 제공할 수 있는 스크린(또는 화면)이 배치될 수 있다. 디스플레이(700)의 배면(702)에는 터치스크린이 제공될 수 있고, 사용자는 터치스크린을 통해 각종 명령을 입력할 수 있다.
디스플레이(700)는 팔 걸이의 위에 팔 걸이의 상면과 나란하게 회전될 수 있고, 이 경우, 디스플레이(700)가 세워졌을 때의 전면(701)은 디스플레이(700)의 상면이 될 수 있고, 디스플레이(700)가 세워졌을 때의 배면(702)은 디스플레이(700)의 저면이 될 수 있다.
디스플레이(700)가 수평하게 눕혀졌을 때, 디스플레이(700)의 스크린은 외부에서 보이지 ?方?, 디스플레이(700)의 스크린은 보호될 수 있다.
로봇(100a)은 사용자에게 편의를 제공할 수 있는 적어도 하나의 액세서리를 더 포함할 수 있다.
액세서리는 팔 걸이에 제공되거나 본체(200)에 제공될 수 있고, 액세서리는 로봇(100a)에 복수개 제공될 수 있다.
로봇(100a)은 팔 걸이에 제공된 액세서리(800, 팔 걸이 액세서리)를 포함할 수 있다. 로봇(100a)은 본체(200)에 제공된 액세서리(900, 본체 액세서리)를 포함할 수 있다. 로봇(100a)은 팔 걸이에 제공된 액세서리(800)와, 본체(200)에 제공된 액세서리(900)를 모두 포함할 수 있다.
팔 걸이에 제공된 액세서리(800)의 일 예는 컵이 안착될 수 있는 컵 홀더일 수 있다. 팔 걸이에 제공된 액세서리(800)의 다른 예는 스티어링 하우징(360)와 크기 및 형상이 동일하되, 상부에 개구부(362)가 형성되지 않는 서브 팔 걸이일 수 있다.
본 실시예의 스티어링 하우징(360)는 사용자의 편의를 위해, 좌측 팔 걸이(340)의 팔 걸이 바디(350) 또는 우측 팔 걸이(330)의 팔 걸이 바디(350)에 선택적으로 배치될 수 있고, 컵 홀더나 서브 팔 걸이 등의 액세서리는 좌측 팔 걸이(340)와 우측 팔 걸이(330) 중 스티어링 하우징(360)이 배치되지 않는 팔 걸이의 팔 걸이 바디(350)에 배치될 수 있고, 팔 걸이 바디(350)와 함께 사용자의 팔을 지지할 수 있다.
팔 걸이에 제공된 액세서리(800)는 컵 홀더나 서브 팔 걸이에 한정되지 않고, 사용자의 편의를 제공할 수 있고 수용부(352)에 수용될 수 있는 액세서리이면, 그 종류에 한정되지 않는다.
팔 걸이에는 개구부(362)가 형성될 수 있고, 팔 걸이의 내부에는 스티어링(600)의 일부가 수용될 수 있는 이너 공간(S)이 형성될 수 있다. 로봇(100a)이 한 쌍의 팔 걸이(330)(340)를 포함할 경우, 스티어링(600)은 한 쌍의 팔 걸이(330)(340) 중 어느 하나에 배치될 수 있다.
한 쌍의 팔 걸이(330)(340) 중 적어도 하나는 복수개 부재의 결합체일 수 있고, 한 쌍의 팔 걸이(330)(340) 중 적어도 하나는 팔 걸이 바디(350)와, 스티어링 하우징(360)를 포함할 수 있다.
한 쌍의 팔 걸이(330)(340) 중 어느 하나(330)는 팔 걸이 바디(350)와, 팔 걸이 바디(350)에 배치된 스티어링 하우징(360)을 포함할 수 있고, 이러한 팔 걸이 바디(350)에는 스티어링 하우징(360)이 수용되는 수용부(352)가 형성될 수 있다.
수용부(352)는 팔 걸이 바디(350)에 함몰된 형상으로 형성될 수 있다. 수용부(352)의 상면은 개방될 수 있다. 수용부(352)의 상면 및 전면 각각은 개방될 수 있다.
스티어링 하우징(360)는 수용부(352)에 삽입되어 수용될 수 있고, 수용부(352)에 의해 보호될 수 있다.
스티어링 하우징(360)은 스티어링(600)의 적어도 일부를 둘러쌀 수 있고, 스티어링(600)을 보호할 수 있다.
한 쌍의 팔 걸이(330)(340) 중 다른 하나(340)는 팔 걸이 바디(350)를 포함할 수 있고, 팔 걸이 바디(350)에 배치된 액세서리(800)을 더 포함할 수 있다. 이러한 팔 걸이 바디(350)에는 액세서리(800)가 수용되는 수용부(352)가 형성될 수 있다.
한 쌍의 팔 걸이(330)(340)는 동일 구조의 팔 걸이 바디(350)를 포함할 수 있고, 스티어링 하우징(360)과 액세서리(800)는 좌우 대칭되게 위치될 수 있다. 한 쌍의 팔 걸이(330)(340) 각각에는 동일 형상 및 동일 크기의 수용부(352)가 형성될 수 있다.
액세서리(800)과 스티어링 하우징(360)과 그 크기 및 외곽 형상이 동일 수 있다.
스티어링 하우징(360)과 액세서리(800)는 그 형상 및 크기가 동일할 수 있고, 착석 바디(300)에 좌우 대칭되게 배치될 수 있다.
스티어링 하우징(360)은 스티어링(600)과 함께 스티어링 어셈블리를 구성할 수 있고, 스티어링 어셈블리는 액세서리(800)과 함께 선택적으로 배치될 수 있다.
스티어링 하우징(360)이 우측 팔 걸이(330)의 팔 걸이 바디(350)에 배치될 경우, 액세서리(800)는 좌측 팔 걸이(340)의 팔 걸이 바디(350)에 배치될 수 있고, 반대로, 스티어링 하우징(360)이 좌측 팔 걸이(340)의 팔 걸이 바디(350)에 배치될 경우, 액세서리(800)는 우측 팔 걸이(330)의 팔 걸이 바디(350)에 배치될 수 있다.
본체(200)에 제공된 액세서리(900)의 일 예는 착석 바디(300)에 착석한 사용자의 수하물(예를 들면, 캐리어)가 올려질 수 있는 거치대일 수 있다. 본체(200)에 제공된 액세서리(900의 다른 예는 사용자의 보행을 돕는 의료기기(예를 들면, 목발, 의약품 등)가 거치되는 거치대일 수 있다. 본체(200)에 제공된 액세서리(900)는 거치대에 한정되지 않고, 사용자와 함께 이동될 수 있는 구성이면, 그 종류에 한정되지 않음은 물론이다. 본체(200)에는 다양한 종류의 액세서리(900)가 분리 가능하게 착탈될 수 있다. 본체(200)에 제공된 액세서리(900)는 본체(200)의 후방에 배치된 리어 액세서리일 수 있다.
로봇(100a)은 센서(140)를 포함할 수 있고, 이러한 센서(140)는 자율주행, 주행 보조, 안전을 위한 적어도 하나의 센서를 포함할 수 있다.
센서(140)는 로봇(100a)의 후방 및 후방 주변을 센싱할 수 있는 리어 센서(280)를 포함할 수 있다. 리어 센서(280)의 예는 빛의 파장을 이용하여 물체를 감지하는 라이다 센서일 수 있다. 리어 센서(280)는 라이다 센서에 한정되지 않고, 전자기를 이용하여 물체를 감지하는 레이더 센서나 초음파를 이용하여 물체를 감지하는 초음파 센서로 구성되는 것도 가능하다.
리어 센서(280)는 로봇(100a)의 후방부에 배치될 수 있다. 로봇(100a)의 후방부는 로봇(100a)의 전후방향(X)으로 로봇(100a)의 중앙과 로봇(100a)의 후단 사이로 정의될 수 있다.
센서(140)는 로봇(100a)에 복수개 제공될 수 있다. 센서(140)는 로봇(100a)의 전방 및 전방 주변을 센싱할 수 있는 적어도 하나의 프론트 센서(380,480)를 포함할 수 있다.
프론트 센서(380,480)는 로봇(100a)의 전방부에 배치될 수 있다. 로봇(100a)의 전방부는 로봇(100a)의 전후방향(X)으로 로봇(100a)의 중앙과 로봇(100a)의 선단 사이로 정의될 수 있다.
프론트 센서(380,480)은 착석 바디(300)에 제공되거나 발 받침대(400)에 제공될 수 있다.
프론트 센서(380,480)의 예는 빛의 파장을 이용하여 물체를 감지하는 라이다 센서일 수 있다. 리어 센서(280)는 라이다 센서에 한정되지 않고, 전자기를 이용하여 물체를 감지하는 레이더 센서나 초음파를 이용하여 물체를 감지하는 초음파 센서로 구성되는 것도 가능하다.
프론트 센서(380,480)는 로봇(100a)에 복수개 제공될 수 있고, 복수개의 프론트 센서(380)(480)는 서로 상이한 높이에 배치될 수 있다. 복수개 프론트 센서(380,480)는 착석 바디(300)에 제공된 프론트 센서(380)와, 발 받침대(400)에 배치된 프론트 센서(480)를 포함할 수 있다.
복수개 프론트 센서(380,480)는 라이다 센서와 레이더 센서와 초음파 센서의 조합으로 구성될 수 있다.
착석 바디(300)에 제공된 프론트 센서(380)의 높이는 발 받침대(400)에 배치된 프론트 센서(480)의 높이 보다 높을 수 있고, 착석 바디(300)에 제공된 프론트 센서(380)는 프론트 어퍼 센서일 수 있으며, 발 받침대(400)에 배치된 프론트 센서(480)는 프론트 로어 센서일 수 있다.
로봇은 전진이나 좌회전이나 우회전시, 프론트 센서(380)(480)는 보행자 등의 장애물을 센싱할 수 있고, 로봇은 프론트 센서(380)(480)에 의해 센싱된 장애물을 피하여 주행하도록 한 쌍의 주행모터(206)(208)을 제어할 수 있다.
로봇은 후진이나 좌회전이나 우회전시, 리어 센서(280)는 보행자 등의 장애물을 센싱할 수 있고, 로봇은 리어 센서(280)에 의해 센싱된 장애물을 피하여 주행하도록 한쌍의 주행모터(206)(208)을 제어할 수 있다.
로봇은 로봇의 주변으로 레이져 빔(이하, 빔이라 칭함)을 발생할 수 있는 적어도 하나의 프로젝터(또는 빔 프로젝터)를 포함할 수 있고, 프로젝터에서 발생된 빔(도 9 및 도 11 참조)은 로봇 주변에서 로봇의 좌회전을 가이드하거나 우회전을 가이드할 수 있다.
로봇의 방향 전환을 안내하는 프로젝터는 본체(200)와 착석 바디(300)과 발 받침대(400) 중 적어도 하나에 장착될 수 있다.
프로젝터는 로봇 주변의 바닥을 향하여 빔을 조사할 경우, 빔 퍼짐이나 선명도 등을 위해, 가급적 낮은 높이에 설치될 수 있다. 프로젝터는 본체(200)나 발 받침대(400)에 장착될 경우, 로봇의 상단과 하단 중 하단에 더 근접하게 배치될 수 있고, 로봇 주변의 바닥을 향해 비교적 선명한 빔을 주사할 수 있다.
로봇은 통상적으로 후진모드로 작동하는 경우 보다 보다 전진모드로 작동하는 경우가 많고, 프로젝터는 가급적 배터리(210)와 근접하게 배치되는 것이 바람직하다. 프로젝터는 로봇 주변의 장애물에 의한 손상이 최소화될 수 있는 위치에 배치되는 것이 바람직하다.
프로젝터는 본체(200)에 장착된 상태에서, 본체(200)의 주변 하측을 향해 빔을 발생할 수 있다.
프로젝터는 본체(200)에 복수개 제공되는 것이 바람직하고, 복수개 프로젝터는 본체(200)에 서로 이격되게 장착될 수 있다.
로봇은 좌측 방향으로 방향전환하거나 우측 방향으로 방향전환할 수 있고, 로봇은 좌측 방향전환을 안내하는 빔을 발생하는 좌측 프로젝터(250)와, 우측 방향전환을 안내하는 빔을 발생하는 우측 프로젝터(260)를 포함할 수 있다.
좌측 프로젝터(250)와 우측 프로젝터(260)는 본체(200)에 좌,우 대칭되게 배치될 수 있고, 동일 구조로 이루어질 수 있다.
좌측 프로젝터(250)와 우측 프로젝터(260) 각각은 빔 주사영역이 발 받침대(400)와 리어 액세서리(900)과 겹치지 않게 설치될 수 있다. 반대로, 발 받침대(400)와 리어 액세서리(900) 각각은 좌측 프로젝터(250)의 빔 주사영역 이외에 배치될 수 있고, 우측 프로젝터(260)의 빔 주사영역 이외에 배치될 수 있다.
로봇은 본체(200)를 기준으로 본체(200)의 전방 하부에 발 받침대(400)가 배치될 수 있고, 본체(200)의 후방에 리어 액세서리(900)가 배치될 수 있으며, 본체(200)의 좌측에 좌측 프로젝터(250)가 배치될 수 있고, 본체(200)의 우측에 우측 프로젝터(260)가 배치될 수 있다.
좌측 프로젝터(250)와 우측 프로젝터(260)가 본체(250)에 좌우 이격되게 배치되기 위해, 본체(250)에는 도 6에 도시된 바와 같이, 좌측 프로젝터(150)가 배치되는 좌측 홀(270)과, 우측 프로젝터(260)가 배치되는 우측 홀(272)을 포함할 수 있다.
좌측 홀(270)은 좌측 방향과 전방 방향의 사이를 향하고 하측 방향으로 경사지게 형성될 수 있다. 이 경우, 좌측 프로젝터(150)는 본체(200)를 기준으로 좌측 전방 하측 방향(LFL)을 향하게 배치될 수 있다.
우측 홀(272)은 우측 방향과 전방 방향의 사이를 향하고 하측 방향으로 경사질 수 있다. 이 경우, 우측 프로젝터(260)는 본체(200)를 기준으로 우측 전방 하측 방향(RFL)을 향하게 배치될 수 있다.
좌측 프로젝터(250)와 우측 프로젝터(260) 각각은 전후 방향(X)으로 발 받침대(400)와 이격될 수 있고, 좌측 프로젝터(250)에서 발생된 빔은 발 받침대(400)의 좌측부에 방해받지 않고, 좌측 프로젝터(250)의 주변으로 퍼질 수 있다. 우측 프로젝터(260)에서 발생된 빔은 발 받침대(400)의 우측부에 방해받지 않고, 우측 프로젝터(260)의 주변으로 퍼질 수 있다.
좌측 프로젝터(250)와 우측 프로젝터(260) 각각의 적어도 일부는 도 4에 도시된 바와 같이, 전후 방향(X)으로 발 받침대(400)를 향할 수 있다.
좌측 프로젝터(250)는 전후 방향(X)으로 발 받침대(400)의 좌측 상부(410)를 향할 수 있고, 좌측 프로젝터(250) 중 본체(200)의 외부로 노출된 면의 전부 또는 일부는 발 받침대(400)의 좌측 상부(412)와 전후 방향(X)으로 오버랩될 수 있다.
우측 프로젝터(260)는 전후 방향(X)으로 발 받침대(400)의 우측 상부(412)를 향할 수 있고, 우측 프로젝터(260) 중 본체(200)의 외부로 노출된 면의 전부 또는 일부는 발 받침대(400)의 우측 상부(412)와 전후 방향(X)으로 오버랩될 수 있다.
로봇은 주행 중이거나 정지 중일 때, 로봇의 전방에 위치하는 장애물이 좌측 프로젝터(250)이나 우측 프로젝터(260)을 향해 이동될 수 있는데, 발 받침대(400)의 좌측 상부(410) 및 우측 상부(412)는 좌측 프로젝터(250)와 우측 프로젝터(260)의 전방에서 좌측 프로젝터(250)와 우측 프로젝터(260) 각각을 보호할 수 있다.
로봇은 주행모터(206)(208)와, 좌측 프로젝터(250) 및 우측 프로젝터(260)를 제어하는 프로세서(180)를 포함할 수 있다.
프로세서(180)는 로봇의 좌회전이나 우회전시, 한 쌍의 주행모터(206)(208)을 제어할 수 있고, 로봇의 좌회전을 가이드하는 빔을 주사하기 위해 좌측 프로젝터(250)을 제어할 수 있으며, 로봇의 우회전을 가이드하는 빔을 주사하기 위해 우측 프로젝터(260)을 제어할 수 있다.
도 8은 본 발명의 실시 예에 따른 프로젝터가 본체에서 분리되었을 때의 분해 사시도이다.
프로젝터는 레이져 라이트 모듈(252)과, 본체(200)에 형성된 홀(270)(272)에 배치된 모듈 캡(254)과, 모듈 캡(254)의 외면을 덮는 투과판(256)을 포함할 수 있다.
레이져 라이트 모듈(252)는 레이져 빔을 생성 및 주사할 수 있는 레이져 라이트로서, 본체(200)의 내부에 배치될 수 있다. 레이져 라이트 모듈(252)에는 전선(253)이 연결될 수 있고, 전선(253)은 프로세서(180)와 연결되거나 프로센서(180)에 의해 제어되는 전력공급부(미도시)와 연결될 수 있다.
모듈 캡(254)에는 레이져 라이트에서 주사된 레이져 빔이 투과하는 투과홀(255)이 형성될 수 있다. 모듈 캡(254)은 투과홀(255)이 관통되게 형성되고 투과홀(255)이 본체(200)의 외부로 갈수록 점차 확장되는 확장부(257)를 포함할 수 있다.
투과판(256)은 투과홀(255)을 덮게 모듈 캡(254) 또는 본체(200)에 결합될 수 있다. 투과판(256)은 아크릴 등의 재질로 형성될 수 있고, 그 일면(258)은 외부로 노출될 수 있다.
도 9는 본 발명의 실시 예에 따른 좌측 프로젝터가 온일 때의 사시도이고, 도 10은 본 발명의 실시 예에 따른 좌측 프로젝터가 온일 때의 평면도이다. 도 11은 본 발명의 실시 예에 따른 우측 프로젝터가 온일 때의 사시도이고, 도 12는 본 발명의 실시 예에 따른 우측 프로젝터가 온일 때의 평면도이다.
좌측 프로젝터(250)는 본체(200)의 좌측에 배치되어 로봇의 좌측 아래를 향해 빔(LP)을 주사할 수 있다. 좌측 프로젝터(250)의 빔 주사 영역은 바닥 중 본체(200)의 좌측 아래의 지점(LP1)부터 발 받침대(400)의 좌측 아래의 지점(LP2)까지를 포함할 수 있다. 좌측 프로젝터(250)에서 주사된 빔(LP)은 본체(200)를 기준으로 좌편향된 빔으로서, 본체(200)의 좌측 아래부터 발 받침대(400)의 좌측 아래까지 넓게 퍼지면서 형성될 수 있다.
우측 프로젝터(260)는 본체(200)의 우측에 배치되어 로봇의 우측 아래를 향해 빔(RP)을 주사할 수 있다. 우측 프로젝터(260)의 빔 주사 영역은 바닥 중 본체(200)의 우측 아래의 지점(RP1)부터 발 받침대(400)의 우측 아래의 지점(RP2)까지를 포함할 수 있다. 우측 프로젝터(260)에서 주사된 빔(RP)은 본체(200)를 기준으로 우편향된 빔으로서, 본체(200)의 우측 아래부터 발 받침대(400)의 우측 아래까지 넓게 퍼지면서 형성될 수 있다.
좌측 프로젝터(250)에서 조사된 빔(LP)와 우측 프로젝터(260)에서 조사된 빔(RP)은 방향 지시의 기능을 할 수 있고, 이 경우, 좌측 프로젝터(250)와 우측 프로젝터(260)는 선택적으로 온될 수 있다. 즉, 좌측 프로젝터(250)와 우측 프로젝터(260) 중 어느 하나의 온시, 좌측 프로젝터(250)와 우측 프로젝터(260) 중 다른 하나는 오프 유지될 수 있다.
도 9에 도시된 바와 같이, 좌측 프로젝터(250)가 온된 후 유지되어 좌측 프로젝터(250)의 빔 주사 영역(LP)으로 빔을 주사하는 동안, 우측 프로젝터(260)는 오프 유지될 수 있다.
반대로, 도 11에 도시된 바와 같이, 우측 프로젝터(260)가 온된 후 유지되어 우측 프로젝터(260)의 빔 주사 영역(RP)으로 빔을 주사하는 동안, 좌측 프로젝터(250)는 오프 유지될 수 있다.
한편, 좌측 프로젝터(250) 또는 우측 프로젝터(260)은 로봇이 방향 전환을 개시하는 시점부터 온되는 것이 가능하고, 로봇이 방향 전환을 개시하기 이전에 미리 온되는 것도 가능하다.
그리고, 좌측 프로젝터(250) 또는 우측 프로젝터(260)는 로봇의 방향 전환이 계속되는 동안 온 유지될 수 있고, 로봇의 방향 전환이 완료되면, 온 상태에서 오프 상태로 전환될 수 있다.
로봇의 주행 방식 일 예는 탑승자가 스티어링(600)을 조작하여 전방 방향으로 전진하거나 후방 방향으로 후퇴하거나 좌측 방향이나 우측 방향으로 방향 전환할 수 있다. 이 경우, 좌측 프로젝터(250) 또는 우측 프로젝터(260)는 로봇이 방향 전환을 개시하는 시점부터 온될 수 있다.
탑승자가 스티어링(600)을 좌측 방향전환으로 조작하면, 좌측 프로젝터(250)가 온될 수 있고, 로봇이 좌측으로 방향 전환되는 동안 좌측 프로젝터(250)가 온 유지될 수 있고, 로봇의 방향 전환이 완료되면 좌측 프로젝터(250)가 오프될 수 있다.
반대로 탑승자가 스티어링(600)을 우측 방향전환으로 조작하면, 우측 프로젝터(260)가 온될 수 있고, 로봇이 우측으로 방향 전환되는 동안 우측 프로젝터(260)가 온 유지될 수 있고, 로봇의 방향 전환이 완료되면 우측 프로젝터(260)가 오프될 수 있다.
좌측 프로젝터(250) 또는 우측 프로젝터(260)는 로봇의 방향 전환 개시 시점부터 온된 후 유지될 수 있고, 로봇 주변의 보행자나 탑승자는 로봇이 현재 좌측이나 우측으로 방향 전환하는 중인 것을 인지할 수 있다.
한편, 로봇의 주행 방식 다른 예는 로봇이 미리 설정된 주행경로를 따라 자율 주행할 수 있다. 로봇이 자율 주행할 경우, 로봇이 자율 주행하는 주행경로는 전방 방향으로 전진하는 전진경로와, 후방 방향으로 후퇴하는 후퇴경로와, 전진되거나 후퇴하면서 좌측이나 우측으로 방향을 전환하는 방향 전환경로를 포함할 수 있다. 로봇은 벽 등의 구조물 위치나 장애물 등에 의해, 좌측으로 방향전환(좌회전)하는 좌회전 경로를 따라 주행하거나 우측으로 방향전환(우회전)하는 우측 방향전환 경로를 따라 주행할 수 있다.
로봇의 자율 주행시, 좌측 프로젝터(250) 또는 우측 프로젝터(260)는 로봇의 방향 전환 개시 이전에 미리 온될 수 있고, 로봇 주변의 보행자나 탑승자는 현재 전진 중이나 후진 중인 로봇이 좌측이나 우측으로 방향 전환할 예정임을 인지할 수 있다.
로봇은 방향 전환경로를 주행하기 위해, 한 쌍의 주행휠(202)(204)이 속도차를 갖고 회전되게 한 쌍의 주행모터(206)(208)을 속도 제어할 수 있다.
로봇은 우측 주행휠(202)이 좌측 주행휠(204) 보다 빠르도록 우측 주행모터(206)를 좌측 주행모터(208) 보다 고속으로 구동할 수 있고, 이 경우 로봇은 도 13에 도시된 바와 같이, 좌회전되면서 주행할 수 있다.
로봇은 좌측 주행휠(204)이 우측 주행휠(202) 보다 빠르도록 좌측 주행모터(208)를 우측 주행모터(206) 보다 고속으로 구동할 수 있고 이 경우 로봇은 도 14에 도시된 바와 같이, 우회전되면서 주행할 수 있다.
로봇의 자율주행시, 로봇은 좌측 주행모터(208)와 우측 주행모터(206)가 속도차를 갖게 제어되기 이전에 좌측 프로젝터(250) 또는 우측 프로젝터(260)를 미리 온시킬 수 있고, 로봇 주변의 보행자나 탑승자는 주행 중인 로봇이 좌측 방향이나 우측 방향으로 방향 전환할 예정임을 인지할 수 있다.
즉, 좌측 프로젝터(250) 또는 우측 프로젝터(260)는 좌측 주행모터(208)와 우측 주행모터(206)가 속도차를 갖게 제어되기 이전에 미리 온될 수 있다. 예를 들면, 좌측 프로젝터(250) 또는 우측 프로젝터(260)는 좌측 주행모터(208)와 우측 주행모터(206)가 속도차를 갖게 제어되는 시점보다 설정시간(예를 들면, 10초) 이전에 미리 온될 수 있다.
로봇은 좌측 프로젝터(250) 또는 우측 프로젝터(260)가 온된 이후 설정시간(예를 들면, 10초)이 경과되면, 좌측 주행모터(208)와 우측 주행모터(206)가 속도차를 갖게 제어되기 시작할 수 있다. 즉, 좌측 프로젝터(250) 또는 우측 프로젝터(260)가 온된 후 온 유지되는 도중에 좌측 주행모터(208)와 우측 주행모터(206)는 서로 상이한 속도차로 구동될 수 있다.
상기 설정시간은 좌측 프로젝터(250) 또는 우측 프로젝터(260)가 온인데, 좌측 주행모터(208)와 우측 주행모터(206)가 동일한 속도로 구동되는 시간일 수 있다.
본 실시예는 좌측 프로젝터(250) 또는 우측 프로젝터(260)가 온된 후, 로봇이 설정거리 더 전진 주행하거나 후진 주행한 후, 좌측 주행모터(208)와 우측 주행모터(206)가 서로 상이한 속도차로 구동되는 것도 가능하다.
예를 들어, 좌측 프로젝터(250)가 온된 후, 로봇이 설정거리 더 전진 주행하거나 후진 주행한 후, 좌측 주행모터(208)와 우측 주행모터(206)가 서로 상이한 속도차로 구동되는 것도 가능하다. 반대로, 우측 프로젝터(260)가 온된 후, 로봇이 설정거리 더 전진 주행하거나 후진 주행한 후, 좌측 주행모터(208)와 우측 주행모터(206)가 서로 상이한 속도차로 구동되는 것도 가능하다.
즉, 본 실시예는 프로젝터가 온된 후, 설정시간 경과되면, 좌측 주행모터(208)와 우측 주행모터(206)가 서로 상이한 속도차로 구동되는 것에 한정되지 않지 않고, 프로젝터가 온된 후, 로봇이 설정거리 만큼 더 전진되거나 후퇴되면, 좌측 주행모터(208)와 우측 주행모터(206)가 서로 상이한 속도차로 구동되는 것을 포함할 수 있다.
이하, 설명의 편의를 위해, 프로젝터가 온 된 후, 설정시간 경과되면, 좌측 주행모터(208)와 우측 주행모터(206)가 서로 상이한 속도차로 구동되는 예로 설명한다.
프로세서(180)는 본체(200)의 방향전환 이전에, 좌측 프로젝터(250) 및 우측 프로젝터(260) 중 본체(200)의 방향전환과 대응되는 프로젝터를 미리 온시킬 수 있다. 프로세서(180)는 좌측 프로젝터(250)과 우측 프로젝터(260) 중 어느 하나의 온이 유지되는 도중에 본체(200)의 방향을 전환 개시할 수 있다. 프로세서(180)는 좌측 프로젝터(250)과 우측 프로젝터(260) 중 어느 하나의 온 이후 설정시간(예를 들면, 10초)이 경과되면, 본체(200)의 방향 전환을 개시할 수 있다. 프로세서(180)는 본체(200)의 방향 전환 도중에 온된 프로젝터의 온 상태를 유지할 수 있다. 프로세서(180)는 본체(200)의 방향 전환이 완료되면, 온된 프로젝터를 오프시킬 수 있다.
도 13은 본 발명의 실시 예에 따른 로봇이 좌측으로 방향전환하는 과정이 도시된 도이다.
로봇의 주행경로는 도 13에 도시된 바와 같이, 전진경로(PS) 및 좌회전 경로(PLC)를 포함할 수 있다.
로봇은 좌측 주행모터(208)과 우측 주행모터(206)를 동일 속도로 구동하여 전진 주행할 수 있고, 로봇은 전진경로(PS)를 따라 주행할 수 있다.
로봇은 전진경로(PS)을 따라 전진 주행되는 도중에, 우측 주행모터(206)를 좌측 주행모터(208) 보다 고속으로 구동할 수 있다. 우측 주행모터(206)가 좌측 주행모터(208) 보다 고속으로 구동되면, 우측 주행휠(202)는 좌측 주행휠(204) 보다 고속으로 회전될 수 있고, 로봇은 좌측 방향으로 방향 전환하면서 좌회전 경로(PLC)를 따라 주행할 수 있다.
프로세서(180)는 상기와 같은 좌측 방향전환 이전에 좌측 프로젝터(250)를 온시키고, 좌측 프로젝터(250)를 온시킨 이후에 설정시간(예를 들면, 10초)이 경과되면, 우측 주행모터(206)를 좌측 주행모터(208) 보다 고속으로 구동시킬 수 있다.
로봇의 주행경로가 전진 경로(PS)와, 전전 경로(PS) 이후의 좌회전 경로(PLC)를 포함할 경우, 프로세서(180)는 로봇이 전진 경로(PS)를 따라 전진되는 도중에, 좌측 프로젝터(250)를 온시킬 수 있다. 로봇은 좌측 프로젝터(250)가 온인 상태로 설정시간(예를 들면, 10초) 더 전진될 수 있고, 로봇이 좌회전 경로(PLC)에 도달되면, 프로세서(180)는 좌측 프로젝터(250)를 온 유지한 상태에서 우측 주행모터(206)를 좌측 주행모터(208) 보다 고속으로 구동시킬 수 있다.
프로세서(180)는 본체(200)의 좌회전이 완료되면, 좌측 프로젝터(250)를 오프시킬 수 있다. 프로세서(180)는 로봇이 좌회전 경로(PLC)를 모두 주행하면, 우측 주행모터(206)와 좌측 주행모터(208)를 다시 동일한 속도로 제어할 수 있고, 로봇은 다시 전진 경로(PS)를 따라 전진될 수 있다. 그리고, 프로세서(180)는 로봇이 좌회전 경로(PLC)를 모두 주행하면, 온 유지되었던 좌측 프로젝터(250)를 오프시킬 수 있다.
도 14는 본 발명의 실시 예에 따른 로봇이 우측으로 방향전환하는 과정이 도시된 도이다.
로봇의 주행경로는 도 14에 도시된 바와 같이, 전진경로(PS) 및 우회전 경로(PRC)를 포함할 수 있다.
로봇은 좌측 주행모터(208)과 우측 주행모터(206)를 동일 속도로 구동하여 전진 주행할 수 있고, 로봇은 전진경로(PS)을 따라 전진 주행할 수 있다.
로봇은 전진경로(PS)을 따라 전진 주행되는 도중에, 좌측 주행모터(208)를 우측 주행모터(206) 보다 고속으로 구동할 수 있다. 좌측 주행모터(208)가 우측 주행모터(206) 보다 고속으로 구동되면, 좌측 주행휠(204)는 우측 주행휠(202) 보다 고속으로 회전될 수 있고, 로봇은 우측 방향으로 방향 전환하면서 우회전 경로(PRC)를 따라 주행할 수 있다.
프로세서(180)는 상기와 같은 우측 방향전환 이전에 우측 프로젝터(260)를 온시키고, 우측 프로젝터(260)의 온시킨 이후에 설정시간(예를 들면, 10초)이 경과되면, 좌측 주행모터(208)를 우측 주행모터(206) 보다 고속으로 구동시킬 수 있다.
로봇의 주행경로가 전진 경로(PS)와, 전전 경로(PS) 이후의 우회전 경로(PRC)를 포함할 경우, 프로세서(180)는 로봇이 전진 경로(PS)를 따라 전진되는 동안, 우측 프로젝터(260)를 온시킬 수 있다. 로봇은 우측 프로젝터(260)가 온인 상태로 설정시간(예를 들면, 10초) 더 전진될 수 있고, 로봇이 우회전 경로(PRC)에 도달되면, 프로세서(180)는 우측 프로젝터(260)를 온 유지한 상태에서 좌측 주행모터(208)를 우측 주행모터(206) 보다 고속으로 구동시킬 수 있다.
프로세서(180)는 본체(200)의 우회전이 완료되면, 우측 프로젝터(260)를 오프시킬 수 있다. 프로세서(180)는 로봇이 우회전 경로(PRC)를 모두 주행하면, 우측 주행모터(206)와 좌측 주행모터(208)를 다시 동일한 속도로 제어할 수 있고, 로봇은 다시 전진 경로(PS)를 따라 전진될 수 있다. 프로세서(180)는 로봇이 우회전 경로(PRC)를 모두 주행하면, 온 유지되었던 우측 프로젝터(260)를 오프시킬 수 있다.
도 15는 본 발명의 실시 예에 따른 로봇의 제어 방법이 도시된 순서도이다.
본 실시예의 로봇의 제어 방법은 로봇을 제어할 수 있고, 로봇은 적어도 하나의 주행휠(202)(204)과, 주행휠(202)(204)을 회전시키는 주행모터(206)(208)가 제공된 본체(200)와, 본체(200)의 상측에 제공된 착석 바디(300)를 포함할 수 있고, 본체(200)의 좌측에 좌측 프로젝터(250)가 제공되며, 본체(200)의 우측에 우측 프로젝터(260)가 제공될 수 있다.
로봇의 제어 방법은 본체(200)의 방향전환(S4) 이전에 좌측 프로젝터(250) 및 우측 프로젝터(260) 중 본체(200)의 방향전환과 대응되는 프로젝터를 미리 온시키는 단계(S2)와; 프로젝터가 온인 도중에 본체(200)의 방향을 전환하는 단계(S3)(S4)를 포함할 수 있다.
로봇의 제어 방법은 로봇이 전진되거나 후퇴되는 이동 단계(S1)를 포함할 수 있고, 프로젝터를 미리 온시키는 단계(S2)는 로봇이 전진되거나 후퇴되는 이동단계(S1)의 도중에 실시될 수 있다.
로봇의 전진 모드나 로봇의 후퇴 모드시, 좌측 주행모터(208)와, 우측 주행모터(206)는 동일 속도로 구동될 수 있고, 우측 주행휠(202)과 좌측 주행휠(204)는 동일 속도로 회전될 수 있으며, 본체(200)는 좌측 방향이나 우측 방향으로 방향 전환되지 않고, 전방을 향해 전진되거나 후방을 향해 후퇴될 수 있다.
본체(200)의 방향을 전환하는 단계(S3)(S4)는 프로젝터가 온된 후 설정시간(예를 들면, 10초)이 경과되면 개시될 수 있다.
로봇의 좌회전 모드시 우측 주행모터(206)는 좌측 주행모터(206) 보다 고속으로 구동될 수 있고, 우측 주행휠(202)은 좌측 주행휠(204) 보다 고속으로 회전될 수 있으며, 본체(200)는 좌측 방향으로 방향 전환될 수 있다.
로봇의 우회전 모드시 좌측 주행모터(206)는 우측 주행모터(206) 보다 고속으로 구동될 수 있고, 좌측 주행휠(204)은 우측 주행휠(202) 보다 고속으로 회전될 수 있으며, 본체(200)는 우측 방향으로 방향 전환될 수 있다.
프로젝터는 본체(200)의 방향을 전환하는 단계(S4)(S5)의 도중에 온 유지될 수 있다.
본체(200)의 방향을 전환하는 단계(S4)는 본체(200)의 방향 전환이 완료되면, 종료될 수 있다.(S4)(S5)
온 유지 중인 프로젝터는 본체(200)의 방향을 전환하는 단계가 종료되면, 오프될 수 있다.(S5)(S6)
로봇은 좌회전되거나 우회전된 후 정지될 수 있다.(S7) 로봇이 좌회전되거나 우회전된 후 목적지에 도달된 경우, 로봇은 더 이상 주행하지 않고, 정지될 수 있다.
로봇은 좌회전되거나 우회전된 후, 정지되지 않고 다시 전진되거나 후퇴되는 이동 단계로 복귀될 수 있다.(S1)
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
200: 본체 202,204: 주행휠
206,208: 주행모터 250: 좌측 프로젝터
260: 우측 프로젝터 300: 착석 바디

Claims (20)

  1. 적어도 하나의 주행휠과, 상기 주행휠을 회전시키는 주행모터가 제공된 본체와;
    상기 본체의 상측에 배치된 착석 바디와;
    상기 본체의 좌측에 배치되어 좌측 아래를 향해 빔을 주사하는 좌측 프로젝터와;
    상기 본체의 우측에 배치되어 우측 아래를 향해 빔을 주사하는 우측 프로젝터와,
    상기 주행모터와, 좌측 프로젝터 및 우측 프로젝터를 제어하는 프로세서를 포함하는 로봇.
  2. 제 1 항에 있어서,
    상기 본체의 전방 하부에 배치된 발 받침대를 포함하고,
    상기 좌측 프로젝터의 빔 주사 영역은 바닥 중 상기 본체의 좌측 아래의 지점부터 상기 발 받침대의 좌측 아래의 지점까지를 포함하고,
    상기 우측 프로젝터의 빔 주사 영역은 바닥 중 상기 본체의 우측 아래의 지점부터 상기 발 받침대의 우측 아래의 지점까지를 포함하는 로봇.
  3. 제 1 항에 있어서,
    상기 좌측 프로젝터와 우측 프로젝터 중 어느 하나의 온시, 상기 좌측 프로젝터와 우측 프로젝터 중 다른 하나는 오프 유지되는 로봇.
  4. 제 1 항에 있어서,
    상기 프로세서는 상기 본체의 방향전환 이전에, 좌측 프로젝터 및 우측 프로젝터 중 상기 본체의 방향전환과 대응되는 프로젝터를 미리 온시키는 로봇.
  5. 제 4 항에 있어서,
    상기 프로세서는 상기 좌측 프로젝터과 우측 프로젝터 중 어느 하나의 온이 유지되는 도중에 상기 본체의 방향을 전환 개시하는 로봇.
  6. 제 4 항에 있어서,
    상기 프로세서는 상기 좌측 프로젝터과 우측 프로젝터 중 어느 하나의 온 이후 설정시간이 경과되면, 상기 본체의 방향을 전환하는 로봇.
  7. 제 4 항에 있어서,
    상기 프로세서는 온된 프로젝터의 온 상태를 상기 본체의 방향 전환 도중에 유지하는 로봇.
  8. 제 4 항에 있어서,
    상기 프로세서는
    상기 본체의 방향 전환이 완료되면, 온된 프로젝터를 오프시키는 로봇.
  9. 제 1 항에 있어서,
    상기 본체에는 좌측 프로젝터가 배치되는 좌측 홀과, 우측 프로젝터가 개치되는 우측 홀을 포함하는 로봇.
  10. 제 9 항에 있어서,
    상기 좌측 홀은 좌측 방향과 전방 방향의 사이를 향하고 하측 방향으로 경사지며,
    상기 우측 홀은 우측 방향과 전방 방향의 사이를 향하고 하측 방향으로 경사진 로봇.
  11. 제 1 항에 있어서,
    상기 좌측 프로젝터와 우측 프로젝터 각각은
    레이져 라이트 모듈과,
    상기 본체에 형성된 홀에 배치된 모듈 캡과,
    상기 모듈 캡 외면을 덮는 투과판을 포함하는 로봇.
  12. 제 1 항에 있어서,
    상기 본체의 전방 하부에 배치된 발 받침대를 포함하고,
    상기 좌측 프로젝터와 우측 프로젝터 각각은 전후 방향으로 상기 발 받침대와 이격된 로봇.
  13. 제 12 항에 있어서,
    상기 좌측 프로젝터와 우측 프로젝터 각각의 적어도 일부는 전후 방향으로 상기 발 받침대를 향하는 로봇.
  14. 본체와;
    상기 본체에 이격되게 배치된 좌측 주행휠 및 우측 주행휠과;
    상기 좌측 주행휠을 회전시키는 좌측 주행모터와;
    상기 우측 주행휠을 회전시키는 우측 주행모터와;
    상기 본체의 상측에 배치된 착석 바디와;
    상기 본체의 좌측에 배치되어 좌측 좌측 아래를 향해 빔을 주사하는 좌측 프로젝터와;
    상기 본체의 우측에 배치되어 우측 아래를 향해 빔을 주사하는 우측 프로젝터와,
    상기 좌측 주행모터와, 좌측 프로젝터 및 우측 프로젝터를 제어하는 프로세서를 포함하고,
    상기 프로세서는 좌측 방향전환 이전에 상기 좌측 프로젝터를 온시키고, 상기 좌측 프로젝터의 온시킨 이후에 좌측 주행모터를 우측 주행모터 보다 고속으로 회전시키고,
    상기 프로세서는 우측 방향전환 이전에 상기 우측 프로젝터를 온시키고, 상기 우측 프로젝터의 온시킨 이후에 우측 주행모터를 좌측 주행모터 보다 고속으로 회전시키는 로봇.
  15. 제 14 항에 있어서,
    상기 본체의 전방 하부에 배치된 발 받침대와;
    상기 본체의 후방에 배치된 리어 액세서리를 더 포함하고,
    상기 발 받침대와 리어 액세서리는 상기 좌측 프로젝터의 빔 주사영역과 우측 프로젝터의 빔 주사영역 이외에 배치된 로봇.
  16. 제 14 항에 있어서,
    상기 프로세서는
    상기 본체의 좌회전이 완료되면, 상기 좌측 프로젝터를 오프시키고,
    상기 본체의 우회전이 완료되면, 상기 우측 프로젝터를 오프시키는 로봇.
  17. 제 14 항에 있어서,
    상기 좌측 프로젝터와 우측 프로젝터 중 어느 하나의 온시, 상기 좌측 프로젝터와 우측 프로젝터 중 다른 하나는 오프 유지되는 로봇.
  18. 적어도 주행휠과, 상기 주행휠을 회전시키는 주행모터가 제공되며, 상측에 착석 바디가 제공된 본체를 포함하고, 본체의 좌측에 좌측 프로젝터가 제공되며, 본체의 우측에 배치되어 우측 프로젝터가 제공된 로봇을 제어하는 로봇의 제어 방법에 있어서,
    상기 본체의 방향전환 이전에 상기 좌측 프로젝터 및 우측 프로젝터 중 상기 본체의 방향전환과 대응되는 프로젝터를 미리 온시키는 단계와;
    상기 프로젝터가 온인 도중에 상기 본체의 방향을 전환하는 단계를 포함하는 로봇의 제어 방법.
  19. 제 18 항에 있어서,
    상기 본체의 방향을 전환하는 단계는 상기 프로젝터가 온된 후 설정시간이 경과되면 개시되는 로봇의 제어 방법.
  20. 제 18 항에 있어서,
    상기 본체의 방향을 전환하는 단계는 상기 본체의 방향 전환이 완료되면, 종료되고,
    상기 프로젝터는 상기 본체의 방향을 전환하는 단계의 도중에 온 유지되고, 온 유지 중인 프로젝터는 상기 본체의 방향을 전환하는 단계가 종료되면, 오프되는 로봇의 제어 방법.
KR1020190147588A 2019-11-18 2019-11-18 로봇 및 그 제어 방법 KR20210060038A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190147588A KR20210060038A (ko) 2019-11-18 2019-11-18 로봇 및 그 제어 방법
US16/803,277 US11717955B2 (en) 2019-11-18 2020-02-27 Robot system and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190147588A KR20210060038A (ko) 2019-11-18 2019-11-18 로봇 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20210060038A true KR20210060038A (ko) 2021-05-26

Family

ID=75909227

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190147588A KR20210060038A (ko) 2019-11-18 2019-11-18 로봇 및 그 제어 방법

Country Status (2)

Country Link
US (1) US11717955B2 (ko)
KR (1) KR20210060038A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101089735B1 (ko) 2009-07-08 2011-12-07 한국과학기술원 바닥면에 도넛 형상으로 이미지 빔을 출력하는 프로젝션

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5769440A (en) * 1996-03-05 1998-06-23 St. Joseph's Hospital, Inc. Wheelchair with mobile accessory
JP2005324297A (ja) * 2004-05-17 2005-11-24 Matsushita Electric Ind Co Ltd ロボット
JP2011156057A (ja) * 2010-01-29 2011-08-18 Seiko Epson Corp 電動車両、施設内誘導システムおよび施設内誘導方法
US9315146B2 (en) * 2010-04-13 2016-04-19 Kory Patrick Purks Vehicle turn signalling apparatuses with laser devices, light projection circuits, and related electromechanical actuators
KR20130037813A (ko) * 2011-10-07 2013-04-17 강경화 방향 지시등 시스템
WO2014122750A1 (ja) * 2013-02-07 2014-08-14 富士機械製造株式会社 移動体
TWI537157B (zh) * 2013-04-09 2016-06-11 開丕股份有限公司 車用警示裝置及方法
EP3083334A1 (en) * 2013-12-16 2016-10-26 Blindspotit IVS Dynamic warning system
DE112017000533B4 (de) * 2016-02-29 2022-12-29 Lg Electronics Inc. Staubsauger
DE102016113913A1 (de) * 2016-07-28 2018-02-01 HELLA GmbH & Co. KGaA Kommunikationsvorrichtung für ein Fahrzeug, insbesondere für ein autonomes oder teilautonomes Fahrzeug
CN115071555A (zh) * 2016-11-18 2022-09-20 松下知识产权经营株式会社 通知装置、通知方法以及车辆
US10919445B2 (en) * 2017-01-26 2021-02-16 Mitsubishi Electric Corporation Irradiation control device and irradiation method
DE102017203902A1 (de) * 2017-03-09 2018-09-13 Bayerische Motoren Werke Aktiengesellschaft Kraftfahrzeug mit einem Beleuchtungsmodul zur Generierung einer Symbolik
GB2568748B (en) * 2017-11-28 2020-04-01 Jaguar Land Rover Ltd Projection apparatus
JP6981332B2 (ja) * 2018-03-23 2021-12-15 トヨタ自動車株式会社 移動体
KR102124804B1 (ko) * 2018-05-13 2020-06-23 엘지전자 주식회사 자율주행 차량의 제어 장치 및 그 장치의 제어방법
US10933803B2 (en) * 2019-03-31 2021-03-02 Gm Cruise Holdings Llc Autonomous vehicle visual based communication
US11052818B2 (en) * 2019-05-22 2021-07-06 Ya-Chi Ching Large vehicle turning safety warning apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101089735B1 (ko) 2009-07-08 2011-12-07 한국과학기술원 바닥면에 도넛 형상으로 이미지 빔을 출력하는 프로젝션

Also Published As

Publication number Publication date
US20210146526A1 (en) 2021-05-20
US11717955B2 (en) 2023-08-08

Similar Documents

Publication Publication Date Title
US11351073B2 (en) Robot
US11663936B2 (en) Robot
US11534922B2 (en) Riding system of robot and method thereof
US20210101288A1 (en) Moving bed robot
US11648161B2 (en) Robot
KR20210063121A (ko) 로봇 및 그의 제어 방법
US11517487B2 (en) Robot
US11559447B2 (en) Robot
KR102314372B1 (ko) 로봇 시스템 및 그 제어 방법
US11793696B2 (en) Robot
KR20210048063A (ko) 충전 스테이션
US11613000B2 (en) Robot
US11717955B2 (en) Robot system and method for controlling the same
US11623341B2 (en) Robotic wheelchair
US11547620B2 (en) Robot with elevatable seat
KR20220043864A (ko) 로봇 및 그 제어방법
US11548139B2 (en) Robot
KR20210059539A (ko) 로봇
KR20190113690A (ko) 로봇 시스템 및 그 제어방법
KR20210057394A (ko) 로봇
KR20210070153A (ko) 로봇
KR20210081578A (ko) 다족 로봇