KR20230083472A - Mobile tricycle system equipped with AI mobile robot - Google Patents
Mobile tricycle system equipped with AI mobile robot Download PDFInfo
- Publication number
- KR20230083472A KR20230083472A KR1020210171489A KR20210171489A KR20230083472A KR 20230083472 A KR20230083472 A KR 20230083472A KR 1020210171489 A KR1020210171489 A KR 1020210171489A KR 20210171489 A KR20210171489 A KR 20210171489A KR 20230083472 A KR20230083472 A KR 20230083472A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- tricycle
- mobile
- life pattern
- location
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/009—Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D19/00—Devices for washing the hair or the scalp; Similar devices for colouring the hair
- A45D19/04—Portable wash stands
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1684—Tracking a line or surface by means of sensors
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Nursing (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Alarm Systems (AREA)
Abstract
이동식 세발기를 동작시키기 위한 방법은 이동 대상 영역을 규정하는 단계, 상기 이동식 세발기에 배치된 하나 이상의 센서로부터의 센서 신호, 하나 이상의 외부 디바이스로부터의 센서 신호, 또는 하나 이상의 외부 디바이스로부터의 동작 상태 정보 중 적어도 하나에 기초하여, 사용자의 위치 및 사용자의 행동 유형을 식별하는 단계, 상기 사용자의 위치, 사용자의 행동 유형, 및 이들과 각각 연관된 타임스탬프들을 포함하는 사용자의 생활 패턴 정보를 수집하는 단계 ― 상기 생활 패턴 정보는 하루 이상의 기간 동안 수집됨 ―, 상기 수집된 생활 패턴 정보에 기초하여 이동식 세발기의 이동 스케줄을 결정하는 단계 ― 상기 이동 스케줄은 이동 시간 및 이동 경로를 포함하고, 상기 이동 시간은 상기 이동 대상 영역에 사용자가 부재중인 시간들 중에서 선택됨 ―, 및 결정된 이동 스케줄에 따라 이동을 수행하도록 이동식 세발기를 동작시키는 단계를 포함할 수 있다.A method for operating a portable tricycle includes defining a moving target area, sensor signals from one or more sensors disposed on the portable tricycle, sensor signals from one or more external devices, or operating state information from one or more external devices. Identifying the user's location and the user's behavioral type based on at least one of the following: Collecting the user's life pattern information including the user's location, the user's behavioral type, and timestamps respectively associated therewith - The life pattern information is collected for a period of one or more days - determining a travel schedule of the portable tricycle based on the collected life pattern information - the travel schedule includes a travel time and a travel route, and the travel time is Selecting from among times during which the user is absent from the movement target area, and operating the portable tricycle to move according to the determined movement schedule.
Description
본 개시의 기술적 사상은 이동식 세발기 시스템에 관한 것으로, 더욱 상세하게는, AI 이동 로봇을 탑재한 이동식 세발기 시스템에 관한 것이다.The technical idea of the present disclosure relates to a mobile tricycle system, and more particularly, to a mobile tricycle system equipped with an AI mobile robot.
일반적으로, 고령자들 또는 장애인들은 거동이 불편하기 때문에 미용 전문가들이 직접 고령자들 또는 장애인들의 자택에 방문하여 고령자들 또는 장애인들의 헤어를 관리한다.In general, since the elderly or the handicapped have difficulty moving, beauty experts visit the homes of the elderly or the handicapped to manage their hair.
그러나 기존에는 무거운 세발기와 미용 용품들을 각각 휴대하거나 중량이 상대적으로 무거워서 이동이 어렵고, 거동이 불편한 고령자들 또는 장애인들의 세발 후 세척하는 과정에서 편의성이 낮은 단점이 있었다.However, in the past, there was a disadvantage in that convenience was low in the process of washing after washing the hair of the elderly or the disabled who had difficulty in carrying heavy tricycles and beauty products, or because they were relatively heavy, making it difficult to move.
아울러, 고령자들 또는 장애인들은 이동식 세발기를 직접 이동시키기 힘든 어려움이 있었다.In addition, the elderly or the handicapped had difficulty in directly moving the portable tricycle.
본 개시의 기술적 사상이 해결하려는 과제는, AI 이동 로봇을 통해 필요에 따라 이동식 세발기를 이동시키는 시스템을 제공한다.The problem to be solved by the technical idea of the present disclosure is to provide a system for moving a mobile tricycle as needed through an AI mobile robot.
일실시예에 따르면, 이동식 세발기를 동작시키기 위한 방법은 이동 대상 영역을 규정하는 단계, 상기 이동식 세발기에 배치된 하나 이상의 센서로부터의 센서 신호, 하나 이상의 외부 디바이스로부터의 센서 신호, 또는 하나 이상의 외부 디바이스로부터의 동작 상태 정보 중 적어도 하나에 기초하여, 사용자의 위치 및 사용자의 행동 유형을 식별하는 단계, 상기 사용자의 위치, 사용자의 행동 유형, 및 이들과 각각 연관된 타임스탬프들을 포함하는 사용자의 생활 패턴 정보를 수집하는 단계 ― 상기 생활 패턴 정보는 하루 이상의 기간 동안 수집됨 ―, 상기 수집된 생활 패턴 정보에 기초하여 이동식 세발기의 이동 스케줄을 결정하는 단계 ― 상기 이동 스케줄은 이동 시간 및 이동 경로를 포함하고, 상기 이동 시간은 상기 이동 대상 영역에 사용자가 부재중인 시간들 중에서 선택됨 ―, 및 결정된 이동 스케줄에 따라 이동을 수행하도록 이동식 세발기를 동작시키는 단계를 포함할 수 있다.According to one embodiment, a method for operating a portable tricycle includes defining a moving target area, sensor signals from one or more sensors disposed on the portable tricycle, sensor signals from one or more external devices, or one or more external devices. Identifying the user's location and the user's behavioral type based on at least one of the operating state information from the device, the user's location, the user's behavioral type, and the user's life pattern including timestamps respectively associated therewith Collecting information - the life pattern information is collected for a period of at least one day -, determining a travel schedule of the portable tricycle based on the collected life pattern information - the travel schedule includes a travel time and a travel route and the movement time is selected from among times during which the user is absent from the movement target area, and operating the portable tricycle to move according to the determined movement schedule.
본 개시의 실시예에 따르면, 이동식 세발기는 사용자의 생활 패턴을 고려하여 스스로 이동 스케쥴을 결정할 수 있고, 사용자에게 불편함을 야기하지 않는ㄴ 방식으로 이동 스케쥴을 결정할 수 있다.According to an embodiment of the present disclosure, the mobile tricycle may determine a movement schedule by itself in consideration of a user's life pattern, and may determine the movement schedule in a manner that does not cause inconvenience to the user.
본 개시의 예시적 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 기재로부터 본 개시의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 개시의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.Effects obtainable in the exemplary embodiments of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are common knowledge in the art to which exemplary embodiments of the present disclosure belong from the following description. can be clearly derived and understood by those who have That is, unintended effects according to the implementation of the exemplary embodiments of the present disclosure may also be derived by those skilled in the art from the exemplary embodiments of the present disclosure.
도 1은 본 개시의 일 실시예에 따른 이동식 세발기의 개략적인 블록도를 도시한다.
도 2는 본 개시의 일 실시예 따른 영상 분석기 및 소리 분석기의 예시적인 동작을 도시한다.
도 3은 본 개시의 일 실시예에 따른 맵 관리기에 의해 관리되는 이동 대상 영역의 맵의 예를 도시한다.1 shows a schematic block diagram of a mobile tricycle according to an embodiment of the present disclosure.
2 illustrates exemplary operation of a video analyzer and a sound analyzer according to an embodiment of the present disclosure.
3 illustrates an example of a map of a moving target area managed by a map manager according to an embodiment of the present disclosure.
이하, 첨부한 도면을 참조하여 본 개시의 실시 예에 대해 상세히 설명한다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은 본 개시의 일 실시예에 따른 이동식 세발기의 개략적인 블록도를 도시한다. 이동식 세발기(100)는, 하나 이상의 센서(210), 네트워크 인터페이스(220), 세발기(230), 주행 휠(240), 및 제어부(250)를 포함한다.1 shows a schematic block diagram of a mobile tricycle according to an embodiment of the present disclosure. The
센서(210)는 이동식 세발기의 주변의 상태 및 이동식 세발기의 주행 상태를 모니터링하여 센서 신호를 생성하고, 생성된 센서 신호를 제어부(250)에 제공한다.The
하나 이상의 센서(210)는 주변의 영상을 획득하여 영상 신호를 생성하기 위한 영상 센서(211)(예를 들어, 카메라), 주변의 소리를 획득하여 소리 신호를 생성하기 위한 소리 센서(212)(예를 들어, 마이크로폰), 및 예를 들어 적외선, 초음파, 또는 레이저를 이용하여 벽이나 물체 등의 장애물을 감지하거나 장애물까지의 거리를 측정하기 위한 장애물 센서(213)를 포함할 수 있다.The one or
하나 이상의 센서(210)는 또한 이동식 세발기(100)의 배향을 검출하기 위한 나침반 센서(214), 직선 이동을 검출하기 위한 가속도계 센서(215), 및 회전 운동을 검출하기 위한 자이로스코프 센서(216)를 더 포함할 수 있다. 센서들(210)은 기능을 달성하기 위해 적당한 임의의 위치에 배치될 수 있다.The one or
네트워크 인터페이스(220)는 홈 자동화 서버(160), 홈 IoT 디바이스들, 또는 사용자 단말 중 적어도 하나와 통신하기 위한 네트워크 기능성을 제공한다. 네트워크 인터페이스(220)는 홈 IoT 디바이스들로부터의 동작 상태 정보 및/또는 센서 신호를 수신하고, 홈 자동화 서버(160)로부터 제어 신호를 수신할 수 있다.The
네트워크 인터페이스(220)는, 예를 들어, 5세대(5G) 셀룰러 네트워크, 블루투스, 적외선 데이터 협회(Infrared Data Association; IrDA), 사물 인터넷(Internet of Things; IoT), 로컬 영역 네트워크(Local Area Network; LAN), 저전력 네트워크(Low Power Network; LPN), 저전력 광역 네트워크(Low Power Wide Area Network; LPWAN), 개인 영역 네트워크(Personal Area Network; PAN), 무선 주파수 식별(Radio Frequency Identification; RFID), 초광대역(Ultra-wide Band; UWB), Wi-Fi(Wireless Fidelity), 무선 LAN(WLAN), 또는 ZigBee 통신 기술들 중 하나 이상을 이용할 수 있으나, 이에 한정되는 것은 아니다.The
세발기(230)는 세발 제어기(253)의 제어에 의해, 예를 들어 이동식 세발기(100)의 상부에 위치된 노즐을 통해 물을 방출하도록 구성된다. The
주행 휠(240)은 주행 제어기(254)의 제어에 의해 이동식 세발기(100)를 바닥면(floor) 상에서 직선으로 또는 곡선으로 이동시키거나 회전시키도록 구성된다. 주행 휠(240)은 전형적으로 이동식 세발기(100)의 바닥(bottom)의 바퀴의 쌍으로 이루어진다.The
제어부(250)는 하나 이상의 센서(210), 네트워크 인터페이스(220), 세발기(230), 및 주행 휠(240)과 상호작용하며 이동식 세발기(100)의 동작을 제어한다. 제어부(250)는 하나 이상의 센서(210)로부터 센서 신호를 수신하도록 구성된다. 제어부(250)는 네트워크 인터페이스(220)를 통해 다른 홈 IoT 디바이스로부터 센서 신호 및 동작 상태 정보를 수신하도록 구성된다. 제어부(250)는 또한 세발기(230) 및 주행 휠(240)의 동작들을 제어하도록 구성된다.The
제어부(250)는, 예를 들어 메모리에 저장된 프로그램에 포함된 코드들 또는 명령어들로 표현된 기능들을 수행하기 위해 구조화된 회로를 갖는 하나 이상의 프로세서를 포함할 수 있다. 하나 이상의 프로세서는, 예를 들어, 마이크로프로세서, 중앙처리장치(Central Processing Unit; CPU), 프로세서 코어, 멀티프로세서, 이미지 프로세서, 신경 프로세서, 주문형 집적회로(Application-Specific Integrated Circuit; ASIC), 또는 현장 프로그래머블 게이트 어레이(Field Programmable Gate Array; FPGA) 중 하나 이상을 포함할 수 있으나, 이에 한정되는 것은 아니다. 메모리에 저장된 프로그램에 포함된 코드들 또는 명령어들은, 하나 이상의 프로세서에 의해 실행될 때, 제어부(250)의 동작을 수행하도록 구현될 수 있다.The
제어부(250)는 영상 분석기(251), 소리 분석기(252), 세발 제어기(253), 주행 제어기(254), 맵 관리기(255), 생활 패턴 분석기(256), 이동 스케줄러(257), 및 생활 패턴 데이터베이스(258)를 포함한다. 제어부(250)의 컴포넌트들은 각각 별개의 프로세서들 및 메모리들에 의해 구현될 수도 있고, 또는 제어부(250)의 컴포넌트들 중 적어도 일부는 공통의 프로세서 및 메모리의 논리적 자원 할당에 의해 구현될 수 있다.The
영상 분석기(251)는 영상 센서(211)로부터 또는 다른 홈 IoT 디바이스(예를 들어, 보안 카메라(110))로부터 수신한 영상 신호를 분석하도록 구성된다.The
소리 분석기(252)는 소리 센서(212)로부터 또는 다른 홈 IoT 디바이스(예를 들어, AI 스피커(120))로부터 수신한 소리 신호를 분석하도록 구성된다.
도 2는 본 개시의 일 실시예 따른 영상 분석기 및 소리 분석기의 예시적인 동작을 도시한다.2 illustrates exemplary operation of a video analyzer and a sound analyzer according to an embodiment of the present disclosure.
도 2(a)를 참조하면, 영상 분석기(251)는 입력된 영상 신호(310)로부터 영상 내의 객체(object)의 종류를 식별하도록 머신 러닝을 이용하여 미리 훈련되어 있는 인공 신경망(320)을 포함한다. 예를 들어, 영상 분석기(251)의 인공 신경망(320)은 영상 센서(211) 또는 다른 홈 IoT 디바이스로부터 제공된 영상 신호(310) 내에 존재하는, 예를 들어, 사람, 의자, 테이블, 침대, 옷, 커튼, 또는 카펫 등을 식별하도록 훈련되어 있다. 인공 신경망(320)은 또한 영상 신호(310) 내에 존재하는 사람의 행동을 식별하도록 훈련되어 있을 수 있다.Referring to FIG. 2 (a), the
영상 분석기(514)는 또한 이동식 세발기(100)의 위치 정보, 영상 센서(211)의 배향 정보, 또는 영상 신호를 전송한 홈 IoT 디바이스의 배향 정보 중 적어도 하나에 기초하여 식별된 객체의 위치 또는 식별된 행동이 발생하는 위치를 추정할 수 있다.The image analyzer 514 may also determine the location of an object identified based on at least one of location information of the
도 2(b)를 참조하면, 소리 분석기(252)는 입력된 소리 신호(360)로부터 소리의 종류를 식별하도록 머신 러닝을 이용하여 미리 훈련된 인공 신경망(370)을 포함한다. 소리 분석기(252)의 인공 신경망(370)은 입력된 소리 신호(360)로부터, 예를 들어, 사람의 음성, 진공 청소기의 동작 소리, 헤어 드라이어의 동작 소리, 아이들의 웃음 소리, 도어락의 잠금해제 소리, 또는 도어락의 잠김 소리 등을 식별하도록 훈련되어 있다.Referring to FIG. 2( b ), the
소리 분석기(252)는 사람의 음성으로부터 음성과 관련된 사람의 행동을 식별하도록 머신 러닝을 이용하여 미리 훈련된 인공 신경망을 더 포함할 수 있다. 이때, 소리 분석기(252)는 소리 센서(212)로부터의 또는 다른 IoT 디바이스로부터의 소리 신호(360)를 전처리하여 배경 노이즈를 제거하고, 추출된 사람의 음성 신호만 인공 신경망에 입력할 수 있다.The
소리 분석기(252)는 또한 이동식 세발기(100)의 위치 정보, 복수의 소리 센서(212) 및/또는 홈 IoT 디바이스로부터의 소리 신호에서의 신호 레이턴시, 또는 소리 센서(212) 및/또는 소리 신호를 제공한 홈 IoT 디바이스의 배향 정보 중 적어도 하나에 기초하여 소리가 발생하는 위치를 추정할 수도 있다.The
세발 제어기(253)는 세발기(230)의 동작을 제어하도록 구성된다. 세발 제어기(253)는 이동 스케줄러(257)에 의해 설정된 이동 스케줄에 따라 이동한 후 세발기(230)의 동작(예를 들어, 출력 세기)을 제어할 수 있다. 세발 제어기(253)는 사용자의 설정에 따라 세발기(230)의 동작을 제어할 수도 있다. 세발 제어기(253)는 또한 홈 자동화 서버(160)로부터의 제어 신호에 따라 세발기(230)의 동작을 제어할 수도 있다. 세발기(253)는 하나 이상의 센서(210), 예컨대, 영상 센서(211) 또는 장애물 센서(213)로부터의 센서 신호에 기초하여 세발기(230)의 동작을 제어할 수도 있다.The
주행 제어기(254)는 주행 휠(240)의 동작(예를 들어, 주행 방향 및 속도)을 제어하도록 구성된다. 주행 제어기(254)는 또한 주행 휠(240)의 동작 동안 주행 휠(240)의 동작 정보(예를 들어, 주행 방향 및 속도 정보)를 생성하도록 구성된다.The
주행 제어기(254)는 하나 이상의 센서(210), 예컨대, 장애물 센서(213), 나침반 센서(214), 가속도계 센서(215), 및 자이로스코프 센서(216)로부터의 센서 신호에 기초하여, 예를 들어 월-팔로잉(wall-following) 모드로 주행 휠(240)의 동작을 제어할 수 있다. 주행 제어기(254)는 맵 관리기(255)에 의해 생성된 맵 정보에 추가로 기초하여 주행 휠(240)의 동작을 제어할 수 있다. 주행 제어기(254)는 이동 스케줄러(257)에 의해 설정된 이동 경로에 따라 주행 휠(240)의 동작을 제어할 수도 있다. 주행 제어기(254)는 또한 홈 자동화 서버(160)로부터의 제어 신호에 따라 주행 휠(240)의 동작을 제어할 수도 있다.Based on sensor signals from one or
맵 관리기(255)는 이동식 세발기(100)의 이동 대상 영역의 맵을 생성하고 관리하도록 구성된다. 맵 관리기(255)는, 이동식 세발기(100)가 실내 환경을 자율 주행하는 동안, 하나 이상의 센서(210)로부터의 센서 신호에 기초하여 그리고 주행 휠(240)의 동작 정보에 기초하여 맵을 생성하고 업데이트한다.The
예를 들어, 맵 관리기(255)는, 나침반 센서(214), 가속도 센서(215), 또는 자이로스코프 센서(216) 중 적어도 하나로부터의 센서 신호 및/또는 주행 휠(240)의 동작 정보에 기초하여 이동식 세발기(100)의 위치 및 이동 방향을 식별할 수 있다. 맵 관리기(255)는 장애물 센서(213)로부터의 센서 신호에 기초하여 벽 또는 장애물의 위치를 식별할 수 있다. 맵 관리기(255)는 식별된 이동식 세발기(100)의 위치, 이동식 세발기(100)의 이동 방향, 그리고 벽 또는 장애물의 위치에 기초하여, 이동 대상 영역의 맵을 생성한다. 예를 들어, 맵 관리기(255)는, 이동식 세발기(100)가 월-팔로잉 모드로 벽을 따라 주행할 때, 장애물 센서(213)로부터의 센서 신호에 기초하여 실내 환경의 맵을 생성한다.For example,
맵 관리기(255)는 또한 네트워크 인터페이스(220)를 통해 사용자 단말로부터 맵 생성 및 수정을 위한 사용자의 입력을 받을 수 있다. 맵 관리기(255)는 또한 홈 자동화 서버(160)로부터 이동 대상 영역 맵을 수신할 수도 있다.The
한편, 맵 관리기(255)에 의해 생성되는 이동 대상 영역의 맵은, 실내 환경의 맵과 정확하게 일치하지 않을 수도 있다. 예를 들어, 이동식 세발기(100)가 물리적으로 또는 사용자의 설정에 의해 주행할 수 없는 실내 환경의 영역들은 이동 대상 영역의 맵에서 제외될 수 있다.Meanwhile, the map of the moving target area generated by the
도 3은 본 개시의 일 실시예에 따른 맵 관리기에 의해 관리되는 이동 대상 영역의 맵의 예를 도시한다. 맵 관리기(255)는 이동 대상 영역의 맵(400)을 복수의 섹션들로 분할할 수 있다. 예를 들어, 맵 관리기(255)는 맵(400)을 임의의 크기의 그리드로 분할할 수 있다. 도 3의 예에서, 맵(400)은 A, B, C, 및 D 영역들로 분할되고, 각각의 영역은 세부 섹션들로 분할되어 있다.3 illustrates an example of a map of a moving target area managed by a map manager according to an embodiment of the present disclosure. The
맵 관리기(255)는 영상 센서(211)로부터 수신된 영상 신호를 영상 분석기(251)가 분석한 결과에 기초하여 또는 사용자의 입력에 따라, 각각의 영역을 사람이 인식하는 공간의 종류(예를 들어, 거실, 주방, 침실, 다용도실 등)로 분류할 수도 있다. 예를 들어, A 영역에 대한 영상 신호로부터 냉장고(130), 주방 스토브, 또는 식탁 등이 식별되면, 맵 관리기는 A 영역을 "주방"으로 분류할 수 있다.The
맵 관리기(255)는 맵(400) 상에 이동식 세발기(100)의 위치를 표시한다. 맵 관리기(255)는 홈 IoT 디바이스들의 위치를 표시할 수도 있다. 홈 IoT 디바이스들의 위치는 예를 들어, 영상 분석기(251)에 의해 식별될 수 있다. 홈 IoT 디바이스들의 위치는, 홈 IoT 디바이스들과의 통신을 통해 또는 사용자의 입력을 통해 식별될 수도 있다.The
다시 도 1을 참조하면, 생활 패턴 분석기(256)는 하나 이상의 센서(210)로부터의 센서 신호 또는 네트워크 인터페이스(220)를 통해 수신한 다른 홈 IoT 디바이스로부터의 센서 신호 및/또는 동작 상태 정보에 기초하여 사용자의 생활 패턴을 결정하도록 구성된다.Referring back to FIG. 1 , the
생활 패턴 분석기(256)는 상술한 센서 신호 및 동작 상태 정보의 2 이상의 결합으로부터 사용자의 위치를 식별할 수도 있다. 생활 패턴 분석기(256)는 맵 관리기(255)에 의해 생성된 맵(400) 상의 좌표 또는 섹션 식별자로서 사용자의 위치를 식별할 수 있다. 실내 환경에 사용자가 2명 이상 존재하는 경우, 각각의 사용자의 행동 유형이 식별될 수 있다.The
생활 패턴의 결정을 위하여, 생활 패턴 분석기(256)는 하나 이상의 센서(210)로부터의 센서 신호에 기초하여 사용자의 행동 유형을 식별할 수 있다. 생활 패턴 분석기(256)는 하나 이상의 홈 IoT 디바이스로부터의 센서 신호 또는 하나 이상의 홈 IoT 디바이스로부터의 동작 상태 정보에 기초하여 사용자의 행동 유형을 식별할 수도 있다. 예를 들어, 생활 패턴 분석기(256)는 소리 분석기(252)에 의한 소리 신호의 분석 결과로부터 사용자의 행동 유형을 식별할 수 있다. 진공 청소기의 동작 상태 정보로부터 사용자가 청소 중인 것을 식별할 수도 있다. 사용자의 행동 유형은, 예를 들어, TV 시청, 요리, 청소, 헤어 드라이어 사용, 및 취침 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 실내 환경에 사용자가 2명 이상 존재하는 경우, 각각의 사용자의 행동 유형이 식별될 수 있다.To determine a lifestyle pattern, the
이상에서와 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As above, exemplary embodiments have been disclosed in the drawings and specifications. Although the embodiments have been described using specific terms in this specification, they are only used for the purpose of explaining the technical idea of the present disclosure, and are not used to limit the scope of the present disclosure described in the claims. . Therefore, those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical scope of protection of the present disclosure should be determined by the technical spirit of the appended claims.
Claims (1)
이동 대상 영역을 규정하는 단계;
상기 이동식 세발기에 배치된 하나 이상의 센서로부터의 센서 신호, 하나 이상의 외부 디바이스로부터의 센서 신호, 또는 하나 이상의 외부 디바이스로부터의 동작 상태 정보 중 적어도 하나에 기초하여, 사용자의 위치 및 사용자의 행동 유형을 식별하는 단계;
상기 사용자의 위치, 사용자의 행동 유형, 및 이들과 각각 연관된 타임스탬프들을 포함하는 사용자의 생활 패턴 정보를 수집하는 단계 ― 상기 생활 패턴 정보는 하루 이상의 기간 동안 수집됨 ―;
상기 수집된 생활 패턴 정보에 기초하여 이동식 세발기의 이동 스케줄을 결정하는 단계 ― 상기 이동 스케줄은 이동 시간 및 이동 경로를 포함하고, 상기 이동 시간은 상기 이동 대상 영역에 사용자가 부재중인 시간들 중에서 선택됨 ―; 및
결정된 이동 스케줄에 따라 이동을 수행하도록 이동식 세발기를 동작시키는 단계
를 포함하는, 방법.As a method for operating a mobile tricycle,
defining a moving target area;
Based on at least one of sensor signals from one or more sensors disposed in the portable tricycle, sensor signals from one or more external devices, or operating state information from one or more external devices, the user's location and the user's action type are determined. identifying;
collecting life pattern information of the user including the user's location, the user's behavior type, and timestamps respectively associated therewith, wherein the life pattern information is collected for a period of one day or more;
Determining a movement schedule of the mobile tricycle based on the collected life pattern information - the movement schedule includes a movement time and a movement route, and the movement time is selected from among times when the user is absent from the movement target area -; and
Operating the portable tricycle to move according to the determined moving schedule
Including, method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210171489A KR20230083472A (en) | 2021-12-03 | 2021-12-03 | Mobile tricycle system equipped with AI mobile robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210171489A KR20230083472A (en) | 2021-12-03 | 2021-12-03 | Mobile tricycle system equipped with AI mobile robot |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230083472A true KR20230083472A (en) | 2023-06-12 |
Family
ID=86769998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210171489A KR20230083472A (en) | 2021-12-03 | 2021-12-03 | Mobile tricycle system equipped with AI mobile robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230083472A (en) |
-
2021
- 2021-12-03 KR KR1020210171489A patent/KR20230083472A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7395229B2 (en) | Mobile cleaning robot artificial intelligence for situational awareness | |
US20210160326A1 (en) | Utilizing context information of environment component regions for event/activity prediction | |
US9874873B2 (en) | Environmental management systems including mobile robots and methods using same | |
JP2021131396A (en) | Radar-enabled sensor fusion | |
CN104965552B (en) | A kind of smart home environment cooperative control method based on emotional robot and system | |
US11517168B2 (en) | Robot cleaner and operating method of the same | |
US10787762B2 (en) | Home appliance and method for controlling the same | |
US11672391B2 (en) | Robot cleaner and method for determining cleaning path | |
KR102040505B1 (en) | Air cleaning apparatus based on artificial intelligence and air cleaning system including the same | |
WO2014190886A1 (en) | Intelligent interaction system and software system thereof | |
JP2016541040A (en) | Smart home hazard detector that gives a non-alarm status signal at the right moment | |
KR20190071641A (en) | Apparatus and method for controlling operation of home appliance, home appliance and method for operating of home appliance | |
KR102612822B1 (en) | Controlling method for Artificial intelligence Moving robot | |
KR20200057825A (en) | Air purifier of providing recommendation information corresponding schedule based on artificial intelligence controlling and method implementing thereof | |
CN112805128A (en) | Artificial intelligence mobile robot | |
KR102612827B1 (en) | Controlling method for Artificial intelligence Moving robot | |
CN106356073B (en) | Method and device for eliminating noise | |
KR20230083472A (en) | Mobile tricycle system equipped with AI mobile robot | |
KR20220094839A (en) | Smart home control method and system | |
CN111306714A (en) | Air conditioner and control method thereof | |
KR20230083445A (en) | Smart home control system | |
KR20220152866A (en) | Robot apparatus, controlling method thereof, and recording medium for recording program | |
JP2022165192A (en) | Area recognition system, moving object and area recognition device | |
Rathnayake et al. | Voice and Gesture Integrated Home Automation System | |
CN115933871A (en) | Control method and device of intelligent equipment, intelligent system and storage medium |