KR20230083472A - Mobile tricycle system equipped with AI mobile robot - Google Patents

Mobile tricycle system equipped with AI mobile robot Download PDF

Info

Publication number
KR20230083472A
KR20230083472A KR1020210171489A KR20210171489A KR20230083472A KR 20230083472 A KR20230083472 A KR 20230083472A KR 1020210171489 A KR1020210171489 A KR 1020210171489A KR 20210171489 A KR20210171489 A KR 20210171489A KR 20230083472 A KR20230083472 A KR 20230083472A
Authority
KR
South Korea
Prior art keywords
user
tricycle
mobile
life pattern
location
Prior art date
Application number
KR1020210171489A
Other languages
Korean (ko)
Inventor
김희야
Original Assignee
김희야
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김희야 filed Critical 김희야
Priority to KR1020210171489A priority Critical patent/KR20230083472A/en
Publication of KR20230083472A publication Critical patent/KR20230083472A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D19/00Devices for washing the hair or the scalp; Similar devices for colouring the hair
    • A45D19/04Portable wash stands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Nursing (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Alarm Systems (AREA)

Abstract

이동식 세발기를 동작시키기 위한 방법은 이동 대상 영역을 규정하는 단계, 상기 이동식 세발기에 배치된 하나 이상의 센서로부터의 센서 신호, 하나 이상의 외부 디바이스로부터의 센서 신호, 또는 하나 이상의 외부 디바이스로부터의 동작 상태 정보 중 적어도 하나에 기초하여, 사용자의 위치 및 사용자의 행동 유형을 식별하는 단계, 상기 사용자의 위치, 사용자의 행동 유형, 및 이들과 각각 연관된 타임스탬프들을 포함하는 사용자의 생활 패턴 정보를 수집하는 단계 ― 상기 생활 패턴 정보는 하루 이상의 기간 동안 수집됨 ―, 상기 수집된 생활 패턴 정보에 기초하여 이동식 세발기의 이동 스케줄을 결정하는 단계 ― 상기 이동 스케줄은 이동 시간 및 이동 경로를 포함하고, 상기 이동 시간은 상기 이동 대상 영역에 사용자가 부재중인 시간들 중에서 선택됨 ―, 및 결정된 이동 스케줄에 따라 이동을 수행하도록 이동식 세발기를 동작시키는 단계를 포함할 수 있다.A method for operating a portable tricycle includes defining a moving target area, sensor signals from one or more sensors disposed on the portable tricycle, sensor signals from one or more external devices, or operating state information from one or more external devices. Identifying the user's location and the user's behavioral type based on at least one of the following: Collecting the user's life pattern information including the user's location, the user's behavioral type, and timestamps respectively associated therewith - The life pattern information is collected for a period of one or more days - determining a travel schedule of the portable tricycle based on the collected life pattern information - the travel schedule includes a travel time and a travel route, and the travel time is Selecting from among times during which the user is absent from the movement target area, and operating the portable tricycle to move according to the determined movement schedule.

Description

AI 이동 로봇을 탑재한 이동식 세발기 시스템{Mobile tricycle system equipped with AI mobile robot}Mobile tricycle system equipped with AI mobile robot}

본 개시의 기술적 사상은 이동식 세발기 시스템에 관한 것으로, 더욱 상세하게는, AI 이동 로봇을 탑재한 이동식 세발기 시스템에 관한 것이다.The technical idea of the present disclosure relates to a mobile tricycle system, and more particularly, to a mobile tricycle system equipped with an AI mobile robot.

일반적으로, 고령자들 또는 장애인들은 거동이 불편하기 때문에 미용 전문가들이 직접 고령자들 또는 장애인들의 자택에 방문하여 고령자들 또는 장애인들의 헤어를 관리한다.In general, since the elderly or the handicapped have difficulty moving, beauty experts visit the homes of the elderly or the handicapped to manage their hair.

그러나 기존에는 무거운 세발기와 미용 용품들을 각각 휴대하거나 중량이 상대적으로 무거워서 이동이 어렵고, 거동이 불편한 고령자들 또는 장애인들의 세발 후 세척하는 과정에서 편의성이 낮은 단점이 있었다.However, in the past, there was a disadvantage in that convenience was low in the process of washing after washing the hair of the elderly or the disabled who had difficulty in carrying heavy tricycles and beauty products, or because they were relatively heavy, making it difficult to move.

아울러, 고령자들 또는 장애인들은 이동식 세발기를 직접 이동시키기 힘든 어려움이 있었다.In addition, the elderly or the handicapped had difficulty in directly moving the portable tricycle.

본 개시의 기술적 사상이 해결하려는 과제는, AI 이동 로봇을 통해 필요에 따라 이동식 세발기를 이동시키는 시스템을 제공한다.The problem to be solved by the technical idea of the present disclosure is to provide a system for moving a mobile tricycle as needed through an AI mobile robot.

일실시예에 따르면, 이동식 세발기를 동작시키기 위한 방법은 이동 대상 영역을 규정하는 단계, 상기 이동식 세발기에 배치된 하나 이상의 센서로부터의 센서 신호, 하나 이상의 외부 디바이스로부터의 센서 신호, 또는 하나 이상의 외부 디바이스로부터의 동작 상태 정보 중 적어도 하나에 기초하여, 사용자의 위치 및 사용자의 행동 유형을 식별하는 단계, 상기 사용자의 위치, 사용자의 행동 유형, 및 이들과 각각 연관된 타임스탬프들을 포함하는 사용자의 생활 패턴 정보를 수집하는 단계 ― 상기 생활 패턴 정보는 하루 이상의 기간 동안 수집됨 ―, 상기 수집된 생활 패턴 정보에 기초하여 이동식 세발기의 이동 스케줄을 결정하는 단계 ― 상기 이동 스케줄은 이동 시간 및 이동 경로를 포함하고, 상기 이동 시간은 상기 이동 대상 영역에 사용자가 부재중인 시간들 중에서 선택됨 ―, 및 결정된 이동 스케줄에 따라 이동을 수행하도록 이동식 세발기를 동작시키는 단계를 포함할 수 있다.According to one embodiment, a method for operating a portable tricycle includes defining a moving target area, sensor signals from one or more sensors disposed on the portable tricycle, sensor signals from one or more external devices, or one or more external devices. Identifying the user's location and the user's behavioral type based on at least one of the operating state information from the device, the user's location, the user's behavioral type, and the user's life pattern including timestamps respectively associated therewith Collecting information - the life pattern information is collected for a period of at least one day -, determining a travel schedule of the portable tricycle based on the collected life pattern information - the travel schedule includes a travel time and a travel route and the movement time is selected from among times during which the user is absent from the movement target area, and operating the portable tricycle to move according to the determined movement schedule.

본 개시의 실시예에 따르면, 이동식 세발기는 사용자의 생활 패턴을 고려하여 스스로 이동 스케쥴을 결정할 수 있고, 사용자에게 불편함을 야기하지 않는ㄴ 방식으로 이동 스케쥴을 결정할 수 있다.According to an embodiment of the present disclosure, the mobile tricycle may determine a movement schedule by itself in consideration of a user's life pattern, and may determine the movement schedule in a manner that does not cause inconvenience to the user.

본 개시의 예시적 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 기재로부터 본 개시의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 개시의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.Effects obtainable in the exemplary embodiments of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are common knowledge in the art to which exemplary embodiments of the present disclosure belong from the following description. can be clearly derived and understood by those who have That is, unintended effects according to the implementation of the exemplary embodiments of the present disclosure may also be derived by those skilled in the art from the exemplary embodiments of the present disclosure.

도 1은 본 개시의 일 실시예에 따른 이동식 세발기의 개략적인 블록도를 도시한다.
도 2는 본 개시의 일 실시예 따른 영상 분석기 및 소리 분석기의 예시적인 동작을 도시한다.
도 3은 본 개시의 일 실시예에 따른 맵 관리기에 의해 관리되는 이동 대상 영역의 맵의 예를 도시한다.
1 shows a schematic block diagram of a mobile tricycle according to an embodiment of the present disclosure.
2 illustrates exemplary operation of a video analyzer and a sound analyzer according to an embodiment of the present disclosure.
3 illustrates an example of a map of a moving target area managed by a map manager according to an embodiment of the present disclosure.

이하, 첨부한 도면을 참조하여 본 개시의 실시 예에 대해 상세히 설명한다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 일 실시예에 따른 이동식 세발기의 개략적인 블록도를 도시한다. 이동식 세발기(100)는, 하나 이상의 센서(210), 네트워크 인터페이스(220), 세발기(230), 주행 휠(240), 및 제어부(250)를 포함한다.1 shows a schematic block diagram of a mobile tricycle according to an embodiment of the present disclosure. The mobile tricycle 100 includes one or more sensors 210, a network interface 220, a tricycle 230, a driving wheel 240, and a controller 250.

센서(210)는 이동식 세발기의 주변의 상태 및 이동식 세발기의 주행 상태를 모니터링하여 센서 신호를 생성하고, 생성된 센서 신호를 제어부(250)에 제공한다.The sensor 210 generates a sensor signal by monitoring the surrounding state of the mobile tricycle and the driving state of the mobile tricycle, and provides the generated sensor signal to the controller 250 .

하나 이상의 센서(210)는 주변의 영상을 획득하여 영상 신호를 생성하기 위한 영상 센서(211)(예를 들어, 카메라), 주변의 소리를 획득하여 소리 신호를 생성하기 위한 소리 센서(212)(예를 들어, 마이크로폰), 및 예를 들어 적외선, 초음파, 또는 레이저를 이용하여 벽이나 물체 등의 장애물을 감지하거나 장애물까지의 거리를 측정하기 위한 장애물 센서(213)를 포함할 수 있다.The one or more sensors 210 include an image sensor 211 (eg, a camera) for acquiring an image of the surroundings and generating an image signal, and a sound sensor 212 ( For example, a microphone), and an obstacle sensor 213 for detecting an obstacle such as a wall or an object or measuring a distance to an obstacle using, for example, infrared rays, ultrasonic waves, or laser.

하나 이상의 센서(210)는 또한 이동식 세발기(100)의 배향을 검출하기 위한 나침반 센서(214), 직선 이동을 검출하기 위한 가속도계 센서(215), 및 회전 운동을 검출하기 위한 자이로스코프 센서(216)를 더 포함할 수 있다. 센서들(210)은 기능을 달성하기 위해 적당한 임의의 위치에 배치될 수 있다.The one or more sensors 210 may also include a compass sensor 214 to detect orientation of the portable tricycle 100, an accelerometer sensor 215 to detect linear movement, and a gyroscope sensor 216 to detect rotational motion. ) may further include. Sensors 210 may be placed in any location suitable to accomplish a function.

네트워크 인터페이스(220)는 홈 자동화 서버(160), 홈 IoT 디바이스들, 또는 사용자 단말 중 적어도 하나와 통신하기 위한 네트워크 기능성을 제공한다. 네트워크 인터페이스(220)는 홈 IoT 디바이스들로부터의 동작 상태 정보 및/또는 센서 신호를 수신하고, 홈 자동화 서버(160)로부터 제어 신호를 수신할 수 있다.The network interface 220 provides network functionality for communicating with at least one of the home automation server 160, home IoT devices, or user terminals. The network interface 220 may receive operation state information and/or sensor signals from home IoT devices and may receive a control signal from the home automation server 160 .

네트워크 인터페이스(220)는, 예를 들어, 5세대(5G) 셀룰러 네트워크, 블루투스, 적외선 데이터 협회(Infrared Data Association; IrDA), 사물 인터넷(Internet of Things; IoT), 로컬 영역 네트워크(Local Area Network; LAN), 저전력 네트워크(Low Power Network; LPN), 저전력 광역 네트워크(Low Power Wide Area Network; LPWAN), 개인 영역 네트워크(Personal Area Network; PAN), 무선 주파수 식별(Radio Frequency Identification; RFID), 초광대역(Ultra-wide Band; UWB), Wi-Fi(Wireless Fidelity), 무선 LAN(WLAN), 또는 ZigBee 통신 기술들 중 하나 이상을 이용할 수 있으나, 이에 한정되는 것은 아니다.The network interface 220 may be, for example, a 5th generation (5G) cellular network, Bluetooth, Infrared Data Association (IrDA), Internet of Things (IoT), Local Area Network; LAN), Low Power Network (LPN), Low Power Wide Area Network (LPWAN), Personal Area Network (PAN), Radio Frequency Identification (RFID), ultra-wideband (Ultra-wide Band; UWB), Wi-Fi (Wireless Fidelity), wireless LAN (WLAN), or one or more of ZigBee communication technologies may be used, but is not limited thereto.

세발기(230)는 세발 제어기(253)의 제어에 의해, 예를 들어 이동식 세발기(100)의 상부에 위치된 노즐을 통해 물을 방출하도록 구성된다. The tricycle 230 is configured to discharge water under the control of the tricycle controller 253, for example, through a nozzle located at the top of the mobile tricycle 100.

주행 휠(240)은 주행 제어기(254)의 제어에 의해 이동식 세발기(100)를 바닥면(floor) 상에서 직선으로 또는 곡선으로 이동시키거나 회전시키도록 구성된다. 주행 휠(240)은 전형적으로 이동식 세발기(100)의 바닥(bottom)의 바퀴의 쌍으로 이루어진다.The travel wheel 240 is configured to move or rotate the mobile tricycle 100 in a straight line or curve on a floor under the control of the travel controller 254 . Travel wheels 240 typically consist of a pair of wheels on the bottom of the mobile tricycle 100.

제어부(250)는 하나 이상의 센서(210), 네트워크 인터페이스(220), 세발기(230), 및 주행 휠(240)과 상호작용하며 이동식 세발기(100)의 동작을 제어한다. 제어부(250)는 하나 이상의 센서(210)로부터 센서 신호를 수신하도록 구성된다. 제어부(250)는 네트워크 인터페이스(220)를 통해 다른 홈 IoT 디바이스로부터 센서 신호 및 동작 상태 정보를 수신하도록 구성된다. 제어부(250)는 또한 세발기(230) 및 주행 휠(240)의 동작들을 제어하도록 구성된다.The controller 250 interacts with one or more sensors 210, network interface 220, tricycle 230, and driving wheel 240 to control the operation of the mobile tricycle 100. The controller 250 is configured to receive sensor signals from one or more sensors 210 . The controller 250 is configured to receive sensor signals and operation state information from other home IoT devices through the network interface 220 . Controller 250 is also configured to control operations of tricycle 230 and driving wheel 240 .

제어부(250)는, 예를 들어 메모리에 저장된 프로그램에 포함된 코드들 또는 명령어들로 표현된 기능들을 수행하기 위해 구조화된 회로를 갖는 하나 이상의 프로세서를 포함할 수 있다. 하나 이상의 프로세서는, 예를 들어, 마이크로프로세서, 중앙처리장치(Central Processing Unit; CPU), 프로세서 코어, 멀티프로세서, 이미지 프로세서, 신경 프로세서, 주문형 집적회로(Application-Specific Integrated Circuit; ASIC), 또는 현장 프로그래머블 게이트 어레이(Field Programmable Gate Array; FPGA) 중 하나 이상을 포함할 수 있으나, 이에 한정되는 것은 아니다. 메모리에 저장된 프로그램에 포함된 코드들 또는 명령어들은, 하나 이상의 프로세서에 의해 실행될 때, 제어부(250)의 동작을 수행하도록 구현될 수 있다.The control unit 250 may include, for example, one or more processors having circuitry structured to perform functions represented by codes or instructions included in a program stored in a memory. The one or more processors may be, for example, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an image processor, a neural processor, an application-specific integrated circuit (ASIC), or an on-site It may include one or more of a programmable gate array (Field Programmable Gate Array; FPGA), but is not limited thereto. Codes or instructions included in programs stored in memory may be implemented to perform operations of the controller 250 when executed by one or more processors.

제어부(250)는 영상 분석기(251), 소리 분석기(252), 세발 제어기(253), 주행 제어기(254), 맵 관리기(255), 생활 패턴 분석기(256), 이동 스케줄러(257), 및 생활 패턴 데이터베이스(258)를 포함한다. 제어부(250)의 컴포넌트들은 각각 별개의 프로세서들 및 메모리들에 의해 구현될 수도 있고, 또는 제어부(250)의 컴포넌트들 중 적어도 일부는 공통의 프로세서 및 메모리의 논리적 자원 할당에 의해 구현될 수 있다.The controller 250 includes an image analyzer 251, a sound analyzer 252, a tricycle controller 253, a driving controller 254, a map manager 255, a life pattern analyzer 256, a movement scheduler 257, and a life pattern database 258; Components of the control unit 250 may be implemented by separate processors and memories, or at least some of the components of the control unit 250 may be implemented by common processor and logical resource allocation of memory.

영상 분석기(251)는 영상 센서(211)로부터 또는 다른 홈 IoT 디바이스(예를 들어, 보안 카메라(110))로부터 수신한 영상 신호를 분석하도록 구성된다.The video analyzer 251 is configured to analyze a video signal received from the video sensor 211 or from another home IoT device (eg, the security camera 110).

소리 분석기(252)는 소리 센서(212)로부터 또는 다른 홈 IoT 디바이스(예를 들어, AI 스피커(120))로부터 수신한 소리 신호를 분석하도록 구성된다.Sound analyzer 252 is configured to analyze a sound signal received from sound sensor 212 or from another home IoT device (eg, AI speaker 120).

도 2는 본 개시의 일 실시예 따른 영상 분석기 및 소리 분석기의 예시적인 동작을 도시한다.2 illustrates exemplary operation of a video analyzer and a sound analyzer according to an embodiment of the present disclosure.

도 2(a)를 참조하면, 영상 분석기(251)는 입력된 영상 신호(310)로부터 영상 내의 객체(object)의 종류를 식별하도록 머신 러닝을 이용하여 미리 훈련되어 있는 인공 신경망(320)을 포함한다. 예를 들어, 영상 분석기(251)의 인공 신경망(320)은 영상 센서(211) 또는 다른 홈 IoT 디바이스로부터 제공된 영상 신호(310) 내에 존재하는, 예를 들어, 사람, 의자, 테이블, 침대, 옷, 커튼, 또는 카펫 등을 식별하도록 훈련되어 있다. 인공 신경망(320)은 또한 영상 신호(310) 내에 존재하는 사람의 행동을 식별하도록 훈련되어 있을 수 있다.Referring to FIG. 2 (a), the image analyzer 251 includes an artificial neural network 320 pre-trained using machine learning to identify the type of object in the image from the input image signal 310 do. For example, the artificial neural network 320 of the image analyzer 251 is present in the image signal 310 provided from the image sensor 211 or another home IoT device, for example, a person, chair, table, bed, or clothes. , curtains, or carpets. The artificial neural network 320 may also be trained to identify human actions present within the video signal 310 .

영상 분석기(514)는 또한 이동식 세발기(100)의 위치 정보, 영상 센서(211)의 배향 정보, 또는 영상 신호를 전송한 홈 IoT 디바이스의 배향 정보 중 적어도 하나에 기초하여 식별된 객체의 위치 또는 식별된 행동이 발생하는 위치를 추정할 수 있다.The image analyzer 514 may also determine the location of an object identified based on at least one of location information of the mobile tricycle 100, orientation information of the image sensor 211, or orientation information of a home IoT device that has transmitted an image signal; It is possible to infer the location where the identified action occurs.

도 2(b)를 참조하면, 소리 분석기(252)는 입력된 소리 신호(360)로부터 소리의 종류를 식별하도록 머신 러닝을 이용하여 미리 훈련된 인공 신경망(370)을 포함한다. 소리 분석기(252)의 인공 신경망(370)은 입력된 소리 신호(360)로부터, 예를 들어, 사람의 음성, 진공 청소기의 동작 소리, 헤어 드라이어의 동작 소리, 아이들의 웃음 소리, 도어락의 잠금해제 소리, 또는 도어락의 잠김 소리 등을 식별하도록 훈련되어 있다.Referring to FIG. 2( b ), the sound analyzer 252 includes an artificial neural network 370 pre-trained using machine learning to identify a type of sound from an input sound signal 360 . The artificial neural network 370 of the sound analyzer 252 outputs, for example, a human voice, a vacuum cleaner operation sound, a hair dryer operation sound, children's laughter, and unlocking a door lock from the input sound signal 360. It is trained to identify sounds, or the sound of a door lock being locked.

소리 분석기(252)는 사람의 음성으로부터 음성과 관련된 사람의 행동을 식별하도록 머신 러닝을 이용하여 미리 훈련된 인공 신경망을 더 포함할 수 있다. 이때, 소리 분석기(252)는 소리 센서(212)로부터의 또는 다른 IoT 디바이스로부터의 소리 신호(360)를 전처리하여 배경 노이즈를 제거하고, 추출된 사람의 음성 신호만 인공 신경망에 입력할 수 있다.The sound analyzer 252 may further include an artificial neural network pre-trained using machine learning to identify voice-related human behaviors from human voices. At this time, the sound analyzer 252 may preprocess the sound signal 360 from the sound sensor 212 or from another IoT device to remove background noise, and input only the extracted human voice signal to the artificial neural network.

소리 분석기(252)는 또한 이동식 세발기(100)의 위치 정보, 복수의 소리 센서(212) 및/또는 홈 IoT 디바이스로부터의 소리 신호에서의 신호 레이턴시, 또는 소리 센서(212) 및/또는 소리 신호를 제공한 홈 IoT 디바이스의 배향 정보 중 적어도 하나에 기초하여 소리가 발생하는 위치를 추정할 수도 있다.The sound analyzer 252 may also include location information of the mobile tricycle 100, signal latency in the plurality of sound sensors 212 and/or sound signals from the home IoT device, or sound sensors 212 and/or sound signals. A location where a sound is generated may be estimated based on at least one of the orientation information of the home IoT device that provided the.

세발 제어기(253)는 세발기(230)의 동작을 제어하도록 구성된다. 세발 제어기(253)는 이동 스케줄러(257)에 의해 설정된 이동 스케줄에 따라 이동한 후 세발기(230)의 동작(예를 들어, 출력 세기)을 제어할 수 있다. 세발 제어기(253)는 사용자의 설정에 따라 세발기(230)의 동작을 제어할 수도 있다. 세발 제어기(253)는 또한 홈 자동화 서버(160)로부터의 제어 신호에 따라 세발기(230)의 동작을 제어할 수도 있다. 세발기(253)는 하나 이상의 센서(210), 예컨대, 영상 센서(211) 또는 장애물 센서(213)로부터의 센서 신호에 기초하여 세발기(230)의 동작을 제어할 수도 있다.The tricycle controller 253 is configured to control the operation of the tricycle 230 . The tricycle controller 253 may control an operation (eg, output intensity) of the tricycle 230 after moving according to a movement schedule set by the movement scheduler 257 . The tricycle controller 253 may control the operation of the tricycle 230 according to user settings. The tricycle controller 253 may also control the operation of the tricycle 230 according to a control signal from the home automation server 160 . The tricycle 253 may control the operation of the tricycle 230 based on sensor signals from one or more sensors 210 , eg, the image sensor 211 or the obstacle sensor 213 .

주행 제어기(254)는 주행 휠(240)의 동작(예를 들어, 주행 방향 및 속도)을 제어하도록 구성된다. 주행 제어기(254)는 또한 주행 휠(240)의 동작 동안 주행 휠(240)의 동작 정보(예를 들어, 주행 방향 및 속도 정보)를 생성하도록 구성된다.The travel controller 254 is configured to control the motion (eg, direction and speed of travel) of the travel wheel 240 . The drive controller 254 is also configured to generate motion information (eg, direction and speed information of travel) of the drive wheel 240 during operation of the drive wheel 240 .

주행 제어기(254)는 하나 이상의 센서(210), 예컨대, 장애물 센서(213), 나침반 센서(214), 가속도계 센서(215), 및 자이로스코프 센서(216)로부터의 센서 신호에 기초하여, 예를 들어 월-팔로잉(wall-following) 모드로 주행 휠(240)의 동작을 제어할 수 있다. 주행 제어기(254)는 맵 관리기(255)에 의해 생성된 맵 정보에 추가로 기초하여 주행 휠(240)의 동작을 제어할 수 있다. 주행 제어기(254)는 이동 스케줄러(257)에 의해 설정된 이동 경로에 따라 주행 휠(240)의 동작을 제어할 수도 있다. 주행 제어기(254)는 또한 홈 자동화 서버(160)로부터의 제어 신호에 따라 주행 휠(240)의 동작을 제어할 수도 있다.Based on sensor signals from one or more sensors 210, such as an obstacle sensor 213, a compass sensor 214, an accelerometer sensor 215, and a gyroscope sensor 216, the travel controller 254 may, for example, For example, the operation of the driving wheel 240 may be controlled in a wall-following mode. The drive controller 254 may control the operation of the drive wheel 240 based further on map information generated by the map manager 255 . The travel controller 254 may control the operation of the travel wheel 240 according to the travel path set by the travel scheduler 257 . The drive controller 254 may also control the operation of the drive wheel 240 according to a control signal from the home automation server 160 .

맵 관리기(255)는 이동식 세발기(100)의 이동 대상 영역의 맵을 생성하고 관리하도록 구성된다. 맵 관리기(255)는, 이동식 세발기(100)가 실내 환경을 자율 주행하는 동안, 하나 이상의 센서(210)로부터의 센서 신호에 기초하여 그리고 주행 휠(240)의 동작 정보에 기초하여 맵을 생성하고 업데이트한다.The map manager 255 is configured to generate and manage a map of a moving target area of the mobile tricycle 100 . The map manager 255 generates a map based on sensor signals from one or more sensors 210 and motion information of the driving wheel 240 while the mobile tricycle 100 autonomously travels in an indoor environment. and update

예를 들어, 맵 관리기(255)는, 나침반 센서(214), 가속도 센서(215), 또는 자이로스코프 센서(216) 중 적어도 하나로부터의 센서 신호 및/또는 주행 휠(240)의 동작 정보에 기초하여 이동식 세발기(100)의 위치 및 이동 방향을 식별할 수 있다. 맵 관리기(255)는 장애물 센서(213)로부터의 센서 신호에 기초하여 벽 또는 장애물의 위치를 식별할 수 있다. 맵 관리기(255)는 식별된 이동식 세발기(100)의 위치, 이동식 세발기(100)의 이동 방향, 그리고 벽 또는 장애물의 위치에 기초하여, 이동 대상 영역의 맵을 생성한다. 예를 들어, 맵 관리기(255)는, 이동식 세발기(100)가 월-팔로잉 모드로 벽을 따라 주행할 때, 장애물 센서(213)로부터의 센서 신호에 기초하여 실내 환경의 맵을 생성한다.For example, map manager 255 may be based on sensor signals from at least one of compass sensor 214, acceleration sensor 215, or gyroscope sensor 216 and/or motion information of driving wheel 240. By doing so, the location and moving direction of the mobile tricycle 100 can be identified. The map manager 255 may identify the location of a wall or obstacle based on a sensor signal from the obstacle sensor 213 . The map manager 255 creates a map of the area to be moved based on the identified location of the mobile tricycle 100, the moving direction of the mobile tricycle 100, and the location of a wall or obstacle. For example, the map manager 255 generates a map of the indoor environment based on a sensor signal from the obstacle sensor 213 when the mobile tricycle 100 travels along a wall in a wall-following mode. .

맵 관리기(255)는 또한 네트워크 인터페이스(220)를 통해 사용자 단말로부터 맵 생성 및 수정을 위한 사용자의 입력을 받을 수 있다. 맵 관리기(255)는 또한 홈 자동화 서버(160)로부터 이동 대상 영역 맵을 수신할 수도 있다.The map manager 255 may also receive a user's input for creating and modifying a map from a user terminal through the network interface 220 . The map manager 255 may also receive a moving target area map from the home automation server 160 .

한편, 맵 관리기(255)에 의해 생성되는 이동 대상 영역의 맵은, 실내 환경의 맵과 정확하게 일치하지 않을 수도 있다. 예를 들어, 이동식 세발기(100)가 물리적으로 또는 사용자의 설정에 의해 주행할 수 없는 실내 환경의 영역들은 이동 대상 영역의 맵에서 제외될 수 있다.Meanwhile, the map of the moving target area generated by the map manager 255 may not exactly match the map of the indoor environment. For example, areas of an indoor environment in which the mobile tricycle 100 cannot drive physically or by a user's setting may be excluded from the map of the moving target area.

도 3은 본 개시의 일 실시예에 따른 맵 관리기에 의해 관리되는 이동 대상 영역의 맵의 예를 도시한다. 맵 관리기(255)는 이동 대상 영역의 맵(400)을 복수의 섹션들로 분할할 수 있다. 예를 들어, 맵 관리기(255)는 맵(400)을 임의의 크기의 그리드로 분할할 수 있다. 도 3의 예에서, 맵(400)은 A, B, C, 및 D 영역들로 분할되고, 각각의 영역은 세부 섹션들로 분할되어 있다.3 illustrates an example of a map of a moving target area managed by a map manager according to an embodiment of the present disclosure. The map manager 255 may divide the map 400 of the area to be moved into a plurality of sections. For example, map manager 255 can divide map 400 into grids of arbitrary size. In the example of FIG. 3 , map 400 is divided into regions A, B, C, and D, and each region is divided into subsections.

맵 관리기(255)는 영상 센서(211)로부터 수신된 영상 신호를 영상 분석기(251)가 분석한 결과에 기초하여 또는 사용자의 입력에 따라, 각각의 영역을 사람이 인식하는 공간의 종류(예를 들어, 거실, 주방, 침실, 다용도실 등)로 분류할 수도 있다. 예를 들어, A 영역에 대한 영상 신호로부터 냉장고(130), 주방 스토브, 또는 식탁 등이 식별되면, 맵 관리기는 A 영역을 "주방"으로 분류할 수 있다.The map manager 255 determines the type of space (e.g., for example For example, living room, kitchen, bedroom, utility room, etc.). For example, if a refrigerator 130, a kitchen stove, or a dining table are identified from the video signal for area A, the map manager may classify area A as “kitchen”.

맵 관리기(255)는 맵(400) 상에 이동식 세발기(100)의 위치를 표시한다. 맵 관리기(255)는 홈 IoT 디바이스들의 위치를 표시할 수도 있다. 홈 IoT 디바이스들의 위치는 예를 들어, 영상 분석기(251)에 의해 식별될 수 있다. 홈 IoT 디바이스들의 위치는, 홈 IoT 디바이스들과의 통신을 통해 또는 사용자의 입력을 통해 식별될 수도 있다.The map manager 255 displays the location of the portable tricycle 100 on the map 400 . Map manager 255 may display the location of home IoT devices. The location of home IoT devices may be identified by, for example, the video analyzer 251 . The locations of the home IoT devices may be identified through communication with the home IoT devices or through a user's input.

다시 도 1을 참조하면, 생활 패턴 분석기(256)는 하나 이상의 센서(210)로부터의 센서 신호 또는 네트워크 인터페이스(220)를 통해 수신한 다른 홈 IoT 디바이스로부터의 센서 신호 및/또는 동작 상태 정보에 기초하여 사용자의 생활 패턴을 결정하도록 구성된다.Referring back to FIG. 1 , the life pattern analyzer 256 is based on sensor signals from one or more sensors 210 or sensor signals from other home IoT devices received through the network interface 220 and/or operating state information. to determine the life pattern of the user.

생활 패턴 분석기(256)는 상술한 센서 신호 및 동작 상태 정보의 2 이상의 결합으로부터 사용자의 위치를 식별할 수도 있다. 생활 패턴 분석기(256)는 맵 관리기(255)에 의해 생성된 맵(400) 상의 좌표 또는 섹션 식별자로서 사용자의 위치를 식별할 수 있다. 실내 환경에 사용자가 2명 이상 존재하는 경우, 각각의 사용자의 행동 유형이 식별될 수 있다.The life pattern analyzer 256 may identify the user's location from a combination of two or more of the aforementioned sensor signals and operating state information. The life pattern analyzer 256 may identify the user's location as a coordinate or section identifier on the map 400 generated by the map manager 255 . When two or more users exist in the indoor environment, each user's behavior type may be identified.

생활 패턴의 결정을 위하여, 생활 패턴 분석기(256)는 하나 이상의 센서(210)로부터의 센서 신호에 기초하여 사용자의 행동 유형을 식별할 수 있다. 생활 패턴 분석기(256)는 하나 이상의 홈 IoT 디바이스로부터의 센서 신호 또는 하나 이상의 홈 IoT 디바이스로부터의 동작 상태 정보에 기초하여 사용자의 행동 유형을 식별할 수도 있다. 예를 들어, 생활 패턴 분석기(256)는 소리 분석기(252)에 의한 소리 신호의 분석 결과로부터 사용자의 행동 유형을 식별할 수 있다. 진공 청소기의 동작 상태 정보로부터 사용자가 청소 중인 것을 식별할 수도 있다. 사용자의 행동 유형은, 예를 들어, TV 시청, 요리, 청소, 헤어 드라이어 사용, 및 취침 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 실내 환경에 사용자가 2명 이상 존재하는 경우, 각각의 사용자의 행동 유형이 식별될 수 있다.To determine a lifestyle pattern, the lifestyle pattern analyzer 256 may identify a user's behavior type based on sensor signals from one or more sensors 210 . The life pattern analyzer 256 may identify a user's behavior type based on sensor signals from one or more home IoT devices or operating state information from one or more home IoT devices. For example, the life pattern analyzer 256 may identify the user's behavior type from the sound signal analysis result by the sound analyzer 252 . It may be identified that the user is cleaning from the operating state information of the vacuum cleaner. The user's action type may include, for example, watching TV, cooking, cleaning, using a hair dryer, and sleeping, but is not limited thereto. When two or more users exist in the indoor environment, each user's behavior type may be identified.

이상에서와 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As above, exemplary embodiments have been disclosed in the drawings and specifications. Although the embodiments have been described using specific terms in this specification, they are only used for the purpose of explaining the technical idea of the present disclosure, and are not used to limit the scope of the present disclosure described in the claims. . Therefore, those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical scope of protection of the present disclosure should be determined by the technical spirit of the appended claims.

Claims (1)

이동식 세발기를 동작시키기 위한 방법으로서,
이동 대상 영역을 규정하는 단계;
상기 이동식 세발기에 배치된 하나 이상의 센서로부터의 센서 신호, 하나 이상의 외부 디바이스로부터의 센서 신호, 또는 하나 이상의 외부 디바이스로부터의 동작 상태 정보 중 적어도 하나에 기초하여, 사용자의 위치 및 사용자의 행동 유형을 식별하는 단계;
상기 사용자의 위치, 사용자의 행동 유형, 및 이들과 각각 연관된 타임스탬프들을 포함하는 사용자의 생활 패턴 정보를 수집하는 단계 ― 상기 생활 패턴 정보는 하루 이상의 기간 동안 수집됨 ―;
상기 수집된 생활 패턴 정보에 기초하여 이동식 세발기의 이동 스케줄을 결정하는 단계 ― 상기 이동 스케줄은 이동 시간 및 이동 경로를 포함하고, 상기 이동 시간은 상기 이동 대상 영역에 사용자가 부재중인 시간들 중에서 선택됨 ―; 및
결정된 이동 스케줄에 따라 이동을 수행하도록 이동식 세발기를 동작시키는 단계
를 포함하는, 방법.
As a method for operating a mobile tricycle,
defining a moving target area;
Based on at least one of sensor signals from one or more sensors disposed in the portable tricycle, sensor signals from one or more external devices, or operating state information from one or more external devices, the user's location and the user's action type are determined. identifying;
collecting life pattern information of the user including the user's location, the user's behavior type, and timestamps respectively associated therewith, wherein the life pattern information is collected for a period of one day or more;
Determining a movement schedule of the mobile tricycle based on the collected life pattern information - the movement schedule includes a movement time and a movement route, and the movement time is selected from among times when the user is absent from the movement target area -; and
Operating the portable tricycle to move according to the determined moving schedule
Including, method.
KR1020210171489A 2021-12-03 2021-12-03 Mobile tricycle system equipped with AI mobile robot KR20230083472A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210171489A KR20230083472A (en) 2021-12-03 2021-12-03 Mobile tricycle system equipped with AI mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210171489A KR20230083472A (en) 2021-12-03 2021-12-03 Mobile tricycle system equipped with AI mobile robot

Publications (1)

Publication Number Publication Date
KR20230083472A true KR20230083472A (en) 2023-06-12

Family

ID=86769998

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210171489A KR20230083472A (en) 2021-12-03 2021-12-03 Mobile tricycle system equipped with AI mobile robot

Country Status (1)

Country Link
KR (1) KR20230083472A (en)

Similar Documents

Publication Publication Date Title
JP7395229B2 (en) Mobile cleaning robot artificial intelligence for situational awareness
US20210160326A1 (en) Utilizing context information of environment component regions for event/activity prediction
US9874873B2 (en) Environmental management systems including mobile robots and methods using same
JP2021131396A (en) Radar-enabled sensor fusion
CN104965552B (en) A kind of smart home environment cooperative control method based on emotional robot and system
US11517168B2 (en) Robot cleaner and operating method of the same
US10787762B2 (en) Home appliance and method for controlling the same
US11672391B2 (en) Robot cleaner and method for determining cleaning path
KR102040505B1 (en) Air cleaning apparatus based on artificial intelligence and air cleaning system including the same
WO2014190886A1 (en) Intelligent interaction system and software system thereof
JP2016541040A (en) Smart home hazard detector that gives a non-alarm status signal at the right moment
KR20190071641A (en) Apparatus and method for controlling operation of home appliance, home appliance and method for operating of home appliance
KR102612822B1 (en) Controlling method for Artificial intelligence Moving robot
KR20200057825A (en) Air purifier of providing recommendation information corresponding schedule based on artificial intelligence controlling and method implementing thereof
CN112805128A (en) Artificial intelligence mobile robot
KR102612827B1 (en) Controlling method for Artificial intelligence Moving robot
CN106356073B (en) Method and device for eliminating noise
KR20230083472A (en) Mobile tricycle system equipped with AI mobile robot
KR20220094839A (en) Smart home control method and system
CN111306714A (en) Air conditioner and control method thereof
KR20230083445A (en) Smart home control system
KR20220152866A (en) Robot apparatus, controlling method thereof, and recording medium for recording program
JP2022165192A (en) Area recognition system, moving object and area recognition device
Rathnayake et al. Voice and Gesture Integrated Home Automation System
CN115933871A (en) Control method and device of intelligent equipment, intelligent system and storage medium