KR20090095765A - Nanny robot system and its control method - Google Patents

Nanny robot system and its control method Download PDF

Info

Publication number
KR20090095765A
KR20090095765A KR1020080020898A KR20080020898A KR20090095765A KR 20090095765 A KR20090095765 A KR 20090095765A KR 1020080020898 A KR1020080020898 A KR 1020080020898A KR 20080020898 A KR20080020898 A KR 20080020898A KR 20090095765 A KR20090095765 A KR 20090095765A
Authority
KR
South Korea
Prior art keywords
value
measured
baby
obstacle
nanny
Prior art date
Application number
KR1020080020898A
Other languages
Korean (ko)
Inventor
김혜진
이대하
윤호섭
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020080020898A priority Critical patent/KR20090095765A/en
Publication of KR20090095765A publication Critical patent/KR20090095765A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47DFURNITURE SPECIALLY ADAPTED FOR CHILDREN
    • A47D9/00Cradles ; Bassinets
    • A47D9/02Cradles ; Bassinets with rocking mechanisms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

A nanny robot system and its control method are provided to allow the nanny robot to take care a baby in real time by monitoring the baby situation. In a nanny robot system and its control method, sensor units(10, 30, 50) measure humidity, temperature, an obstacle front of the nanny robot system. A controller(40) determines a direction for autonomic driving based on a state measurement value of the measured obstacle. A traveling unit(60) drives a certain place according to the determined automatic driving.

Description

유모 로봇 장치 및 그 제어 방법{NANNY ROBOT SYSTEM AND ITS CONTROL METHOD}Nanny robot device and control method thereof {NANNY ROBOT SYSTEM AND ITS CONTROL METHOD}

본 발명은 집 안팎에서 유모차와 요람의 역할 및 아기와 부모(혹은 보모)와의 매개 역할을 제공할 수 있는 유모 로봇 장치 및 그 제어 방법에 관한 것이다. The present invention relates to a nanny robot device and a control method thereof that can provide a role of a baby carriage and a cradle and a mediating role between a baby and a parent (or nanny) in and out of a house.

본 발명은 정보통신부 및 정보통신연구진흥원의 IT신성장동력핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2005-S-033-03, 과제명: URC를 위한 내장형 컴포넌트 기술 및 표준화 기술].The present invention is derived from the research conducted as part of the IT new growth engine core technology development project of the Ministry of Information and Communication and the Ministry of Information and Telecommunication Research and Development. [Task Management Number: 2005-S-033-03, Assignment Name: Embedded Component Technology for URC] And standardization techniques].

주지된 바와 같이, 유아의 성장과정에서 이동기능과 유희도구의 기능 및 취침 보조도구의 기능 등이 복합적으로 수행되도록 사용되는 요람형 유모차 장치는 사람이 직접 흔들어 주면서 이동하는 수동방식과 모터와 같은 전동기기에 의해 흔들어 주면서 이동하는 전동방식으로 나누어져 최근에는 삶의 질이 향상되면서 보다 전문적이면서도 활용이 쉬운 각종 제품들이 다양하게 개발되어 판매되고 있다. As is well known, the cradle type stroller device, which is used to perform a combination of a moving function, a play tool function, and a sleeping aid function in a baby's growth process, is a manual type that moves by shaking a person directly, such as a motor and a motor. It is divided into the electric system that moves by shaking by the device, and in recent years, various kinds of products are developed and sold more professionally and easily as the quality of life is improved.

한편, 상술한 바와 같이 요람형 유모차 장치를 위한 유사 인용특허로는 출원번호 1997-012433 인 "주행이 가능한 전동 요람"에 관한 것으로, 이 유사 인용특허 는 요람틀체의 하측에 장치부를 형성하여 그 내측에 모타와 연결된 감속기의 출력축을 양측으로 길게 형성하여 감속기의 양측 출력축 상에 주행용 전자클러치와 풀리를 장치하고 일측 출력축에 요동용 전자클러치와 요동추를 장치하며 요람틀체의 양측에 주행바퀴의 풀리를 형성하여 그 중심부에 축봉으로 요람틀체와 결합하여 축봉의 풀리와 감속기 출력축 풀리와 밸트로 결합하고 요람틀체의 전면과 후면에 접촉스위치와 받침대를 부착하고 그 하측에 보조로울러를 장치하여 요람틀체의 장치부 하측에 중량의 무게중심추를 장치하므로서 요람틀체가 주행 및 요동할 수 있으며 받침대를 잡고 요람틀체를 끌고 다닐 수 있음으로 외출시에는 유모차의 기능도 함께 수행할 수 있는 기술적 특징이 있다.On the other hand, as described above, the similar reference patent for the cradle-type stroller device is related to the "driven electric cradle capable of traveling" of the application number 1997-012433, this similar reference patent is formed on the lower side of the cradle frame body to the inside The output shaft of the reducer connected to the motor is formed long on both sides, and the driving electromagnetic clutch and the pulley are installed on both output shafts of the reducer, the swinging electromagnetic clutch and the swinging weight are installed on one output shaft, and the driving wheel pulleys on both sides of the cradle frame body. Form a shaft and combine it with the cradle frame body by the shaft at its center, and combine it with the pulley of the shaft and the output shaft pulley and the belt, attach the contact switch and the pedestal to the front and rear of the cradle frame, and install the auxiliary roller at the lower side of the cradle frame body. The weight of the center of gravity is attached to the lower side of the device so that the cradle frame can travel and swing. Since the lamp body can be dragged out, there is a technical feature that can also perform the function of the stroller when going out.

그러나, 상기한 바와 같은 종래 기술에서와 같이 주행이 가능한 전동 요람의 인용특허는 요람을 유모차처럼 끌고 다닐 수 있게 만들고 진동이 가능한 요람을 만들었다는 점에서 높이 평가되나 여전히 사람이 끌고 다녀야하며 단순한 유모차나 요람의 수준을 벗어나지 못하고 있는 문제점이 있다. However, the cited patent of the electric cradle that can run as in the prior art as described above is highly appreciated in that the cradle can be dragged around like a stroller and made a cradle that can vibrate, but still has to be dragged by a person. There is a problem that can not escape the level of the cradle.

이에, 본 발명의 기술적 과제는 상술한 문제점을 해결하기 위해 안출한 것으로서, 집 안팎에서 유모차와 요람의 역할 및 아기와 부모(혹은 보모)와의 매개 역할을 제공할 수 있는 유모 로봇 장치 스스로가 유모 로봇 장치에 타고 있는 아기의 상태로부터 현 실제 환경을 파악하여 능동적이며 주체적으로 아기를 돌볼 수 있는 유모 로봇 장치 및 그 제어 방법을 제공한다. Accordingly, the technical problem of the present invention has been devised to solve the above-described problems, the nanny robot device itself that can provide the role of the stroller and the cradle and the mediation role between the baby and the parent (or nanny) inside and outside the house The present invention provides a nanny robot device and a control method thereof that can take care of the baby actively and independently by grasping the current actual environment from the state of the baby in the device.

본 발명의 일 관점에 따른 유모 로봇 장치는, 습도 및 온도 감지값, 전방화면 비디오와 전방화면에 위치한 장애물과의 상태를 각각 측정하는 다수의 센서부와, 측정된 습도 및 온도 감지값이 설정 습도값 및 설정 온도값 이상일 경우, 측정된 장애물과의 상태 측정값을 기반으로 자율주행을 위한 방향값을 결정하는 제어부와, 결정된 자율주행을 위한 방향값에 따라 특정 장소로 자율주행시키는 주행부를 포함하는 것을 특징으로 한다.In accordance with one aspect of the present invention, a nanny robot device includes a plurality of sensor units for measuring a state of a humidity and a temperature detection value, a front screen video and an obstacle located on the front screen, and the measured humidity and temperature detection values are set humidity. And a controller configured to determine a direction value for autonomous driving based on the measured state of the obstacle and the measured temperature, and a driving unit for autonomous driving to a specific place according to the determined direction value for autonomous driving. It is characterized by.

또한, 본 발명의 다른 관점에 따른 유모 로봇 장치의 제어 방법은, 다수의 센서들에 의해 감지되는 센싱값들을 측정하는 단계와, 센싱값들 중 측정된 습도 및 온도 감지값이 설정 습도값 및 설정 온도값 이상일 경우, 센싱값들 중 측정된 장애물과의 상태 측정값을 기반으로 자율주행을 위한 방향값을 결정하는 단계와, 결정된 자율주행을 위한 방향값에 따라 특정 장소로 자율주행시키는 단계를 포함하는 것을 특징으로 한다.In addition, according to another aspect of the present invention, a method for controlling a nanny robot device includes measuring sensing values sensed by a plurality of sensors, and among the sensing values, measured humidity and temperature sensing values are set humidity values and settings. If the temperature is above the value, the step of determining the direction value for autonomous driving based on the measured state of the measured obstacle with the measured value, and the step of autonomous driving to a specific place according to the direction value for the determined autonomous driving Characterized in that.

본 발명은 집 안팎에서 유모차와 요람의 역할 및 아기와 부모(혹은 보모)와의 매개 역할을 제공할 수 있는 유모 로봇 장치 스스로가 유모 로봇 장치에 타고 있는 아기의 상태로부터 현 실제 환경을 파악하여 능동적이며 주체적으로 아기를 돌봄으로써, 기존에서와 같이 사람이 끌고 다녀야하며 단순한 유모차나 요람의 수준을 벗어나지 못하고 있는 문제점을 해결할 수 있다. The present invention is active by identifying the current actual environment from the state of the baby riding in the nanny robot device itself that can provide the role of the stroller and the cradle and the intermediary role between the baby and the parent (or nanny) inside and outside the house. By caring for the baby in a subjective manner, a person must be dragged around as in the past and can solve the problem of not leaving the level of a simple stroller or cradle.

또한, 본 발명은 우유(혹은 모유) 먹을 시간을 알려주는 기능, 아기를 태우고 이동하는 기능, 아기의 요람을 흔들어주는 기능, 아기가 울 때 보모에게 알려주고 다가가는 기능, 아기가 용변을 보았을 때 이를 감지하여 알려주는 기능, 아기를 태우고 산책하거나 쇼핑을 나갔을 때 보모를 자율주행으로 따라다니는 기능, 장애물 회피 기능 등을 제공함으로써, 부모(혹은 보모)의 역할을 대신해줄 수 있는 잇점이 있다. In addition, the present invention provides a function to inform the time to eat milk (or breast milk), the ability to ride and move the baby, the function of shaking the baby's cradle, the ability to inform and approach the babysitter when the baby cries, when the baby sees the toilet It can take on the role of a parent (or nanny) by providing the ability to detect and notify you, the ability to autonomously follow your nanny when you walk or shop with you, or avoid obstacles.

이하, 첨부된 도면을 참조하여 본 발명의 동작 원리를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, with reference to the accompanying drawings will be described in detail the operating principle of the present invention. In the following description of the present invention, when it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Terms to be described later are terms defined in consideration of functions in the present invention, and may be changed according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the specification.

도 1은 본 발명의 바람직한 실시예에 따른 유모 로봇 장치를 위한 블록 구성도로서, 요람센서부(10)와 모터부(20)와 덮개센서부(30)와 제어부(40)와 구동센서부(50)와 주행부(60)를 포함한다. 1 is a block diagram for a nanny robot device according to an embodiment of the present invention, cradle sensor unit 10, the motor unit 20, the cover sensor unit 30, the control unit 40 and the drive sensor unit ( 50 and the driving unit 60.

요람센서부(10)는 도 2에 도시된 유모 로봇 구조도에서와 같이 습도 센서(10a)와 온도 센서(10b)와 촉각 센서(10c)를 포함한다. 여기서, 습도 센서(10a)와 온도 센서(10b) 및 촉각 센서(10c)는 아기를 푹신하고 안전한 소재로 이루어진 곳에 눕히거나 앉혔을 때 아기 엉덩이가 닺는 면에 위치하도록 부착되어 있다.The cradle sensor unit 10 includes a humidity sensor 10a, a temperature sensor 10b, and a tactile sensor 10c, as shown in the structure of the nanny robot shown in FIG. 2. Here, the humidity sensor 10a, the temperature sensor 10b, and the tactile sensor 10c are attached to the baby's buttock when the baby is lying down or seated in a soft and safe material.

습도 센서(10a)는 아기 엉덩이가 닺는 면에 위치하도록 부착되어 아기가 용변을 보았을 경우, 전기 저항치가 습도의 변화에 대하여 지수적으로 변화하면서 측정되는 습도 감지값을 제어부(40)에 제공한다. The humidity sensor 10a is attached to the baby's buttock to be placed on the side where the baby's butt is placed, and when the baby looks at the toilet, the controller 40 provides a humidity detection value measured while the electrical resistance value changes exponentially with respect to the change in humidity.

온도 센서(10b)는 아기 엉덩이가 닺는 면에 위치하도록 부착되어 아기가 용변을 보았을 경우, 측정되는 온도 감지값을 제어부(40)에 제공한다. The temperature sensor 10b is attached to the baby's butt where the baby's butt is positioned to provide the control unit 40 with a temperature sensing value measured when the baby looks at the toilet.

촉각 센서(10c)는 아기 엉덩이가 닺는 면에 위치하도록 부착되어 아기가 일어나있다가 앉아있는 경우, 측정되는 촉각 감지값을 제어부(40)에 제공한다.The tactile sensor 10c is attached to the baby's butt where the baby's butt is positioned to provide the controller 40 with the measured tactile sensed value when the baby is up and sitting.

모터부(20)는 제어부(40)로부터 인가되는 모터 온(on)신호에 따라 구동되어 요람(S1)을 흔들림(예컨대, 진동과 좌/우, 앞/뒤, 상/하 중 어느 하나의 움직임)이 가능하도록 동작하는 반면에, 제어부(40)로부터 인가되는 모터 오프(off)신호에 따라 요람(S1)을 진동 및 흔들림이 없도록 정지한다. 여기서, 모터부(10d)는 요람(S1)을 흔들림이 가능하도록 요람(S1)의 특정 위치(예컨대, 하단)에 설치되어 있다. The motor unit 20 is driven according to the motor on signal applied from the controller 40 to shake the cradle S1 (for example, vibration and movement of any one of left / right, front / back, and up / down). On the other hand, the cradle S1 is stopped to be free from vibration and shaking according to the motor off signal applied from the control unit 40. Here, the motor part 10d is provided in the specific position (for example, lower end) of the cradle S1 so that the cradle S1 can be shaken.

덮개센서부(30)는 도 2에 도시된 유모 로봇 구조도에서와 같이 카메라(30a)와 마이크(30b)와 스피커(30c)를 포함한다. 여기서, 카메라(20a)와 마이크(20b)는 요람(S1) 위쪽 고정된 덮개 내측의 아기가 마주하는 곳에 부착되어 있고, 스피커(20c)는 요람(S1) 위쪽 고정된 덮개 바깥쪽의 양측면에 부착되어 있으며, 덮개는 고정된 덮개와 개폐가 가능한 덮개로 구분되어 있다. The cover sensor unit 30 includes a camera 30a, a microphone 30b, and a speaker 30c, as shown in the structure of the nanny robot shown in FIG. Here, the camera 20a and the microphone 20b are attached to a place where the baby inside the cover fixed above the cradle S1 faces, and the speaker 20c is attached to both sides of the outside of the cover fixed above the cradle S1. The cover is divided into a fixed cover and a cover that can be opened and closed.

카메라(30a)는 아기의 얼굴 표정을 실시간으로 촬영하고, 촬영되는 아기 표정 비디오를 제어부(40)에 제공한다. The camera 30a photographs the facial expressions of the baby in real time and provides the controller 40 with the captured facial expression video.

마이크(30b)는 아기가 울 때 발생되는 오디오, 혹은 유저(예컨대, 부모(혹은 보모))에 의해 음성으로 요람(S1)을 흔들림이 가능하도록 하는 음성 신호를 제어부(40)에 제공한다. The microphone 30b provides the controller 40 with an audio signal generated when the baby is crying or a voice signal that enables the cradle S1 to be shaken by voice by a user (eg, a parent (or nanny)).

스피커(30c)는 제어부(40)로부터 인가되는 아기의 현 상태와 관련된 소리(예컨대, 아기의 울음소리 혹은 아기가 용변을 보았음을 알리는 소리 등)를 유저가 청 취할 수 있도록 출력한다. The speaker 30c outputs a sound related to the current state of the baby (for example, the crying of the baby or the sound informing that the baby has seen the toilet) applied by the control unit 40 so that the user can listen.

제어부(40)는 습도 센서(10a)에 의해 인가되는 습도 감지값 또는 온도 센서(10b)에 의해 인가되는 온도 감지값이 설정 습도값 또는 설정 온도값 이상일 경우, 아기가 용변을 본 것으로 판단하여 용변을 보았음을 알리는 소리를 스피커(30c)에 제공한다. 여기서, 제어부(40)는 용변을 보았음을 알리는 소리를 문자 혹은 음성정보로 제작하여 네트워크(S3)를 통해 유저가 가지고 있는 이동통신 단말기(S4)로 전송할 수도 있고, 혹은 아기가 타고 있는 요람(S1)을 흔들림이 가능하도록 움직이게 하기 위하여 모터부(20)에 모터 온신호를 제공할 수도 있으며, 혹은 특정 장소(예컨대, 유저가 위치하고 있는 장소)로 이동하도록 구동 센서부(50)의 측정값을 기반으로 주행부(60)에 자율주행신호를 제공할 수도 있다. The controller 40 determines that the baby has seen a toilet when the humidity sensed value applied by the humidity sensor 10a or the temperature sensed value applied by the temperature sensor 10b is equal to or greater than the set humidity value or the set temperature value. Provides a sound to the speaker (30c) indicating that the saw. Here, the control unit 40 may produce a sound indicating that the toilet has been seen as text or voice information and transmit it to the mobile communication terminal S4 owned by the user through the network S3 or the baby's cradle ( The motor on signal may be provided to the motor unit 20 in order to move S1 to be shaken, or the measured value of the driving sensor unit 50 may be changed to move to a specific place (for example, the place where the user is located). The autonomous driving signal may be provided to the driving unit 60 based on the above.

또한, 제어부(40)는 촉각 센서(10c)에 의해 감지되는 촉각 감지값이 입력되지 않을 경우, 아기가 자리에서 일어난 것으로 판단하여 모터부(20)에 모터 온신호를 제공하고, 이어서, 촉각 감지값이 입력될 경우 아기가 다시 자리에 앉은 것으로 판단하여 모터부(20)에 모터 오프신호를 제공한다. 여기서, 제어부(40)는 아기의 식사시간에 대한 알람 기능을 제공할 수도 있다. In addition, when the tactile sense value detected by the tactile sensor 10c is not input, the controller 40 determines that the baby has occurred at the seat and provides a motor ON signal to the motor unit 20, and then, the tactile sense If a value is input, it is determined that the baby is seated again and provides a motor off signal to the motor unit 20. Here, the controller 40 may provide an alarm function for the baby's meal time.

또한, 제어부(40)는 카메라(30a)로부터 입력되는 아기의 얼굴 표정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 아기가 울고있는 모습인지 아니면 웃고 있는 모습인지를 판단하여 울고있는 모습인 경우, 모터부(20)에 모터 온신호를 제공하고, 이어서, 웃고있는 모습인 경우 모터부(20)에 모터 오프신호를 제공한다. 여기서, 제어부(40)는 아기가 울고있는 모습인 경우, 울고 있음을 알리는 소리 를 스피커(30c)에 제공할 수도 있고, 울고 있음을 알리는 소리를 문자 혹은 음성정보로 제작하여 네트워크(S3)를 통해 유저가 가지고 있는 이동통신 단말기(S4)로 전송할 수도 있으며, 혹은 유저가 위치하고 있는 장소로 이동하도록 구동 센서부(50)의 측정값을 기반으로 주행부(60)에 자율주행신호를 제공할 수도 있다. In addition, the controller 40 compares the facial expression video of the baby input from the camera 30a with a preset face shape to determine whether the baby is crying or laughing and crying. The motor on signal is provided to the motor unit 20, and then the motor off signal is provided to the motor unit 20 when the motor unit 20 is smiling. Here, when the baby is crying, the controller 40 may provide a sound informing that the baby is crying to the speaker 30c, and produces a text or voice information informing that the baby is crying through the network S3. It may be transmitted to the mobile communication terminal (S4) that the user has, or may provide an autonomous driving signal to the driving unit 60 based on the measured value of the driving sensor unit 50 to move to the place where the user is located. .

또한, 제어부(40)는 초음파 센서(50b) 및 레이저 센서(50e)에 의해 측정되는 장애물과의 거리와 적외선 센서(50c)에 의해 측정되는 장애물의 온도(예컨대, 장애물이 체온을 가지고 있는 사람 및 동물인지 아니면 사물인지를 판별함)와 범퍼 센서(50d)에 의해 측정되는 접촉여부의 구동센싱값과, 카메라(50a)에 의해 촬영되는 전방화면 비디오를 기반으로 자율주행을 위한 방향값을 결정하여 주행부(60)에 자율주행신호와 더불어 제공한다. 여기서, 자율주행을 위한 방향값은 유저인식기능을 전방 화면 비디오와 장애물의 온도를 통해 목적지 방향값을 결정하고, 자율주행이 시작하면 장애물과의 거리와 접촉여부를 통해 앞/뒤 방향값 및 좌/우 방향값을 실시간으로 결정하는 것이다. In addition, the controller 40 may include a distance between the obstacle measured by the ultrasonic sensor 50b and the laser sensor 50e and a temperature of the obstacle measured by the infrared sensor 50c (for example, a person whose body temperature has an obstacle and Determine whether the object is an animal or an object) and the driving sensing value of contact whether measured by the bumper sensor 50d and the direction value for autonomous driving based on the front screen video captured by the camera 50a. Provided with the autonomous driving signal to the running unit 60. Here, the direction value for autonomous driving determines the destination direction value through the front screen video and the temperature of the obstacle using the user recognition function, and when the autonomous driving starts, the forward / backward direction value and the left and right direction are determined through the distance and contact with the obstacle. It is to determine the right / right direction value in real time.

구동센서부(50)는 도 2에 도시된 유모 로봇 구조도에서와 같이 카메라(50a)와 초음파 센서(50b)와 적외선 센서(50c)와 범퍼 센서(50d)와 레이저 센서(50e)를 포함한다.The driving sensor unit 50 includes a camera 50a, an ultrasonic sensor 50b, an infrared sensor 50c, a bumper sensor 50d, and a laser sensor 50e, as shown in the structure of the nanny robot shown in FIG.

카메라(50a)는 진행방향의 전방화면을 실시간으로 촬영하고, 촬영되는 유저인식기능을 위한 전방화면 비디오를 제어부(40)에 제공한다. The camera 50a photographs the front screen in the moving direction in real time, and provides the controller 40 with a front screen video for the user recognition function to be photographed.

초음파 센서(50b)는 진행방향의 전방화면에 위치한 각종 장애물과의 거리를 초음파를 통해 측정하여 실시간으로 제어부(40)에 제공한다. The ultrasonic sensor 50b measures the distance to various obstacles located on the front screen in the traveling direction through ultrasonic waves and provides the ultrasonic waves to the controller 40 in real time.

적외선 센서(50c)는 진행방향의 전방화면에 위치한 유저인식기능을 위한 각종 장애물의 온도를 적외선을 통해 측정하여 실시간으로 제어부(40)에 제공한다. The infrared sensor 50c measures the temperature of various obstacles for the user recognition function located on the front screen in the forward direction through infrared rays and provides them to the controller 40 in real time.

범퍼 센서(50d)는 진행방향의 전방화면에 위치한 각종 장애물과의 접촉여부를 측정하여 실시간으로 제어부(40)에 제공한다. The bumper sensor 50d measures whether or not contact with various obstacles located on the front screen in the traveling direction is provided to the controller 40 in real time.

레이저 센서(50e)는 진행방향의 전방화면에 위치한 각종 장애물과의 거리를 레이저를 통해 측정하여 실시간으로 제어부(40)에 제공한다. The laser sensor 50e measures the distance to various obstacles located on the front screen in the forward direction through a laser and provides it to the controller 40 in real time.

주행부(60)는 제어부(40)로부터 인가되는 자율주행을 위한 방향값과 자율주행신호에 따라 장애물 회피 및 자율 주행이 가능하도록 회전바퀴(S2)를 원하는 장소로 자율주행시킨다.The driving unit 60 autonomously drives the rotary wheel S2 to a desired place to allow obstacle avoidance and autonomous driving according to the direction value for the autonomous driving and the autonomous driving signal applied from the control unit 40.

따라서, 본 발명은 우유(혹은 모유) 먹을 시간을 알려주는 기능, 집 안팎에서 유모차와 요람의 역할 및 아기와 부모(혹은 보모)와의 매개 역할을 제공할 수 있는 유모 로봇 장치 스스로가 유모 로봇 장치에 타고 있는 아기의 상태로부터 현 실제 환경을 파악하여 능동적이며 주체적으로 아기를 돌봄으로써, 기존에서와 같이 사람이 끌고 다녀야하며 단순한 유모차나 요람의 수준을 벗어나지 못하고 있는 문제점을 해결할 수 있다. Accordingly, the present invention provides a nanny robot device which can provide a function of informing a time to eat milk (or breast milk), a role of a stroller and a cradle in and out of the house, and a mediating role between a baby and a parent (or nanny). By grasping the current actual environment from the state of the baby riding and actively and subjectively caring for the baby, a person needs to be dragged around as before and can solve the problem of not leaving the level of a simple stroller or cradle.

다음에, 상술한 바와 같은 구성을 갖는 본 실시 예에서 유모 로봇 장치의 동작 과정에 대하여 설명한다. Next, the operation process of the nanny robot device in the present embodiment having the above-described configuration will be described.

도 3a 내지 도 3c는 본 발명의 바람직한 실시예에 따른 유모 로봇 장치의 동작 방법을 순차적으로 도시한 흐름도이다. 3A to 3C are flowcharts sequentially illustrating a method of operating the nanny robot device according to the preferred embodiment of the present invention.

먼저, 제어부(40)는 유모 로봇 장치의 동작이 자동모드인지 아니면 수동모드 인지를 우선적으로 판단한다(S301).First, the control unit 40 first determines whether the operation of the nanny robot device is an automatic mode or a manual mode (S301).

상기 판단(S301)결과, 수동모드일 경우, 유저에 의해 입력되는 모터구동 혹은 주행 선택신호에 따라 모터부(20) 혹은 주행부(60)를 제어(S303)한다. 그러면, 모터부(20)에서는 제어부(40)로부터 인가되는 모터 온신호에 따라 구동(S305)되어 요람(S1)을 흔들림이 가능하도록 동작(S307)하고, 주행부(60)에서는 제어부(40)로부터 인가되는 주행신호(S309)와 좌/우 방향값 및 앞/뒤 방향값에 따라 회전바퀴(S2)를 원하는 장소로 이동(S311)시킨다.As a result of the determination (S301), in the manual mode, the motor unit 20 or the driving unit 60 is controlled according to the motor driving or driving selection signal input by the user (S303). Then, the motor unit 20 is driven in accordance with the motor on signal applied from the control unit 40 (S305) is operated so that the cradle (S1) can be shaken (S307), the driving unit 60, the control unit 40 The rotary wheel S2 is moved to a desired place according to the driving signal S309 and the left / right direction value and the front / rear direction value applied from the step S311.

상기 판단(S301)결과, 자동모드일 경우 요람 센서부(10)와 덮개 센서부(30)와 구동 센서부(50) 각각으로부터 입력되는 센싱값을 체크(S313)한다.As a result of the determination (S301), in the automatic mode, the sensing value input from each of the cradle sensor unit 10, the cover sensor unit 30, and the driving sensor unit 50 is checked (S313).

상기 체크(S313)결과, 요람 센서부(10)내 습도 센서(10a)에 의해 감지되는 습도 감지값 혹은 온도 센서(10b)에 의해 감지되는 온도 감지값이 입력(S315)되고, 입력되는 습도 감지값 혹은 온도 감지값이 설정 습도값 또는 설정 온도값 이상(S317)일 경우, 현재 출력세팅 옵션을 분석(S319)한다.As a result of the check (S313), the humidity detection value detected by the humidity sensor 10a in the cradle sensor unit 10 or the temperature detection value detected by the temperature sensor 10b is input (S315), and the humidity detection inputted. If the value or the temperature detection value is more than the set humidity value or the set temperature value (S317), the current output setting option is analyzed (S319).

상기 분석(S319)결과, 출력 세팅 옵션이 스피커 출력(S321)일 때, 아기가 용변을 본 것으로 판단하여 용변을 보았음을 알리는 소리를 스피커(30c)를 통해 유저가 청취할 수 있도록 출력(S323)한다. As a result of the analysis (S319), when the output setting option is the speaker output (S321), it is determined that the baby has seen the toilet, and outputs the sound for the user to hear through the speaker (30c) indicating that the toilet has been seen (S323). )do.

상기 분석(S319)결과, 출력 세팅 옵션이 이동통신 단말기(S4)로의 출력(S325)일 때, 아기가 용변을 보았음을 알리는 소리를 문자 혹은 음성정보로 제작하여 네트워크(S3)를 통해 유저가 가지고 있는 이동통신 단말기(S4)로 전송(S327)한다. As a result of the analysis (S319), when the output setting option is an output (S325) to the mobile communication terminal (S4), the user through the network (S3) by making a sound or text information indicating that the baby saw the toilet It transmits to the mobile communication terminal (S4) it has (S327).

상기 분석(S319)결과, 출력 세팅 옵션이 요람(S1) 제어를 위한 출력(S329)일 때, 아기가 타고 있는 요람(S1)을 흔들림이 가능하도록 움직이게 하기 위하여 모터부(20)에 모터 온신호를 제공(S331)한다. 그러면, 모터부(20)는 제어부(40)로부터 인가되는 모터 온신호에 따라 구동되어 요람(S1)을 흔들림이 가능하도록 동작(S333)한다. As a result of the analysis (S319), when the output setting option is the output (S329) for the cradle (S1) control, the motor on signal to the motor unit 20 to move the cradle (S1) that the baby is riding to enable shaking It provides (S331). Then, the motor unit 20 is driven in accordance with the motor on signal applied from the control unit 40 to operate the cradle (S1) to shake (S333).

상기 분석(S319)결과, 출력 세팅 옵션이 유저가 위치하고 있는 장소로 이동을 위한 출력(S335)일 때, 구동 센서부(50)의 측정값을 기반으로 결정된 자율주행을 위한 방향값과 자율주행신호를 주행부(60)에 제공(S337)한다. 그러면, 주행부(60)는 제어부(40)로부터 인가되는 자율주행을 위한 방향값과 자율주행신호에 따라 장애물 회피 및 자율 주행이 가능하도록 회전바퀴(S2)를 원하는 장소로 자율주행시켜 유저가 위치하고 있는 장소로 이동(S339)시킨다. 여기서, 제어부(40)는 초음파 센서(50b) 및 레이저 센서(50e)에 의해 측정되는 장애물과의 거리와 적외선 센서(50c)에 의해 측정되는 장애물의 온도와 범퍼 센서(50d)에 의해 측정되는 접촉여부의 구동센싱값과, 카메라(50a)에 의해 촬영되는 전방화면 비디오를 기반으로 자율주행을 위한 방향값을 결정하여 주행부(60)에 자율주행신호와 더불어 제공한다. As a result of the analysis (S319), when the output setting option is an output (S335) for moving to a place where the user is located, the direction value and the autonomous driving signal for autonomous driving determined based on the measured value of the driving sensor unit 50. To the running unit 60 (S337). Then, the driving unit 60 autonomously drives the rotary wheel S2 to a desired place so that obstacle avoidance and autonomous driving are possible according to the direction value for the autonomous driving and the autonomous driving signal applied from the control unit 40. Move to a place (S339). Here, the controller 40 is a distance between the obstacle measured by the ultrasonic sensor 50b and the laser sensor 50e, the temperature of the obstacle measured by the infrared sensor 50c, and the contact measured by the bumper sensor 50d. The direction value for autonomous driving is determined based on the driving sensing value of the camera and the front screen video captured by the camera 50a, and is provided to the driving unit 60 together with the autonomous driving signal.

상기 체크(S313)결과, 요람 센서부(10)내 촉각센서(10c)에 의해 감지되는 촉각 감지값이 입력되는지를 판단(S341)하여 입력되지 않을 경우, 아기가 자리에서 일어난 것으로 판단하여 모터부(20)에 모터 온신호를 제공(S343)한다. 그러면, 모터부(20)는 제어부(40)로부터 인가되는 모터 온신호에 따라 구동되어 요람(S1)을 흔들림이 가능하도록 동작(S345)한다. As a result of the check (S313), it is determined whether or not the tactile sense value detected by the tactile sensor 10c in the cradle sensor unit 10 is input (S341). The motor on signal is provided to the step 20 (S343). Then, the motor unit 20 is driven according to the motor on signal applied from the control unit 40 to operate the cradle (S1) to shake (S345).

상기 판단(S341)결과, 요람 센서부(10)내 촉각센서(10c)에 의해 감지되는 촉각 감지값이 입력될 경우, 아기가 자리에 앉은 것으로 판단하여 모터부(20)에 모터 오프신호를 제공(S347)한다. 그러면, 모터부(20)는 제어부(40)로부터 인가되는 모터 오프신호에 따라 요람(S1)을 흔들림이 없도록 정지(S349)한다.As a result of the determination (S341), when the tactile sense value detected by the tactile sensor 10c in the cradle sensor unit 10 is input, it is determined that the baby is seated and provides a motor off signal to the motor unit 20. (S347). Then, the motor unit 20 stops the cradle S1 without shaking in accordance with the motor off signal applied from the control unit 40 (S349).

상기 체크(S313)결과, 덮개 센서부(30)내 카메라(30a)로부터 입력되는 아기의 얼굴 표정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 아기가 울고있는 모습인지 아니면 웃고 있는 모습인지를 판단(S351)하여 울고있는 모습인 경우, 현재 출력세팅 옵션을 분석(S353)한다.As a result of the check (S313), the facial expression video of the baby inputted from the camera 30a in the cover sensor unit 30 is compared with the preset face shape to see if the baby is crying or laughing. If it is determined that the crying (S351), the current output setting option is analyzed (S353).

상기 분석(S353)결과, 출력 세팅 옵션이 스피커 출력(S355)일 때, 아기가 울고 있음을 알리는 소리를 스피커(30c)를 통해 유저가 청취할 수 있도록 출력(S357)한다. As a result of the analysis (S353), when the output setting option is the speaker output (S355), the user outputs a sound informing that the baby is crying through the speaker 30c (S357).

상기 분석(S353)결과, 출력 세팅 옵션이 이동통신 단말기(S4)로의 출력(S359)일 때, 아기가 울고 있음을 알리는 소리를 문자 혹은 음성정보로 제작하여 네트워크(S3)를 통해 유저가 가지고 있는 이동통신 단말기(S4)로 전송(S361)한다. As a result of the analysis (S353), when the output setting option is an output (S359) to the mobile communication terminal (S4), the user having a network (S3) by making a sound or notifying that the baby is crying to the text (S3) It transmits to the mobile communication terminal S4 (S361).

상기 분석(S353)결과, 출력 세팅 옵션이 요람(S1) 제어를 위한 출력(S363)일 때, 아기가 타고 있는 요람(S1)을 흔들림이 가능하도록 움직이게 하기 위하여 모터부(20)에 모터 온신호를 제공(S365)한다. 그러면, 모터부(20)는 제어부(40)로부터 인가되는 모터 온(on)신호에 따라 구동되어 요람(S1)을 흔들림이 가능하도록 동작(S367)한다. 여기서, 제어부(40)는 카메라(30a)로부터 입력되는 아기의 얼굴 표 정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 웃고 있는 모습인 경우, 모터부(20)에 모터 오프신호를 제공한다. 그러면, 모터부(20)는 제어부(40)로부터 인가되는 모터 오프신호에 따라 요람(S1)을 흔들림이 없도록 정지한다.As a result of the analysis (S353), when the output setting option is the output (S363) for the cradle (S1) control, the motor on signal to the motor unit 20 to move the baby cradle (S1) to enable shaking Provide (S365). Then, the motor unit 20 is driven according to the motor on signal applied from the control unit 40 to operate the cradle S1 to be shaken (S367). Here, the controller 40 provides the motor off signal to the motor unit 20 when the face expression video of the baby input from the camera 30a is compared with the preset face shape. . Then, the motor unit 20 stops the cradle S1 without shaking in accordance with the motor off signal applied from the control unit 40.

상기 분석(S353)결과, 출력 세팅 옵션이 유저가 위치하고 있는 장소로 이동을 위한 출력(S369)일 때, 구동 센서부(50)의 측정값을 기반으로 결정된 자율주행을 위한 방향값과 자율주행신호를 주행부(60)에 제공(S371)한다. 그러면, 주행부(60)는 제어부(40)로부터 인가되는 자율주행을 위한 방향값과 자율주행신호에 따라 장애물 회피 및 자율 주행이 가능하도록 회전바퀴(S2)를 원하는 장소로 자율주행시켜 유저가 위치하고 있는 장소로 이동(S373)시킨다. 여기서, 제어부(40)는 초음파 센서(50b) 및 레이저 센서(50e)에 의해 측정되는 장애물과의 거리와 적외선 센서(50c)에 의해 측정되는 장애물의 온도와 범퍼 센서(50d)에 의해 측정되는 접촉여부의 구동센싱값과, 카메라(50a)에 의해 촬영되는 전방화면 비디오를 기반으로 자율주행을 위한 방향값을 결정하여 주행부(60)에 자율주행신호와 더불어 제공한다. As a result of the analysis (S353), when the output setting option is an output (S369) for moving to a location where the user is located, the direction value and the autonomous driving signal for autonomous driving determined based on the measured value of the driving sensor unit 50. To the traveling unit 60 (S371). Then, the driving unit 60 autonomously drives the rotary wheel S2 to a desired place so that obstacle avoidance and autonomous driving are possible according to the direction value for the autonomous driving and the autonomous driving signal applied from the control unit 40. Move to a place (S373). Here, the controller 40 is a distance between the obstacle measured by the ultrasonic sensor 50b and the laser sensor 50e, the temperature of the obstacle measured by the infrared sensor 50c, and the contact measured by the bumper sensor 50d. The direction value for autonomous driving is determined based on the driving sensing value of the camera and the front screen video captured by the camera 50a, and is provided to the driving unit 60 together with the autonomous driving signal.

상기 판단(S351)결과, 아기가 웃고 있는 모습인 경우, 모터부(20)에 모터 오프신호를 제공(S375)한다. 그러면, 모터부(20)는 제어부(40)로부터 인가되는 모터 오프신호에 따라 요람(S1)을 흔들림이 없도록 정지(S377)한다.As a result of the determination (S351), when the baby is smiling, a motor off signal is provided to the motor unit 20 (S375). Then, the motor unit 20 stops the cradle S1 without shaking in accordance with the motor off signal applied from the control unit 40 (S377).

따라서, 본 발명은 아기를 태우고 이동하는 기능, 아기의 요람을 흔들어주는 기능, 아기가 울 때 보모에게 알려주고 다가가는 기능, 아기가 용변을 보았을 때 이를 감지하여 알려주는 기능, 아기를 태우고 산책하거나 쇼핑을 나갔을 때 보모를 따라다니는 기능, 장애물 회피 기능 등을 제공함으로써, 부모(혹은 보모)의 역할을 대신해줄 수 있는 잇점이 있다. Therefore, the present invention is the ability to ride and move the baby, to shake the baby's cradle, to notify and approach the babysitter when the baby crying, the function to detect and notify when the baby sees the stool, walking or shopping for the baby When you go out, you can take over the role of the parent (or nanny) by providing the ability to follow the nanny and avoid obstacles.

한편, 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되지 않으며, 후술되는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다. Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the scope of the following claims, but also by those equivalent to the scope of the claims.

도 1은 본 발명의 바람직한 실시예에 따른 유모 로봇 장치를 위한 블록 구성도,1 is a block diagram for a nanny robot device according to an embodiment of the present invention,

도 2는 본 발명에 따른 유모 로봇 구조도, 2 is a structure of a nanny robot according to the present invention;

도 3a 내지 도 3c는 본 발명의 바람직한 실시예에 따른 유모 로봇 장치의 동작 방법을 순차적으로 도시한 흐름도.3A to 3C are flowcharts sequentially showing a method of operating the nanny robot device according to the preferred embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

10 : 요람센서부 10a : 습도 센서10: cradle sensor unit 10a: humidity sensor

10b : 온도 센서 10c : 촉각 센서10b: temperature sensor 10c: tactile sensor

20 : 모터부 30 : 덮개센서부20: motor portion 30: cover sensor portion

30a : 카메라 30b : 마이크30a: camera 30b: microphone

30c : 스피커 40 : 제어부30c: speaker 40: control unit

50 : 구동센서부 50a : 카메라50: driving sensor unit 50a: camera

50b : 초음파 센서 50c : 적외선 센서50b: ultrasonic sensor 50c: infrared sensor

50d : 범퍼 센서 50e : 레이저 센서50d: bumper sensor 50e: laser sensor

60 : 주행부60: driving unit

Claims (24)

습도 및 온도 감지값, 전방화면 비디오와 상기 전방화면에 위치한 장애물과의 상태를 각각 측정하는 다수의 센서부와, A plurality of sensor units which measure humidity and temperature detection values, a front screen video, and a state of an obstacle located on the front screen; 상기 측정된 습도 및 온도 감지값이 설정 습도값 및 설정 온도값 이상일 경우, 상기 측정된 장애물과의 상태 측정값을 기반으로 자율주행을 위한 방향값을 결정하는 제어부와, A control unit for determining a direction value for autonomous driving based on a measured state of the obstacle and the measured temperature when the measured humidity and temperature detection value is equal to or greater than a set humidity value and a set temperature value; 상기 결정된 자율주행을 위한 방향값에 따라 특정 장소로 자율주행시키는 주행부The driving unit for autonomous driving to a specific place according to the determined direction value for autonomous driving 를 포함하는 유모 로봇 장치.Nanny robot device comprising a. 제 1 항에 있어서, The method of claim 1, 상기 다수의 센서부는, 촉각 감지값과 얼굴 표정 비디오와 음성 오디오를 측정하는 것을 특징으로 하는 유모 로봇 장치.The plurality of sensor units, nanny robot device, characterized in that for measuring the tactile sense values and facial expression video and audio. 제 2 항에 있어서, The method of claim 2, 상기 제어부는, The control unit, 상기 촉각 감지값의 측정 유무에 따라 요람을 동작 혹은 정지시키는 것을 특 징으로 하는 유모 로봇 장치.The nanny robot device, characterized in that for operating or stopping the cradle in accordance with the measurement of the tactile sense value. 제 2 항에 있어서, The method of claim 2, 상기 제어부는, The control unit, 상기 측정된 얼굴 표정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 아기가 울고있는 모습이거나, 상기 음성 오디오가 측정되는 경우, 상기 측정된 장애물과의 상태 측정값을 기반으로 자율주행을 위한 방향값을 결정하는 것을 특징으로 하는 유모 로봇 장치.When the baby is crying by comparing the measured facial expression video with a preset facial shape or when the audio is measured, the direction for autonomous driving based on the measured state of the measured obstacle with the measured obstacle. A nanny robotic device, characterized in that for determining a value. 제 2 항에 있어서, The method of claim 2, 상기 제어부는, The control unit, 상기 측정된 얼굴 표정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 아기가 울고있는 모습이거나, 상기 음성 오디오가 측정되는 경우, 아기가 울고 있음을 알리는 소리를 스피커를 통해 출력하는 것을 특징으로 하는 유모 로봇 장치.The measured facial expression video is compared to a preset face shape, or when the baby is crying, or when the audio is measured, a sound indicating that the baby is crying is output through a speaker. Nanny robot device. 제 2 항에 있어서, The method of claim 2, 상기 제어부는, The control unit, 상기 측정된 얼굴 표정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 아기가 울고있는 모습이거나, 상기 음성 오디오가 측정되는 경우, 아기가 울고 있음을 알리는 소리를 문자 혹은 음성정보로 제작하여 네트워크를 통해 이동통신 단말기로 전송하는 것을 특징으로 하는 유모 로봇 장치.Compare the measured facial expression video with a preset face shape or when the baby is crying, or when the voice audio is measured, a sound indicating that the baby is crying is produced by text or voice information. Nanny robot device characterized in that the transmission to the mobile communication terminal through. 제 2 항에 있어서, The method of claim 2, 상기 제어부는, The control unit, 상기 측정된 얼굴 표정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 아기가 울고있는 모습이거나, 상기 음성 오디오가 측정되는 경우, 아기가 타고 있는 요람을 동작시키는 것을 특징으로 하는 유모 로봇 장치.And comparing the measured facial expression video with a preset facial shape, when the baby is crying, or when the audio is measured, operating the baby's cradle. 제 1 항에 있어서, The method of claim 1, 상기 제어부는, The control unit, 상기 측정된 습도 및 온도 감지값이 설정 습도값 및 설정 온도값 이상일 경우, 아기가 용변을 보았음을 알리는 소리를 스피커를 통해 출력하는 것을 특징으로 하는 유모 로봇 장치.When the measured humidity and temperature detection value is more than the set humidity value and the set temperature value, nanny robot device, characterized in that for outputting the sound through the speaker that the baby to see the toilet. 제 1 항에 있어서, The method of claim 1, 상기 제어부는, The control unit, 상기 측정된 습도 및 온도 감지값이 설정 습도값 및 설정 온도값 이상일 경우, 아기가 용변을 보았음을 알리는 소리를 문자 혹은 음성정보로 제작하여 네트워크를 통해 이동통신 단말기로 전송하는 것을 특징으로 하는 유모 로봇 장치.When the measured humidity and temperature detection value is more than the set humidity value and the set temperature value, the nanny, characterized in that the sound that the baby to see the toilet produced by the text or voice information and transmitting to the mobile terminal through the network Robotic device. 제 1 항에 있어서, The method of claim 1, 상기 제어부는, The control unit, 상기 측정된 습도 및 온도 감지값이 설정 습도값 및 설정 온도값 이상일 경우, 아기가 타고 있는 요람을 동작시키는 것을 특징으로 하는 유모 로봇 장치.When the measured humidity and temperature detection value is more than the set humidity value and the set temperature value, the nanny robot device, characterized in that for operating the baby's cradle. 제 1 항에 있어서, The method of claim 1, 상기 다수의 센서부는, The plurality of sensor units, 상기 습도를 측정하는 습도센서 및 온도를 측정하는 온도센서와 촉각을 측정하는 촉각 센서로 이루어진 요람 센서부와,A cradle sensor unit comprising a humidity sensor measuring the humidity, a temperature sensor measuring temperature, and a tactile sensor measuring touch; 상기 얼굴 표정 비디오를 측정하는 카메라와 음성 오디오를 측정하는 마이크로 이루어진 덮개 센서부와,A cover sensor unit comprising a camera measuring the facial expression video and a microphone measuring voice audio; 상기 전방화면 비디오를 측정하는 카메라와 상기 전방화면에 위치한 장애물과의 거리 상태를 측정하는 초음파 및 레이저 센서와 상기 장애물의 온도 상태를 측정하는 적외선 센서와 상기 장애물의 접촉여부를 측정하는 범퍼 센서로 이루어진 구동 센서부Ultrasonic and laser sensors for measuring the distance state between the camera measuring the front screen video, the obstacle located on the front screen, infrared sensor for measuring the temperature state of the obstacle and bumper sensor for measuring the contact of the obstacle Drive sensor 를 포함하는 유모 로봇 장치.Nanny robot device comprising a. 제 1 항에 있어서, The method of claim 1, 상기 상태 측정값은, The state measurement value, 상기 장애물을 촬영한 전방화면 비디오와 상기 장애물과의 거리와 상기 장애물의 온도와 상기 장애물의 접촉여부인 것을 특징으로 하는 유모 로봇 장치.Nanny robot apparatus characterized in that the front screen video of the obstacle and the distance between the obstacle, the temperature of the obstacle and whether the obstacle is in contact. 제 1 항에 있어서, The method of claim 1, 상기 자율주행을 위한 방향값은, 전방 화면 비디오와 장애물의 온도를 통해 목적지 방향값을 결정하고, 자율주행이 시작하면 장애물과의 거리와 접촉여부를 통해 앞/뒤 방향값 및 좌/우 방향값을 실시간으로 결정하는 것을 특징으로 하는 유모 로봇 장치.The direction value for autonomous driving determines the destination direction value through the front screen video and the obstacle temperature, and when the autonomous driving starts, the forward / backward direction value and the left / right direction value through the distance and contact with the obstacle Nanny robot device, characterized in that for determining in real time. 다수의 센서들에 의해 감지되는 센싱값들을 측정하는 단계와,Measuring sensing values sensed by a plurality of sensors, 상기 센싱값들 중 측정된 습도 및 온도 감지값이 설정 습도값 및 설정 온도값 이상일 경우, 상기 센싱값들 중 측정된 장애물과의 상태 측정값을 기반으로 자율주행을 위한 방향값을 결정하는 단계와,Determining a direction value for autonomous driving based on a state measurement value of an obstacle measured among the sensing values, when the measured humidity and temperature sensing values of the sensing values are equal to or greater than a set humidity value and a set temperature value; , 상기 결정된 자율주행을 위한 방향값에 따라 특정 장소로 자율주행시키는 단계Autonomous driving to a specific place according to the determined direction value for autonomous driving 를 포함하는 유모 로봇 장치의 제어 방법.Method of controlling a nanny robot device comprising a. 제 14 항에 있어서, The method of claim 14, 상기 제어 방법은, The control method, 상기 센싱값들 중 측정된 습도 및 온도 감지값이 설정 습도값 및 설정 온도값 이상일 경우, 아기가 용변을 보았음을 알리는 소리를 스피커를 통해 출력하는 단계If the measured humidity and temperature detection value of the sensing value is more than the set humidity value and the set temperature value, the step of outputting a sound through the speaker indicating that the baby saw the toilet 를 더 포함하는 유모 로봇 장치의 제어 방법.Control method of the nanny robot device further comprising. 제 14 항에 있어서, The method of claim 14, 상기 제어 방법은, The control method, 상기 센싱값들 중 측정된 습도 및 온도 감지값이 설정 습도값 및 설정 온도 값 이상일 경우, 아기가 용변을 보았음을 알리는 소리를 문자 혹은 음성정보로 제작하여 네트워크를 통해 이동통신 단말기로 전송하는 단계If the measured humidity and temperature detection value of the sensing value is more than the set humidity value and the set temperature value, the step of producing a sound indicating that the baby has seen the toilet as text or voice information and transmitting to the mobile terminal through the network 를 더 포함하는 유모 로봇 장치의 제어 방법.Control method of the nanny robot device further comprising. 제 14 항에 있어서, The method of claim 14, 상기 제어 방법은, The control method, 상기 센싱값들 중 측정된 습도 및 온도 감지값이 설정 습도값 및 설정 온도값 이상일 경우, 아기가 타고 있는 요람을 동작시키는 단계Operating the baby's cradle when the measured humidity and temperature detection values of the sensing values are equal to or greater than a set humidity value and a set temperature value; 를 더 포함하는 유모 로봇 장치의 제어 방법.Control method of the nanny robot device further comprising. 제 14 항에 있어서, The method of claim 14, 상기 제어 방법은, The control method, 상기 센싱값들 중 측정된 촉각 감지값의 측정 유무에 따라 요람을 동작 혹은 정지시키는 단계Operating or stopping the cradle according to whether or not the measured tactile sense value is measured among the sensing values 를 더 포함하는 유모 로봇 장치의 제어 방법.Control method of the nanny robot device further comprising. 제 14 항에 있어서, The method of claim 14, 상기 제어 방법은, The control method, 상기 센싱값들 중 측정된 얼굴 표정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 아기가 울고있는 모습이거나, 음성 오디오가 측정되는 경우, 상기 센싱값들 중 측정된 장애물과의 상태 측정값을 기반으로 자율주행을 위한 방향값을 결정하는 단계Among the sensing values, the measured facial expression video is compared with a preset face shape, and when the baby is crying or voice audio is measured, the measured state value of the sensing value is measured with the measured obstacle. Determining a direction value for autonomous driving based on 를 더 포함하는 유모 로봇 장치의 제어 방법.Control method of the nanny robot device further comprising. 제 14 항에 있어서, The method of claim 14, 상기 제어 방법은, The control method, 상기 센싱값들 중 측정된 얼굴 표정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 아기가 울고있는 모습이거나, 음성 오디오가 측정되는 경우, 아기가 울고 있음을 알리는 소리를 스피커를 통해 출력하는 단계Comparing the measured facial expression video among the sensing values with a preset face shape or outputting a sound indicating that the baby is crying through the speaker when the baby is crying or voice audio is measured. 를 더 포함하는 유모 로봇 장치의 제어 방법.Control method of the nanny robot device further comprising. 제 14 항에 있어서, The method of claim 14, 상기 제어 방법은, The control method, 상기 센싱값들 중 측정된 얼굴 표정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 아기가 울고있는 모습이거나, 음성 오디오가 측정되는 경우, 아기 가 울고 있음을 알리는 소리를 문자 혹은 음성정보로 제작하여 네트워크를 통해 이동통신 단말기로 전송하는 단계Among the sensing values, the measured facial expression video is compared with a preset face shape, and when the baby is crying or voice audio is measured, a sound indicating that the baby is crying is produced as text or voice information. Transmitting to a mobile communication terminal through a network 를 더 포함하는 유모 로봇 장치의 제어 방법.Control method of the nanny robot device further comprising. 제 14 항에 있어서, The method of claim 14, 상기 제어 방법은, The control method, 상기 센싱값들 중 측정된 얼굴 표정 비디오를 기설정되어 있는 얼굴 형상의 모습과 비교하여 아기가 울고있는 모습이거나, 음성 오디오가 측정되는 경우, 아기가 타고 있는 요람을 동작시키는 단계Comparing the measured facial expression video among the sensing values with a preset face shape, or operating the baby's cradle when voice audio is measured. 를 더 포함하는 유모 로봇 장치의 제어 방법.Control method of the nanny robot device further comprising. 제 14 항에 있어서, The method of claim 14, 상기 상태 측정값은, The state measurement value, 상기 센싱값들 중 측정된 장애물을 촬영한 전방화면 비디오와 상기 장애물과의 거리와 상기 장애물의 온도와 상기 장애물의 접촉여부인 것을 특징으로 하는 유모 로봇 장치의 제어 방법.And a front screen video photographing a measured obstacle among the sensing values, a distance between the obstacle, a temperature of the obstacle, and whether the obstacle is in contact with the obstacle robot. 제 14 항에 있어서, The method of claim 14, 상기 자율주행을 위한 방향값은, 전방 화면 비디오와 장애물의 온도를 통해 목적지 방향값을 결정하고, 자율주행이 시작하면 장애물과의 거리와 접촉여부를 통해 앞/뒤 방향값 및 좌/우 방향값을 실시간으로 결정하는 것을 특징으로 하는 유모 로봇 장치의 제어 방법.The direction value for autonomous driving determines the destination direction value through the front screen video and the obstacle temperature, and when the autonomous driving starts, the forward / backward direction value and the left / right direction value through the distance and contact with the obstacle Control method of a nanny robot device, characterized in that for determining in real time.
KR1020080020898A 2008-03-06 2008-03-06 Nanny robot system and its control method KR20090095765A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080020898A KR20090095765A (en) 2008-03-06 2008-03-06 Nanny robot system and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080020898A KR20090095765A (en) 2008-03-06 2008-03-06 Nanny robot system and its control method

Publications (1)

Publication Number Publication Date
KR20090095765A true KR20090095765A (en) 2009-09-10

Family

ID=41296050

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080020898A KR20090095765A (en) 2008-03-06 2008-03-06 Nanny robot system and its control method

Country Status (1)

Country Link
KR (1) KR20090095765A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104166380A (en) * 2013-05-17 2014-11-26 中国人民解放军第二炮兵工程大学 Real-time monitoring car applied to complex environments
CN107160412A (en) * 2017-07-12 2017-09-15 浙江大学昆山创新中心 A kind of temperature controllable infantal sleeping robot
WO2019027161A1 (en) * 2017-08-01 2019-02-07 엘지전자 주식회사 Stroller having driving assistance function and operation method thereof
KR20200063464A (en) * 2018-11-28 2020-06-05 광주보건대학산학협력단 Smart stroller

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104166380A (en) * 2013-05-17 2014-11-26 中国人民解放军第二炮兵工程大学 Real-time monitoring car applied to complex environments
CN107160412A (en) * 2017-07-12 2017-09-15 浙江大学昆山创新中心 A kind of temperature controllable infantal sleeping robot
WO2019027161A1 (en) * 2017-08-01 2019-02-07 엘지전자 주식회사 Stroller having driving assistance function and operation method thereof
KR20190013368A (en) * 2017-08-01 2019-02-11 엘지전자 주식회사 Baby carriage having driving auxiliary function and driving method the same
KR20200063464A (en) * 2018-11-28 2020-06-05 광주보건대학산학협력단 Smart stroller

Similar Documents

Publication Publication Date Title
US10532003B2 (en) Guide robot and method and system for operating the same
KR101281806B1 (en) Personal service robot
US7047105B2 (en) Robot controlled by wireless signals
JP2019010728A (en) Autonomous behavior type robot which performs meeting action
WO2018069850A1 (en) Monitoring system
KR100820316B1 (en) Baby care robot
KR20090095765A (en) Nanny robot system and its control method
JPWO2018047802A1 (en) Autonomous robot that keeps a natural distance
WO2007132571A1 (en) Robot
WO2014167896A1 (en) Electronic device and self-propelled vacuum cleaner
CN107038844A (en) One kind nurse robot
JP6575005B2 (en) Joint structure suitable for robot joints
CN106074102A (en) A kind of blind-guidance robot
KR20170085732A (en) Emotion Interactive Typed Smart Cradle System and its method of providing
KR20180060295A (en) Robot for monitoring infants
KR20130056718A (en) Robot cleaner having function for caring of pet and cleaning method thereof
JP2007152444A (en) Self-propelled robot and information management system
CN116901831A (en) System and method for guiding visually impaired passengers using a ride-sharing service
CN113165681A (en) Portable bassinet rocking device for soothing babies without conditioned reflex
KR20210037430A (en) Apparatus connected to robot, and robot system including the robot and the apparatus
JP2007226634A (en) Person status recognition device, method, program, robot and life support system
JP2011222001A (en) Entrance and exit monitoring device
CN112571433A (en) Emotion communication method of pet robot
JP2022074094A (en) System and method for continuously sharing action states of creature
KR101484955B1 (en) Apparatus for detecting moving object

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B601 Maintenance of original decision after re-examination before a trial
J301 Trial decision

Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20100607

Effective date: 20111028