KR101066999B1 - Smart flower robot and control method thereof - Google Patents

Smart flower robot and control method thereof Download PDF

Info

Publication number
KR101066999B1
KR101066999B1 KR1020080108069A KR20080108069A KR101066999B1 KR 101066999 B1 KR101066999 B1 KR 101066999B1 KR 1020080108069 A KR1020080108069 A KR 1020080108069A KR 20080108069 A KR20080108069 A KR 20080108069A KR 101066999 B1 KR101066999 B1 KR 101066999B1
Authority
KR
South Korea
Prior art keywords
user
flower
bud
stem
robot
Prior art date
Application number
KR1020080108069A
Other languages
Korean (ko)
Other versions
KR20090045129A (en
Inventor
장성주
함성일
Original Assignee
(주)앰비언트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)앰비언트 filed Critical (주)앰비언트
Publication of KR20090045129A publication Critical patent/KR20090045129A/en
Application granted granted Critical
Publication of KR101066999B1 publication Critical patent/KR101066999B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41GARTIFICIAL FLOWERS; WIGS; MASKS; FEATHERS
    • A41G1/00Artificial flowers, fruit, leaves, or trees; Garlands
    • A41G1/02Implements, apparatus, or machines for making artificial flowers, or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation

Abstract

본 발명은 지능형 플라워 로봇에 관한 것으로, 꽃의 형상과 같이, 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성된다. 꽃봉우리부는 꽃봉우리를 중심으로 꽃이 피고 지는 형태의 움직임이 가능한 다수의 꽃잎을 포함한다. 줄기부는 수직으로 배열된 다수의 마디를 포함하며, 마디에 사람의 팔을 흔드는 형상으로 움직임이 가능하도록 장착되는 가지부를 포함한다. 뿌리부는 줄기부가 좌우로 회전이 가능하도록 장착하며, 꽃봉우리부 및 줄기부가 다수의 형태로 동작하도록 꽃봉우리부 및 줄기부를 제어하는 제어용 컴퓨터를 포함한다. 여기서, 제어용 컴퓨터는 다수의 센서 또는 외부의 유무선 네트워크를 통해 외부의 기기나 원격 이용자들을 통해 입력되는 명령 또는 다수의 센서를 통해 감지되는 환경 인자의 변화 또는 이용자의 행위 내용에 기초하여 꽃봉우리부, 줄기부 및 뿌리부의 동작을 제어하는 것을 특징으로 한다. 본 발명에 따르면, 꽃의 형상을 본떠 만들었지만 인간의 행동과 감정 표현 방식을 통해 인간 및 환경과 교류(interaction)할 수 있도록 다양한 기술들을 결합시켜 만든 휴머노이드형 '플라워봇(flowerbot)' 즉, 인간을 닮은 꽃 로봇을 제공할 수 있다.The present invention relates to an intelligent flower robot, which is composed of flower buds, stems, branches and roots, like the shape of a flower. The bud part includes a plurality of petals capable of movement in the form of flowering and flowering around the bud. The stem includes a plurality of nodes arranged vertically, and includes a branch mounted to the node so as to be movable in a shape of shaking a human arm. The root portion is mounted to allow the stem portion to rotate left and right, and includes a control computer for controlling the bud portion and the stem portion such that the bud portion and the stem portion operate in a plurality of forms. Here, the control computer may include a bud unit based on a command input through an external device or a remote user through a plurality of sensors or an external wired / wireless network, or a change in environmental factors detected through a plurality of sensors or a user's behavior. It is characterized by controlling the operation of the stem portion and the root portion. According to the present invention, a humanoid 'flowerbot' made of a shape of a flower but combining various technologies to interact with humans and the environment through human behavior and emotion expression methods, that is, humans Can provide a flower robot that resembles

꽃 로봇, 플라워 로봇 Flower Robot, Flower Robot

Description

지능형 플라워 로봇 및 그 로봇의 제어 방법{SMART FLOWER ROBOT AND CONTROL METHOD THEREOF}Intelligent Flower Robot and Control Method for the Robot {SMART FLOWER ROBOT AND CONTROL METHOD THEREOF}

본 발명은 지능형 플라워 로봇에 관한 것으로, 특히 꽃을 의인화하여 사람과 대화를 하고 사람처럼 제스처를 취하며 감정을 표현할 수 있으며, 유비쿼터스 홈 또는 스마트 오피스에서의 기기 및 시설 모니터링과 다양한 서비스 제공을 위한 직관적인 이용자 인터페이스로도 동작 가능한 지능형 플라워 로봇 및 그 로봇의 제어 방법에 관한 것이다.The present invention relates to an intelligent flower robot, and in particular, anthropomorphic flowers can be used to communicate with people, make gestures and express emotions like humans, and to intuitively monitor devices and facilities in ubiquitous homes or smart offices and provide various services. An intelligent flower robot operable with an in-user interface and a control method thereof.

21세기는 로봇의 시대가 될 것으로 예측되며, 이미 전세계적으로 다양한 종류와 기능의 로봇들이 개발되고 그 중 일부는 청소 로봇이나 애완동물 로봇처럼 이미 우리들의 실생활에 투입되고 있다. 이러한 로봇들 중 인간의 모습과 행동을 모사(simulate)하는 "휴머노이드(humanoid)"는 일반인들에게 가장 친숙한 이미지의 로봇들이다. The 21st century is expected to be the era of robots, and robots of various kinds and functions have already been developed around the world, and some of them are already being put into our real life like cleaning robots and pet robots. Of these robots, the "humanoid" that simulates human appearance and behavior is the robot with the most familiar image for the general public.

최근에 와서 물고기 로봇, 곤충 로봇, 꽃 로봇 등 자연계에 존재하는 인간 이외의 생명체를 모방한 로봇들이 등장하고, 인체의 내부에 투입될 수 있는 미세한 크기의 "나노 로봇"까지 개념화되어 그 실현을 위한 연구들이 진행 중이다. Recently, robots that mimic non-human creatures in nature such as fish robots, insect robots, and flower robots have emerged, and even microscopic "nano robots" that can be put into the human body have been conceptualized for realization. Research is ongoing.

도 1은 종래의 로봇 중 하나인 "CyberFlora"를 도시한 도면으로, "CyberFlora"는 MIT 미디어랩에서 개발된 플라워 로봇 중 하나이다.1 is a view showing one of the conventional robots "CyberFlora", "CyberFlora" is one of the flower robot developed in MIT Media Lab.

이 "CyberFlora"는 동물과 같은 간단한 행동과 꽃 같은 특성이 결합되어 있는 플라워 로봇으로, 사람 손이 접근을 감지하여 동작하거나 사람 체온을 감지하여 사람 체온 방향으로 동작한다. This "CyberFlora" is a flower robot that combines simple behaviors such as animals and flower-like traits. The human hand operates by sensing approach or by sensing human body temperature.

그러나, "cyberFlora"는 사람들에게 반응하는 일종의 관상용 플라워 로봇들의 군집일 뿐 보다 다양한 기능을 수행하지 못하고 있다.However, "cyberFlora" is a cluster of ornamental flower robots that respond to people and does not perform more various functions.

한편, 최근에는 사용자가 컴퓨터나 네트워크를 의식하지 않고 장소에 상관없이 자유롭게 네트워크를 접속할 수 있는 유비쿼터스 환경을 조성하는데 모든 노력이 총동원되고 있다고 해도 과언이 아닐 정도이다. 이러한 유비쿼터스 환경이 조성되면 가정, 자동차는 물론 심지어 산꼭대기에서도 정보기술을 활용할 수 있다. On the other hand, it is no exaggeration to say that in recent years, all efforts have been made to create a ubiquitous environment in which users can freely access a network regardless of a computer or a network. When this ubiquitous environment is created, information technology can be used in homes, cars, and even on top of the mountain.

따라서, 사람들에게 단순히 반응하는 관상용으로써 뿐만이 아니라 상황에 따라 응답하면서 다양한 기능을 지능적으로 수행하고, 또한 유비쿼터스 환경, 특히 유비쿼터스 홈이나 오피스에서의 다양한 서비스를 매개하는 이용자 인터페이스로도 동작 가능한 지능형 플라워 로봇이 요구되고 있다.Therefore, an intelligent flower robot capable of intelligently performing various functions not only as a mere ornamental response to people but also responding according to the situation, and also acting as a user interface for mediating various services in a ubiquitous environment, especially ubiquitous home or office, It is required.

본 발명이 이루고자 하는 기술적 과제는, 꽃의 형상을 본떠 만들었지만 인간의 행동과 감정 표현 방식을 통해 인간 및 환경과 교류(interaction)할 수 있으며, 도한 유비쿼터스 환경에서 인간에게 친숙한 직관적인 이용자의 인터페이스로도 동작 가능한 지능형 플라워 로봇 및 그 로봇의 제어 방법을 제공하는 것이다.The technical problem to be achieved by the present invention is made after the shape of the flower, but can interact with the human and the environment through the way of expressing human behaviors and emotions, and also in the ubiquitous environment, the user-friendly intuitive user interface The present invention also provides an intelligent flower robot operable and a control method thereof.

이러한 기술적 과제를 달성하기 위한 본 발명의 하나의 특징에 따른 지능형 플라워 로봇은 꽃의 형상을 하고 있는 지능형 플라워 로봇으로서, 꽃봉우리를 중심으로 꽃이 피고 지는 형태의 움직임이 가능한 다수의 꽃잎을 포함하는 꽃봉우리부; 수직으로 배열된 다수의 마디-여기서 다수의 마디는 서로 굴절이 가능하도록 연결되어 있음-를 포함하며, 상단부의 마디 상에 상기 꽃봉우리부가 고개를 숙이고 드는 움직임이 가능하도록 상기 꽃봉우리부를 지지하며, 상기 마디에 사람의 팔을 흔드는 형상으로 움직임이 가능하도록 장착되는 가지부를 포함하는 줄기부; 및 상기 줄기부가 좌우로 회전이 가능하도록 장착하며, 상기 꽃봉우리부 및 줄기부가 다수의 형태로 동작하도록 상기 꽃봉우리부 및 줄기부를 제어하는 제어용 컴퓨터를 포함하는 뿌리부를 포함하며, 상기 꽃봉우리부, 줄기부 및 뿌리부는 외부로부터 환경 인자 및 이용자의 행위 내용을 감지하는 다수의 센서를 포함하고, 상기 제어용 컴퓨터는 상기 다수의 센서 또는 외부의 유무선 네트워크를 통해 외부의 기기나 원격 이용자들을 통해 입력되는 명령 또는 상기 다수의 센서를 통해 감지되는 환경 인자의 변화 또는 이용자의 행위 내용에 기초하여 상기 꽃봉우리부, 줄기부 및 뿌리부의 동작을 제어하는 것을 특징으로 한다.An intelligent flower robot according to one feature of the present invention for achieving the technical problem is an intelligent flower robot in the shape of a flower, including a plurality of petals capable of movement in the form of flowering around a flower bud. Buds; A plurality of nodes arranged vertically, wherein the plurality of nodes are connected to each other so as to be refracted to each other, and supporting the buds on the nodes of the upper end to allow the buds to bow down; A stem part including a branch part mounted on the node to be movable in a shape of shaking a human arm; And a root part including the stem part mounted to be rotatable from side to side, and including a control computer for controlling the bud part and the stem part to operate the bud part and the stem part in a plurality of forms, wherein the bud part, The stem portion and the root portion include a plurality of sensors for sensing environmental factors and the user's behavior from the outside, the control computer is a command input through an external device or remote users via the plurality of sensors or an external wired or wireless network Or controlling the operation of the bud, stem, and root parts based on changes in environmental factors sensed through the plurality of sensors or user behavior.

여기서, 상기 다수의 꽃잎은 상기 꽃봉우리의 측면에 다단으로 구성되고, 상기 다수의 꽃잎은 하단부에서 꽃잎 구동모터의 구동력을 상기 다수의 꽃잎으로 전달하는 커넥팅 로드에 접속되며, 상기 꽃잎 구동모터의 구동에 의해 상기 다수의 꽃잎이 실제 꽃들이 피고 지는 기제와 동일하게 아랫단에서 위단으로 오므라지고 펴는 동작을 수행하는 것을 특징으로 한다.Here, the plurality of petals are configured in multiple stages on the side of the bud, the plurality of petals are connected to the connecting rod for transmitting the driving force of the petal drive motor to the plurality of petals at the lower end, the drive of the petal drive motor By the plurality of petals is characterized in that to perform the operation of lifting and spreading from the lower end to the upper end in the same way as the actual flowers bloom.

또한, 상기 제어용 컴퓨터는, 상기 다수의 센서를 통해 입력되는 신호를 처리한 후 상황 인지를 위한 데이터로 변환하여 출력하는 센싱 인터페이스부; 상기 센싱 인터페이스부에서 출력되는 데이터를 저장하고, 이용자들의 정보를 저장하며, 상기 센싱 인터페이스부로부터 출력되는 데이터에 대응되는 동작에 필요한 데이터를 저장하는 데이터베이스부; 상기 센싱 인터페이스부로부터 출력되는 데이터에 기초하여 상기 지능형 플라워 로봇 주변의 상황을 인지하고, 리모컨이나 음성을 통해 입력되는 이용자의 직접적인 제어 명령이나 인지된 상황을 기반으로 수행되어야 하는 동작 의사를 결정하는 이벤트 처리부; 상기 이벤트 처리부에 의해 결정된 동작 의사에 따라 상기 데이터베이스에 저장되어 있는 데이터에 기초하여 상기 지능형 플라워 로봇의 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 구동하는 동작 처리부; 및 상기 이벤트 처리부가 외부의 유무선 통신망과 연결되어 데이터를 송수신하도록 매개하는 유무선 통신부를 포함한다.The control computer may further include: a sensing interface unit processing signals input through the plurality of sensors and converting the signal into data for situation recognition; A database unit for storing data output from the sensing interface unit, storing information of users, and storing data necessary for an operation corresponding to data output from the sensing interface unit; An event for recognizing a situation around the intelligent flower robot based on data output from the sensing interface unit and determining an operation intention to be performed based on a user's direct control command or a recognized situation input through a remote controller or a voice. Processing unit; An operation processor for driving the bud, stem, branch and root of the intelligent flower robot based on the data stored in the database according to the operation intention determined by the event processor; And a wired / wireless communication unit configured to connect the event processing unit to an external wired / wireless communication network to transmit and receive data.

여기서, 상기 이벤트 처리부는, 상기 센싱 인터페이스부로부터 출력되는 데이터를 토대로 이미 확립되어 있는 상황 인지 모델을 기반으로 상기 지능형 플라워 로봇 주변의 상황을 인식하는 상황 인지 모듈; 및 리모컨이나 음성을 통해 입력되는 이용자의 직접적인 제어 명령이나 상기 상황 인지 모듈에 의해 파악된 상황을 기반으로 상기 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정하는 이벤트 관리 의사 결정 모듈을 포함한다.Here, the event processing unit, the situation recognition module for recognizing the situation around the intelligent flower robot based on a situation recognition model already established based on the data output from the sensing interface unit; And an event management decision module for determining an operation decision that the intelligent flower robot should perform based on a user's direct control command input through a remote controller or voice or a situation identified by the situation recognition module.

여기서, 상기 상황 인지 모듈은 상황 인지 모델에 설정되어 있지 않은 상황 데이터 입력시, 상기 유무선 통신부를 통해 외부의 온라인 상식 데이터베이스에 접속하여 상식에 기반한 상황 및 이에 대응되는 상식적 행동 패턴을 추출하는 것을 특징으로 한다.Here, the contextual awareness module extracts a situation based on common sense and common sense behavior patterns by accessing an external online common sense database through the wired / wireless communication unit when the context data is not set in the context awareness model. do.

또한, 상기 동착 처리부는 상기 지능형 플라워 로봇이 취하는 동작을 설정하여 대응되는 모션으로 등록하는 모션 등록 모듈 및 상기 이벤트 처리부에 의해 결정된 동작 의사에 따라 상기 모션 등록 모듈에 의해 등록된 모션을 하나 또는 둘 이상을 연속적으로 재생하는 모션 재생 모듈을 포함한다.In addition, the synch processing unit may register one or more motions registered by the motion registration module according to a motion registration module configured to set an action taken by the intelligent flower robot and register the corresponding motion as a corresponding motion, and an operation intention determined by the event processor. And a motion reproducing module for reproducing continuously.

여기서, 상기 모션 등록 모듈은, 상기 이용자에 의해 상기 지능형 플라워 로봇의 자세가 정해지는 경우, 상기 꽃봉우리부, 줄기부 및 뿌리부에 장착된 모터들의 회전 각도를 읽어서 해당 자세에 대응되는 데이터로 저장하여 모션 등록을 수행하고, 상기 모션 재생 모듈은 상기 모션 등록 모듈에 의해 저장된 모터들의 회전 각도에 따라 대응되는 모터들을 위치시킴으로써 해당 자세를 구현하는 동작 기억 방식을 사용하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따른 제어 방법은,
꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법으로서, a) 상기 줄기부에 설치된 다수의 센서를 통해 주변의 환경에 관련된 입력을 수신하는 단계; b) 상기 수신되는 주변의 환경에 관련된 입력에 기초하여 주변의 환경 변화를 인지하는 단계; c) 상기 인지되는 주변의 환경 변화에 대응되는 동작 의사를 결정하는 단계; 및 d) 상기 결정되는 동작 의사에 따라 상기 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 동작시켜 주변 환경의 변화를 알리는 단계를 포함한다.
본 발명의 또 다른 특징에 따른 제어 방법은,
꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법으로서, a) 상기 꽃봉우리부, 줄기부 및 뿌리부에 설치된 다수의 센서를 통해 주변의 이용자를 감지하기 위한 입력을 수신하는 단계; b) 상기 수신되는 이용자를 감지하기 위한 입력에 기초하여 주변의 이용자를 감지하는 단계; c) 상기 감지되는 이용자의 정보를 추출하여 대응되는 동작 의사를 결정하는 단계; 및 d) 상기 결정되는 동작 의사에 따라 상기 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 동작시켜 상기 이용자에 맞는 동작을 수행하는 단계를 포함한다.
본 발명의 또 다른 특징에 따른 제어 방법은,
꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법으로서, a) 상기 꽃봉우리부, 줄기부 또는 뿌리부에 설치된 다수의 센서를 통해 외부의 이용자로부터 명령을 수신하는 단계; b) 상기 이용자로부터 수신되는 명령을 인지하는 단계; c) 상기 인지되는 명령에 대응되는 동작 의사를 결정하는 단계; 및 d) 상기 결정되는 동작 의사에 따라 외부의 기기에 연동되는 유무선 통신망을 통해 상기 외부의 기기를 제어하는 명령을 전송하는 단계를 포함한다.
본 발명의 또 다른 특징에 따른 제어 방법은,
꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법으로서, a) 상기 꽃봉우리부에 설치된 카메라를 통해 입력되는 영상을 수신하는 단계; b) 상기 수신되는 영상에 기초하여 감지되는 이용자의 등록 여부를 확인하는 단계; c) 상기 감지되는 이용자가 등록된 이용자가 아닌 경우, 이에 대응되는 동작 의사를 결정하는 단계; 및 d) 상기 결정되는 동작 의사에 따라 상기 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 동작시키는 동시에, 유무선 통신망을 통해 연결되는 외부의 기기나 원격의 이용자에게 침입 사실을 알리는 단계를 포함한다.
Here, when the attitude of the intelligent flower robot is determined by the user, the motion registration module reads the rotation angles of the motors mounted on the bud, stem, and root parts and stores the data corresponding to the attitude. By performing the motion registration, the motion reproduction module is characterized by using a motion storage method for implementing the posture by positioning the motors corresponding to the rotation angle of the motors stored by the motion registration module.
Control method according to another embodiment of the present invention,
A method of controlling a flower robot consisting of flower buds, stems, branches and roots according to the shape of a flower, comprising the steps of: a) receiving input related to the surrounding environment through a plurality of sensors installed on the stems; b) recognizing a change in the surrounding environment based on an input related to the received surrounding environment; c) determining an operation intention corresponding to the recognized environmental change; And d) informing the change of the surrounding environment by operating the bud, stem, branch and root according to the determined operation intention.
Control method according to another aspect of the present invention,
A method of controlling a flower robot consisting of flower buds, stems, branches and roots according to the shape of a flower, comprising: a) using a plurality of sensors installed on the buds, stems and roots to Receiving an input for sensing; b) detecting a user in the vicinity based on an input for detecting the received user; c) extracting the detected user information to determine a corresponding operation intention; And d) operating the bud, stem, branch, and root according to the determined operation intention to perform an operation suitable for the user.
Control method according to another aspect of the present invention,
A method of controlling a flower robot consisting of flower buds, stems, branches and roots according to the shape of a flower, comprising: a) from an external user through a plurality of sensors installed on the buds, stems or roots; Receiving a command; b) recognizing a command received from the user; c) determining an action intention corresponding to the recognized command; And d) transmitting a command for controlling the external device through a wired / wireless communication network linked to the external device according to the determined operation intention.
Control method according to another aspect of the present invention,
A method of controlling a flower robot consisting of flower buds, stems, branches and roots according to the shape of a flower, the method comprising: a) receiving an image input through a camera installed on the flower buds; b) checking whether a user is detected based on the received image; c) if the detected user is not a registered user, determining an operation intention corresponding thereto; And d) operating the flower buds, stems, branches and roots according to the determined operation intention, and informing the external device or the remote user connected through the wired / wireless communication network of the intrusion fact.

본 발명에 따르면, 꽃의 형상을 본떠 만들었지만 인간의 행동과 감정 표현 방식을 통해 인간 및 환경과 교류(interaction)할 수 있도록 다양한 기술들을 결합시켜 만든 휴머노이드형 '플라워봇(flowerbot)' 즉, 인간을 닮은 꽃 로봇을 제공할 수 있다.According to the present invention, a humanoid 'flowerbot' made of a shape of a flower but combining various technologies to interact with humans and the environment through human behavior and emotion expression methods, that is, humans Can provide a flower robot that resembles

또한, 관상용 플라워 로봇에서 벗어나 유비쿼터스 홈이나 스마트 오피스에서의 직관적 인터페이스로도 동작 가능해진다.In addition, it can be operated as an intuitive interface in the ubiquitous home or smart office, away from the ornamental flower robot.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현할 수 있다. Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise. In addition, the terms “… unit”, “… unit”, “module”, etc. described in the specification mean a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software. .

이제 본 발명의 실시예에 따른 지능형 플라워 로봇에 대해 상세하게 설명한다.Now, an intelligent flower robot according to an embodiment of the present invention will be described in detail.

도 2는 본 발명의 실시예에 따른 지능형 플라워 로봇의 구조도이다.2 is a structural diagram of an intelligent flower robot according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 지능형 플라워 로봇은 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)를 포함한다.As shown in FIG. 2, the intelligent flower robot according to an embodiment of the present invention includes a bud 100, a stem 200, a branch 300, and a root 400.

꽃봉우리부(100)는 꽃의 형상 중에서 꽃봉우리 부분에 대응되며, 꽃봉우리(110)에 부착되어 있는 다수의 꽃잎(120)을 포함하고, 꽃이 피고 지는 등의 동작 기제(mechanism)를 나타내기 위해 다수의 꽃잎(120)을 구동한다.The bud part 100 corresponds to the bud part in the shape of a flower, and includes a plurality of petals 120 attached to the bud 110 and exhibits a mechanism of operation such as flowering. To drive a plurality of petals 120 to bet.

꽃봉우리부(100)는 꽃잎(120)의 색깔과 깜박거림의 주기를 바꿀 수 있도록 하고, 이러한 색채 및 깜박거림의 변화를 통해 일종의 사람과 같은 감정 표현이나 빨강색으로 변하여 화재를 알리는 것처럼 색채와 연계된 특정 정보의 상태 표시가 가능하도록 한다.Flower bud 100 is to change the color and the cycle of flicker of the petals 120, and by changing the color and flicker, such as a kind of human expression or red color to change the color and as if the fire It is possible to display the status of the associated specific information.

꽃봉우리부(100)는 다수의 꽃잎들이 연결된 다단계의 환상형 꽃잎 지지부재들, 예를 들어 커넥팅 로드(113)가 밀려 올라가거나 내려오면서 향기 발산 장치(117)의 측면에 형성되어 있는 개구부(119)를 막거나 여는 기제를 통하여 꽃이 폈을 때 꽃향기의 주변 발산이 가능하도록 한다. 이 때, 개구부(119)가 열릴 때 향기 발산 장치(117)로부터 향기가 개구부(119)를 통해 주변으로 발산되도록 한다.The bud portion 100 has an opening 119 formed at the side of the fragrance emanation device 117 as the multi-stage annular petal support members connected to the plurality of petals, for example, the connecting rod 113 is pushed up or down. ) Through the mechanism to prevent or open the flower fragrance when the flowers bloom. At this time, when the opening 119 is opened, the fragrance is emitted from the fragrance emanation device 117 to the surroundings through the opening 119.

꽃봉우리부(100)는 꽃봉우리(110)를 구부리거나 다시 세우는 구동을 행하여 꽃봉우리(110)가 사람이 고개를 숙이거나 드는 동작과 같은 기제를 나타낼 수 있다.The bud 100 may be driven to bend or re-establish the bud 110, so that the bud 110 may exhibit a mechanism such as a person bowing or lifting his head.

도 3은 도 2에 도시된 꽃봉우리부(100)의 구체적인 구조를 도시한 도면이다.3 is a view showing a specific structure of the bud portion 100 shown in FIG.

도 3에 도시된 바와 같이, 꽃봉우리부(100)는 꽃봉우리(110) 및 다수의 꽃잎(120)을 포함한다.As shown in FIG. 3, the bud portion 100 includes a bud 110 and a plurality of petals 120.

다수의 꽃잎(120)은 꽃봉우리(110)의 구동에 의해 꽃이 지듯이 오므라지거나 꽃이 피듯이 펼쳐지도록 동작된다. 이를 위해, 다수의 꽃잎(120)은 꽃봉우리(110)의 하단부(L)부터 상단부(U)에 걸쳐 다단으로 구성되어 있으며, 꽃봉우리(110)의 구동에 의해 하단에 있는 꽃잎(120)부터 상단에 있는 꽃잎(120) 순으로 순차적으로 펴지고 또한, 하단에 있는 꽃잎(120)부터 상단에 있는 꽃잎(120) 순으로 순차적으로 오므라지는 형식으로 동작한다. 이것은 증기기관차의 바퀴를 움직이는 기제의 반대 기제를 통하거나 솔레노이드 등 그 밖의 방식을 통해서 모터의 회전 운동을 왕복 운동으로 바꾼 후 우산을 펴고 접는 기제처럼 다단으로 형성된 여러 단의 꽃잎들을 실제 꽃이 피는 경우에서 볼 수 있듯이 하단에서 상단으로 순차적으로 펼쳐지게 하여 꽃을 피우거나, 반대로 모터의 회전을 반대 방향으로 하여 여기에 연결된 축을 당김으로써 꽃잎들이 하단에서부터 순차적으로 닫히게 하는 기제를 통해 꽃이 피고지는 동작을 구현한 것이다.The plurality of petals 120 are operated to be bunched or blossomed like flowers by the driving of the flower buds 110. To this end, the plurality of petals 120 is composed of a plurality of stages from the lower end (L) to the upper end (U) of the bud 110, from the petal 120 at the bottom by the driving of the bud 110 The petals 120 at the top are sequentially spread, and the petals 120 at the bottom and the petals 120 at the top are sequentially spread. This is the case when the flowers of the multi-stage petals formed in multiple stages like the mechanism of opening and folding the umbrella after changing the rotational motion of the motor through the opposite mechanism of moving the wheels of the steam locomotive or through other methods such as solenoids. As can be seen from the bottom to the top of the flowers to bloom in sequence, or by rotating the motor in the opposite direction by pulling the axis connected to it through the mechanism that the petals are closed from the bottom to realize the action of blooming flowers It is.

즉, 꽃봉우리부(100)는 꽃잎을 구동하기 위해 꽃봉우리(110)의 하단(L)에 위치한 꽃잎 구동모터(111) 및 꽃잎 구동모터(111)의 구동에 의해 다수의 꽃잎(120)들을 구동하는 커넥팅 로드(113)를 포함한다.That is, the buds 100 may drive the plurality of petals 120 by driving the petal drive motor 111 and the petal drive motor 111 located at the lower end L of the bud 110 to drive the petals. And a connecting rod 113 for driving.

꽃잎 구동모터(111)는 회전을 통해 커넥팅 로드(113)의 왕복 운동을 유발하고, 이러한 커넥팅 로드(113)의 왕복 운동으로 인해 커넥팅 로드(113)에 다단으로 연결되어 있는 다수의 꽃잎(120)이 오므라지고 펴지는 동작을 수행하게 된다. 꽃잎 구동모터(111)와 커넥팅 로드(113)의 구동에 의해 다수의 꽃잎(120)이 오므라지고 펴지는 기제를 수행하는 구체적인 동작은 이미 잘 알려져 있으므로 보다 구체적인 설명은 생략한다.The petal drive motor 111 causes the reciprocating motion of the connecting rod 113 through rotation, and the plurality of petals 120 connected in multiple stages to the connecting rod 113 due to the reciprocating motion of the connecting rod 113. This retracting and unfolding operation is performed. The detailed operation of carrying out the mechanism of lifting and unfolding the plurality of petals 120 by the driving of the petal drive motor 111 and the connecting rod 113 is well known, and thus a detailed description thereof will be omitted.

꽃봉우리(110) 내에는 256가지 색깔을 표현할 수 있는 다수의 LED를 포함하는 LED 코어(130)가 구비되어 있다. 이러한 LED 코어(130)의 LED를 통해 다양한 색깔과 깜박거림 또는 점멸의 주기를 변화시킴으로써 꽃잎(120)의 색깔과 점멸 주 기를 바꿀 수 있으며, 이러한 색깔 및 점멸 주기의 변화를 통해 지능형 플라워 로봇의 감정이나 특정 정보에 결부된 상태를 또한 표현할 수 있다. 한편, 이러한 색깔이나 점멸을 이용한 표현이나 변화는 다른 색광원을 사용하여 구현될 수도 있다.The bud 110 is provided with an LED core 130 including a plurality of LEDs capable of representing 256 colors. Through the LED of the LED core 130, the color and the blinking cycle of the petal 120 can be changed by changing the cycle of various colors and flickering or blinking, and the emotion of the intelligent flower robot through the change of the color and the blinking cycle. However, it can also represent states associated with specific information. On the other hand, the expression or change using the color or flashing may be implemented using a different color light source.

꽃봉우리(110)의 상단부(U)에는 외부의 영상을 촬영하고, 외부의 영상과 소리를 입력받을 수 있는 소형 카메라 및 마이크로폰(115)이 구비되어 있다. 이러한 소형 카메라 및 마이크로폰(115)은 소형 카메라와 마이크로폰이 일체형으로 이루어지는 것이 바람직하지만, 지능형 플라워 로봇의 사용 환경 등에 따라 별개의 장치로 구비될 수도 있다.The upper end U of the bud 110 is provided with a small camera and microphone 115 capable of capturing an external image and receiving an external image and sound. The small camera and the microphone 115 is preferably made of a small camera and a microphone integrally, but may be provided as a separate device according to the use environment of the intelligent flower robot.

따라서, 꽃봉우리부(100)는 꽃봉우리(110) 내에 구비된 소형 카메라 및 마이크로폰(115)을 통해 외부의 영상을 촬영하고 외부의 음성을 수신할 수 있다.Therefore, the bud portion 100 may photograph an external image and receive an external voice through the small camera and the microphone 115 provided in the bud 110.

꽃봉우리부(100)에 장착되어 있는 향기 발산 장치(117)의 개구부와 다단계로 구성된 꽃잎 지지용 환상형 부재들의 상호 위치관계에 의해 꽃잎이 펴졌을 때 주변에 꽃향기를 발산하도록 개구부(119)가 열리고 꽃이 오므라졌을 때 이러한 동작이 멈춰지도록 개구부(119)가 가려지는 기제를 통하여 꽃향기의 주변 발산이 제어된다. Opening 119 so as to emit a floral fragrance around when the petals are unfolded by the mutual positional relationship between the opening of the fragrance emanation device 117 mounted on the bud portion 100 and the multi-stage of the petal support annular members. Peripheral divergence of the floral fragrance is controlled through the mechanism by which the opening 119 is covered so that this operation is stopped when the flower is opened and the flower is closed.

한편, 줄기부(200)는 다수의 마디(210, 220, 230, 240)가 수직으로 배열되어 구성되고, 각 마디(210, 220, 230, 240)는 모터를 각각 구비한다.On the other hand, the stem portion 200 is composed of a plurality of nodes 210, 220, 230, 240 are arranged vertically, each node 210, 220, 230, 240 is provided with a motor, respectively.

다수의 마디(210, 220, 230, 240) 중에서 마디(240)는 상단부가 꽃봉우리부(100)에 연결되어 있으며, 모터의 구동에 의해 꽃봉우리부(100)를 위 아래로 회전시켜서 꽃봉우리부(100)가 사람과 같이 고개를 숙이고 드는 동작을 나타내도록 하는 꽃봉우리 굴절부(240)를 형성한다.Among the plurality of nodes 210, 220, 230, and 240, the node 240 has an upper end connected to the flower bud 100, and the flower bud 100 is rotated up and down by the driving of a motor. The bud 100 forms the bud refraction 240 to show the operation of bowing like a person.

나머지 마디(220, 230, 240)는 서로 지지용 부재(221, 231)들로 연결되어 지탱되며 하중을 아래로 전달하는 구조로 구성된다.The remaining nodes 220, 230, and 240 are connected to each other by supporting members 221 and 231, and are configured to carry a load.

마디(210, 240)는 상부에 위치하는 줄기 부분을 전후로 굴절시키는 동작을 수행한다. 결과적으로 마디(210, 240)를 비롯한 동일 형식의 마디들의 전후 굴절 각도의 조합에 따라 줄기부(200)가 C자형 또는 S자형 등 다양한 모양으로 앞뒤로 구부려질 수 있다.The nodes 210 and 240 perform an operation of refracting the stem portion located at the upper side back and forth. As a result, the stem 200 may be bent back and forth in various shapes such as C-shaped or S-shaped according to the combination of the front and rear refractive angles of the same type of nodes including the nodes 210 and 240.

각 마디(210, 220, 230, 240)도 LED(도시하지 않음) 또는 기타 색광원(도시하지 않음)을 구비하여 다양한 색상 또는 점멸 주기 제어를 통한 색상 변화를 표현한다. Each node 210, 220, 230, 240 also includes an LED (not shown) or other color light source (not shown) to represent color change through various color or flashing period control.

또한, 마디(210, 220, 230, 240)에는 사용상 편리한 위치에 온습도 센서(도시하지 않음), CO2 센서(도시하지 않음), 조도 센서(도시하지 않음), 적외선 센서(도시하지 않음) 등 다양한 환경 센서 및 행동 감지 센서가 장착되어 각각 온도, 습도, 이산화탄소 농도, 조도 및 인체의 접근 등을 감지하게 된다.In addition, the nodes 210, 220, 230, and 240 have a temperature and humidity sensor (not shown), a CO 2 sensor (not shown), an illuminance sensor (not shown), an infrared sensor (not shown), etc., at a convenient location for use. Various environmental sensors and behavioral sensors are equipped to detect temperature, humidity, carbon dioxide concentration, illuminance and human body access, respectively.

가지부(300)는 줄기부(200), 예를 들어 줄기부(200)의 마디(220, 230)에 장착되어 있으며, 각각 다수의 잎새(310)를 구비한다.The branch part 300 is mounted to the stem part 200, for example, the nodes 220 and 230 of the stem part 200, and includes a plurality of leaves 310.

가지부(300)가 장착된 줄기부(200)의 마디(220, 230)는 가지부(300)를 상하로 회전시키는 동작을 수행하고, 가지부(300)를 하부에서 지지하고 있는 마디(220, 230)는 가지부(300)를 좌우로 회전시키는 동작을 수행하여 결과적으로 이러한 동작 들의 조합에 의하여 가지가 상하좌우로 움직임으로써 사람이 두 팔을 움직이는 것과 같은 동작 또는 꽃이 축쳐져 있는 상태나 반대로 생기 있는 활력을 나타내는 동작을 구현할 수 있다. The nodes 220 and 230 of the stem part 200 on which the branch part 300 is mounted perform the operation of rotating the branch part 300 up and down, and the node 220 supporting the branch part 300 from the bottom. , 230 performs the operation of rotating the branch 300 to the left and right as a result of the movement of the branch by moving the arms up, down, left and right by the combination of these actions or the state that the flowers or the flowers are damp Conversely, you can implement motions that represent vital vitality.

뿌리부(400)는 줄기부(200)의 하단부의 마디(240)와 연결되어 꽃봉우리부(100), 줄기부(200) 및 가지부(300)로 부분 전체의 하중을 지탱하는 플레이트(410), 플레이트(410)를 통해 줄기부(200)의 마디(240)에 연결되어 줄기부(200), 꽃봉우리부(100) 및 가지부(300)를 죄우로 360°회전시키는 꽃 전체 회전 모터(420)를 포함한다. 여기서, 플레이트(410)와 꽃 전체 회전 모터(420) 사이에는 꽃 전체 회전 모터(420)의 회전력을 줄기부(200)의 마디(240)에 안정된 형식으로 전달하기 위하여 보올 베어링(430)이 삽입된다.The root portion 400 is connected to the node 240 of the lower end of the stem portion 200 to support the load of the entire portion to the bud portion 100, the stem portion 200 and the branch portion 300 (410) ), The flower full rotation motor connected to the node 240 of the stem part 200 through the plate 410 to rotate the stem part 200, the bud part 100 and the branch part 300 by 360 °. 420. Here, the bowl bearing 430 is inserted between the plate 410 and the flower rotational motor 420 to transmit the rotational force of the flower rotational motor 420 to the node 240 of the stem 200 in a stable form. do.

뿌리부(400)에는 RFID(Radio Frequency Identification) 태그를 인식할 수 있는 RFID 안테나가 포함된 RFID 리더(440)와, 소리를 외부로 출력할 수 있는 스피커(450)가 장착되어 있다.The root unit 400 is equipped with an RFID reader 440 including an RFID antenna capable of recognizing a Radio Frequency Identification (RFID) tag, and a speaker 450 capable of outputting sound to the outside.

또한, 뿌리부(400)에는 꽃봉우리부(100) 및 줄기부(200)는 물론 뿌리부(400) 내부의 구성요소들을 전체적으로 제어하는 제어용 컴퓨터(500)가 구비되어 있다.In addition, the root portion 400 is provided with a control computer 500 for controlling the components of the interior of the root portion 400 as well as the bud portion 100 and the stem portion 200.

한편, 꽃봉우리부(100), 줄기부(200) 및 뿌리부(400)에 장착된 모든 모터에는 회전 상한값과 하한값이 설정되어 있어 오동작시 특정 부위의 손상을 방지하고 지능형 플라워 로봇 전체 동작의 안정성을 도모할 수 있도록 한다.On the other hand, all the motors mounted on the bud part 100, the stem part 200 and the root part 400 are set to the upper and lower rotation limits, thereby preventing damage to a specific part in case of malfunction and the stability of the entire intelligent flower robot operation. To help them.

도 4는 도 2에 도시된 제어용 컴퓨터(500)의 구체적인 구성을 도시한 도면이다.4 is a diagram showing a specific configuration of the control computer 500 shown in FIG.

도 4에 도시된 바와 같이, 제어용 컴퓨터(500)는 센싱 인터페이스부(510), 데이터베이스부(520), 이벤트 처리부(530), 동작 처리부(540) 및 유무선 통신부(550)를 포함한다.As shown in FIG. 4, the control computer 500 includes a sensing interface unit 510, a database unit 520, an event processor 530, an operation processor 540, and a wired / wireless communication unit 550.

센싱 인터페이스부(510)는 각종의 센서 또는 입력 장치를 통해 입력되는 신호를 처리한 후 상황인지를 위한 데이터로 변환하여 출력한다.The sensing interface unit 510 processes signals input through various sensors or input devices and converts the signals into data for situational awareness.

데이터베이스부(520)는 센싱 인터페이스부(510)를 통해 외부로부터 입력되는 데이터를 저장하거나 이용자들의 정보를 저장하거나 또는 센싱 인터페이스부(510)를 통해 입력되는 데이터에 대응되는 동작 등에 필요한 데이터를 저장하는 등 다양한 데이터를 저장한다.The database unit 520 stores data input from the outside through the sensing interface unit 510, stores user information, or stores data necessary for an operation corresponding to data input through the sensing interface unit 510. It stores various data.

이벤트 처리부(530)는 리모컨이나 음성을 통해 입력되는 이용자의 직접적인 제어 명령이나 센싱 인터페이스부(510)에 의해 입력되는 데이터에 기초하여 지능형 플라워 로봇 주변의 상황을 인지하고, 인지된 상황을 기반으로 수행되어야 하는 동작 의사를 결정한다.The event processor 530 recognizes a situation around the intelligent flower robot based on a user's direct control command input through a remote controller or voice or data input by the sensing interface unit 510, and performs the operation based on the recognized situation. Decide on an action decision to be made.

동작 처리부(540)는 이벤트 처리부(530)에 의해 결정된 동작 의사에 따라 데이터베이스부(520)에 저장되어 있는 데이터에 기초하여 지능형 플라워 로봇의 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)를 구동한다. 즉, 동작 처리부(540)는 꽃봉우리부(100), 줄기부(200) 및 뿌리부(400)에 있는 각종의 모터 등을 제어하여 지능형 플라워 로봇의 형태를 변화시키고, 또한 각종의 LED 등을 구동하여 지능형 플라워 로봇의 색체를 변화시킨다.The motion processor 540 is based on the data stored in the database unit 520 according to the motion intention determined by the event processor 530, the bud part 100, the stem part 200, the branch part of the intelligent flower robot 300 and the root 400 is driven. That is, the motion processor 540 controls various motors in the bud part 100, the stem part 200, and the root part 400 to change the shape of the intelligent flower robot, and also provides various LEDs. Drive to change the color of the intelligent flower robot.

또한, 동작 처리부(540)는 센싱 인터페이스부(510)에 의해 인지되는 이용자 에 대해 데이터베이스부(520)에 저장된 데이터에 의거하여 이용자의 음성 내용에 대응되는 대화를 수행한다.In addition, the operation processor 540 performs a conversation corresponding to the voice content of the user based on the data stored in the database unit 520 with respect to the user recognized by the sensing interface unit 510.

유무선 통신부(550)는 유무선 랜, 블루투스, 지그비, 전력선 통신, UWB(Ultra WideBand), RS232, RS485 등을 통하여 지능형 플라워 로봇(10)의 제어나 데이터 교환을 위한 외부와의 통신을 수행한다. The wire / wireless communication unit 550 performs communication with the outside for controlling or exchanging data of the intelligent flower robot 10 through wired / wireless LAN, Bluetooth, Zigbee, power line communication, UWB (Ultra WideBand), RS232, RS485, and the like.

지능형 플라워 로봇은, 도 5에 도시된 바와 같이, 제어용 컴퓨터(500)의 유무선 통신부(550)를 통해 연결되는 홈 네트워크 상의 홈 게이트웨이나 홈서버(600)를 통하여 외부의 센서나 액추에이터들과 같은 외부 기기(700)에 연동하거나 또는 유무선 통신망(800)을 통한 원격의 이용자(900)가 지닌 이동 단말이나 PDA와 같은 모바일 단말기들, 원격 컴퓨터들 또는 다른 외부의 지능형 플라워 로봇과 접속하여 데이터를 송수신할 수 있다.As shown in FIG. 5, the intelligent flower robot is connected to an external device such as an external sensor or actuator through a home gateway or a home server 600 on a home network connected through a wired or wireless communication unit 550 of the control computer 500. In order to transmit and receive data by connecting to the device 700 or by connecting to a mobile terminal such as a mobile terminal or a PDA possessed by a remote user 900 via a wired / wireless communication network 800, remote computers, or other external intelligent flower robots. Can be.

이하, 제어용 컴퓨터(500)의 각 구성요소에 대해 보다 구체적으로 설명한다.Hereinafter, each component of the control computer 500 will be described in more detail.

먼저, 센싱 인터페이스부(510)는 환경 및 행위 센서 모듈(511), 음성 인식 모듈(512), RFID 태그 인식 모듈(513) 및 영상 인식 모듈(514)을 포함한다.First, the sensing interface unit 510 includes an environment and behavior sensor module 511, a voice recognition module 512, an RFID tag recognition module 513, and an image recognition module 514.

환경 및 행위 센서 모듈(511)은 줄기부(200)의 마디(210, 220, 230, 240)에 위치하는 온습도 센서(도시하지 않음), 적외선 센서(도시하지 않음), CO2 센서(도시하지 않음), 조도 센서(도시하지 않음), 모션 감지 센서(도시하지 않음) 등과 같은 환경 및 행동 감지 센서로부터 입력되는 센싱 신호를 수신하여 처리한 후 이벤트 처리부(530)에서 인식할 수 있는 데이터로 변환하여 출력한다.The environmental and behavior sensor module 511 includes a temperature and humidity sensor (not shown), an infrared sensor (not shown), and a CO 2 sensor (not shown) located at the nodes 210, 220, 230, and 240 of the stem 200. And sensing signals input from environment and behavior detection sensors such as an illuminance sensor (not shown), motion detection sensor (not shown), and the like are converted into data recognizable by the event processor 530. To print.

음성 인식 모듈(512)은 꽃봉우리(110)에 장착되어 있는 마이크로폰(115)으로부터 입력되는 이용자의 음성에 해당하는 이용자를 인식하여 대응되는 이용자의 정보를 출력하고, 또한 수신된 음성을 이벤트 처리부(530)에서 인식할 수 있는 데이터로 변환하여 출력한다.The voice recognition module 512 recognizes a user corresponding to the user's voice input from the microphone 115 mounted on the flower bud 110 and outputs the corresponding user's information. The data is converted into data recognizable at 530 and output.

RFID 태그 인식 모듈(513)은 뿌리부(400)에 장착된 RFID 리더(440)를 통해 수신되는 RFID 태그 정보를 수신하여 대응되는 이용자의 정보를 출력한다.The RFID tag recognition module 513 receives RFID tag information received through the RFID reader 440 mounted to the root unit 400 and outputs corresponding user information.

영상 인식 모듈(514)은 꽃봉우리(110)에 장착된 소형 카메라(115)로부터 입력되는 영상 신호를 수신하여 대응되는 영상 데이터로 변환하여 출력한다. 또한, 영상 인식 모듈(514)은 영상 데이터를 통해 이용자를 인식하여 대응되는 이용자의 정보를 출력한다.The image recognition module 514 receives an image signal input from the small camera 115 mounted on the bud 110, converts the image signal into corresponding image data, and outputs the corresponding image data. In addition, the image recognition module 514 recognizes the user through the image data and outputs corresponding user information.

다음, 데이터베이스부(520)는 영상 저장 데이터베이스(521), 개인 정보 데이터베이스(522) 및 시스템 지원 데이터베이스(523)를 포함한다.Next, the database unit 520 includes an image storage database 521, a personal information database 522, and a system support database 523.

영상 저장 데이터베이스(521)는 센싱 인터페이스부(510)의 영상 인식 모듈(514)로부터 출력되는 영상 데이터를 일시적 또는 반영구적으로 저장하기 위한 데이터베이스이다.The image storage database 521 is a database for temporarily or semi-permanently storing image data output from the image recognition module 514 of the sensing interface unit 510.

개인 정보 데이터베이스(522)는 이용자 개인의 정보를 저장한다. 이러한 개인의 정보에는 특정 이용자의 프로필이나 선호 사항들이 해당된다.The personal information database 522 stores information of a user individual. Such personal information may include a particular user's profile or preferences.

시스템 지원 데이터베이스(523)는 센싱 인터페이스부(510)에서 출력되는 데이터를 통해 이벤트 처리부(530)에 의해 파악된 지능형 플라워 로봇 주변의 실시간 상황이나 이에 대응한 동작 등을 기록하거나 지능형 플라워 로봇 전체의 작동을 위 해 필요한 데이터의 출납을 매개한다.The system support database 523 records the real-time situation around the intelligent flower robot detected by the event processing unit 530 or the action corresponding thereto through the data output from the sensing interface unit 510, or operates the entire intelligent flower robot. Mediate the withdrawal of necessary data for this purpose.

다음, 이벤트 처리부(530)는 상황 인지 모듈(531) 및 이벤트 관리 의사 결정 모듈(532)을 포함한다.Next, the event processor 530 includes a situation recognition module 531 and an event management decision module 532.

상황 인지 모듈(531)은 센싱 인터페이스부(510)로부터 출력되는 데이터를 토대로 이미 확립된 상황 인지 모델을 기반으로 지능형 플라워 주변의 상황을 추론하거나, 상황 인지 모델에 설정되어 있지 않은 미지의 상황 데이터 입력시는 유무선 통신부(550)를 통해 외부의 온라인 상식 데이터베이스에 접속하여 상식에 기반한 상황 및 이에 대응되는 상식적 행동 패턴을 추출한다.The context awareness module 531 infers a situation around the intelligent flower based on the already established context awareness model based on the data output from the sensing interface 510, or inputs unknown context data not set in the context awareness model. The city accesses an external online common sense database through the wired / wireless communication unit 550 and extracts a situation based on common sense and a common sense behavior pattern corresponding thereto.

이벤트 관리 의사 결정 모듈(532)은 리모컨이나 음성을 통해 입력되는 이용자의 직접적인 제어 명령이나 센싱 인터페이스부(510)를 통해 전달되는 이용자의 직접 제어 명령을 처리하거나 또는 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정한다.The event management decision module 532 processes a user's direct control command input through a remote controller or a voice or a user's direct control command transmitted through the sensing interface unit 510, or an operation doctor must perform an intelligent flower robot. Determine.

이벤트 관리 의사 결정 모듈(532)에는 새로운 이벤트와 이에 상응하는 동작들을 추가적으로 등록하거나 기존의 이벤트나 대응 동작들에 대한 수정 또는 삭제가 가능하도록 하는 관리자를 위한 별도의 이용자 인터페이스가 부가적으로 설치될 수 있다.The event management decision module 532 may additionally install a separate user interface for an administrator to additionally register new events and corresponding actions or to modify or delete existing events or corresponding actions. have.

다음, 동작 처리부(540)는 모션 등록 모듈(541), 모션 재생 모듈(542), 모션 제어 모듈(543), 색채 제어 모듈(544), 대화 내용 생성 모듈(545) 및 음성 합성 모듈(546)을 포함한다.Next, the motion processor 540 may include a motion registration module 541, a motion reproduction module 542, a motion control module 543, a color control module 544, a dialogue content generation module 545, and a speech synthesis module 546. It includes.

모션 등록 모듈(541)은 이용자에 의해 지능형 플라워 로봇이 특정 동작을 표 현하기 위한 모양을 잡은 정지 상태에서 꽃봉우리부(100), 줄기부(200) 및 뿌리부(400)에 장착된 각 모터들의 회전 각도를 확인하여 해당하는 모션으로 등록한다. 이 때, 모션 등록 모듈(541)이 등록하는 모션 관련 데이터들은 모션 등록 모듈(541) 내에 저장하여도 좋으며, 별도로 데이터베이스부(520)의 시스템 지원 데이터 베이스(523) 내에 저장하여도 좋다.Motion registration module 541 is each motor mounted to the bud portion 100, stem 200 and root 400 in a stationary state in which the intelligent flower robot is shaped by the user to express a specific motion Check the rotation angle of the motor and register it with the corresponding motion. In this case, motion-related data registered by the motion registration module 541 may be stored in the motion registration module 541 or may be separately stored in the system support database 523 of the database unit 520.

모션 재생 모듈(542)은 모션 등록 모듈(541)에 의해 등록된 모션 관련 데이터에 기초하여 꽃봉우리부(100), 줄기부(200) 및 뿌리부(400)에 장착된 각 모터들의 회전 각도를 구동하여 이미 등록된 하나의 모션 또는 몇 개의 모션을 연속적으로 재생한다. 모션 등록 모듈(541)에 의해 등록된 모션 중 기본 자세로는 파킹(parking) 자세, 기립 자세 등이 있으며, 모션 재생 모듈(542)은 특정 모션의 완료시 일정 시간이 지난 후 기본 자세로 자동 복귀하는 동작, 전원이 꺼지거나 시스템의 동작 중단을 요할 시 파킹 자세로 변환시키거나 반대로 구동 초기화를 위해 파킹 자세에서 곧바로 세워진 기립 자세로 전환시키는 등의 동작 등을 관장한다.The motion reproduction module 542 adjusts the rotation angles of the motors mounted on the bud 100, the stem 200, and the root 400 based on the motion-related data registered by the motion registration module 541. Drive to continuously play one motion or several motions already registered. The basic postures among the motions registered by the motion registration module 541 include a parking posture, a standing posture, and the like. The motion reproducing module 542 automatically returns to the basic posture after a certain time when the specific motion is completed. It is responsible for the operation such as switching to a parking posture when the power is turned off or when the system needs to be stopped or vice versa.

여기서, 파킹 자세는 다수의 마디(210, 220, 230, 240)로 구성된 줄기부(200)가 꽃봉우리부(100)를 이고 있는 방식으로 서있는 자세를 유지해야 하는 구조적 불안정성과 장시간 서 있거나 필요한 동작을 반복해야 하는 데서 오는 오동작 또는 모터들의 전기/기계적 피로를 저감하기 위하여 일정한 시간 내에 이용자가 감지되지 않거나 특정 동작 종료 후 일정 시간이 지나면 자동으로 모터들에 가장 무리가 가지 않도록 하는 자세를 말한다.Here, the parking posture is a structural instability to maintain a standing posture in a manner in which the stem 200 consisting of a plurality of nodes 210, 220, 230, and 240 is holding the bud 100, and a standing or necessary operation for a long time. In order to reduce the malfunction or electric / mechanical fatigue of the motors that must be repeated, the user is not sensed within a certain time or a certain time after the end of a specific operation is a posture to automatically avoid the most unreasonable to the motors.

한편, 모션 등록 모듈(541)은 이용자에 의해 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)의 위치가 조정되어 전체 형상이 구축되면 각 부위별 모터들의 회전 각도들을 한꺼번에 읽어서 해당 자세에 대응되는 데이터로 저장하여 모션 등록을 한 후, 모션 재생 모듈(542)이 모션 등록된 해당 데이터에 따라 각 모터들의 회전 각도를 재현함으로써 해당 자세를 재생할 수 있도록 하는 일종의 동작 기억(Kinetic Memory) 방식을 사용한다.On the other hand, the motion registration module 541, the position of the bud 100, the stem 200, the branch 300 and the root portion 400 is adjusted by the user to form the overall shape of the motor for each part Reads the rotation angles at once and saves the data corresponding to the posture and registers the motion. Then, the motion reproducing module 542 reproduces the rotation angle of each motor according to the motion registered data so that the posture can be reproduced. It uses a kind of Kinetic Memory.

색채 제어 모듈(544)은 이용자에 의해 특정 상황에 대응되도록 꽃봉우리부(100) 및 줄기부(200)에 장착된 LED들 또는 색광원들의 색채 및 점멸 패턴을 등록하거나 또는 이벤트 처리부(530)의 이벤트 관리 의사 결정 모듈(532)의 결정에 의해 등록된 색채 및 점멸 패턴들 중 특정 패턴으로 LED들 또는 색광원들을 재생하기 위한 제어를 수행한다. 이 때, 색채 제어 모듈(544)이 등록하는 색채 및 점멸 패턴들은 색채 제어 모듈(544) 내에 저장하여도 좋으며, 별도로 데이터베이스부(520)의 시스템 지원 데이터 베이스(523) 내에 저장하여도 좋다.The color control module 544 registers the color and blink patterns of the LEDs or the color light sources mounted on the bud 100 and the stem 200 to correspond to a specific situation by the user, or the event processor 530. The control for reproducing the LEDs or the color light sources with a specific pattern among the color and blink patterns registered by the decision of the event management decision module 532 is performed. In this case, the color and blink patterns registered by the color control module 544 may be stored in the color control module 544, or may be separately stored in the system support database 523 of the database unit 520.

대화 내용 생성 모듈(545)은 센싱 인터페이스부(510)를 통해 확인된 이용자의 정보에 대응하는 대화 패턴을 사용하여 이용자에 대한 대화 내용을 생성한다. 예를 들어, 센싱 인터페이스부(510)를 통해 확인된 이용자가 아동이나 어른 혹은 노인인 지에 따라 존대어법과 반만을 적절히 구사한다든지, 특정 개인의 이름을 불러준다든지, 또는 남성과 여성의 직업적 차이 등을 고려하여 대화의 내용을 달리 구사하도록 하는 대화 패턴이 사용된다. 이와 같이, 대화 내용 생성 모듈(545)은 데이터베이스와 연동하여 일련의 지능형 대화를 가능하게 하는 내부적인 법칙들을 포함한다. 이러한 데이터베이스는 대화 내용 생성 모듈(545) 내에 있어도 좋고, 별도로 데이터베이스부(520)의 시스템 지원 데이터 베이스(523) 내에 있어도 좋다.The conversation content generation module 545 generates a conversation content for the user by using a conversation pattern corresponding to the information of the user identified through the sensing interface unit 510. For example, depending on whether the user identified through the sensing interface unit 510 is a child, an adult, or an elderly person, he or she speaks the language and class appropriately, calls the name of a specific individual, or a professional difference between a man and a woman. In consideration of this, a conversation pattern is used to make the content of the conversation different. As such, the dialogue content generation module 545 includes internal laws that enable a series of intelligent dialogues in conjunction with a database. Such a database may be in the conversation contents generating module 545 or may be separately in the system support database 523 of the database unit 520.

음성 합성 모듈(546)은 대화 내용 생성 모듈(545)에 의해 생성된 대화 내용을 음성으로 재생하여 뿌리부(400)에 장착된 스피커(450)를 통해 외부로 음성 출력한다.The speech synthesis module 546 reproduces the dialogue content generated by the dialogue content generating module 545 as a voice and outputs the voice to the outside through the speaker 450 mounted at the root 400.

이하, 도면을 참고하여 본 발명의 실시예에 따른 지능형 플라워 로봇의 각종 동작을 제어하기 위한 제어 방법에 대해 설명한다.Hereinafter, a control method for controlling various operations of an intelligent flower robot according to an embodiment of the present invention will be described with reference to the drawings.

기본적으로 지능형 플라워 로봇의 뿌리부(400)에 장착된 제어용 컴퓨터(500)의 제어에 따라 꽃봉우리부(100), 줄기부(200) 및 뿌리부(400)에 장착된 각종의 모터들, 센서들, LED들을 포함한 기타 구성요소들이 동작하여 결과적으로 지능형 플라워 로봇이 동작하게 된다. 그리고, 제어용 컴퓨터(500)는 각종의 센서들을 포함한 입력 장치들을 통해 입력되는 정보에 기초하여 지능형 플라워 로봇의 동작을 제어한다.Basically, according to the control of the control computer 500 mounted on the root 400 of the intelligent flower robot, various motors and sensors mounted on the bud 100, the stem 200, and the root 400. And other components, including LEDs, result in an intelligent flower robot. In addition, the control computer 500 controls the operation of the intelligent flower robot based on information input through input devices including various sensors.

본 발명의 실시예에 따른 지능형 플라워 로봇은 다양한 꽃들 중 특정 꽃모양을 모사한 로봇 시스템으로 꽃의 색깔과 그 점멸 주기를 변화시키거나, 꽃봉우리(110)를 피우거나 닫는 동작, 꽃봉우리(110)에 내재한 소형 카메라(115)를 통해 주변이나 특정 이용자의 영상이나 이미지를 실시간으로 캡처하는 동작, 꽃향기를 주변에 발산하는 동작, 줄기부(200)를 다양한 모양으로 앞뒤로 구부리는 동작, 줄기부(200)의 색채나 그 점멸 주기를 변화시키는 동작, 꽃 전체의 방향을 회전시키는 동작, 잎새(310)가 달린 가지부(300)를 자유자재로 움직여 다양한 제스처를 구사하는 동작, 마이크로폰(115)으로 입력되는 음성의 인식을 통해 이용자의 음성을 알아듣고 적절한 내용을 역시 음성으로 화답하는 지능형 대화 동작, RFID 리더(440)나 적외선 센서(도시하지 않음), 음성 인식 또는 영상 인식을 통해 특정 이용자의 접근이나 관련 개인 프로필을 파악하거나 이밖에 다양한 센서들을 통해 주변 환경 조건이나 이용자의 행동 변화를 파악하고 이에 대응하는 적절한 동작들을 통합적으로 연동시켜 구사하는 동작, 그리고 유무선 통신망(800)을 통해 외부의 컴퓨터나 센서, 액추에이터, 모바일 기기 등의 외부 기기(700)나 원격의 이용자(900) 등과 접속하여 자신이 가진 정보나 제어 명령을 전달하거나 역으로 정보나 제어 명령을 받아서 이를 표현하거나 처리하는 동작 등을 통하여 다양한 기본 기능들을 수행할 수 있다. Intelligent flower robot according to an embodiment of the present invention is a robot system that simulates a specific flower shape of a variety of flowers to change the color of the flower and its flashing cycle, smoke or close the flower buds 110, buds 110 ) Captures the image or image of the surroundings or a specific user in real time through the small camera 115 inherent in the), radiates the floral fragrance around, and bends the stem 200 back and forth in various shapes, The operation of changing the color of the base 200 or its flashing cycle, the operation of rotating the direction of the entire flower, the movement of the branches 300 with the leaves 310 freely to use a variety of gestures, the microphone 115 Intelligent conversation operation that listens to the user's voice and replies the appropriate contents by voice through the recognition of the voice inputted through), RFID reader 440 or infrared sensor (not shown), voice Identifying a specific user's access or related personal profile through expression or image recognition, or using various sensors to identify surrounding environmental conditions or user's behavior change and integrate appropriate actions corresponding to them, and wired and wireless Through the communication network 800, an external computer such as an external computer, a sensor, an actuator, or a mobile device 700, or a remote user 900 is connected to the user to transmit information or control commands that the user has, or vice versa. You can perform various basic functions by receiving and expressing or processing them.

따라서, 본 발명의 실시예에서는 상기한 기본 기능들을 이용하여 수행되는 다양한 기능들에 대해 설명한다.Therefore, embodiments of the present invention describe various functions performed by using the basic functions described above.

먼저, 도 6을 참조하여 본 발명의 실시예에 따른 지능형 플라워 로봇이 모니터링 인터페이스 기능을 수행하기 위한 제어 방법에 대해 설명한다.First, a control method for performing an intelligent flower robot according to an embodiment of the present invention by monitoring interface function will be described with reference to FIG. 6.

뿌리부(400)에 장착된 제어용 컴퓨터(500)는 각종 센서들로부터 입력되는 센싱 신호를 센싱 인터페이스부(510)를 통해 수신한다(S600).The control computer 500 mounted on the root 400 receives a sensing signal input from various sensors through the sensing interface 510 (S600).

예를 들어, 줄기부(200)의 마디(210, 220, 230, 240)에 위치하는 온습도 센서(도시하지 않음)로부터 입력되는 온도 및 습도, CO2 센서(도시하지 않음)로부터 입력되는 이산화탄소 농도, 조도 센서(도시하지 않음)로부터 입력되는 조도 등과 같이 환경 및 행동 감지 센서로부터 입력되는 센싱 신호를 수신하여 이벤트 처리 부(530)에서 인식할 수 있는 데이터로 변환하여 출력한다.For example, temperature and humidity input from a temperature and humidity sensor (not shown) located at the nodes 210, 220, 230, and 240 of the stem part 200, and carbon dioxide concentrations input from a CO 2 sensor (not shown). In this case, the sensing signal input from the environment and behavior detection sensor, such as the illumination input from the illumination sensor (not shown), is converted into data recognizable by the event processor 530 and output.

다음, 제어용 컴퓨터(500)의 이벤트 처리부(530)는 센싱 인터페이스부(510)에서 출력되는 데이터에 의거하여 주변 환경 인자들의 변화를 인지하고(S610), 인지된 환경 인자들의 변화를 알려주기 위해 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정한다(S620). Next, the event processor 530 of the control computer 500 recognizes the change of the surrounding environment factors based on the data output from the sensing interface unit 510 (S610), and intelligently informs the change of the recognized environment factors. The operation decision of the flower robot to be performed is determined (S620).

그 후, 동작 처리부(540)는 이벤트 처리부(530)에 의해 결정된 동작 의사에 따라 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)를 동작시켜서 주변 환경 인자의 변화를 매우 직관적인 형식으로 실시간으로 알려준다(S630).Thereafter, the motion processor 540 operates the bud 100, the stem 200, the branch 300, and the root 400 according to the motion intention determined by the event processor 530. The change of the factor is reported in real time in a very intuitive format (S630).

보다 구체적으로, 동작 처리부(540)는 꽃봉우리부(100)에 장착된 꽃잎 구동모터(111)를 구동하여 다수의 꽃잎(120)을 오므라지게 하거나 펴지게 하여 꽃의 피고 지는 동작을 구현하거나, 줄기부(200)의 마디(210, 220, 230, 240)에 장착된 각 모터들을 구동하여 줄기부(200)를 굴절시켜서 줄기가 구부러지거나 펴지도록 하는 동작을 구현하거나, 또는 꽃봉우리부(100)에 장착된 LED 코어(130)나 줄기부(200)의 마디(210, 220, 230, 240)에 장착된 LED(도시하지 않음)를 통해 색채 및 그 점멸을 통한 표현을 하거나, 또는 꽃봉우리부(100)에 장착된 향기 발산 장치(도시하지 않음)를 통해 환경 인자의 변화를 나타내는 향기를 발산하는 등의 동작을 구현한다.More specifically, the motion processing unit 540 drives the petal drive motor 111 mounted on the bud part 100 to embark or unfold a plurality of petals 120 to implement an operation of blooming flowers, By driving the respective motors mounted on the nodes 210, 220, 230, and 240 of the stem part 200, the stem part 200 is refracted to implement an operation of bending or extending the stem, or the bud part 100. ) Through the LED (not shown) mounted on the LED core 130 or the nodes (210, 220, 230, 240) of the stem 200 mounted on the color and the expression through the flashing, or buds The fragrance releasing device (not shown) mounted in the unit 100 implements an operation such as emitting a scent indicating a change in environmental factors.

다음, 도 7을 참조하여 본 발명의 실시예에 따른 지능형 플라워 로봇이 로봇 친구(companion) 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a control method for an intelligent flower robot according to an embodiment of the present invention to perform a robot companion function will be described with reference to FIG. 7.

본 발명의 실시예에 따른 지능형 플라워 로봇은 이용자와의 정서적 유대 형 성을 위한 로봇 친구 즉, 말벗이나 친구의 역할을 수행한다. Intelligent flower robot according to an embodiment of the present invention performs the role of a robot friend, that is, a horseman or friend for emotional bonding with the user.

뿌리부(400)에 장착된 제어용 컴퓨터(500)는 각종 센서들로부터 입력되는 센싱 신호를 센싱 인터페이스부(510)를 통해 수신한다(S700).The control computer 500 mounted to the root 400 receives a sensing signal input from various sensors through the sensing interface 510 (S700).

예를 들어, 센싱 인터페이스부(510)의 FRID 태그 인식 모듈(513)은 RFID 리더(440)를 통해 주변에서 수신되는 RFID 태그 정보와 데이터베이스(520)의 개인 정보 데이터베이스(522)에 저장되어 있는 개인의 정보를 이용하여 이용자를 인식한 후 대응되는 이용자의 정보를 출력한다. 센싱 인터페이스부(510)의 영상 인식 모듈(514)은 꽃봉우리부(100)에 장착된 소형 카메라(115)로부터 입력되는 영상 신호와 데이터베이스부(520)의 개인 정보 데이터베이스(522)에 저장되어 있는 개인의 정보를 이용하여 이용자를 인식한 후 대응되는 이용자의 정보를 출력한다. 센싱 인터페이스부(510)의 음성 인식 모듈은 꽃봉우리부(100)에 장착되어 있는 마이크로폰(115)으로부터 입력되는 이용자의 음성 신호와 개인 정보 데이터베이스(522)에 저장되어 있는 개인의 정보를 이용하여 이용자를 인식한 후 데이터로 변환된 음성과 그 대응되는 이용자의 정보를 출력한다. 또는, 센싱 인터페이스부(510)의 환경 및 행위 센서 모듈(511)은 적외선 센서(도시하지 않음)를 이용하여 지능형 플라워 로봇 주변으로 접근하는 사람을 감지하여 해당 신호를 출력한다.For example, the FRID tag recognition module 513 of the sensing interface unit 510 may store the RFID tag information received in the vicinity through the RFID reader 440 and the individual stored in the personal information database 522 of the database 520. After identifying the user using the information of the information of the corresponding user is output. The image recognition module 514 of the sensing interface unit 510 is stored in the image signal input from the small camera 115 mounted on the bud 100 and the personal information database 522 of the database unit 520. After recognizing the user using the personal information, the corresponding user information is output. The voice recognition module of the sensing interface unit 510 uses a user's voice signal input from the microphone 115 mounted on the bud portion 100 and personal information stored in the personal information database 522. After recognizing the information of the voice converted to the data and the corresponding user outputs. Alternatively, the environment and behavior sensor module 511 of the sensing interface unit 510 detects a person approaching an intelligent flower robot around an infrared sensor (not shown) and outputs a corresponding signal.

다음, 제어용 컴퓨터(500)의 이벤트 처리부(530)는 센싱 인터페이스부(510)에서 출력되는 데이터에 의거하여 이용자가 접근하는 지의 여부를 확인한 후(S710), 이용자가 접근하는 것으로 확인되면 데이터베이스부(520)의 개인 정보 데이터베이스(522)에 저장되어 있는 해당 이용자의 프로필, 관심사 등의 정보를 추 출하여(S720), 추출된 이용자의 프로필, 관심사에 따라 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정한다(S730). Next, the event processing unit 530 of the control computer 500 checks whether the user is approaching based on the data output from the sensing interface unit 510 (S710), and if it is confirmed that the user is approaching the database unit ( By extracting the information of the user's profile, interests, etc. stored in the personal information database 522 of 520 (S720), according to the extracted user's profile, interests to determine the operation decision to be performed by the intelligent flower robot (S730).

그 후, 동작 처리부(540)는 이벤트 처리부(530)에 의해 결정된 동작 의사에 따라 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)를 동작시켜서 이용자에게 대응하거나 또는 대화 내용 생성 모듈(545)에 의해 생성된 지능형 대화를 음성 합성 모듈(546)을 통해 뿌리부(400)에 장착된 스피커(450)로 출력하여 이용자에게 얘기하는 동작 등을 수행한다(S740).Thereafter, the motion processor 540 operates the bud 100, the stem 200, the branch 300, and the root 400 according to the motion intention determined by the event processor 530 to the user. Corresponding or outputting the intelligent conversation generated by the dialogue content generating module 545 to the speaker 450 mounted to the root unit 400 through the voice synthesis module 546 to perform an operation of talking to the user, etc. S740).

동작 처리부(540)의 모션 재생 모듈(542)에 의해 재생되는 동작은 이용자의 프로필에 따라 줄기부(200)에 장착된 가지부(300)를 구동하여 손을 흔드는 것과 같이 이용자를 환영하는 동작이나, 꽃봉우리부(100)를 구동하여 고개를 숙여 인사하는 동작 등이 있다.The motion reproduced by the motion reproducing module 542 of the motion processor 540 may be an operation of welcoming the user, such as shaking a hand by driving the branch 300 mounted to the stem 200 according to the user's profile. , By driving the bud 100, bow and bow.

또한, 대화 내용 생성 모듈(545)에 의해 생성되는 지능형 대화 내용은 이용자의 프로필에 따라 존댓말 또는 반말로 이용자의 이름을 부르면서 인사말을 건네거나, 쇼핑이나 스포츠 등 대화의 소재나 성격을 달리하는 등의 대화 내용 등이 있다. 이 때, 동작 처리부(540)는 대화 내용에 따라, 꽃잎(120)을 구동하여 흔들거나 꽃봉우리부(100)나 줄기부(200)의 색채를 바꾸는 동작을 병행해서 대화 상대로서의 사실감을 고조시킬 수 있다.In addition, the intelligent conversation content generated by the conversation content generating module 545 may be used to give a greeting while calling the user's name in a respectful or half-word according to the user's profile, or change the material or the nature of the conversation such as shopping or sports. Conversations. At this time, the motion processing unit 540 drives the petal 120 to shake or change the color of the bud 100 or the stem 200 in accordance with the contents of the conversation to increase the realism as a conversation partner. Can be.

한편, 상기한 대화 내용에 대응되는 대화 패턴이나 동작 패턴에 관한 모션은 미리 저장되어 있으며, 관리자나 이용자에 의해 수정되거나 추가될 수 있다.Meanwhile, motions related to the conversation pattern or the operation pattern corresponding to the conversation contents are stored in advance, and may be modified or added by an administrator or a user.

또한, 지능형 플라워 로봇은 친구 기능으로써, 이벤트 처리부(530)에 미리 설정된 프로그램이나 데이터에 근거해서 이용자의 생일, 결혼 기념일, 각종 행사나 회의 및 출장 스케줄 등을 이용자 또는 가족이나 직장 동료들에게 적절한 동작이 부가된 음성으로 미리 알려주는 일종의 비서, 또는 알림이의 역할을 수행할 수 있도록 제어용 컴퓨터(500)가 동작할 수 있다.In addition, the intelligent flower robot is a friend function, and based on a program or data preset in the event processing unit 530, a user's birthday, a wedding anniversary, various events, meetings and business trip schedules, etc. are appropriate to the user or family or work colleagues. The control computer 500 may operate to perform a role of a secretary or a reminder who notifies in advance by the added voice.

또한, 제어용 컴퓨터(500)는 외부로부터 수신되는 음악에 맞추어 리듬을 파악하고 미리 정해진 알고리즘이나 즉흥적인 판단에 의해서 적절한 춤동작을 표현할 수 있도록 각 구성요소를 제어할 수 있다.In addition, the control computer 500 may control each component to grasp the rhythm according to the music received from the outside and to express the appropriate dance motion by a predetermined algorithm or an improvised judgment.

한편, 상기 단계(S700 내지 S740)는 이용자가 지능형 플라워 로봇으로부터 멀리 떨어져 이용자를 감지할 수 없을 때까지 반복 동작하여 계속적인 대화나 동작이 이루어질 수 있다.On the other hand, the steps (S700 to S740) may be repeated until the user can not detect the user far away from the intelligent flower robot can be continued conversation or operation.

다음, 도 8을 참조하여 본 발명의 실시예에 따른 지능형 플라워 로봇이 제어 인터페이스 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a control method for the intelligent flower robot according to an embodiment of the present invention to perform a control interface function will be described with reference to FIG. 8.

본 발명의 실시예에 따른 제어 인터페이스는 유비쿼터스 홈에서의 이용자 인터페이스로 동작하기 위한 기능으로, 지능형 플라워 로봇은 수동적 또는 능동적 제어 인터페이스 기능을 수행할 수 있다. 여기서, 수동적 제어 인터페이스 기능은 외부로부터 리모컨이나 음성 또는 유무선 통신망을 통해 입력되는 이용자의 적접적인 제어 명령에 따라 지능형 플라워 로봇이 대응되는 동작을 수행하는 기능이고, 능동적 제어 인터페이스 기능은 외부로부터의 명령없이 주변의 환경 인자나 이용자 행위의 변화를 토대로 지능형 플라워 로봇이 스스로 판단하여 판단 결과에 따른 동작을 수행하는 기능이다.The control interface according to the embodiment of the present invention is a function for operating as a user interface in the ubiquitous home, and the intelligent flower robot may perform a passive or active control interface function. Here, the passive control interface function is a function to perform the operation corresponding to the intelligent flower robot according to the user's direct control command input through the remote control or voice or wired / wireless communication network from the outside, the active control interface function without the command from the outside It is a function that intelligent flower robot judges itself based on the change of surrounding environmental factors or user behavior and performs the action according to the judgment result.

먼저, 수동적 제어 인터페이스 기능에 대해 설명한다.First, the passive control interface function will be described.

뿌리부(400)에 장착된 제어용 컴퓨터(500)는 리모컨이나 음성 또는 원격 제어 신호 등 외부로부터 입력되는 명령을 센싱 인터페이스부(510) 또는 유무선 통신부(550)를 통해 수신한다(S800).The control computer 500 mounted to the root unit 400 receives a command input from the outside such as a remote controller or a voice or a remote control signal through the sensing interface unit 510 or the wired / wireless communication unit 550 (S800).

예를 들어, 센싱 인터페이스부(510)의 음성 인식 모듈을 통해 꽃봉우리부(100)에 장착되어 있는 마이크로폰(115)으로부터 입력되는 이용자의 음성 명령을 수신하거나, 적외선 센서(도시하지 않음)를 통해 이용자의 리모컨을 통한 이용자의 명령을 수신하거나, 유무선 통신부(550)를 통해 연결되는 외부의 이용자로부터의 명령을 수신한다.For example, the voice command of the sensing interface unit 510 receives a user's voice command from the microphone 115 mounted on the bud 100, or through an infrared sensor (not shown). Receives a user's command through the user's remote control, or receives an command from an external user connected through the wired / wireless communication unit 550.

다음, 제어용 컴퓨터(500)의 이벤트 처리부(530)는 센싱 인터페이스부(510)나 유무선 통신부(550)를 통해 수신되는 이용자의 명령의 내용을 인지한 후(S810), 인지된 명령 내용에 대응되어 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정한다(S820). 여기서, 결정되는 동작 의사는 대부분이 지능형 플라워 로봇에 연동되어 있는 주택, 사무실 또는 기타 실내 공간에 산재한 IP 번호가 부여된 모든 단말이나 기기들을 제어하기 내용에 관한 것이다.Next, the event processing unit 530 of the control computer 500 recognizes the contents of the user's command received through the sensing interface unit 510 or the wired / wireless communication unit 550 (S810), and corresponds to the recognized command contents. The intelligent flower robot determines an operation decision to be performed (S820). Here, the operation intention determined is related to controlling all terminals or devices to which IP numbers are scattered in a house, office, or other indoor space, which are mostly linked to an intelligent flower robot.

따라서, 이벤트 처리부(530)는 상기에서 결정된 동작 의사에 따라 외부에 있는 단말이나 기기를 제어하기 위한 제어 명령을 유무선 통신부(550)를 통해 해당 단말이나 기기로 전송한다(S830).Accordingly, the event processor 530 transmits a control command for controlling the external terminal or device according to the operation intention determined above to the corresponding terminal or device through the wired / wireless communication unit 550 (S830).

이러한 수동적 제어 인터페이스 기능을 통해서, 지능형 플라워 로봇은 외부의 이용자로부터의 명령에 따라, 지능형 플라워 로봇에 연동되어 있는 오디오나 컴 퓨터를 통해 음악을 틀고 끄거나, 집안의 조명을 켜고 끄거나, 문을 닫고 잠그거나, 블라인드를 올리고 내리거나, 히터나 에어컨을 켜고 끄거나, TV나 라디오를 켜고 끄거나, 보일러를 켜고 끄거나, 보안 시스템을 켜고 끄거나 하는 등의 제어 동작을 수행할 수 있다.With this passive control interface, intelligent flower robots can turn on or off music, turn lights on or off, or control doors through audio or computers connected to intelligent flower robots according to commands from external users. You can close and lock, raise and lower the blinds, turn the heater or air conditioner on and off, turn the TV or radio on or off, turn the boiler on or off, turn the security system on or off, and more.

다음, 능동적 제어 인터페이스 기능에 대해 설명한다.Next, the active control interface function will be described.

능동적 제어 인터페이스 기능은 수동적 제어 인터페이스 기능에서 외부로부터 이용자의 명령을 수신하여 외부의 단말이나 기기들의 동작을 제어하는 대신에, 지능형 플라워 로봇에 장착된 다양한 센서들을 통해 파악된 환경 인자나 이용자 행위의 변화를 토대로 판단되는 상황에 따라 자기 스스로의 동작이나 외부의 단말이나 기기들의 동작을 제어하여야 한다.The active control interface function is a passive control interface function that receives user's command from the outside and controls the operation of external terminals or devices, and changes in environmental factors or user behaviors identified through various sensors mounted on an intelligent flower robot. Based on the situation determined based on the control of their own operation or the operation of the external terminal or device should be controlled.

따라서, 능동적 제어 인터페이스 기능에서는 앞에서 설명한 수동적 제어 인터페이스 기능 중에서 상기 단계(S800) 대신에, 뿌리부(400)에 장착된 제어용 컴퓨터(500)가 센싱 인터페이스부(510)를 통해 수신되는 센싱 신호를 수신한 후, 이벤트 처리부(530)가 수신되는 센싱 신호를 토대로 주변의 환경 인자나 이용자 행위의 변화를 인지하고, 인지된 변화에 대응되는 동작 의사, 즉 외부의 단말이나 기기를 제어하기 위한 제어 명령 내용을 결정하는 것으로 적용하면, 상기한 수동적 제어 인터페이스 기능에서의 설명을 참조하는 경우 쉽게 이해될 것이므로, 구체적인 설명은 생략한다. Accordingly, in the active control interface function, instead of the step S800 in the above-described passive control interface function, the control computer 500 mounted on the root part 400 receives the sensing signal received through the sensing interface unit 510. Afterwards, the event processor 530 recognizes a change in surrounding environmental factors or user behavior based on the received sensing signal, and controls a motion intention corresponding to the recognized change, that is, an external terminal or device. If applied to determine, since it will be easily understood when referring to the description in the above passive control interface function, the detailed description is omitted.

이러한 능동적 제어 인터페이스 기능을 통해서, 지능형 플라워 로봇은 예를 들어 실내의 온도가 높으면 에어컨을 켜서 온도를 내리고, 습도가 높으면 가습기를 켜서 습도를 낮추고, 밤이 되어 어두우면 조명등을 켜는 등 외부의 명령 없이도 외부의 단말이나 기기 등의 제어 동작을 수행할 수 있다.With this active control interface, intelligent flower robots can turn on air conditioners to reduce the temperature, for example, when the room temperature is high, reduce the humidity by turning on the humidifier when the humidity is high, and turn on the lights when it is dark at night. Control operations of an external terminal or device may be performed.

다음, 도 9를 참조하여 본 발명의 실시예에 따른 지능형 플라워 로봇이 제어 영상 캡쳐 및 침입자 감지 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a control method for an intelligent flower robot according to an embodiment of the present invention to perform a control image capture and an intruder detection function will be described with reference to FIG. 9.

뿌리부(400)에 장착된 제어용 컴퓨터(500)는 꽃봉우리부(100)에 장착된 소형 카메라(115)로부터 입력되는 영상 신호를 수신한다(S900).The control computer 500 mounted to the root 400 receives an image signal input from the small camera 115 mounted to the bud 100 (S900).

센싱 인터페이스부(510)의 영상 인식 모듈(514)은 소형 카메라(115)로부터 수신되는 영상 신호와 데이터베이스부(520)의 개인 정보 데이터베이스(522)에 저장되어 있는 개인의 정보를 이용하여 이용자 인식을 수행하는데, 이 때 영상 신호에 해당하는 이용자가 미리 등록된 이용자로 인식되는 지를 확인한다(S910).The image recognition module 514 of the sensing interface unit 510 recognizes the user by using the image signal received from the small camera 115 and the personal information stored in the personal information database 522 of the database unit 520. In this case, it is checked whether the user corresponding to the video signal is recognized as a user registered in advance (S910).

만약 해당 영상이 미리 등록되어 있는 이용자가 아니면, 이벤트 처리부(530)는 소형 카메라(115)로부터 수신되는 영상 신호를 통해 해당 이용자의 영상을 캡쳐하여 데이터베이스부(520)의 영상 저장 데이터베이스(521)에 저장한 후(S920), 외부인이 침입하였다는 침입 정보를 유무선 통신부(550)를 통해 연결되는 외부의 단말 또는 외부 기기로 전송한다(S930). If the video is not a user registered in advance, the event processing unit 530 captures the video of the user through the video signal received from the small camera 115 and stores the video in the video storage database 521 of the database unit 520. After storing (S920), the intrusion information that an outsider invades is transmitted to an external terminal or an external device connected through the wired / wireless communication unit 550 (S930).

동시에, 이벤트 처리부(530)는 동작 처리부(540)를 통해 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)를 구동하여 각종의 동작이나 색채 및 그 점멸 상태 변화를 나타내면서 스피커(450)를 통해 경보를 발생하는 등 침입에 대응되는 동작을 수행한다(S940).At the same time, the event processor 530 drives the bud 100, the stem 200, the branch 300, and the root 400 through the motion processor 540, and various operations or colors and blinks thereof. While displaying a change in state, an alarm is generated through the speaker 450, and an operation corresponding to intrusion is performed (S940).

한편, 원격의 권한이 주어진 이용자는 외부에서 유무선 통신부(550)를 통해 접속하여 지능형 플라워 로봇이 위치한 장소의 상황 변화를 확인하기 위하여 원격으로 제어해서 소형 카메라(115)를 원하는 각도와 방향으로 향하게 하면서 실시간으로 특정 장소의 실시간 영상을 유무선 통신망(800)을 통해 전송받을 수 있다는 것은 상기한 내용을 참조하는 경우 쉽게 이해될 것이다.On the other hand, the user given the remote authority is remotely controlled to check the situation change of the place where the intelligent flower robot is located by connecting through the wired / wireless communication unit 550 from the outside while directing the small camera 115 to the desired angle and direction. It can be easily understood that referring to the above description that the real-time image of a specific place can be transmitted through the wired / wireless communication network 800 in real time.

다음, 본 발명의 실시예에 따른 지능형 플라워 로봇이 군집 형성 및 집단 동작 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a description will be given of a control method for an intelligent flower robot according to an embodiment of the present invention to perform a group forming function and a group motion function.

꽃의 종류에 따라 다수의 동종 또는 이종으로 구성된 인접한 또는 원격의 지능형 플라워 로봇들간의 연동을 통해 일종의 지능형 플라워 로봇으로 구성된 화단 또는 정원을 형성할 수 있다. 이와 같이, 다수의 지능형 플라워 로봇들이 각자의 내부에 구성된 유무선 통신부(550)를 통해 서로 유무선으로 연결되어 또한 각자의 내부에 구성된 제어용 컴퓨터(500)를 이용하여 서로 통신함으로써 각종 제어 명령이다 데이터 등을 송수신할 수 있다는 것은 상기한 설명을 통해 충분히 이해할 수 있으므로 여기에서는 구체적인 설명을 생략한다. 한편, 모든 지능형 플라워 로봇들과 이용자의 상호 작용 뿐만 아니라 지능형 플라워 로봇들 상호간의 연계 동작 패턴도 각자의 내부에 저장되어 있으며, 각 지능형 플라워 로봇들의 특성에 따라 그 연계 동작 패턴이 자유롭게 설정되거나 변경될 수 있다.Depending on the type of flower, it is possible to form a flower bed or garden composed of a kind of intelligent flower robot through interworking between adjacent or remote intelligent flower robots composed of a plurality of homogeneous or heterogeneous species. As such, a plurality of intelligent flower robots are wired or wirelessly connected to each other via the wired / wireless communication unit 550 configured in their respective interiors, and communicate with each other using the control computer 500 configured in their respective interiors. Since it can be fully understood through the above description that transmission and reception is possible, a detailed description thereof will be omitted. On the other hand, not only the interaction of all intelligent flower robots and users, but also the interlocking motion patterns between the intelligent flower robots are stored inside each other, and the interlocking motion patterns can be freely set or changed according to the characteristics of each intelligent flower robot. Can be.

다음, 본 발명의 실시예에 따른 지능형 플라워 로봇이 주변 객체(Ambient Object) 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a control method for an intelligent flower robot according to an embodiment of the present invention to perform an ambient object function will be described.

본 발명의 실시예에 따른 지능형 플라워 로봇은 상기에서 설명한 바와 같이 특정 이용자를 인식한 후, 이미 등록된 개인의 프로필 및 선호하는 정보 리스트의 검색을 통해 특정 개인이 관심이 있다고 등록한 일기 예보, 주가 정보, 특정 지인의 건강상태 모니터링 정보, 또는 외부에 있는 아동의 안전에 대한 실시간 모니터링 정보 등을 다양한 패턴의 동작이나 색채 및 그 점멸 상태의 변화, 또는 음성을 통해 특정 이용자에게 전달하는 일종의 정보 전달용 주변형 객체의 기능을 수행할 수 있다. 상기 설명을 참조하는 경우 제어용 컴퓨터(500)가 상기 주변 객체의 기능을 수행할 수 있다는 것은 쉽게 이해될 것이므로 여기에서는 상세한 설명을 생략한다. 한편, 특정 이용자를 위한 이벤트와 동작의 매핑은 프로그래밍 가능한 형식으로 구축되어 있어서 언제든지 리모컨이나 컴퓨터 상의 인터페이스를 통해 수정, 삭제 또는 추가할 수 있다.The intelligent flower robot according to an embodiment of the present invention recognizes a specific user as described above, and then, by retrieving a profile of the registered person and a list of preferred information, the weather forecast and stock price information registered as interested by the specific individual. A kind of information delivery system that delivers health monitoring information of specific acquaintances, or real-time monitoring information on the safety of children outside, to a specific user through various patterns of movement, color and blinking status, or through voice Can perform the function of a type object. When referring to the above description, it will be easily understood that the control computer 500 may perform a function of the surrounding object, and thus detailed description thereof will be omitted. On the other hand, the mapping of events and actions for a particular user is built in a programmable form, which can be modified, deleted or added at any time via the remote control or the interface on the computer.

다음, 본 발명의 실시예에 따른 지능형 플라워 로봇이 실감형 메모 전달 및 음성 커뮤니케이션 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a description will be given of a control method for an intelligent flower robot according to an embodiment of the present invention to perform a realistic memo delivery and voice communication functions.

먼저, 도 10을 참조하여 실감형 메모 전달 기능에 대해 설명한다.First, a realistic memo delivery function will be described with reference to FIG. 10.

이러한 실감형 메모 전달 기능에 대해 부모가 학교에 다니는 자녀의 귀가 후 할 일 등에 대한 메모를 음성으로 남길 경우, 귀가한 해당 자녀에게 남겨진 메모를 자동으로 재생하는 예를 들어 설명한다.For example, when a parent leaves a memo about what to do after a child's return to school, the example of the memo delivery function is automatically played.

뿌리부(400)에 장착된 제어용 컴퓨터(500)는 마이크로폰(115)을 통해 입력되는 음성, 즉 부모의 음성을 센싱 인터페이스부(510)의 음성 인식 모듈(512)을 통해 수신하고, 음성 메모 전달 명령임을 확인한 후(S1000), 음성 메모를 수신할 메모 수신자와 전달될 음성 메모를 수신한다(S1010).The control computer 500 mounted to the root unit 400 receives a voice input through the microphone 115, that is, a voice of a parent through the voice recognition module 512 of the sensing interface unit 510, and transmits a voice memo. After confirming that the command (S1000), and receives the voice memo to be delivered and the memo receiver to receive the voice memo (S1010).

이벤트 처리부(530)는 음성 인식 모듈(512)을 통해 수신되는 음성 메모를 자 체적으로 또는 개인 데이터베이스부(520)에 저장한다(S1020).The event processor 530 stores the voice memo received through the voice recognition module 512 either in itself or in the personal database unit 520 (S1020).

그 후, 이벤트 처리부(530)는 센싱 인터페이스부(510)의 RFID 태그 인식 모듈(513)을 통해 음성 메모를 수신할 메모 수신자, 상기 예에서는 자녀가 인식될 때까지 대기한다(S1030).Thereafter, the event processor 530 waits until a memo receiver, in this example, a child, to receive a voice memo through the RFID tag recognition module 513 of the sensing interface unit 510 (S1030).

만약 자녀가 귀가하여 센싱 인터페이스부(510)의 RFID 태그 인식 모듈(513)을 통해 인식되면, 이벤트 처리부(530)는 저장되어 있는 음성 메모를 동작 처리부(540)의 음성 합성 모듈(546)을 통해 스피커(450)로 음성 출력하면서, 메모의 내용 중 핵심이 되는 단어들을 근거로 모션 재생 모듈(542)과 색채 제어 모듈(544)을 통해 미리 설정되어 있는 동작과 색채 및 그 점멸 주기 변화 등을 구사하여 매우 직관적이고 실감있는 음성 메모가 전달될 수 있도록 한다(S1040).If the child returns home and is recognized through the RFID tag recognition module 513 of the sensing interface unit 510, the event processor 530 may read the stored voice memo through the voice synthesis module 546 of the operation processor 540. While outputting the voice to the speaker 450, based on the words that are the core of the contents of the memo, the motion reproducing module 542 and the color control module 544 use the preset operation, color, and change in the flashing cycle. This allows a very intuitive and realistic voice memo to be delivered (S1040).

다음, 음성 커뮤니케이션 기능에 대해 설명한다.Next, the voice communication function will be described.

이러한 음성 커뮤니케이션 기능에 대해 원격의 이용자가 지능형 플라워 로봇이 있는 장소에 함께 있는 이용자에게 전화를 거는 경우를 예로 들어 설명한다.This voice communication function is described as an example in which a remote user calls a user who is at a location with an intelligent flower robot.

이벤트 처리부(530)는 유무선 통신부(550)를 통해 외부의 단말이나 기기에서 인터넷 전화가 수신되는 경우, 이벤트 처리부(530)는 동작 처리부(540)를 통해 꽃봉우리부(100)에 설치된 소형 카메라 및 마이크로폰(115)과 뿌리부(400)에 설치된 스피커(450)를 구동하여 일종의 직관적 전화기의 역할을 대행한다. 즉, 지능형 플라워 로봇 측 이용자는 소형 카메라 및 마이크로폰(115)과 스피커(450)를 통해 음성으로 원격의 이용자와 통화할 수 있다. 이 때, When the event processing unit 530 receives an Internet phone from an external terminal or device through the wired / wireless communication unit 550, the event processing unit 530 may include a small camera installed in the flower bud unit 100 through the operation processing unit 540; It acts as a kind of intuitive telephone by driving the speaker 450 installed in the microphone 115 and the root 400. That is, the intelligent flower robot user can talk to the remote user by voice through the small camera and the microphone 115 and the speaker 450. At this time,

이벤트 처리부(530)는 전화 통화를 매개하는 중에 획득되는 핵심 통화 어휘 들에 근거해서 모션 재생 모듈(542)과 색채 제어 모듈(544)을 통해 미리 설정되어 있는 동작과 색채 및 그 점멸 주기 변화 등을 구사하여 원격의 이용자가 바로 앞에 있는 것 같은 실감형 음성 커뮤니케이션을 중재한다.The event processing unit 530 may be configured to perform operations, colors, and flashing cycles thereof, which are preset through the motion reproducing module 542 and the color control module 544 based on the core call vocabulary obtained during the medium of the phone call. Interact with tactile voice communications that seem to be right in front of the remote user.

이외에도 지능형 플라워 로봇이 다른 곳에 있는 지능형 플라워 로봇과 원격으로 연결되어 각각의 이용자들에 대한 음성 메신저로써의 기능도 수행할 수 있음은 상기 설명에 의거하는 경우 쉽게 이해될 것이다.In addition, it will be easily understood based on the above description that the intelligent flower robot can be remotely connected with the intelligent flower robot located elsewhere to perform a function as a voice messenger for each user.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

도 1은 종래의 로봇 중 하나인 "CyberFlora"를 도시한 도면으로, "CyberFlora"는 MIT 미디어랩에서 개발된 플라워 로봇 중 하나이다.1 is a view showing one of the conventional robots "CyberFlora", "CyberFlora" is one of the flower robot developed in MIT Media Lab.

도 2는 본 발명의 실시예에 따른 지능형 플라워 로봇의 구조도이다.2 is a structural diagram of an intelligent flower robot according to an embodiment of the present invention.

도 3은 도 2에 도시된 꽃봉우리부의 구체적인 구조를 도시한 도면이다.3 is a view showing a specific structure of the bud portion shown in FIG.

도 4는 도 2에 도시된 제어용 컴퓨터의 구체적인 구성을 도시한 도면이다.4 is a diagram showing a specific configuration of the control computer shown in FIG.

도 5는 본 발명의 실시예에 따른 지능형 플라워 로봇이 유무선 통신망을 통해 외부의 단말이나 기기와 연결되는 예를 도시한 도면이다.5 is a diagram illustrating an example in which an intelligent flower robot according to an embodiment of the present invention is connected to an external terminal or device through a wired or wireless communication network.

도 6은 본 발명의 실시예에 따른 지능형 플라워 로봇이 모니터링 인터페이스 기능을 수행하기 위한 제어 방법의 흐름도이다.6 is a flowchart of a control method for an intelligent flower robot according to an embodiment of the present invention to perform a monitoring interface function.

도 7은 본 발명의 실시예에 따른 지능형 플라워 로봇이 로봇 친구(companion) 기능을 수행하기 위한 제어 방법의 흐름도이다.7 is a flowchart illustrating a control method for performing an intelligent flower robot according to an embodiment of the present invention.

도 8은 본 발명의 실시예에 따른 지능형 플라워 로봇이 제어 인터페이스 기능을 수행하기 위한 제어 방법의 흐름도이다.8 is a flowchart of a control method for an intelligent flower robot according to an embodiment of the present invention to perform a control interface function.

도 9는 본 발명의 실시예에 따른 지능형 플라워 로봇이 제어 영상 캡쳐 및 침입자 감지 기능을 수행하기 위한 제어 방법의 흐름도이다.9 is a flowchart illustrating a control method for performing an intelligent flower robot according to an embodiment of the present invention to perform control image capture and intruder detection.

도 10은 본 발명의 실시예에 따른 지능형 플라워 로봇이 실감형 메모 전달 기능을 수행하기 위한 제어 방법의 흐름도이다.10 is a flowchart illustrating a control method for performing an intelligent memo transfer function by an intelligent flower robot according to an exemplary embodiment of the present invention.

Claims (25)

꽃의 형상을 하고 있는 지능형 플라워 로봇에 있어서,In the intelligent flower robot in the shape of a flower, 꽃봉우리를 중심으로 꽃이 피고 지는 형태의 움직임이 가능한 다수의 꽃잎을 포함하는 꽃봉우리부;Bud including a plurality of petals capable of movement in the form of flowering around the bud; 수직으로 배열된 다수의 마디-여기서 다수의 마디는 서로 굴절이 가능하도록 연결되어 있음-를 포함하며, 상단부의 마디 상에 상기 꽃봉우리부가 고개를 숙이고 드는 움직임이 가능하도록 상기 꽃봉우리부를 지지하며, 상기 마디에 사람의 팔을 흔드는 형상으로 움직임이 가능하도록 장착되는 가지부를 포함하는 줄기부; 및A plurality of nodes arranged vertically, wherein the plurality of nodes are connected to each other so as to be refracted to each other, and supporting the buds on the nodes of the upper end to allow the buds to bow down; A stem part including a branch part mounted on the node to be movable in a shape of shaking a human arm; And 상기 줄기부가 좌우로 회전이 가능하도록 장착하며, 상기 꽃봉우리부 및 줄기부가 다수의 형태로 동작하도록 상기 꽃봉우리부 및 줄기부를 제어하는 제어용 컴퓨터를 포함하는 뿌리부를 포함하며,The stem portion is mounted to be rotatable from side to side, and includes a root portion including a control computer for controlling the bud portion and stem portion so that the bud portion and the stem portion to operate in a plurality of forms, 상기 꽃봉우리부, 줄기부 및 뿌리부는 외부로부터 환경 인자 및 이용자의 행위 내용을 감지하는 다수의 센서를 포함하고, The bud, stem and root portion includes a plurality of sensors for sensing the environmental factors and the user's behavior from the outside, 상기 제어용 컴퓨터는 상기 다수의 센서 또는 외부의 유무선 네트워크를 통해 외부의 단말이나 기기들을 통해 입력되는 명령 또는 상기 다수의 센서를 통해 감지되는 환경 인자의 변화 또는 이용자의 행위 내용에 기초하여 상기 꽃봉우리부, 줄기부 및 뿌리부의 동작을 제어하며,The control computer may include the buds based on a command input through an external terminal or devices through the plurality of sensors or external wired / wireless networks, a change in environmental factors detected by the plurality of sensors, or a user's behavior. Controls the stem and roots, 상기 뿌리부는 상기 줄기부의 하단부의 마디와 연결되어 상기 꽃봉우리부, 줄기부 및 가지부 전체의 하중을 지탱하는 플레이트; 및The root portion is connected to the node of the lower end of the stem portion to support the load of the bud, stem portion and the whole branch portion; And 상기 플레이트를 통해 상기 줄기부의 마디에 연결되어 상기 줄기부, 꽃봉우리부 및 가지부를 좌우로 회전시키는 꽃 전체 회전 모터를 포함하는 지능형 플라워 로봇.Intelligent flower robot comprising a full flower rotation motor connected to the stem portion of the stem through the plate to rotate the stem portion, bud and branch portion left and right. 제1항에 있어서,The method of claim 1, 상기 꽃봉우리부 및 줄기부는 색채 표현이 가능한 다수의 LED 또는 색광원을 포함하며, 상기 제어용 컴퓨터의 제어에 따라 다수의 색채 및 그 점멸 상태의 표현을 수행하는 것을 특징으로 하는 지능형 플라워 로봇.The bud portion and the stem portion includes a plurality of LEDs or color light sources capable of expressing colors, and intelligent flower robot, characterized in that for performing the expression of a plurality of colors and its flashing state under the control of the control computer. 제2항에 있어서,The method of claim 2, 상기 다수의 꽃잎은 상기 꽃봉우리의 측면에 다단으로 구성되고,The plurality of petals is composed of multiple stages on the side of the bud, 상기 다수의 꽃잎은 꽃잎 구동모터의 구동력을 상기 다수의 꽃잎으로 전달하는 커넥팅 로드에 접속되며,The plurality of petals are connected to a connecting rod for transmitting the driving force of the petal drive motor to the plurality of petals, 상기 꽃잎 구동모터의 구동에 의해 상기 다수의 꽃잎이 오므라지고 펴지는 동작을 수행하며,The petal drive is driven by the drive of the petal drive motor to perform the operation of expanding and spreading, 상기 다수의 꽃잎은 아랫단에서 윗단으로 순차적으로 피고 지는 형태의 움직임이 가능한The plurality of petals are possible to move in the form of blooming sequentially from the bottom to the top 것을 특징으로 하는 지능형 플라워 로봇.Intelligent flower robot, characterized in that. 제3항에 있어서,The method of claim 3, 상기 다수의 센서는 상기 꽃봉우리부에 장착되어 외부의 영상과 소리를 입력받을 수 있는 소형 카메라, 마이크로폰 및 상기 꽃잎이 꽃이 펴 있는 상태로 펴졌을 때 주변에 향기를 발산할 수 있는 향기 발산 장치를 포함하는 것을 특징으로 하는 지능형 플라워 로봇.The plurality of sensors are mounted on the flower buds, a small camera, a microphone capable of receiving an external image and sound, and a fragrance emanation device capable of emitting fragrances around the flower when the petals are unfolded. Intelligent flower robot comprising a. 제4항에 있어서,5. The method of claim 4, 상기 다수의 마디는 상기 꽃봉우리부가 구부러지고 펴지도록 구동하는 모터, 상기 가지부가 상하좌우로 흔들리도록 구동하는 모터, 상기 다수의 마디를 굴절 구동하는 모터를 포함하는 것을 특징으로 하는 지능형 플라워 로봇.The plurality of nodes includes a motor for driving the flower buds to bend and spread, a motor for driving the branches to swing up, down, left and right, and a motor for refractive drive the plurality of nodes. 제5항에 있어서,The method of claim 5, 상기 다수의 센서는 상기 줄기부에 장착되어 외부의 온습도를 감지하는 온습도 센서, 외부의 이산화탄소의 농도를 감지하는 CO2 센서, 외부의 조도를 측정하는 조도 센서, 외부 리모컨의 입력이나 이용자의 접근을 감지하는 적외선 센서를 포함하는 환경 센서 및 이용자의 행동과 상황을 감지하는 행동 감지 센서를 포함하는 것을 특징으로 하는 지능형 플라워 로봇.The plurality of sensors are mounted on the stem portion, the temperature and humidity sensor for detecting the external temperature and humidity, the CO 2 sensor for detecting the concentration of carbon dioxide outside, the illumination sensor for measuring the external illumination, the input of the external remote control or the user's access Intelligent flower robot comprising an environmental sensor including an infrared sensor for detecting and a behavior detecting sensor for detecting a user's behavior and situation. 삭제delete 제6항에 있어서,The method of claim 6, 상기 다수의 센서는 상기 뿌리부에 장착되어 외부의 RFID 태그를 인식할 수 있는 RFID 안테나가 포함된 RFID 리더를 포함하며,The plurality of sensors includes an RFID reader including an RFID antenna mounted on the root portion to recognize an external RFID tag. 상기 뿌리부에는 상기 제어용 컴퓨터의 제어에 의해 음성을 외부로 출력하는 스피커가 장착되어 있는The root portion is equipped with a speaker for outputting the voice to the outside under the control of the control computer 것을 특징으로 하는 지능형 플라워 로봇.Intelligent flower robot, characterized in that. 제8항에 있어서,The method of claim 8, 상기 제어용 컴퓨터는,The control computer, 상기 다수의 센서를 통해 입력되는 신호를 처리한 후 상황 인지를 위한 데이터로 변환하여 출력하는 센싱 인터페이스부;A sensing interface unit for processing signals input through the plurality of sensors and converting the signals into data for situation recognition; 상기 센싱 인터페이스부에서 출력되는 데이터를 저장하고, 이용자들의 정보를 저장하며, 상기 센싱 인터페이스부로부터 출력되는 데이터에 대응되는 동작에 필요한 데이터와 수행된 동작들 및 그 결과를 저장하는 데이터베이스부;A database unit which stores data output from the sensing interface unit, stores information of users, and stores data necessary for an operation corresponding to data output from the sensing interface unit, operations performed and a result thereof; 상기 센싱 인터페이스부로부터 출력되는 데이터에 기초하여 상기 지능형 플라워 로봇 주변의 상황을 인지하고, 인지된 상황을 기반으로 수행되어야 하는 동작 의사를 결정하는 이벤트 처리부;An event processor configured to recognize a situation around the intelligent flower robot based on data output from the sensing interface unit, and determine an operation intention to be performed based on the recognized situation; 상기 이벤트 처리부에 의해 결정된 동작 의사에 따라 상기 데이터베이스에 저장되어 있는 데이터에 기초하여 상기 지능형 플라워 로봇의 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 구동하는 동작 처리부; 및 An operation processor for driving the bud, stem, branch and root of the intelligent flower robot based on the data stored in the database according to the operation intention determined by the event processor; And 상기 이벤트 처리부가 외부의 유무선 통신망과 연결되어 원격의 기기나 이용자와 데이터 및 제어 명령을 송수신하도록 매개하는 유무선 통신부Wired and wireless communication unit for the event processing unit is connected to an external wired and wireless communication network to transmit and receive data and control commands with a remote device or user 를 포함하는 지능형 플라워 로봇.Intelligent flower robot containing a. 제9항에 있어서,10. The method of claim 9, 상기 센싱 인터페이스부는,The sensing interface unit, 상기 다수의 센서를 통해 환경 인자 및 이용자의 행위 감지 신호를 수신하여 출력하는 환경 및 행위 센서 모듈;An environment and behavior sensor module for receiving and outputting environmental factors and user's behavior detection signals through the plurality of sensors; 상기 마이크로폰으로부터 입력되는 이용자의 음성을 수신하여 출력하며, 상기 데이터베이스부를 이용하여 상기 음성에 해당하는 이용자를 인식하는 음성 인식 모듈;A voice recognition module that receives and outputs a voice of a user input from the microphone, and recognizes a user corresponding to the voice by using the database unit; 상기 RFID 리더를 통해 수신되는 RFID 태그 정보를 수신하여 대응되는 이용자의 정보를 출력하는 RFID 태그 인식 모듈; 및An RFID tag recognition module that receives RFID tag information received through the RFID reader and outputs corresponding user information; And 상기 소형 카메라로부터 입력되는 영상 신호를 수신하여 대응되는 영상 데이터로 출력하며, 상기 데이터베이스부를 이용하여 상기 영상 신호에 대응되는 이용자나 상황을 인식하는 영상 인식 모듈An image recognition module that receives an image signal input from the small camera and outputs it as corresponding image data, and recognizes a user or a situation corresponding to the image signal by using the database unit. 을 포함하는 지능형 플라워 로봇.Intelligent flower robot that includes. 제10항에 있어서,The method of claim 10, 상기 이벤트 처리부는,The event processing unit, 상기 센싱 인터페이스부로부터 출력되는 데이터를 토대로 이미 확립되어 있는 상황 인지 모델을 기반으로 상기 지능형 플라워 로봇 주변의 상황을 인식하는 상황 인지 모듈; 및A situation recognition module for recognizing a situation around the intelligent flower robot based on a situation recognition model already established based on data output from the sensing interface unit; And 상기 리모컨이나 음성을 통해 입력되는 이용자의 직접적인 제어 명령이나 상기 상황 인지 모듈에 의해 파악된 상황을 기반으로 상기 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정하는 이벤트 관리 의사 결정 모듈An event management decision module for determining an operation decision to be performed by the intelligent flower robot based on a user's direct control command input through the remote controller or voice or a situation identified by the situation recognition module. 을 포함하는 지능형 플라워 로봇.Intelligent flower robot that includes. 제11항에 있어서,The method of claim 11, 상기 상황 인지 모듈은 상황 인지 모델에 설정되어 있지 않은 상황 데이터 입력시, 상기 유무선 통신부를 통해 외부의 온라인 상식 데이터베이스에 접속하여 상식에 기반한 상황 및 이에 대응되는 상식적 행동 패턴을 추출하는 것을 특징으로 하는 지능형 플라워 로봇.The contextual awareness module extracts a situation based on common sense and common sense behavior patterns by accessing an external online common sense database through the wired / wireless communication unit when context data is not set in the context awareness model. Flower robot. 제12항에 있어서,The method of claim 12, 상기 동착 처리부는,The fixing process unit, 상기 지능형 플라워 로봇이 취하는 동작을 설정하여 대응되는 모션으로 등록하는 모션 등록 모듈;A motion registration module for setting an action taken by the intelligent flower robot and registering it as a corresponding motion; 상기 이벤트 처리부에 의해 결정된 동작 의사에 따라 상기 모션 등록 모듈에 의해 등록된 모션을 하나 또는 둘 이상을 연속적으로 재생하는 모션 재생 모듈;A motion reproducing module for continuously reproducing one or two or more motions registered by the motion registration module in accordance with an operation intention determined by the event processing unit; 상기 이벤트 처리부에 의해 결정된 동작 의사에 따라 색채 및 그 점멸 패턴을 발생하기 위해 상기 LED들 또는 색광원을 제어하는 색채 제어 모듈; A color control module for controlling the LEDs or the color light source to generate colors and blink patterns according to the operation intention determined by the event processor; 상기 이벤트 처리부에 의해 결정된 동작 의사에 따라 상기 인식된 이용자의 개인적 특성에 따라 다르게 대화 패턴을 적용하는 대화 내용 생성 모듈; 및A conversation content generation module configured to apply a conversation pattern differently according to the recognized personal characteristics of the user according to an operation intention determined by the event processor; And 상기 대화 내용 생성 모듈에 의해 생성된 대화 내용을 음성으로 재생하여 상기 스피커를 통해 외부로 출력하는 음성 합성 모듈Speech synthesis module for reproducing the dialogue content generated by the dialogue content generating module as a voice and outputting the speech to the outside through the speaker. 을 포함하는 지능형 플라워 로봇. Intelligent flower robot that includes. 제13항에 있어서,The method of claim 13, 상기 모션 등록 모듈은, 상기 이용자에 의해 상기 지능형 플라워 로봇의 자세가 정해지는 경우, 상기 꽃봉우리부, 줄기부 및 뿌리부에 장착된 모터들의 회전 각도를 읽어서 해당 자세에 대응되는 데이터로 저장하여 모션 등록을 수행하고,When the posture of the intelligent flower robot is determined by the user, the motion registration module reads the rotation angles of the motors mounted on the bud, stem, and root parts, and stores the data as data corresponding to the posture. Registration, 상기 모션 재생 모듈은 상기 모션 등록 모듈에 의해 저장된 모터들의 회전 각도에 따라 대응되는 모터들을 위치시킴으로써 해당 자세를 구현하는 동작 기억 방식을 사용하는 것을 특징으로 하는 지능형 플라워 로봇.The motion reproduction module is an intelligent flower robot, characterized in that for using the motion memory to implement the posture by positioning the motor corresponding to the rotation angle of the motor stored by the motion registration module. 꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법에 있어서,In the method of controlling the flower robot consisting of buds, stems, branches and roots according to the shape of the flower, a) 상기 줄기부에 설치된 다수의 센서를 통해 주변의 환경에 관련된 입력을 수신하는 단계;a) receiving an input related to a surrounding environment through a plurality of sensors installed in the stem part; b) 상기 수신되는 주변의 환경에 관련된 입력에 기초하여 주변의 환경 변화를 인지하는 단계;b) recognizing a change in the surrounding environment based on an input related to the received surrounding environment; c) 상기 인지되는 주변의 환경 변화에 대응되는 동작 의사를 결정하는 단계; 및c) determining an operation intention corresponding to the recognized environmental change; And d) 상기 결정되는 동작 의사에 따라 상기 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 동작시켜 주변 환경의 변화를 알리는 단계를 포함하고,d) informing the change of the surrounding environment by operating the buds, stems, branches and roots according to the determined action intention; 상기 d) 단계에서, 외부의 기기에 연동되는 유무선 통신망을 통해 외부로부터 센서값이나 제어 명령을 전송받거나 역으로 센서값이나 제어명령을 외부 기기나 원격 이용자에게 전송하는 것을 특징으로 하는 제어 방법.In step d), the control method characterized in that for receiving a sensor value or control command from the outside through a wired or wireless communication network linked to an external device or conversely transmits the sensor value or control command to an external device or a remote user. 제15항에 있어서,The method of claim 15, 상기 a) 단계에서 상기 다수의 센서를 통한 입력은 상기 줄기부에 장착된 온습도 센서를 통해 감지되는 온습도, CO2 센서에 의해 감지되는 외부의 이산화탄소의 농도 및 조도 센서에 의해 감지되는 외부의 조도 중 하나 이상인 것을 특징으로 하는 제어 방법.The input through the plurality of sensors in the step a) of the temperature and humidity detected through the temperature and humidity sensor mounted on the stem portion, the concentration of external carbon dioxide detected by the CO 2 sensor and the external illumination sensed by the illumination sensor At least one control method. 제15항 또는 제16항에 있어서,The method according to claim 15 or 16, 상기 c) 단계에서, 상기 동작 의사는,In step c), the operation doctor, 상기 꽃봉우리부에 다단으로 부착되어 있는 다수의 꽃잎이 피고 지는 형태의 동작, 상기 줄기부를 구성하는 다수의 마디를 굴절시켜서 상기 플라워 로봇의 자세를 변환하는 동작, 상기 줄기부에 장착된 모터의 구동에 의해 상기 꽃봉우리부가 고개를 앞으로 숙이고 드는 형태의 동작, 상기 뿌리부에 장착된 모터의 구동에 의해 상기 꽃봉우리부와 줄기부 전체를 좌우 방향으로 회전시키는 형태의 동작, 상기 꽃봉우리부 및 줄기부에 장착된 다수의 LED 또는 색광원을 사용하여 색채를 변화시키고 그 점멸 패턴을 변화심키는 동작, 상기 꽃봉우리부에 장착된 향기 발산 장치를 통해 향을 발산하는 동작 중 하나 이상의 동작을 수행하도록 하는 동작 의사로 결정되는 것을 특징으로 하는 제어 방법. A plurality of petals attached to the flower buds in multiple stages, the operation of changing the attitude of the flower robot by refracting a plurality of nodes constituting the stem portion, driving of the motor mounted on the stem portion By the operation of the flower buds leaned head forward, by the drive of the motor mounted to the root portion in the form of rotating the entire bud and stem in the left and right directions, the flower buds and strings To change the color using a plurality of LEDs or color light sources mounted on the base and to change the blinking pattern, and to perform at least one of the actions of emitting fragrance through the fragrance emitting device mounted on the flower bud. The control method, characterized in that determined by the operation intention. 삭제delete 꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법에 있어서,In the method of controlling the flower robot consisting of buds, stems, branches and roots according to the shape of the flower, a) 상기 꽃봉우리부, 줄기부 및 뿌리부에 설치된 다수의 센서를 통해 주변의 이용자를 감지하기 위한 입력을 수신하는 단계;a) receiving an input for sensing a surrounding user through a plurality of sensors installed in the bud, stem and root; b) 상기 수신되는 이용자를 감지하기 위한 입력에 기초하여 주변의 이용자를 감지하는 단계;b) detecting a user in the vicinity based on an input for detecting the received user; c) 상기 감지되는 이용자의 정보를 추출하여 대응되는 동작 의사를 결정하는 단계; 및c) extracting the detected user information to determine a corresponding operation intention; And d) 상기 결정되는 동작 의사에 따라 상기 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 동작시켜 상기 이용자에 맞는 동작을 수행하는 단계를 포함하고,d) operating the buds, stems, branches and roots according to the determined operation intention to perform an operation suitable for the user, 상기 c) 단계에서, 상기 동작 의사는,In step c), the operation doctor, 상기 감지되는 이용자의 개인적 특성에 대응되는 대화 패턴을 적용하여 상기 꽃봉우리부에 장착된 마이크로폰과 상기 뿌리부에 장착된 스피커를 통한 상기 이용자와의 대화 동작, 상기 꽃봉우리부, 줄기부 및 가지부의 형태나 위치를 변화시키면서 상기 대화 패턴에 대응되는 의사를 표현하는 동작, 상기 감지되는 이용자의 음성 명령을 획득하여 이를 기반으로 색채나 자세를 바꾸거나 유무선 통신부를 통해 외부 기기나 원격의 이용자에게 전송하는 동작, 상기 꽃봉우리부 및 줄기부에 장착된 다수의 LED 또는 색광원을 사용하여 색채 및 그 점멸 패턴을 변화시키는 동작, 상기 이용자에 의해 미리 설정된 데이터에 근거해서 각종 스케줄이나 기념일을 알리는 동작, 상기 감지되는 이용자가 선택한 날씨, 주가, 원격의 이용자의 건강 상태와 같이 실시간으로 연동되는 정보를 전송 받아 이를 색채나 동작의 조합된 변화를 통해 직관적 방식으로 표현하는 동작, 상기 유무선 통신부에 연결된 외부의 단말이나 기기를 통해 전화를 수신하여 상기 꽃봉우리부에 설치된 소형 카메라, 마이크로폰 및 상기 뿌리부 설치된 스피커를 구동하여 전화기의 역할을 수행하되 원격의 이용자의 동작을 직접적으로 연동하여 모사하거나 전화 통화를 매개하는 중에 획득되는 핵심 통화 어휘들에 근거해서 그 동작과 색채 및 그 점멸 주기를 변화시켜 원격의 이용자가 바로 앞에 있는 것 같은 실감형 음성 커뮤니케이션을 중재하는 동작 중 하나 이상의 동작을 수행하도록 하는 동작 의사로 결정되는 것을 특징으로 하는 제어 방법.The dialogue operation with the user through the microphone mounted on the bud and the speaker mounted on the root part by applying a conversation pattern corresponding to the detected personal characteristics of the user, the bud part, the stem part and the branch part Expressing the intention corresponding to the conversation pattern while changing a shape or a position, acquiring a voice command of the detected user and changing a color or a posture based on the detected voice command, or transmitting the color or posture to an external device or a remote user through a wired / wireless communication unit Changing the color and its flashing pattern using a plurality of LEDs or color light sources mounted to the bud and stem portions, informing various schedules or anniversaries based on data preset by the user, and Real time, such as the weather selected by the user being detected, the stock price, or the health of the remote user. Receives information linked to the operation to express it in an intuitive manner through a combination of color or motion, receiving a call via an external terminal or device connected to the wired and wireless communication unit, a small camera, microphone installed in the bud And acting as a phone by driving the speaker installed at the root part, but based on the core call vocabularies obtained during direct interlocking with the operation of a remote user or mediating a phone call, its operation and color and its blinking period. And determine an action intention to change one or more to perform one or more of the operations of mediating a sensory voice communication as if the remote user is in front of it. 제19항에 있어서,The method of claim 19, 상기 a) 단계에서 상기 다수의 센서를 통한 입력은 상기 꽃봉우리부에 장착된 카메라 또는 마이크로폰, 상기 줄기부에 장착된 적외선 센서, 상기 뿌리부에 장착된 RFID 리더 중 하나 이상인 것을 특징으로 하는 제어 방법.The input method through the plurality of sensors in the step a) is a control method, characterized in that at least one of the camera or microphone mounted on the bud, the infrared sensor mounted on the stem portion, the RFID reader mounted on the root portion . 삭제delete 꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법에 있어서,In the method of controlling the flower robot consisting of buds, stems, branches and roots according to the shape of the flower, a) 상기 꽃봉우리부, 줄기부 또는 뿌리부에 설치된 다수의 센서를 통해 외부의 이용자로부터 명령을 수신하는 단계;a) receiving a command from an external user through a plurality of sensors installed in the bud, stem or root; b) 상기 이용자로부터 수신되는 명령을 인지하는 단계;b) recognizing a command received from the user; c) 상기 인지되는 명령에 대응되는 동작 의사를 결정하는 단계; 및c) determining an action intention corresponding to the recognized command; And d) 상기 결정되는 동작 의사에 따라 외부의 기기에 연동되는 유무선 통신망을 통해 상기 외부의 기기를 제어하는 명령을 전송하는 단계d) transmitting a command for controlling the external device through a wired or wireless communication network interlocked with the external device according to the determined operation intention; 를 포함하는 제어 방법.Control method comprising a. 제22항에 있어서,The method of claim 22, 상기 a) 단계에서 상기 다수의 센서를 통한 명령은 상기 꽃봉우리부에 장착된 마이크로폰을 통한 상기 이용자의 음성 명령, 상기 줄기부에 장착된 적외선 센서를 통한 상기 이용자에 의해 조정되는 리모컨으로부터의 명령, 상기 유무선 통신망을 통해 접속되는 원격의 이용자로부터 수신되는 원격 명령 중 하나 이상인 것을 특징으로 하는 제어 방법.In the step a), the command through the plurality of sensors is a voice command of the user through the microphone mounted on the bud, the command from the remote control adjusted by the user through the infrared sensor mounted on the stem, And at least one remote command received from a remote user connected through the wired or wireless communication network. 꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법에 있어서,In the method of controlling the flower robot consisting of buds, stems, branches and roots according to the shape of the flower, a) 상기 꽃봉우리부에 설치된 카메라를 통해 입력되는 영상을 수신하는 단계;a) receiving an image input through a camera installed in the bud portion; b) 상기 수신되는 영상에 기초하여 감지되는 이용자의 등록 여부를 확인하는 단계;b) checking whether a user is detected based on the received image; c) 상기 감지되는 이용자가 등록된 이용자가 아닌 경우, 이에 대응되는 동작 의사를 결정하는 단계; 및c) if the detected user is not a registered user, determining an operation intention corresponding thereto; And d) 상기 결정되는 동작 의사에 따라 상기 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 동작시키는 동시에, 유무선 통신망을 통해 연결되는 외부의 기기나 원격의 이용자에게 침입 사실을 알리는 단계d) operating the flower buds, stems, branches and roots according to the determined operation intention, and informing the external device or the remote user connected via the wired / wireless communication network of the intrusion fact; 를 포함하는 제어 방법.Control method comprising a. 제24항에 있어서,The method of claim 24, 상기 c) 단계에서, 상기 동작 의사는,In step c), the operation doctor, 상기 꽃봉우리부에 다단으로 부착되어 있는 다수의 꽃잎이 피고 지는 형태의 동작, 상기 줄기부를 구성하는 다수의 마디를 굴절시켜서 상기 플라워 로봇의 자세를 변환하는 동작, 상기 꽃봉우리부 및 줄기부에 장착된 다수의 LED 또는 색광원을 사용하여 색채 및 그 점멸 주기를 변화시키는 동작, 상기 꽃봉우리부, 줄기부 및 뿌리부의 굴절 또는 회전에 의해 침입자를 촬영할 수 있는 자세를 취한 후 상기 카메라를 통해 침입자의 영상을 캡쳐하여 데이터베이스에 저장하거나 원격의 이용자나 기기에 전송하는 동작, 상기 뿌리부에 장착된 스피커를 통해 경보를 발생하는 동작, 상기 외부의 기기나 원격의 이용자에게 침입 사실을 알리는 동작을 수행하도록 하는 동작 의사로 결정되는 것을 특징으로 하는 제어 방법.A plurality of petals attached to the flower buds in multiple stages, the operation of changing the posture of the flower robot by refracting a plurality of nodes constituting the stem portion, mounted on the flower buds and stems Using a plurality of LEDs or color light sources to change the color and its flashing cycle, the posture to shoot the intruder by the refraction or rotation of the bud, stem and root portion of the intruder through the camera To capture and store images in a database or transmit them to a remote user or device, generate an alarm through a speaker mounted at the root portion, and notify an external device or remote user of an intrusion. The control method, characterized in that determined by the operation intention.
KR1020080108069A 2007-10-31 2008-10-31 Smart flower robot and control method thereof KR101066999B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20070110100 2007-10-31
KR1020070110100 2007-10-31

Publications (2)

Publication Number Publication Date
KR20090045129A KR20090045129A (en) 2009-05-07
KR101066999B1 true KR101066999B1 (en) 2011-09-22

Family

ID=40855482

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080108069A KR101066999B1 (en) 2007-10-31 2008-10-31 Smart flower robot and control method thereof

Country Status (1)

Country Link
KR (1) KR101066999B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101628890B1 (en) * 2015-09-03 2016-06-09 주식회사 학표벽지 Apparatus for manufacturing embossing wallpaper
CN106178541A (en) * 2016-08-30 2016-12-07 武汉华夏理工学院 A kind of toy for children formed based on plant
WO2018151368A1 (en) * 2017-02-20 2018-08-23 엘지전자 주식회사 Modular home robot
KR20200039207A (en) * 2018-10-05 2020-04-16 이윤희 Wreath supporter

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100917857B1 (en) 2007-08-30 2009-09-18 한국생산기술연구원 Flower Robot

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100917857B1 (en) 2007-08-30 2009-09-18 한국생산기술연구원 Flower Robot

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
논문.2007.09
인터넷.2007.10.1*
인터넷.2007.10.25*

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101628890B1 (en) * 2015-09-03 2016-06-09 주식회사 학표벽지 Apparatus for manufacturing embossing wallpaper
CN106178541A (en) * 2016-08-30 2016-12-07 武汉华夏理工学院 A kind of toy for children formed based on plant
CN106178541B (en) * 2016-08-30 2022-09-16 武汉华夏理工学院 Children's toy based on plant is supported
WO2018151368A1 (en) * 2017-02-20 2018-08-23 엘지전자 주식회사 Modular home robot
US11465274B2 (en) 2017-02-20 2022-10-11 Lg Electronics Inc. Module type home robot
KR20200039207A (en) * 2018-10-05 2020-04-16 이윤희 Wreath supporter
KR102164072B1 (en) * 2018-10-05 2020-10-12 이윤희 Wreath supporter

Also Published As

Publication number Publication date
KR20090045129A (en) 2009-05-07

Similar Documents

Publication Publication Date Title
US10992491B2 (en) Smart home automation systems and methods
TWI692717B (en) Image display device, topic selection method and program
CN108390859B (en) Intelligent robot device for intercom extension
US8121653B2 (en) Methods and apparatus for autonomously managing communications using an intelligent intermediary
US8135128B2 (en) Animatronic creatures that act as intermediaries between human users and a telephone system
CN104440925B (en) A kind of pet type accompany and attend to robot and system
JP5040865B2 (en) Robot control system, remote management device, remote management method and program
JP5172049B2 (en) Robot apparatus, robot control method, and robot control program
JP6165302B1 (en) Image display device, topic selection method, topic selection program
CN108877126A (en) System, the method and apparatus of activity monitoring are carried out via house assistant
CN110139732A (en) Social robot with environmental Kuznets Curves feature
KR101066999B1 (en) Smart flower robot and control method thereof
CN109521927A (en) Robot interactive approach and equipment
US20090271812A1 (en) Method & system for sharing information through a mobile multimedia platform
JP2018014575A (en) Image display device, image display method, and image display program
CN108924612A (en) A kind of art smart television device
JP2019139170A (en) Image display device, image display method, and image display program
US11511410B2 (en) Artificial intelligence (AI) robot and control method thereof
CN206671790U (en) Smart home house keeper's central control system with learning functionality
JP6682475B2 (en) Image display device, topic selection method, topic selection program
Chang et al. ROHINI: A robotic flower system for intuitive smart home interface
JP6917294B2 (en) Watching system
JP6698428B2 (en) Network system, information processing method, and server
Kim et al. Exploration on Everyday Objects as an IoT Control Interface
CN113626349A (en) Equipment control method, device and system and equipment controller

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140915

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150909

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160907

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190916

Year of fee payment: 9