KR101066999B1 - Smart flower robot and control method thereof - Google Patents
Smart flower robot and control method thereof Download PDFInfo
- Publication number
- KR101066999B1 KR101066999B1 KR1020080108069A KR20080108069A KR101066999B1 KR 101066999 B1 KR101066999 B1 KR 101066999B1 KR 1020080108069 A KR1020080108069 A KR 1020080108069A KR 20080108069 A KR20080108069 A KR 20080108069A KR 101066999 B1 KR101066999 B1 KR 101066999B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- flower
- bud
- stem
- robot
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- A—HUMAN NECESSITIES
- A41—WEARING APPAREL
- A41G—ARTIFICIAL FLOWERS; WIGS; MASKS; FEATHERS
- A41G1/00—Artificial flowers, fruit, leaves, or trees; Garlands
- A41G1/02—Implements, apparatus, or machines for making artificial flowers, or the like
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
Abstract
본 발명은 지능형 플라워 로봇에 관한 것으로, 꽃의 형상과 같이, 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성된다. 꽃봉우리부는 꽃봉우리를 중심으로 꽃이 피고 지는 형태의 움직임이 가능한 다수의 꽃잎을 포함한다. 줄기부는 수직으로 배열된 다수의 마디를 포함하며, 마디에 사람의 팔을 흔드는 형상으로 움직임이 가능하도록 장착되는 가지부를 포함한다. 뿌리부는 줄기부가 좌우로 회전이 가능하도록 장착하며, 꽃봉우리부 및 줄기부가 다수의 형태로 동작하도록 꽃봉우리부 및 줄기부를 제어하는 제어용 컴퓨터를 포함한다. 여기서, 제어용 컴퓨터는 다수의 센서 또는 외부의 유무선 네트워크를 통해 외부의 기기나 원격 이용자들을 통해 입력되는 명령 또는 다수의 센서를 통해 감지되는 환경 인자의 변화 또는 이용자의 행위 내용에 기초하여 꽃봉우리부, 줄기부 및 뿌리부의 동작을 제어하는 것을 특징으로 한다. 본 발명에 따르면, 꽃의 형상을 본떠 만들었지만 인간의 행동과 감정 표현 방식을 통해 인간 및 환경과 교류(interaction)할 수 있도록 다양한 기술들을 결합시켜 만든 휴머노이드형 '플라워봇(flowerbot)' 즉, 인간을 닮은 꽃 로봇을 제공할 수 있다.The present invention relates to an intelligent flower robot, which is composed of flower buds, stems, branches and roots, like the shape of a flower. The bud part includes a plurality of petals capable of movement in the form of flowering and flowering around the bud. The stem includes a plurality of nodes arranged vertically, and includes a branch mounted to the node so as to be movable in a shape of shaking a human arm. The root portion is mounted to allow the stem portion to rotate left and right, and includes a control computer for controlling the bud portion and the stem portion such that the bud portion and the stem portion operate in a plurality of forms. Here, the control computer may include a bud unit based on a command input through an external device or a remote user through a plurality of sensors or an external wired / wireless network, or a change in environmental factors detected through a plurality of sensors or a user's behavior. It is characterized by controlling the operation of the stem portion and the root portion. According to the present invention, a humanoid 'flowerbot' made of a shape of a flower but combining various technologies to interact with humans and the environment through human behavior and emotion expression methods, that is, humans Can provide a flower robot that resembles
꽃 로봇, 플라워 로봇 Flower Robot, Flower Robot
Description
본 발명은 지능형 플라워 로봇에 관한 것으로, 특히 꽃을 의인화하여 사람과 대화를 하고 사람처럼 제스처를 취하며 감정을 표현할 수 있으며, 유비쿼터스 홈 또는 스마트 오피스에서의 기기 및 시설 모니터링과 다양한 서비스 제공을 위한 직관적인 이용자 인터페이스로도 동작 가능한 지능형 플라워 로봇 및 그 로봇의 제어 방법에 관한 것이다.The present invention relates to an intelligent flower robot, and in particular, anthropomorphic flowers can be used to communicate with people, make gestures and express emotions like humans, and to intuitively monitor devices and facilities in ubiquitous homes or smart offices and provide various services. An intelligent flower robot operable with an in-user interface and a control method thereof.
21세기는 로봇의 시대가 될 것으로 예측되며, 이미 전세계적으로 다양한 종류와 기능의 로봇들이 개발되고 그 중 일부는 청소 로봇이나 애완동물 로봇처럼 이미 우리들의 실생활에 투입되고 있다. 이러한 로봇들 중 인간의 모습과 행동을 모사(simulate)하는 "휴머노이드(humanoid)"는 일반인들에게 가장 친숙한 이미지의 로봇들이다. The 21st century is expected to be the era of robots, and robots of various kinds and functions have already been developed around the world, and some of them are already being put into our real life like cleaning robots and pet robots. Of these robots, the "humanoid" that simulates human appearance and behavior is the robot with the most familiar image for the general public.
최근에 와서 물고기 로봇, 곤충 로봇, 꽃 로봇 등 자연계에 존재하는 인간 이외의 생명체를 모방한 로봇들이 등장하고, 인체의 내부에 투입될 수 있는 미세한 크기의 "나노 로봇"까지 개념화되어 그 실현을 위한 연구들이 진행 중이다. Recently, robots that mimic non-human creatures in nature such as fish robots, insect robots, and flower robots have emerged, and even microscopic "nano robots" that can be put into the human body have been conceptualized for realization. Research is ongoing.
도 1은 종래의 로봇 중 하나인 "CyberFlora"를 도시한 도면으로, "CyberFlora"는 MIT 미디어랩에서 개발된 플라워 로봇 중 하나이다.1 is a view showing one of the conventional robots "CyberFlora", "CyberFlora" is one of the flower robot developed in MIT Media Lab.
이 "CyberFlora"는 동물과 같은 간단한 행동과 꽃 같은 특성이 결합되어 있는 플라워 로봇으로, 사람 손이 접근을 감지하여 동작하거나 사람 체온을 감지하여 사람 체온 방향으로 동작한다. This "CyberFlora" is a flower robot that combines simple behaviors such as animals and flower-like traits. The human hand operates by sensing approach or by sensing human body temperature.
그러나, "cyberFlora"는 사람들에게 반응하는 일종의 관상용 플라워 로봇들의 군집일 뿐 보다 다양한 기능을 수행하지 못하고 있다.However, "cyberFlora" is a cluster of ornamental flower robots that respond to people and does not perform more various functions.
한편, 최근에는 사용자가 컴퓨터나 네트워크를 의식하지 않고 장소에 상관없이 자유롭게 네트워크를 접속할 수 있는 유비쿼터스 환경을 조성하는데 모든 노력이 총동원되고 있다고 해도 과언이 아닐 정도이다. 이러한 유비쿼터스 환경이 조성되면 가정, 자동차는 물론 심지어 산꼭대기에서도 정보기술을 활용할 수 있다. On the other hand, it is no exaggeration to say that in recent years, all efforts have been made to create a ubiquitous environment in which users can freely access a network regardless of a computer or a network. When this ubiquitous environment is created, information technology can be used in homes, cars, and even on top of the mountain.
따라서, 사람들에게 단순히 반응하는 관상용으로써 뿐만이 아니라 상황에 따라 응답하면서 다양한 기능을 지능적으로 수행하고, 또한 유비쿼터스 환경, 특히 유비쿼터스 홈이나 오피스에서의 다양한 서비스를 매개하는 이용자 인터페이스로도 동작 가능한 지능형 플라워 로봇이 요구되고 있다.Therefore, an intelligent flower robot capable of intelligently performing various functions not only as a mere ornamental response to people but also responding according to the situation, and also acting as a user interface for mediating various services in a ubiquitous environment, especially ubiquitous home or office, It is required.
본 발명이 이루고자 하는 기술적 과제는, 꽃의 형상을 본떠 만들었지만 인간의 행동과 감정 표현 방식을 통해 인간 및 환경과 교류(interaction)할 수 있으며, 도한 유비쿼터스 환경에서 인간에게 친숙한 직관적인 이용자의 인터페이스로도 동작 가능한 지능형 플라워 로봇 및 그 로봇의 제어 방법을 제공하는 것이다.The technical problem to be achieved by the present invention is made after the shape of the flower, but can interact with the human and the environment through the way of expressing human behaviors and emotions, and also in the ubiquitous environment, the user-friendly intuitive user interface The present invention also provides an intelligent flower robot operable and a control method thereof.
이러한 기술적 과제를 달성하기 위한 본 발명의 하나의 특징에 따른 지능형 플라워 로봇은 꽃의 형상을 하고 있는 지능형 플라워 로봇으로서, 꽃봉우리를 중심으로 꽃이 피고 지는 형태의 움직임이 가능한 다수의 꽃잎을 포함하는 꽃봉우리부; 수직으로 배열된 다수의 마디-여기서 다수의 마디는 서로 굴절이 가능하도록 연결되어 있음-를 포함하며, 상단부의 마디 상에 상기 꽃봉우리부가 고개를 숙이고 드는 움직임이 가능하도록 상기 꽃봉우리부를 지지하며, 상기 마디에 사람의 팔을 흔드는 형상으로 움직임이 가능하도록 장착되는 가지부를 포함하는 줄기부; 및 상기 줄기부가 좌우로 회전이 가능하도록 장착하며, 상기 꽃봉우리부 및 줄기부가 다수의 형태로 동작하도록 상기 꽃봉우리부 및 줄기부를 제어하는 제어용 컴퓨터를 포함하는 뿌리부를 포함하며, 상기 꽃봉우리부, 줄기부 및 뿌리부는 외부로부터 환경 인자 및 이용자의 행위 내용을 감지하는 다수의 센서를 포함하고, 상기 제어용 컴퓨터는 상기 다수의 센서 또는 외부의 유무선 네트워크를 통해 외부의 기기나 원격 이용자들을 통해 입력되는 명령 또는 상기 다수의 센서를 통해 감지되는 환경 인자의 변화 또는 이용자의 행위 내용에 기초하여 상기 꽃봉우리부, 줄기부 및 뿌리부의 동작을 제어하는 것을 특징으로 한다.An intelligent flower robot according to one feature of the present invention for achieving the technical problem is an intelligent flower robot in the shape of a flower, including a plurality of petals capable of movement in the form of flowering around a flower bud. Buds; A plurality of nodes arranged vertically, wherein the plurality of nodes are connected to each other so as to be refracted to each other, and supporting the buds on the nodes of the upper end to allow the buds to bow down; A stem part including a branch part mounted on the node to be movable in a shape of shaking a human arm; And a root part including the stem part mounted to be rotatable from side to side, and including a control computer for controlling the bud part and the stem part to operate the bud part and the stem part in a plurality of forms, wherein the bud part, The stem portion and the root portion include a plurality of sensors for sensing environmental factors and the user's behavior from the outside, the control computer is a command input through an external device or remote users via the plurality of sensors or an external wired or wireless network Or controlling the operation of the bud, stem, and root parts based on changes in environmental factors sensed through the plurality of sensors or user behavior.
여기서, 상기 다수의 꽃잎은 상기 꽃봉우리의 측면에 다단으로 구성되고, 상기 다수의 꽃잎은 하단부에서 꽃잎 구동모터의 구동력을 상기 다수의 꽃잎으로 전달하는 커넥팅 로드에 접속되며, 상기 꽃잎 구동모터의 구동에 의해 상기 다수의 꽃잎이 실제 꽃들이 피고 지는 기제와 동일하게 아랫단에서 위단으로 오므라지고 펴는 동작을 수행하는 것을 특징으로 한다.Here, the plurality of petals are configured in multiple stages on the side of the bud, the plurality of petals are connected to the connecting rod for transmitting the driving force of the petal drive motor to the plurality of petals at the lower end, the drive of the petal drive motor By the plurality of petals is characterized in that to perform the operation of lifting and spreading from the lower end to the upper end in the same way as the actual flowers bloom.
또한, 상기 제어용 컴퓨터는, 상기 다수의 센서를 통해 입력되는 신호를 처리한 후 상황 인지를 위한 데이터로 변환하여 출력하는 센싱 인터페이스부; 상기 센싱 인터페이스부에서 출력되는 데이터를 저장하고, 이용자들의 정보를 저장하며, 상기 센싱 인터페이스부로부터 출력되는 데이터에 대응되는 동작에 필요한 데이터를 저장하는 데이터베이스부; 상기 센싱 인터페이스부로부터 출력되는 데이터에 기초하여 상기 지능형 플라워 로봇 주변의 상황을 인지하고, 리모컨이나 음성을 통해 입력되는 이용자의 직접적인 제어 명령이나 인지된 상황을 기반으로 수행되어야 하는 동작 의사를 결정하는 이벤트 처리부; 상기 이벤트 처리부에 의해 결정된 동작 의사에 따라 상기 데이터베이스에 저장되어 있는 데이터에 기초하여 상기 지능형 플라워 로봇의 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 구동하는 동작 처리부; 및 상기 이벤트 처리부가 외부의 유무선 통신망과 연결되어 데이터를 송수신하도록 매개하는 유무선 통신부를 포함한다.The control computer may further include: a sensing interface unit processing signals input through the plurality of sensors and converting the signal into data for situation recognition; A database unit for storing data output from the sensing interface unit, storing information of users, and storing data necessary for an operation corresponding to data output from the sensing interface unit; An event for recognizing a situation around the intelligent flower robot based on data output from the sensing interface unit and determining an operation intention to be performed based on a user's direct control command or a recognized situation input through a remote controller or a voice. Processing unit; An operation processor for driving the bud, stem, branch and root of the intelligent flower robot based on the data stored in the database according to the operation intention determined by the event processor; And a wired / wireless communication unit configured to connect the event processing unit to an external wired / wireless communication network to transmit and receive data.
여기서, 상기 이벤트 처리부는, 상기 센싱 인터페이스부로부터 출력되는 데이터를 토대로 이미 확립되어 있는 상황 인지 모델을 기반으로 상기 지능형 플라워 로봇 주변의 상황을 인식하는 상황 인지 모듈; 및 리모컨이나 음성을 통해 입력되는 이용자의 직접적인 제어 명령이나 상기 상황 인지 모듈에 의해 파악된 상황을 기반으로 상기 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정하는 이벤트 관리 의사 결정 모듈을 포함한다.Here, the event processing unit, the situation recognition module for recognizing the situation around the intelligent flower robot based on a situation recognition model already established based on the data output from the sensing interface unit; And an event management decision module for determining an operation decision that the intelligent flower robot should perform based on a user's direct control command input through a remote controller or voice or a situation identified by the situation recognition module.
여기서, 상기 상황 인지 모듈은 상황 인지 모델에 설정되어 있지 않은 상황 데이터 입력시, 상기 유무선 통신부를 통해 외부의 온라인 상식 데이터베이스에 접속하여 상식에 기반한 상황 및 이에 대응되는 상식적 행동 패턴을 추출하는 것을 특징으로 한다.Here, the contextual awareness module extracts a situation based on common sense and common sense behavior patterns by accessing an external online common sense database through the wired / wireless communication unit when the context data is not set in the context awareness model. do.
또한, 상기 동착 처리부는 상기 지능형 플라워 로봇이 취하는 동작을 설정하여 대응되는 모션으로 등록하는 모션 등록 모듈 및 상기 이벤트 처리부에 의해 결정된 동작 의사에 따라 상기 모션 등록 모듈에 의해 등록된 모션을 하나 또는 둘 이상을 연속적으로 재생하는 모션 재생 모듈을 포함한다.In addition, the synch processing unit may register one or more motions registered by the motion registration module according to a motion registration module configured to set an action taken by the intelligent flower robot and register the corresponding motion as a corresponding motion, and an operation intention determined by the event processor. And a motion reproducing module for reproducing continuously.
여기서, 상기 모션 등록 모듈은, 상기 이용자에 의해 상기 지능형 플라워 로봇의 자세가 정해지는 경우, 상기 꽃봉우리부, 줄기부 및 뿌리부에 장착된 모터들의 회전 각도를 읽어서 해당 자세에 대응되는 데이터로 저장하여 모션 등록을 수행하고, 상기 모션 재생 모듈은 상기 모션 등록 모듈에 의해 저장된 모터들의 회전 각도에 따라 대응되는 모터들을 위치시킴으로써 해당 자세를 구현하는 동작 기억 방식을 사용하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따른 제어 방법은,
꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법으로서, a) 상기 줄기부에 설치된 다수의 센서를 통해 주변의 환경에 관련된 입력을 수신하는 단계; b) 상기 수신되는 주변의 환경에 관련된 입력에 기초하여 주변의 환경 변화를 인지하는 단계; c) 상기 인지되는 주변의 환경 변화에 대응되는 동작 의사를 결정하는 단계; 및 d) 상기 결정되는 동작 의사에 따라 상기 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 동작시켜 주변 환경의 변화를 알리는 단계를 포함한다.
본 발명의 또 다른 특징에 따른 제어 방법은,
꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법으로서, a) 상기 꽃봉우리부, 줄기부 및 뿌리부에 설치된 다수의 센서를 통해 주변의 이용자를 감지하기 위한 입력을 수신하는 단계; b) 상기 수신되는 이용자를 감지하기 위한 입력에 기초하여 주변의 이용자를 감지하는 단계; c) 상기 감지되는 이용자의 정보를 추출하여 대응되는 동작 의사를 결정하는 단계; 및 d) 상기 결정되는 동작 의사에 따라 상기 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 동작시켜 상기 이용자에 맞는 동작을 수행하는 단계를 포함한다.
본 발명의 또 다른 특징에 따른 제어 방법은,
꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법으로서, a) 상기 꽃봉우리부, 줄기부 또는 뿌리부에 설치된 다수의 센서를 통해 외부의 이용자로부터 명령을 수신하는 단계; b) 상기 이용자로부터 수신되는 명령을 인지하는 단계; c) 상기 인지되는 명령에 대응되는 동작 의사를 결정하는 단계; 및 d) 상기 결정되는 동작 의사에 따라 외부의 기기에 연동되는 유무선 통신망을 통해 상기 외부의 기기를 제어하는 명령을 전송하는 단계를 포함한다.
본 발명의 또 다른 특징에 따른 제어 방법은,
꽃의 형상에 따라 꽃봉우리부, 줄기부, 가지부 및 뿌리부로 구성되는 플라워 로봇을 제어하는 방법으로서, a) 상기 꽃봉우리부에 설치된 카메라를 통해 입력되는 영상을 수신하는 단계; b) 상기 수신되는 영상에 기초하여 감지되는 이용자의 등록 여부를 확인하는 단계; c) 상기 감지되는 이용자가 등록된 이용자가 아닌 경우, 이에 대응되는 동작 의사를 결정하는 단계; 및 d) 상기 결정되는 동작 의사에 따라 상기 꽃봉우리부, 줄기부, 가지부 및 뿌리부를 동작시키는 동시에, 유무선 통신망을 통해 연결되는 외부의 기기나 원격의 이용자에게 침입 사실을 알리는 단계를 포함한다.Here, when the attitude of the intelligent flower robot is determined by the user, the motion registration module reads the rotation angles of the motors mounted on the bud, stem, and root parts and stores the data corresponding to the attitude. By performing the motion registration, the motion reproduction module is characterized by using a motion storage method for implementing the posture by positioning the motors corresponding to the rotation angle of the motors stored by the motion registration module.
Control method according to another embodiment of the present invention,
A method of controlling a flower robot consisting of flower buds, stems, branches and roots according to the shape of a flower, comprising the steps of: a) receiving input related to the surrounding environment through a plurality of sensors installed on the stems; b) recognizing a change in the surrounding environment based on an input related to the received surrounding environment; c) determining an operation intention corresponding to the recognized environmental change; And d) informing the change of the surrounding environment by operating the bud, stem, branch and root according to the determined operation intention.
Control method according to another aspect of the present invention,
A method of controlling a flower robot consisting of flower buds, stems, branches and roots according to the shape of a flower, comprising: a) using a plurality of sensors installed on the buds, stems and roots to Receiving an input for sensing; b) detecting a user in the vicinity based on an input for detecting the received user; c) extracting the detected user information to determine a corresponding operation intention; And d) operating the bud, stem, branch, and root according to the determined operation intention to perform an operation suitable for the user.
Control method according to another aspect of the present invention,
A method of controlling a flower robot consisting of flower buds, stems, branches and roots according to the shape of a flower, comprising: a) from an external user through a plurality of sensors installed on the buds, stems or roots; Receiving a command; b) recognizing a command received from the user; c) determining an action intention corresponding to the recognized command; And d) transmitting a command for controlling the external device through a wired / wireless communication network linked to the external device according to the determined operation intention.
Control method according to another aspect of the present invention,
A method of controlling a flower robot consisting of flower buds, stems, branches and roots according to the shape of a flower, the method comprising: a) receiving an image input through a camera installed on the flower buds; b) checking whether a user is detected based on the received image; c) if the detected user is not a registered user, determining an operation intention corresponding thereto; And d) operating the flower buds, stems, branches and roots according to the determined operation intention, and informing the external device or the remote user connected through the wired / wireless communication network of the intrusion fact.
본 발명에 따르면, 꽃의 형상을 본떠 만들었지만 인간의 행동과 감정 표현 방식을 통해 인간 및 환경과 교류(interaction)할 수 있도록 다양한 기술들을 결합시켜 만든 휴머노이드형 '플라워봇(flowerbot)' 즉, 인간을 닮은 꽃 로봇을 제공할 수 있다.According to the present invention, a humanoid 'flowerbot' made of a shape of a flower but combining various technologies to interact with humans and the environment through human behavior and emotion expression methods, that is, humans Can provide a flower robot that resembles
또한, 관상용 플라워 로봇에서 벗어나 유비쿼터스 홈이나 스마트 오피스에서의 직관적 인터페이스로도 동작 가능해진다.In addition, it can be operated as an intuitive interface in the ubiquitous home or smart office, away from the ornamental flower robot.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현할 수 있다. Throughout the specification, when a part is said to "include" a certain component, it means that it can further include other components, without excluding other components unless specifically stated otherwise. In addition, the terms “… unit”, “… unit”, “module”, etc. described in the specification mean a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software. .
이제 본 발명의 실시예에 따른 지능형 플라워 로봇에 대해 상세하게 설명한다.Now, an intelligent flower robot according to an embodiment of the present invention will be described in detail.
도 2는 본 발명의 실시예에 따른 지능형 플라워 로봇의 구조도이다.2 is a structural diagram of an intelligent flower robot according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 지능형 플라워 로봇은 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)를 포함한다.As shown in FIG. 2, the intelligent flower robot according to an embodiment of the present invention includes a
꽃봉우리부(100)는 꽃의 형상 중에서 꽃봉우리 부분에 대응되며, 꽃봉우리(110)에 부착되어 있는 다수의 꽃잎(120)을 포함하고, 꽃이 피고 지는 등의 동작 기제(mechanism)를 나타내기 위해 다수의 꽃잎(120)을 구동한다.The
꽃봉우리부(100)는 꽃잎(120)의 색깔과 깜박거림의 주기를 바꿀 수 있도록 하고, 이러한 색채 및 깜박거림의 변화를 통해 일종의 사람과 같은 감정 표현이나 빨강색으로 변하여 화재를 알리는 것처럼 색채와 연계된 특정 정보의 상태 표시가 가능하도록 한다.
꽃봉우리부(100)는 다수의 꽃잎들이 연결된 다단계의 환상형 꽃잎 지지부재들, 예를 들어 커넥팅 로드(113)가 밀려 올라가거나 내려오면서 향기 발산 장치(117)의 측면에 형성되어 있는 개구부(119)를 막거나 여는 기제를 통하여 꽃이 폈을 때 꽃향기의 주변 발산이 가능하도록 한다. 이 때, 개구부(119)가 열릴 때 향기 발산 장치(117)로부터 향기가 개구부(119)를 통해 주변으로 발산되도록 한다.The
꽃봉우리부(100)는 꽃봉우리(110)를 구부리거나 다시 세우는 구동을 행하여 꽃봉우리(110)가 사람이 고개를 숙이거나 드는 동작과 같은 기제를 나타낼 수 있다.The
도 3은 도 2에 도시된 꽃봉우리부(100)의 구체적인 구조를 도시한 도면이다.3 is a view showing a specific structure of the
도 3에 도시된 바와 같이, 꽃봉우리부(100)는 꽃봉우리(110) 및 다수의 꽃잎(120)을 포함한다.As shown in FIG. 3, the
다수의 꽃잎(120)은 꽃봉우리(110)의 구동에 의해 꽃이 지듯이 오므라지거나 꽃이 피듯이 펼쳐지도록 동작된다. 이를 위해, 다수의 꽃잎(120)은 꽃봉우리(110)의 하단부(L)부터 상단부(U)에 걸쳐 다단으로 구성되어 있으며, 꽃봉우리(110)의 구동에 의해 하단에 있는 꽃잎(120)부터 상단에 있는 꽃잎(120) 순으로 순차적으로 펴지고 또한, 하단에 있는 꽃잎(120)부터 상단에 있는 꽃잎(120) 순으로 순차적으로 오므라지는 형식으로 동작한다. 이것은 증기기관차의 바퀴를 움직이는 기제의 반대 기제를 통하거나 솔레노이드 등 그 밖의 방식을 통해서 모터의 회전 운동을 왕복 운동으로 바꾼 후 우산을 펴고 접는 기제처럼 다단으로 형성된 여러 단의 꽃잎들을 실제 꽃이 피는 경우에서 볼 수 있듯이 하단에서 상단으로 순차적으로 펼쳐지게 하여 꽃을 피우거나, 반대로 모터의 회전을 반대 방향으로 하여 여기에 연결된 축을 당김으로써 꽃잎들이 하단에서부터 순차적으로 닫히게 하는 기제를 통해 꽃이 피고지는 동작을 구현한 것이다.The plurality of
즉, 꽃봉우리부(100)는 꽃잎을 구동하기 위해 꽃봉우리(110)의 하단(L)에 위치한 꽃잎 구동모터(111) 및 꽃잎 구동모터(111)의 구동에 의해 다수의 꽃잎(120)들을 구동하는 커넥팅 로드(113)를 포함한다.That is, the
꽃잎 구동모터(111)는 회전을 통해 커넥팅 로드(113)의 왕복 운동을 유발하고, 이러한 커넥팅 로드(113)의 왕복 운동으로 인해 커넥팅 로드(113)에 다단으로 연결되어 있는 다수의 꽃잎(120)이 오므라지고 펴지는 동작을 수행하게 된다. 꽃잎 구동모터(111)와 커넥팅 로드(113)의 구동에 의해 다수의 꽃잎(120)이 오므라지고 펴지는 기제를 수행하는 구체적인 동작은 이미 잘 알려져 있으므로 보다 구체적인 설명은 생략한다.The
꽃봉우리(110) 내에는 256가지 색깔을 표현할 수 있는 다수의 LED를 포함하는 LED 코어(130)가 구비되어 있다. 이러한 LED 코어(130)의 LED를 통해 다양한 색깔과 깜박거림 또는 점멸의 주기를 변화시킴으로써 꽃잎(120)의 색깔과 점멸 주 기를 바꿀 수 있으며, 이러한 색깔 및 점멸 주기의 변화를 통해 지능형 플라워 로봇의 감정이나 특정 정보에 결부된 상태를 또한 표현할 수 있다. 한편, 이러한 색깔이나 점멸을 이용한 표현이나 변화는 다른 색광원을 사용하여 구현될 수도 있다.The
꽃봉우리(110)의 상단부(U)에는 외부의 영상을 촬영하고, 외부의 영상과 소리를 입력받을 수 있는 소형 카메라 및 마이크로폰(115)이 구비되어 있다. 이러한 소형 카메라 및 마이크로폰(115)은 소형 카메라와 마이크로폰이 일체형으로 이루어지는 것이 바람직하지만, 지능형 플라워 로봇의 사용 환경 등에 따라 별개의 장치로 구비될 수도 있다.The upper end U of the
따라서, 꽃봉우리부(100)는 꽃봉우리(110) 내에 구비된 소형 카메라 및 마이크로폰(115)을 통해 외부의 영상을 촬영하고 외부의 음성을 수신할 수 있다.Therefore, the
꽃봉우리부(100)에 장착되어 있는 향기 발산 장치(117)의 개구부와 다단계로 구성된 꽃잎 지지용 환상형 부재들의 상호 위치관계에 의해 꽃잎이 펴졌을 때 주변에 꽃향기를 발산하도록 개구부(119)가 열리고 꽃이 오므라졌을 때 이러한 동작이 멈춰지도록 개구부(119)가 가려지는 기제를 통하여 꽃향기의 주변 발산이 제어된다. Opening 119 so as to emit a floral fragrance around when the petals are unfolded by the mutual positional relationship between the opening of the
한편, 줄기부(200)는 다수의 마디(210, 220, 230, 240)가 수직으로 배열되어 구성되고, 각 마디(210, 220, 230, 240)는 모터를 각각 구비한다.On the other hand, the
다수의 마디(210, 220, 230, 240) 중에서 마디(240)는 상단부가 꽃봉우리부(100)에 연결되어 있으며, 모터의 구동에 의해 꽃봉우리부(100)를 위 아래로 회전시켜서 꽃봉우리부(100)가 사람과 같이 고개를 숙이고 드는 동작을 나타내도록 하는 꽃봉우리 굴절부(240)를 형성한다.Among the plurality of
나머지 마디(220, 230, 240)는 서로 지지용 부재(221, 231)들로 연결되어 지탱되며 하중을 아래로 전달하는 구조로 구성된다.The remaining
마디(210, 240)는 상부에 위치하는 줄기 부분을 전후로 굴절시키는 동작을 수행한다. 결과적으로 마디(210, 240)를 비롯한 동일 형식의 마디들의 전후 굴절 각도의 조합에 따라 줄기부(200)가 C자형 또는 S자형 등 다양한 모양으로 앞뒤로 구부려질 수 있다.The
각 마디(210, 220, 230, 240)도 LED(도시하지 않음) 또는 기타 색광원(도시하지 않음)을 구비하여 다양한 색상 또는 점멸 주기 제어를 통한 색상 변화를 표현한다. Each
또한, 마디(210, 220, 230, 240)에는 사용상 편리한 위치에 온습도 센서(도시하지 않음), CO2 센서(도시하지 않음), 조도 센서(도시하지 않음), 적외선 센서(도시하지 않음) 등 다양한 환경 센서 및 행동 감지 센서가 장착되어 각각 온도, 습도, 이산화탄소 농도, 조도 및 인체의 접근 등을 감지하게 된다.In addition, the
가지부(300)는 줄기부(200), 예를 들어 줄기부(200)의 마디(220, 230)에 장착되어 있으며, 각각 다수의 잎새(310)를 구비한다.The
가지부(300)가 장착된 줄기부(200)의 마디(220, 230)는 가지부(300)를 상하로 회전시키는 동작을 수행하고, 가지부(300)를 하부에서 지지하고 있는 마디(220, 230)는 가지부(300)를 좌우로 회전시키는 동작을 수행하여 결과적으로 이러한 동작 들의 조합에 의하여 가지가 상하좌우로 움직임으로써 사람이 두 팔을 움직이는 것과 같은 동작 또는 꽃이 축쳐져 있는 상태나 반대로 생기 있는 활력을 나타내는 동작을 구현할 수 있다. The
뿌리부(400)는 줄기부(200)의 하단부의 마디(240)와 연결되어 꽃봉우리부(100), 줄기부(200) 및 가지부(300)로 부분 전체의 하중을 지탱하는 플레이트(410), 플레이트(410)를 통해 줄기부(200)의 마디(240)에 연결되어 줄기부(200), 꽃봉우리부(100) 및 가지부(300)를 죄우로 360°회전시키는 꽃 전체 회전 모터(420)를 포함한다. 여기서, 플레이트(410)와 꽃 전체 회전 모터(420) 사이에는 꽃 전체 회전 모터(420)의 회전력을 줄기부(200)의 마디(240)에 안정된 형식으로 전달하기 위하여 보올 베어링(430)이 삽입된다.The
뿌리부(400)에는 RFID(Radio Frequency Identification) 태그를 인식할 수 있는 RFID 안테나가 포함된 RFID 리더(440)와, 소리를 외부로 출력할 수 있는 스피커(450)가 장착되어 있다.The
또한, 뿌리부(400)에는 꽃봉우리부(100) 및 줄기부(200)는 물론 뿌리부(400) 내부의 구성요소들을 전체적으로 제어하는 제어용 컴퓨터(500)가 구비되어 있다.In addition, the
한편, 꽃봉우리부(100), 줄기부(200) 및 뿌리부(400)에 장착된 모든 모터에는 회전 상한값과 하한값이 설정되어 있어 오동작시 특정 부위의 손상을 방지하고 지능형 플라워 로봇 전체 동작의 안정성을 도모할 수 있도록 한다.On the other hand, all the motors mounted on the
도 4는 도 2에 도시된 제어용 컴퓨터(500)의 구체적인 구성을 도시한 도면이다.4 is a diagram showing a specific configuration of the
도 4에 도시된 바와 같이, 제어용 컴퓨터(500)는 센싱 인터페이스부(510), 데이터베이스부(520), 이벤트 처리부(530), 동작 처리부(540) 및 유무선 통신부(550)를 포함한다.As shown in FIG. 4, the
센싱 인터페이스부(510)는 각종의 센서 또는 입력 장치를 통해 입력되는 신호를 처리한 후 상황인지를 위한 데이터로 변환하여 출력한다.The
데이터베이스부(520)는 센싱 인터페이스부(510)를 통해 외부로부터 입력되는 데이터를 저장하거나 이용자들의 정보를 저장하거나 또는 센싱 인터페이스부(510)를 통해 입력되는 데이터에 대응되는 동작 등에 필요한 데이터를 저장하는 등 다양한 데이터를 저장한다.The
이벤트 처리부(530)는 리모컨이나 음성을 통해 입력되는 이용자의 직접적인 제어 명령이나 센싱 인터페이스부(510)에 의해 입력되는 데이터에 기초하여 지능형 플라워 로봇 주변의 상황을 인지하고, 인지된 상황을 기반으로 수행되어야 하는 동작 의사를 결정한다.The
동작 처리부(540)는 이벤트 처리부(530)에 의해 결정된 동작 의사에 따라 데이터베이스부(520)에 저장되어 있는 데이터에 기초하여 지능형 플라워 로봇의 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)를 구동한다. 즉, 동작 처리부(540)는 꽃봉우리부(100), 줄기부(200) 및 뿌리부(400)에 있는 각종의 모터 등을 제어하여 지능형 플라워 로봇의 형태를 변화시키고, 또한 각종의 LED 등을 구동하여 지능형 플라워 로봇의 색체를 변화시킨다.The
또한, 동작 처리부(540)는 센싱 인터페이스부(510)에 의해 인지되는 이용자 에 대해 데이터베이스부(520)에 저장된 데이터에 의거하여 이용자의 음성 내용에 대응되는 대화를 수행한다.In addition, the
유무선 통신부(550)는 유무선 랜, 블루투스, 지그비, 전력선 통신, UWB(Ultra WideBand), RS232, RS485 등을 통하여 지능형 플라워 로봇(10)의 제어나 데이터 교환을 위한 외부와의 통신을 수행한다. The wire /
지능형 플라워 로봇은, 도 5에 도시된 바와 같이, 제어용 컴퓨터(500)의 유무선 통신부(550)를 통해 연결되는 홈 네트워크 상의 홈 게이트웨이나 홈서버(600)를 통하여 외부의 센서나 액추에이터들과 같은 외부 기기(700)에 연동하거나 또는 유무선 통신망(800)을 통한 원격의 이용자(900)가 지닌 이동 단말이나 PDA와 같은 모바일 단말기들, 원격 컴퓨터들 또는 다른 외부의 지능형 플라워 로봇과 접속하여 데이터를 송수신할 수 있다.As shown in FIG. 5, the intelligent flower robot is connected to an external device such as an external sensor or actuator through a home gateway or a
이하, 제어용 컴퓨터(500)의 각 구성요소에 대해 보다 구체적으로 설명한다.Hereinafter, each component of the
먼저, 센싱 인터페이스부(510)는 환경 및 행위 센서 모듈(511), 음성 인식 모듈(512), RFID 태그 인식 모듈(513) 및 영상 인식 모듈(514)을 포함한다.First, the
환경 및 행위 센서 모듈(511)은 줄기부(200)의 마디(210, 220, 230, 240)에 위치하는 온습도 센서(도시하지 않음), 적외선 센서(도시하지 않음), CO2 센서(도시하지 않음), 조도 센서(도시하지 않음), 모션 감지 센서(도시하지 않음) 등과 같은 환경 및 행동 감지 센서로부터 입력되는 센싱 신호를 수신하여 처리한 후 이벤트 처리부(530)에서 인식할 수 있는 데이터로 변환하여 출력한다.The environmental and
음성 인식 모듈(512)은 꽃봉우리(110)에 장착되어 있는 마이크로폰(115)으로부터 입력되는 이용자의 음성에 해당하는 이용자를 인식하여 대응되는 이용자의 정보를 출력하고, 또한 수신된 음성을 이벤트 처리부(530)에서 인식할 수 있는 데이터로 변환하여 출력한다.The
RFID 태그 인식 모듈(513)은 뿌리부(400)에 장착된 RFID 리더(440)를 통해 수신되는 RFID 태그 정보를 수신하여 대응되는 이용자의 정보를 출력한다.The RFID
영상 인식 모듈(514)은 꽃봉우리(110)에 장착된 소형 카메라(115)로부터 입력되는 영상 신호를 수신하여 대응되는 영상 데이터로 변환하여 출력한다. 또한, 영상 인식 모듈(514)은 영상 데이터를 통해 이용자를 인식하여 대응되는 이용자의 정보를 출력한다.The
다음, 데이터베이스부(520)는 영상 저장 데이터베이스(521), 개인 정보 데이터베이스(522) 및 시스템 지원 데이터베이스(523)를 포함한다.Next, the
영상 저장 데이터베이스(521)는 센싱 인터페이스부(510)의 영상 인식 모듈(514)로부터 출력되는 영상 데이터를 일시적 또는 반영구적으로 저장하기 위한 데이터베이스이다.The
개인 정보 데이터베이스(522)는 이용자 개인의 정보를 저장한다. 이러한 개인의 정보에는 특정 이용자의 프로필이나 선호 사항들이 해당된다.The
시스템 지원 데이터베이스(523)는 센싱 인터페이스부(510)에서 출력되는 데이터를 통해 이벤트 처리부(530)에 의해 파악된 지능형 플라워 로봇 주변의 실시간 상황이나 이에 대응한 동작 등을 기록하거나 지능형 플라워 로봇 전체의 작동을 위 해 필요한 데이터의 출납을 매개한다.The
다음, 이벤트 처리부(530)는 상황 인지 모듈(531) 및 이벤트 관리 의사 결정 모듈(532)을 포함한다.Next, the
상황 인지 모듈(531)은 센싱 인터페이스부(510)로부터 출력되는 데이터를 토대로 이미 확립된 상황 인지 모델을 기반으로 지능형 플라워 주변의 상황을 추론하거나, 상황 인지 모델에 설정되어 있지 않은 미지의 상황 데이터 입력시는 유무선 통신부(550)를 통해 외부의 온라인 상식 데이터베이스에 접속하여 상식에 기반한 상황 및 이에 대응되는 상식적 행동 패턴을 추출한다.The
이벤트 관리 의사 결정 모듈(532)은 리모컨이나 음성을 통해 입력되는 이용자의 직접적인 제어 명령이나 센싱 인터페이스부(510)를 통해 전달되는 이용자의 직접 제어 명령을 처리하거나 또는 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정한다.The event
이벤트 관리 의사 결정 모듈(532)에는 새로운 이벤트와 이에 상응하는 동작들을 추가적으로 등록하거나 기존의 이벤트나 대응 동작들에 대한 수정 또는 삭제가 가능하도록 하는 관리자를 위한 별도의 이용자 인터페이스가 부가적으로 설치될 수 있다.The event
다음, 동작 처리부(540)는 모션 등록 모듈(541), 모션 재생 모듈(542), 모션 제어 모듈(543), 색채 제어 모듈(544), 대화 내용 생성 모듈(545) 및 음성 합성 모듈(546)을 포함한다.Next, the
모션 등록 모듈(541)은 이용자에 의해 지능형 플라워 로봇이 특정 동작을 표 현하기 위한 모양을 잡은 정지 상태에서 꽃봉우리부(100), 줄기부(200) 및 뿌리부(400)에 장착된 각 모터들의 회전 각도를 확인하여 해당하는 모션으로 등록한다. 이 때, 모션 등록 모듈(541)이 등록하는 모션 관련 데이터들은 모션 등록 모듈(541) 내에 저장하여도 좋으며, 별도로 데이터베이스부(520)의 시스템 지원 데이터 베이스(523) 내에 저장하여도 좋다.
모션 재생 모듈(542)은 모션 등록 모듈(541)에 의해 등록된 모션 관련 데이터에 기초하여 꽃봉우리부(100), 줄기부(200) 및 뿌리부(400)에 장착된 각 모터들의 회전 각도를 구동하여 이미 등록된 하나의 모션 또는 몇 개의 모션을 연속적으로 재생한다. 모션 등록 모듈(541)에 의해 등록된 모션 중 기본 자세로는 파킹(parking) 자세, 기립 자세 등이 있으며, 모션 재생 모듈(542)은 특정 모션의 완료시 일정 시간이 지난 후 기본 자세로 자동 복귀하는 동작, 전원이 꺼지거나 시스템의 동작 중단을 요할 시 파킹 자세로 변환시키거나 반대로 구동 초기화를 위해 파킹 자세에서 곧바로 세워진 기립 자세로 전환시키는 등의 동작 등을 관장한다.The
여기서, 파킹 자세는 다수의 마디(210, 220, 230, 240)로 구성된 줄기부(200)가 꽃봉우리부(100)를 이고 있는 방식으로 서있는 자세를 유지해야 하는 구조적 불안정성과 장시간 서 있거나 필요한 동작을 반복해야 하는 데서 오는 오동작 또는 모터들의 전기/기계적 피로를 저감하기 위하여 일정한 시간 내에 이용자가 감지되지 않거나 특정 동작 종료 후 일정 시간이 지나면 자동으로 모터들에 가장 무리가 가지 않도록 하는 자세를 말한다.Here, the parking posture is a structural instability to maintain a standing posture in a manner in which the
한편, 모션 등록 모듈(541)은 이용자에 의해 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)의 위치가 조정되어 전체 형상이 구축되면 각 부위별 모터들의 회전 각도들을 한꺼번에 읽어서 해당 자세에 대응되는 데이터로 저장하여 모션 등록을 한 후, 모션 재생 모듈(542)이 모션 등록된 해당 데이터에 따라 각 모터들의 회전 각도를 재현함으로써 해당 자세를 재생할 수 있도록 하는 일종의 동작 기억(Kinetic Memory) 방식을 사용한다.On the other hand, the
색채 제어 모듈(544)은 이용자에 의해 특정 상황에 대응되도록 꽃봉우리부(100) 및 줄기부(200)에 장착된 LED들 또는 색광원들의 색채 및 점멸 패턴을 등록하거나 또는 이벤트 처리부(530)의 이벤트 관리 의사 결정 모듈(532)의 결정에 의해 등록된 색채 및 점멸 패턴들 중 특정 패턴으로 LED들 또는 색광원들을 재생하기 위한 제어를 수행한다. 이 때, 색채 제어 모듈(544)이 등록하는 색채 및 점멸 패턴들은 색채 제어 모듈(544) 내에 저장하여도 좋으며, 별도로 데이터베이스부(520)의 시스템 지원 데이터 베이스(523) 내에 저장하여도 좋다.The
대화 내용 생성 모듈(545)은 센싱 인터페이스부(510)를 통해 확인된 이용자의 정보에 대응하는 대화 패턴을 사용하여 이용자에 대한 대화 내용을 생성한다. 예를 들어, 센싱 인터페이스부(510)를 통해 확인된 이용자가 아동이나 어른 혹은 노인인 지에 따라 존대어법과 반만을 적절히 구사한다든지, 특정 개인의 이름을 불러준다든지, 또는 남성과 여성의 직업적 차이 등을 고려하여 대화의 내용을 달리 구사하도록 하는 대화 패턴이 사용된다. 이와 같이, 대화 내용 생성 모듈(545)은 데이터베이스와 연동하여 일련의 지능형 대화를 가능하게 하는 내부적인 법칙들을 포함한다. 이러한 데이터베이스는 대화 내용 생성 모듈(545) 내에 있어도 좋고, 별도로 데이터베이스부(520)의 시스템 지원 데이터 베이스(523) 내에 있어도 좋다.The conversation
음성 합성 모듈(546)은 대화 내용 생성 모듈(545)에 의해 생성된 대화 내용을 음성으로 재생하여 뿌리부(400)에 장착된 스피커(450)를 통해 외부로 음성 출력한다.The
이하, 도면을 참고하여 본 발명의 실시예에 따른 지능형 플라워 로봇의 각종 동작을 제어하기 위한 제어 방법에 대해 설명한다.Hereinafter, a control method for controlling various operations of an intelligent flower robot according to an embodiment of the present invention will be described with reference to the drawings.
기본적으로 지능형 플라워 로봇의 뿌리부(400)에 장착된 제어용 컴퓨터(500)의 제어에 따라 꽃봉우리부(100), 줄기부(200) 및 뿌리부(400)에 장착된 각종의 모터들, 센서들, LED들을 포함한 기타 구성요소들이 동작하여 결과적으로 지능형 플라워 로봇이 동작하게 된다. 그리고, 제어용 컴퓨터(500)는 각종의 센서들을 포함한 입력 장치들을 통해 입력되는 정보에 기초하여 지능형 플라워 로봇의 동작을 제어한다.Basically, according to the control of the
본 발명의 실시예에 따른 지능형 플라워 로봇은 다양한 꽃들 중 특정 꽃모양을 모사한 로봇 시스템으로 꽃의 색깔과 그 점멸 주기를 변화시키거나, 꽃봉우리(110)를 피우거나 닫는 동작, 꽃봉우리(110)에 내재한 소형 카메라(115)를 통해 주변이나 특정 이용자의 영상이나 이미지를 실시간으로 캡처하는 동작, 꽃향기를 주변에 발산하는 동작, 줄기부(200)를 다양한 모양으로 앞뒤로 구부리는 동작, 줄기부(200)의 색채나 그 점멸 주기를 변화시키는 동작, 꽃 전체의 방향을 회전시키는 동작, 잎새(310)가 달린 가지부(300)를 자유자재로 움직여 다양한 제스처를 구사하는 동작, 마이크로폰(115)으로 입력되는 음성의 인식을 통해 이용자의 음성을 알아듣고 적절한 내용을 역시 음성으로 화답하는 지능형 대화 동작, RFID 리더(440)나 적외선 센서(도시하지 않음), 음성 인식 또는 영상 인식을 통해 특정 이용자의 접근이나 관련 개인 프로필을 파악하거나 이밖에 다양한 센서들을 통해 주변 환경 조건이나 이용자의 행동 변화를 파악하고 이에 대응하는 적절한 동작들을 통합적으로 연동시켜 구사하는 동작, 그리고 유무선 통신망(800)을 통해 외부의 컴퓨터나 센서, 액추에이터, 모바일 기기 등의 외부 기기(700)나 원격의 이용자(900) 등과 접속하여 자신이 가진 정보나 제어 명령을 전달하거나 역으로 정보나 제어 명령을 받아서 이를 표현하거나 처리하는 동작 등을 통하여 다양한 기본 기능들을 수행할 수 있다. Intelligent flower robot according to an embodiment of the present invention is a robot system that simulates a specific flower shape of a variety of flowers to change the color of the flower and its flashing cycle, smoke or close the flower buds 110, buds 110 ) Captures the image or image of the surroundings or a specific user in real time through the small camera 115 inherent in the), radiates the floral fragrance around, and bends the stem 200 back and forth in various shapes, The operation of changing the color of the base 200 or its flashing cycle, the operation of rotating the direction of the entire flower, the movement of the branches 300 with the leaves 310 freely to use a variety of gestures, the microphone 115 Intelligent conversation operation that listens to the user's voice and replies the appropriate contents by voice through the recognition of the voice inputted through), RFID reader 440 or infrared sensor (not shown), voice Identifying a specific user's access or related personal profile through expression or image recognition, or using various sensors to identify surrounding environmental conditions or user's behavior change and integrate appropriate actions corresponding to them, and wired and wireless Through the communication network 800, an external computer such as an external computer, a sensor, an actuator, or a mobile device 700, or a remote user 900 is connected to the user to transmit information or control commands that the user has, or vice versa. You can perform various basic functions by receiving and expressing or processing them.
따라서, 본 발명의 실시예에서는 상기한 기본 기능들을 이용하여 수행되는 다양한 기능들에 대해 설명한다.Therefore, embodiments of the present invention describe various functions performed by using the basic functions described above.
먼저, 도 6을 참조하여 본 발명의 실시예에 따른 지능형 플라워 로봇이 모니터링 인터페이스 기능을 수행하기 위한 제어 방법에 대해 설명한다.First, a control method for performing an intelligent flower robot according to an embodiment of the present invention by monitoring interface function will be described with reference to FIG. 6.
뿌리부(400)에 장착된 제어용 컴퓨터(500)는 각종 센서들로부터 입력되는 센싱 신호를 센싱 인터페이스부(510)를 통해 수신한다(S600).The
예를 들어, 줄기부(200)의 마디(210, 220, 230, 240)에 위치하는 온습도 센서(도시하지 않음)로부터 입력되는 온도 및 습도, CO2 센서(도시하지 않음)로부터 입력되는 이산화탄소 농도, 조도 센서(도시하지 않음)로부터 입력되는 조도 등과 같이 환경 및 행동 감지 센서로부터 입력되는 센싱 신호를 수신하여 이벤트 처리 부(530)에서 인식할 수 있는 데이터로 변환하여 출력한다.For example, temperature and humidity input from a temperature and humidity sensor (not shown) located at the
다음, 제어용 컴퓨터(500)의 이벤트 처리부(530)는 센싱 인터페이스부(510)에서 출력되는 데이터에 의거하여 주변 환경 인자들의 변화를 인지하고(S610), 인지된 환경 인자들의 변화를 알려주기 위해 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정한다(S620). Next, the
그 후, 동작 처리부(540)는 이벤트 처리부(530)에 의해 결정된 동작 의사에 따라 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)를 동작시켜서 주변 환경 인자의 변화를 매우 직관적인 형식으로 실시간으로 알려준다(S630).Thereafter, the
보다 구체적으로, 동작 처리부(540)는 꽃봉우리부(100)에 장착된 꽃잎 구동모터(111)를 구동하여 다수의 꽃잎(120)을 오므라지게 하거나 펴지게 하여 꽃의 피고 지는 동작을 구현하거나, 줄기부(200)의 마디(210, 220, 230, 240)에 장착된 각 모터들을 구동하여 줄기부(200)를 굴절시켜서 줄기가 구부러지거나 펴지도록 하는 동작을 구현하거나, 또는 꽃봉우리부(100)에 장착된 LED 코어(130)나 줄기부(200)의 마디(210, 220, 230, 240)에 장착된 LED(도시하지 않음)를 통해 색채 및 그 점멸을 통한 표현을 하거나, 또는 꽃봉우리부(100)에 장착된 향기 발산 장치(도시하지 않음)를 통해 환경 인자의 변화를 나타내는 향기를 발산하는 등의 동작을 구현한다.More specifically, the
다음, 도 7을 참조하여 본 발명의 실시예에 따른 지능형 플라워 로봇이 로봇 친구(companion) 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a control method for an intelligent flower robot according to an embodiment of the present invention to perform a robot companion function will be described with reference to FIG. 7.
본 발명의 실시예에 따른 지능형 플라워 로봇은 이용자와의 정서적 유대 형 성을 위한 로봇 친구 즉, 말벗이나 친구의 역할을 수행한다. Intelligent flower robot according to an embodiment of the present invention performs the role of a robot friend, that is, a horseman or friend for emotional bonding with the user.
뿌리부(400)에 장착된 제어용 컴퓨터(500)는 각종 센서들로부터 입력되는 센싱 신호를 센싱 인터페이스부(510)를 통해 수신한다(S700).The
예를 들어, 센싱 인터페이스부(510)의 FRID 태그 인식 모듈(513)은 RFID 리더(440)를 통해 주변에서 수신되는 RFID 태그 정보와 데이터베이스(520)의 개인 정보 데이터베이스(522)에 저장되어 있는 개인의 정보를 이용하여 이용자를 인식한 후 대응되는 이용자의 정보를 출력한다. 센싱 인터페이스부(510)의 영상 인식 모듈(514)은 꽃봉우리부(100)에 장착된 소형 카메라(115)로부터 입력되는 영상 신호와 데이터베이스부(520)의 개인 정보 데이터베이스(522)에 저장되어 있는 개인의 정보를 이용하여 이용자를 인식한 후 대응되는 이용자의 정보를 출력한다. 센싱 인터페이스부(510)의 음성 인식 모듈은 꽃봉우리부(100)에 장착되어 있는 마이크로폰(115)으로부터 입력되는 이용자의 음성 신호와 개인 정보 데이터베이스(522)에 저장되어 있는 개인의 정보를 이용하여 이용자를 인식한 후 데이터로 변환된 음성과 그 대응되는 이용자의 정보를 출력한다. 또는, 센싱 인터페이스부(510)의 환경 및 행위 센서 모듈(511)은 적외선 센서(도시하지 않음)를 이용하여 지능형 플라워 로봇 주변으로 접근하는 사람을 감지하여 해당 신호를 출력한다.For example, the FRID
다음, 제어용 컴퓨터(500)의 이벤트 처리부(530)는 센싱 인터페이스부(510)에서 출력되는 데이터에 의거하여 이용자가 접근하는 지의 여부를 확인한 후(S710), 이용자가 접근하는 것으로 확인되면 데이터베이스부(520)의 개인 정보 데이터베이스(522)에 저장되어 있는 해당 이용자의 프로필, 관심사 등의 정보를 추 출하여(S720), 추출된 이용자의 프로필, 관심사에 따라 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정한다(S730). Next, the
그 후, 동작 처리부(540)는 이벤트 처리부(530)에 의해 결정된 동작 의사에 따라 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)를 동작시켜서 이용자에게 대응하거나 또는 대화 내용 생성 모듈(545)에 의해 생성된 지능형 대화를 음성 합성 모듈(546)을 통해 뿌리부(400)에 장착된 스피커(450)로 출력하여 이용자에게 얘기하는 동작 등을 수행한다(S740).Thereafter, the
동작 처리부(540)의 모션 재생 모듈(542)에 의해 재생되는 동작은 이용자의 프로필에 따라 줄기부(200)에 장착된 가지부(300)를 구동하여 손을 흔드는 것과 같이 이용자를 환영하는 동작이나, 꽃봉우리부(100)를 구동하여 고개를 숙여 인사하는 동작 등이 있다.The motion reproduced by the
또한, 대화 내용 생성 모듈(545)에 의해 생성되는 지능형 대화 내용은 이용자의 프로필에 따라 존댓말 또는 반말로 이용자의 이름을 부르면서 인사말을 건네거나, 쇼핑이나 스포츠 등 대화의 소재나 성격을 달리하는 등의 대화 내용 등이 있다. 이 때, 동작 처리부(540)는 대화 내용에 따라, 꽃잎(120)을 구동하여 흔들거나 꽃봉우리부(100)나 줄기부(200)의 색채를 바꾸는 동작을 병행해서 대화 상대로서의 사실감을 고조시킬 수 있다.In addition, the intelligent conversation content generated by the conversation
한편, 상기한 대화 내용에 대응되는 대화 패턴이나 동작 패턴에 관한 모션은 미리 저장되어 있으며, 관리자나 이용자에 의해 수정되거나 추가될 수 있다.Meanwhile, motions related to the conversation pattern or the operation pattern corresponding to the conversation contents are stored in advance, and may be modified or added by an administrator or a user.
또한, 지능형 플라워 로봇은 친구 기능으로써, 이벤트 처리부(530)에 미리 설정된 프로그램이나 데이터에 근거해서 이용자의 생일, 결혼 기념일, 각종 행사나 회의 및 출장 스케줄 등을 이용자 또는 가족이나 직장 동료들에게 적절한 동작이 부가된 음성으로 미리 알려주는 일종의 비서, 또는 알림이의 역할을 수행할 수 있도록 제어용 컴퓨터(500)가 동작할 수 있다.In addition, the intelligent flower robot is a friend function, and based on a program or data preset in the
또한, 제어용 컴퓨터(500)는 외부로부터 수신되는 음악에 맞추어 리듬을 파악하고 미리 정해진 알고리즘이나 즉흥적인 판단에 의해서 적절한 춤동작을 표현할 수 있도록 각 구성요소를 제어할 수 있다.In addition, the
한편, 상기 단계(S700 내지 S740)는 이용자가 지능형 플라워 로봇으로부터 멀리 떨어져 이용자를 감지할 수 없을 때까지 반복 동작하여 계속적인 대화나 동작이 이루어질 수 있다.On the other hand, the steps (S700 to S740) may be repeated until the user can not detect the user far away from the intelligent flower robot can be continued conversation or operation.
다음, 도 8을 참조하여 본 발명의 실시예에 따른 지능형 플라워 로봇이 제어 인터페이스 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a control method for the intelligent flower robot according to an embodiment of the present invention to perform a control interface function will be described with reference to FIG. 8.
본 발명의 실시예에 따른 제어 인터페이스는 유비쿼터스 홈에서의 이용자 인터페이스로 동작하기 위한 기능으로, 지능형 플라워 로봇은 수동적 또는 능동적 제어 인터페이스 기능을 수행할 수 있다. 여기서, 수동적 제어 인터페이스 기능은 외부로부터 리모컨이나 음성 또는 유무선 통신망을 통해 입력되는 이용자의 적접적인 제어 명령에 따라 지능형 플라워 로봇이 대응되는 동작을 수행하는 기능이고, 능동적 제어 인터페이스 기능은 외부로부터의 명령없이 주변의 환경 인자나 이용자 행위의 변화를 토대로 지능형 플라워 로봇이 스스로 판단하여 판단 결과에 따른 동작을 수행하는 기능이다.The control interface according to the embodiment of the present invention is a function for operating as a user interface in the ubiquitous home, and the intelligent flower robot may perform a passive or active control interface function. Here, the passive control interface function is a function to perform the operation corresponding to the intelligent flower robot according to the user's direct control command input through the remote control or voice or wired / wireless communication network from the outside, the active control interface function without the command from the outside It is a function that intelligent flower robot judges itself based on the change of surrounding environmental factors or user behavior and performs the action according to the judgment result.
먼저, 수동적 제어 인터페이스 기능에 대해 설명한다.First, the passive control interface function will be described.
뿌리부(400)에 장착된 제어용 컴퓨터(500)는 리모컨이나 음성 또는 원격 제어 신호 등 외부로부터 입력되는 명령을 센싱 인터페이스부(510) 또는 유무선 통신부(550)를 통해 수신한다(S800).The
예를 들어, 센싱 인터페이스부(510)의 음성 인식 모듈을 통해 꽃봉우리부(100)에 장착되어 있는 마이크로폰(115)으로부터 입력되는 이용자의 음성 명령을 수신하거나, 적외선 센서(도시하지 않음)를 통해 이용자의 리모컨을 통한 이용자의 명령을 수신하거나, 유무선 통신부(550)를 통해 연결되는 외부의 이용자로부터의 명령을 수신한다.For example, the voice command of the
다음, 제어용 컴퓨터(500)의 이벤트 처리부(530)는 센싱 인터페이스부(510)나 유무선 통신부(550)를 통해 수신되는 이용자의 명령의 내용을 인지한 후(S810), 인지된 명령 내용에 대응되어 지능형 플라워 로봇이 수행해야 하는 동작 의사를 결정한다(S820). 여기서, 결정되는 동작 의사는 대부분이 지능형 플라워 로봇에 연동되어 있는 주택, 사무실 또는 기타 실내 공간에 산재한 IP 번호가 부여된 모든 단말이나 기기들을 제어하기 내용에 관한 것이다.Next, the
따라서, 이벤트 처리부(530)는 상기에서 결정된 동작 의사에 따라 외부에 있는 단말이나 기기를 제어하기 위한 제어 명령을 유무선 통신부(550)를 통해 해당 단말이나 기기로 전송한다(S830).Accordingly, the
이러한 수동적 제어 인터페이스 기능을 통해서, 지능형 플라워 로봇은 외부의 이용자로부터의 명령에 따라, 지능형 플라워 로봇에 연동되어 있는 오디오나 컴 퓨터를 통해 음악을 틀고 끄거나, 집안의 조명을 켜고 끄거나, 문을 닫고 잠그거나, 블라인드를 올리고 내리거나, 히터나 에어컨을 켜고 끄거나, TV나 라디오를 켜고 끄거나, 보일러를 켜고 끄거나, 보안 시스템을 켜고 끄거나 하는 등의 제어 동작을 수행할 수 있다.With this passive control interface, intelligent flower robots can turn on or off music, turn lights on or off, or control doors through audio or computers connected to intelligent flower robots according to commands from external users. You can close and lock, raise and lower the blinds, turn the heater or air conditioner on and off, turn the TV or radio on or off, turn the boiler on or off, turn the security system on or off, and more.
다음, 능동적 제어 인터페이스 기능에 대해 설명한다.Next, the active control interface function will be described.
능동적 제어 인터페이스 기능은 수동적 제어 인터페이스 기능에서 외부로부터 이용자의 명령을 수신하여 외부의 단말이나 기기들의 동작을 제어하는 대신에, 지능형 플라워 로봇에 장착된 다양한 센서들을 통해 파악된 환경 인자나 이용자 행위의 변화를 토대로 판단되는 상황에 따라 자기 스스로의 동작이나 외부의 단말이나 기기들의 동작을 제어하여야 한다.The active control interface function is a passive control interface function that receives user's command from the outside and controls the operation of external terminals or devices, and changes in environmental factors or user behaviors identified through various sensors mounted on an intelligent flower robot. Based on the situation determined based on the control of their own operation or the operation of the external terminal or device should be controlled.
따라서, 능동적 제어 인터페이스 기능에서는 앞에서 설명한 수동적 제어 인터페이스 기능 중에서 상기 단계(S800) 대신에, 뿌리부(400)에 장착된 제어용 컴퓨터(500)가 센싱 인터페이스부(510)를 통해 수신되는 센싱 신호를 수신한 후, 이벤트 처리부(530)가 수신되는 센싱 신호를 토대로 주변의 환경 인자나 이용자 행위의 변화를 인지하고, 인지된 변화에 대응되는 동작 의사, 즉 외부의 단말이나 기기를 제어하기 위한 제어 명령 내용을 결정하는 것으로 적용하면, 상기한 수동적 제어 인터페이스 기능에서의 설명을 참조하는 경우 쉽게 이해될 것이므로, 구체적인 설명은 생략한다. Accordingly, in the active control interface function, instead of the step S800 in the above-described passive control interface function, the
이러한 능동적 제어 인터페이스 기능을 통해서, 지능형 플라워 로봇은 예를 들어 실내의 온도가 높으면 에어컨을 켜서 온도를 내리고, 습도가 높으면 가습기를 켜서 습도를 낮추고, 밤이 되어 어두우면 조명등을 켜는 등 외부의 명령 없이도 외부의 단말이나 기기 등의 제어 동작을 수행할 수 있다.With this active control interface, intelligent flower robots can turn on air conditioners to reduce the temperature, for example, when the room temperature is high, reduce the humidity by turning on the humidifier when the humidity is high, and turn on the lights when it is dark at night. Control operations of an external terminal or device may be performed.
다음, 도 9를 참조하여 본 발명의 실시예에 따른 지능형 플라워 로봇이 제어 영상 캡쳐 및 침입자 감지 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a control method for an intelligent flower robot according to an embodiment of the present invention to perform a control image capture and an intruder detection function will be described with reference to FIG. 9.
뿌리부(400)에 장착된 제어용 컴퓨터(500)는 꽃봉우리부(100)에 장착된 소형 카메라(115)로부터 입력되는 영상 신호를 수신한다(S900).The
센싱 인터페이스부(510)의 영상 인식 모듈(514)은 소형 카메라(115)로부터 수신되는 영상 신호와 데이터베이스부(520)의 개인 정보 데이터베이스(522)에 저장되어 있는 개인의 정보를 이용하여 이용자 인식을 수행하는데, 이 때 영상 신호에 해당하는 이용자가 미리 등록된 이용자로 인식되는 지를 확인한다(S910).The
만약 해당 영상이 미리 등록되어 있는 이용자가 아니면, 이벤트 처리부(530)는 소형 카메라(115)로부터 수신되는 영상 신호를 통해 해당 이용자의 영상을 캡쳐하여 데이터베이스부(520)의 영상 저장 데이터베이스(521)에 저장한 후(S920), 외부인이 침입하였다는 침입 정보를 유무선 통신부(550)를 통해 연결되는 외부의 단말 또는 외부 기기로 전송한다(S930). If the video is not a user registered in advance, the
동시에, 이벤트 처리부(530)는 동작 처리부(540)를 통해 꽃봉우리부(100), 줄기부(200), 가지부(300) 및 뿌리부(400)를 구동하여 각종의 동작이나 색채 및 그 점멸 상태 변화를 나타내면서 스피커(450)를 통해 경보를 발생하는 등 침입에 대응되는 동작을 수행한다(S940).At the same time, the
한편, 원격의 권한이 주어진 이용자는 외부에서 유무선 통신부(550)를 통해 접속하여 지능형 플라워 로봇이 위치한 장소의 상황 변화를 확인하기 위하여 원격으로 제어해서 소형 카메라(115)를 원하는 각도와 방향으로 향하게 하면서 실시간으로 특정 장소의 실시간 영상을 유무선 통신망(800)을 통해 전송받을 수 있다는 것은 상기한 내용을 참조하는 경우 쉽게 이해될 것이다.On the other hand, the user given the remote authority is remotely controlled to check the situation change of the place where the intelligent flower robot is located by connecting through the wired /
다음, 본 발명의 실시예에 따른 지능형 플라워 로봇이 군집 형성 및 집단 동작 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a description will be given of a control method for an intelligent flower robot according to an embodiment of the present invention to perform a group forming function and a group motion function.
꽃의 종류에 따라 다수의 동종 또는 이종으로 구성된 인접한 또는 원격의 지능형 플라워 로봇들간의 연동을 통해 일종의 지능형 플라워 로봇으로 구성된 화단 또는 정원을 형성할 수 있다. 이와 같이, 다수의 지능형 플라워 로봇들이 각자의 내부에 구성된 유무선 통신부(550)를 통해 서로 유무선으로 연결되어 또한 각자의 내부에 구성된 제어용 컴퓨터(500)를 이용하여 서로 통신함으로써 각종 제어 명령이다 데이터 등을 송수신할 수 있다는 것은 상기한 설명을 통해 충분히 이해할 수 있으므로 여기에서는 구체적인 설명을 생략한다. 한편, 모든 지능형 플라워 로봇들과 이용자의 상호 작용 뿐만 아니라 지능형 플라워 로봇들 상호간의 연계 동작 패턴도 각자의 내부에 저장되어 있으며, 각 지능형 플라워 로봇들의 특성에 따라 그 연계 동작 패턴이 자유롭게 설정되거나 변경될 수 있다.Depending on the type of flower, it is possible to form a flower bed or garden composed of a kind of intelligent flower robot through interworking between adjacent or remote intelligent flower robots composed of a plurality of homogeneous or heterogeneous species. As such, a plurality of intelligent flower robots are wired or wirelessly connected to each other via the wired /
다음, 본 발명의 실시예에 따른 지능형 플라워 로봇이 주변 객체(Ambient Object) 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a control method for an intelligent flower robot according to an embodiment of the present invention to perform an ambient object function will be described.
본 발명의 실시예에 따른 지능형 플라워 로봇은 상기에서 설명한 바와 같이 특정 이용자를 인식한 후, 이미 등록된 개인의 프로필 및 선호하는 정보 리스트의 검색을 통해 특정 개인이 관심이 있다고 등록한 일기 예보, 주가 정보, 특정 지인의 건강상태 모니터링 정보, 또는 외부에 있는 아동의 안전에 대한 실시간 모니터링 정보 등을 다양한 패턴의 동작이나 색채 및 그 점멸 상태의 변화, 또는 음성을 통해 특정 이용자에게 전달하는 일종의 정보 전달용 주변형 객체의 기능을 수행할 수 있다. 상기 설명을 참조하는 경우 제어용 컴퓨터(500)가 상기 주변 객체의 기능을 수행할 수 있다는 것은 쉽게 이해될 것이므로 여기에서는 상세한 설명을 생략한다. 한편, 특정 이용자를 위한 이벤트와 동작의 매핑은 프로그래밍 가능한 형식으로 구축되어 있어서 언제든지 리모컨이나 컴퓨터 상의 인터페이스를 통해 수정, 삭제 또는 추가할 수 있다.The intelligent flower robot according to an embodiment of the present invention recognizes a specific user as described above, and then, by retrieving a profile of the registered person and a list of preferred information, the weather forecast and stock price information registered as interested by the specific individual. A kind of information delivery system that delivers health monitoring information of specific acquaintances, or real-time monitoring information on the safety of children outside, to a specific user through various patterns of movement, color and blinking status, or through voice Can perform the function of a type object. When referring to the above description, it will be easily understood that the
다음, 본 발명의 실시예에 따른 지능형 플라워 로봇이 실감형 메모 전달 및 음성 커뮤니케이션 기능을 수행하기 위한 제어 방법에 대해 설명한다.Next, a description will be given of a control method for an intelligent flower robot according to an embodiment of the present invention to perform a realistic memo delivery and voice communication functions.
먼저, 도 10을 참조하여 실감형 메모 전달 기능에 대해 설명한다.First, a realistic memo delivery function will be described with reference to FIG. 10.
이러한 실감형 메모 전달 기능에 대해 부모가 학교에 다니는 자녀의 귀가 후 할 일 등에 대한 메모를 음성으로 남길 경우, 귀가한 해당 자녀에게 남겨진 메모를 자동으로 재생하는 예를 들어 설명한다.For example, when a parent leaves a memo about what to do after a child's return to school, the example of the memo delivery function is automatically played.
뿌리부(400)에 장착된 제어용 컴퓨터(500)는 마이크로폰(115)을 통해 입력되는 음성, 즉 부모의 음성을 센싱 인터페이스부(510)의 음성 인식 모듈(512)을 통해 수신하고, 음성 메모 전달 명령임을 확인한 후(S1000), 음성 메모를 수신할 메모 수신자와 전달될 음성 메모를 수신한다(S1010).The
이벤트 처리부(530)는 음성 인식 모듈(512)을 통해 수신되는 음성 메모를 자 체적으로 또는 개인 데이터베이스부(520)에 저장한다(S1020).The
그 후, 이벤트 처리부(530)는 센싱 인터페이스부(510)의 RFID 태그 인식 모듈(513)을 통해 음성 메모를 수신할 메모 수신자, 상기 예에서는 자녀가 인식될 때까지 대기한다(S1030).Thereafter, the
만약 자녀가 귀가하여 센싱 인터페이스부(510)의 RFID 태그 인식 모듈(513)을 통해 인식되면, 이벤트 처리부(530)는 저장되어 있는 음성 메모를 동작 처리부(540)의 음성 합성 모듈(546)을 통해 스피커(450)로 음성 출력하면서, 메모의 내용 중 핵심이 되는 단어들을 근거로 모션 재생 모듈(542)과 색채 제어 모듈(544)을 통해 미리 설정되어 있는 동작과 색채 및 그 점멸 주기 변화 등을 구사하여 매우 직관적이고 실감있는 음성 메모가 전달될 수 있도록 한다(S1040).If the child returns home and is recognized through the RFID
다음, 음성 커뮤니케이션 기능에 대해 설명한다.Next, the voice communication function will be described.
이러한 음성 커뮤니케이션 기능에 대해 원격의 이용자가 지능형 플라워 로봇이 있는 장소에 함께 있는 이용자에게 전화를 거는 경우를 예로 들어 설명한다.This voice communication function is described as an example in which a remote user calls a user who is at a location with an intelligent flower robot.
이벤트 처리부(530)는 유무선 통신부(550)를 통해 외부의 단말이나 기기에서 인터넷 전화가 수신되는 경우, 이벤트 처리부(530)는 동작 처리부(540)를 통해 꽃봉우리부(100)에 설치된 소형 카메라 및 마이크로폰(115)과 뿌리부(400)에 설치된 스피커(450)를 구동하여 일종의 직관적 전화기의 역할을 대행한다. 즉, 지능형 플라워 로봇 측 이용자는 소형 카메라 및 마이크로폰(115)과 스피커(450)를 통해 음성으로 원격의 이용자와 통화할 수 있다. 이 때, When the
이벤트 처리부(530)는 전화 통화를 매개하는 중에 획득되는 핵심 통화 어휘 들에 근거해서 모션 재생 모듈(542)과 색채 제어 모듈(544)을 통해 미리 설정되어 있는 동작과 색채 및 그 점멸 주기 변화 등을 구사하여 원격의 이용자가 바로 앞에 있는 것 같은 실감형 음성 커뮤니케이션을 중재한다.The
이외에도 지능형 플라워 로봇이 다른 곳에 있는 지능형 플라워 로봇과 원격으로 연결되어 각각의 이용자들에 대한 음성 메신저로써의 기능도 수행할 수 있음은 상기 설명에 의거하는 경우 쉽게 이해될 것이다.In addition, it will be easily understood based on the above description that the intelligent flower robot can be remotely connected with the intelligent flower robot located elsewhere to perform a function as a voice messenger for each user.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.
도 1은 종래의 로봇 중 하나인 "CyberFlora"를 도시한 도면으로, "CyberFlora"는 MIT 미디어랩에서 개발된 플라워 로봇 중 하나이다.1 is a view showing one of the conventional robots "CyberFlora", "CyberFlora" is one of the flower robot developed in MIT Media Lab.
도 2는 본 발명의 실시예에 따른 지능형 플라워 로봇의 구조도이다.2 is a structural diagram of an intelligent flower robot according to an embodiment of the present invention.
도 3은 도 2에 도시된 꽃봉우리부의 구체적인 구조를 도시한 도면이다.3 is a view showing a specific structure of the bud portion shown in FIG.
도 4는 도 2에 도시된 제어용 컴퓨터의 구체적인 구성을 도시한 도면이다.4 is a diagram showing a specific configuration of the control computer shown in FIG.
도 5는 본 발명의 실시예에 따른 지능형 플라워 로봇이 유무선 통신망을 통해 외부의 단말이나 기기와 연결되는 예를 도시한 도면이다.5 is a diagram illustrating an example in which an intelligent flower robot according to an embodiment of the present invention is connected to an external terminal or device through a wired or wireless communication network.
도 6은 본 발명의 실시예에 따른 지능형 플라워 로봇이 모니터링 인터페이스 기능을 수행하기 위한 제어 방법의 흐름도이다.6 is a flowchart of a control method for an intelligent flower robot according to an embodiment of the present invention to perform a monitoring interface function.
도 7은 본 발명의 실시예에 따른 지능형 플라워 로봇이 로봇 친구(companion) 기능을 수행하기 위한 제어 방법의 흐름도이다.7 is a flowchart illustrating a control method for performing an intelligent flower robot according to an embodiment of the present invention.
도 8은 본 발명의 실시예에 따른 지능형 플라워 로봇이 제어 인터페이스 기능을 수행하기 위한 제어 방법의 흐름도이다.8 is a flowchart of a control method for an intelligent flower robot according to an embodiment of the present invention to perform a control interface function.
도 9는 본 발명의 실시예에 따른 지능형 플라워 로봇이 제어 영상 캡쳐 및 침입자 감지 기능을 수행하기 위한 제어 방법의 흐름도이다.9 is a flowchart illustrating a control method for performing an intelligent flower robot according to an embodiment of the present invention to perform control image capture and intruder detection.
도 10은 본 발명의 실시예에 따른 지능형 플라워 로봇이 실감형 메모 전달 기능을 수행하기 위한 제어 방법의 흐름도이다.10 is a flowchart illustrating a control method for performing an intelligent memo transfer function by an intelligent flower robot according to an exemplary embodiment of the present invention.
Claims (25)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20070110100 | 2007-10-31 | ||
KR1020070110100 | 2007-10-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090045129A KR20090045129A (en) | 2009-05-07 |
KR101066999B1 true KR101066999B1 (en) | 2011-09-22 |
Family
ID=40855482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080108069A KR101066999B1 (en) | 2007-10-31 | 2008-10-31 | Smart flower robot and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101066999B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101628890B1 (en) * | 2015-09-03 | 2016-06-09 | 주식회사 학표벽지 | Apparatus for manufacturing embossing wallpaper |
CN106178541A (en) * | 2016-08-30 | 2016-12-07 | 武汉华夏理工学院 | A kind of toy for children formed based on plant |
WO2018151368A1 (en) * | 2017-02-20 | 2018-08-23 | 엘지전자 주식회사 | Modular home robot |
KR20200039207A (en) * | 2018-10-05 | 2020-04-16 | 이윤희 | Wreath supporter |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100917857B1 (en) | 2007-08-30 | 2009-09-18 | 한국생산기술연구원 | Flower Robot |
-
2008
- 2008-10-31 KR KR1020080108069A patent/KR101066999B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100917857B1 (en) | 2007-08-30 | 2009-09-18 | 한국생산기술연구원 | Flower Robot |
Non-Patent Citations (3)
Title |
---|
논문.2007.09 |
인터넷.2007.10.1* |
인터넷.2007.10.25* |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101628890B1 (en) * | 2015-09-03 | 2016-06-09 | 주식회사 학표벽지 | Apparatus for manufacturing embossing wallpaper |
CN106178541A (en) * | 2016-08-30 | 2016-12-07 | 武汉华夏理工学院 | A kind of toy for children formed based on plant |
CN106178541B (en) * | 2016-08-30 | 2022-09-16 | 武汉华夏理工学院 | Children's toy based on plant is supported |
WO2018151368A1 (en) * | 2017-02-20 | 2018-08-23 | 엘지전자 주식회사 | Modular home robot |
US11465274B2 (en) | 2017-02-20 | 2022-10-11 | Lg Electronics Inc. | Module type home robot |
KR20200039207A (en) * | 2018-10-05 | 2020-04-16 | 이윤희 | Wreath supporter |
KR102164072B1 (en) * | 2018-10-05 | 2020-10-12 | 이윤희 | Wreath supporter |
Also Published As
Publication number | Publication date |
---|---|
KR20090045129A (en) | 2009-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10992491B2 (en) | Smart home automation systems and methods | |
TWI692717B (en) | Image display device, topic selection method and program | |
CN108390859B (en) | Intelligent robot device for intercom extension | |
US8121653B2 (en) | Methods and apparatus for autonomously managing communications using an intelligent intermediary | |
US8135128B2 (en) | Animatronic creatures that act as intermediaries between human users and a telephone system | |
CN104440925B (en) | A kind of pet type accompany and attend to robot and system | |
JP5040865B2 (en) | Robot control system, remote management device, remote management method and program | |
JP5172049B2 (en) | Robot apparatus, robot control method, and robot control program | |
JP6165302B1 (en) | Image display device, topic selection method, topic selection program | |
CN108877126A (en) | System, the method and apparatus of activity monitoring are carried out via house assistant | |
CN110139732A (en) | Social robot with environmental Kuznets Curves feature | |
KR101066999B1 (en) | Smart flower robot and control method thereof | |
CN109521927A (en) | Robot interactive approach and equipment | |
US20090271812A1 (en) | Method & system for sharing information through a mobile multimedia platform | |
JP2018014575A (en) | Image display device, image display method, and image display program | |
CN108924612A (en) | A kind of art smart television device | |
JP2019139170A (en) | Image display device, image display method, and image display program | |
US11511410B2 (en) | Artificial intelligence (AI) robot and control method thereof | |
CN206671790U (en) | Smart home house keeper's central control system with learning functionality | |
JP6682475B2 (en) | Image display device, topic selection method, topic selection program | |
Chang et al. | ROHINI: A robotic flower system for intuitive smart home interface | |
JP6917294B2 (en) | Watching system | |
JP6698428B2 (en) | Network system, information processing method, and server | |
Kim et al. | Exploration on Everyday Objects as an IoT Control Interface | |
CN113626349A (en) | Equipment control method, device and system and equipment controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
N231 | Notification of change of applicant | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140915 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150909 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160907 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190916 Year of fee payment: 9 |