KR20150046629A - User interaction apparatus, operating method thereof and user interaction system - Google Patents

User interaction apparatus, operating method thereof and user interaction system Download PDF

Info

Publication number
KR20150046629A
KR20150046629A KR20130126090A KR20130126090A KR20150046629A KR 20150046629 A KR20150046629 A KR 20150046629A KR 20130126090 A KR20130126090 A KR 20130126090A KR 20130126090 A KR20130126090 A KR 20130126090A KR 20150046629 A KR20150046629 A KR 20150046629A
Authority
KR
South Korea
Prior art keywords
user
interaction
control signal
unit
user interaction
Prior art date
Application number
KR20130126090A
Other languages
Korean (ko)
Other versions
KR101563582B1 (en
Inventor
최용순
Original Assignee
최용순
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 최용순 filed Critical 최용순
Priority to KR1020130126090A priority Critical patent/KR101563582B1/en
Publication of KR20150046629A publication Critical patent/KR20150046629A/en
Application granted granted Critical
Publication of KR101563582B1 publication Critical patent/KR101563582B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Abstract

A user interaction apparatus, an operating method thereof and a user interaction system are provided. The user interaction apparatus includes a wireless communication module configured to receive the other side sensing signal from the outside; a sensor unit configured to sense a user or a surrounding state to generate a user side sensing signal; a device controller configured to receive the other side sensing signal from the wireless communication module, receive the user side sensing signal from the sensor unit, and generate and output an interaction control signal according to a result of comparison between at least one other side sensing data included in the other side sensing signal with at least one user side sensing data included in the user side sensing signal; and an interaction output unit configured to receive the interaction control signal from the device controller and to output an interaction corresponding to the interaction control signal.

Description

사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템{USER INTERACTION APPARATUS, OPERATING METHOD THEREOF AND USER INTERACTION SYSTEM}USER INTERACTION APPARATUS, OPERATING METHOD THEREOF AND USER INTERACTION SYSTEM,

본 발명은 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템에 관한 것으로서, 특히 사용자 자신의 동작이나 음성 등을 상대방의 동작이나 음성 등과 비교하여 그 결과에 따라 빛(Light), 향(Perfume), 소리 또는 촉감 등과 같은 다양한 인터랙션을 출력하는 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a user interaction apparatus, an operation method thereof, and a user interaction system. More particularly, the present invention relates to a user interaction apparatus, Or tactile sensation, an operation method thereof, and a user interaction system.

일반적으로 사람들은 상대방이 자신과 비슷한 행동을 하거나 비슷한 표현을 사용하는 등 자신과 상대방이 서로 유사하다고 느끼는 경우, 처음 만난 상대방에게도 동질감을 느끼게 되고 상대방과 친밀한 관계를 보다 빠르게 형성할 수 있게 된다. 연구 결과에 따르면, 이러한 상대방의 행동이나 표현을 의도적으로 따라하게 하거나 또는 인위적인 장치를 통한 따라하기와 비슷한 효과를 만들어 주어도 심리적으로 무의식적 따라하기를 통해 얻는 상대방에 대한 동질감과 호감의 효과가 비슷한 심리적 결과로 나온다는 것을 알 수 있다.In general, when a person feels that they are similar to each other, for example, by using similar expressions or using similar expressions, they feel a sense of identity to the person they first met and can establish an intimate relationship with the other person more quickly. According to the results of the study, even if the behavior or the expression of the other party is intentionally followed or the effect is similar to that of the follow-up through the artificial device, psychological result similar to the psychological result . ≪ / RTI >

한편, 종래에도 빛이나 향을 함께 발생하는 구성은 공개되어 있었다. 즉, 대한민국 공개특허공보 제10-0008-0102731호에는 엘이디(LED) 발광체와 향기발생부를 통해 빛과 향을 함께 발생하는 구성이 공개되어 있고, 대한민국 공개특허공보 제10-2005-0016402호에도 향기, 빛 및 소리를 다양하게 조합하여 출력하는 구성이 공개되어 있다. 그러나, 이와 같은 종래기술들은 단순히 빛이나 향을 함께 발생할 뿐이고, 상대방의 동작이나 반응, 사용자 주변의 환경 등에 따라 빛과 향, 소리 및 촉감 등의 표현을 이용한 상호작용 기술은 알려져 있지 않았다.On the other hand, a configuration in which light and incense are generated together has been disclosed. That is, Korean Patent Laid-Open Publication No. 10-0008-0102731 discloses a configuration in which light and aroma are generated together through an LED light emitting body and a fragrance generating unit, and Korean Patent Laid-Open Publication No. 10-2005-0016402 , And light and sound are output in various combinations. However, such conventional techniques merely generate light or incense together, and there is no known interaction technique using expressions of light, incense, sound, and touch according to the operation or response of the other party, the environment around the user, and the like.

KRKR 10-2008-010273110-2008-0102731 AA KRKR 10-2005-001640210-2005-0016402 AA

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 사용자 자신의 동작이나 음성 등을 상대방의 동작이나 음성 등과 비교하여 그 결과에 따라 빛(Light), 향(Perfume), 소리 또는 촉감 등과 같은 다양한 인터랙션을 출력하는 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide an image processing apparatus and method that compares an operation or voice of a user with an operation or voice of the other party, And to provide a user interaction apparatus, a method of operating the same, and a user interaction system.

또한, 본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 사용자 간 커뮤니케이션에 있어서 그들의 동작(움직임) 또는 목소리(주변 소리)를 감지하고 이를 서로 인위적으로 동기화하여 사용자간 심리적 거리를 줄이고 보다 친밀감을 갖게 할 수 있는 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a mobile communication system and a mobile communication method in which communication between users is detected and a psychological distance between users is reduced by artificially synchronizing their movements or voices And a user interaction system capable of performing a user interaction with the user, an operation method thereof, and a user interaction system.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 사용자 인터랙션 장치는, 외부로부터 상대방측 감지신호를 전송받는 무선통신모듈, 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 센서부, 상기 무선통신모듈로부터 상기 상대방측 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받으며, 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 장치 제어부, 및 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a user interaction apparatus including a wireless communication module that receives a counterpart side sensing signal from the outside, a sensor that detects a user or a state of the user and generates a user- And a control unit for receiving the counterpart side sensing signal from the wireless communication module and receiving the sensing signal from the sensor unit, receiving at least one counterpart sensing data included in the counterpart sensing signal, A device control unit for generating and outputting an interaction control signal according to a result of comparison of at least one user-side sensing data, and an interaction output unit for receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal .

상기와 같은 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치는, 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 센서부, 비교대상 감지신호를 포함하는 멀티미디어 데이터를 저장하는 메모리부, 상기 메모리부로부터 상기 비교대상 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받으며, 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 장치 제어부, 및 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a user interaction apparatus including a sensor unit for sensing a user or a surrounding state and generating a user-side sensing signal, a storage unit for storing multimedia data including a comparison- A memory unit for receiving the comparison target sensing signal from the memory unit, receiving the sensing signal from the sensor unit, and at least one comparison target sensing data included in the comparison target sensing signal and included in the user sensing signal And an interaction output unit for receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal, wherein the interaction control unit receives the interaction control signal from the device control unit and generates an interaction control signal based on the comparison result of at least one user- Special to include It shall be.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법은, 센서부가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계, 무선통신모듈을 통해 외부로부터 상대방측 감지신호를 전송받는 단계, 장치 제어부가 무선통신모듈로부터 상기 상대방측 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받는 단계, 상기 장치 제어부가 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계, 및 인터랙션 출력부가 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of operating a user interaction apparatus, the method comprising: sensing a user or a surrounding state of a sensor unit to generate a user-side sensing signal; Receiving a detection signal of a counterpart side, receiving a counterpart side detection signal from a wireless communication module and receiving the user detection signal from the sensor unit, Generating and outputting an interaction control signal in accordance with a comparison result of one counterpart sensing data and at least one user sensing data included in the user sensing signal and outputting the interaction control signal as an interaction output signal from the device control unit , Corresponding to the interaction control signal It is characterized by including the step of outputting the interaction.

상기와 같은 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법은, 센서부가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계, 사용자 입력에 따라 장치 제어부가 메모리부에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계, 상기 장치 제어부가 상기 센서부로부터 상기 사용자측 감지신호를 입력받는 단계, 상기 장치 제어부가 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계, 및 인터랙션 출력부가 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of operating a user interaction apparatus, the method comprising the steps of: The method comprising the steps of: extracting a comparison object detection signal from multimedia data stored in a memory unit; receiving the user-side detection signal from the sensor unit; Generating and outputting an interaction control signal according to a comparison result of sensing data and at least one user-side sensing data included in the user-side sensing signal, and receiving the interaction control signal from the device control unit, Corresponds to the signal Characterized in that it comprises a step of outputting the interaction.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템은, 사용자의 모바일 단말기 및 사용자 인터랙션 장치를 포함하고, 상기 모바일 단말기는, 외부로부터 상대방측 감지신호를 전송받고 상기 사용자 인터랙션 장치로부터 사용자측 감지신호를 전송받는 무선통신부, 및 상기 무선통신부로부터 상기 상대방측 감지신호 및 상기 사용자측 감지신호를 입력받고, 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하며, 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단말기 제어부를 포함하고, 상기 사용자 인터랙션 장치는, 상기 모바일 단말기로부터 상기 인터랙션 제어신호를 전송받는 무선통신모듈, 상기 사용자 또는 주변의 상태를 감지하여 상기 사용자측 감지신호를 생성하는 센서부, 상기 센서부로부터 입력받은 사용자측 감지신호를 상기 무선통신모듈을 통해 상기 모바일 단말기로 전송하고, 상기 모바일 단말기로부터 전송받은 상기 인터랙션 제어신호를 출력하는 장치 제어부, 및 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 한다.In order to achieve the above object, a user interaction system according to an embodiment of the present invention includes a user's mobile terminal and a user interaction device, wherein the mobile terminal receives a detection signal of the opposite side from the outside, A wireless communication unit for receiving a user side sensing signal from the interaction device, and a control unit for receiving the opposite side sensing signal and the user side sensing signal from the wireless communication unit, receiving at least one counterpart sensing data included in the counter side sensing signal, And a terminal control unit for generating an interaction control signal according to a comparison result of at least one user-side sensing data included in the signal and outputting the interaction control signal to the user interaction apparatus via the wireless communication unit, , Prize A wireless communication module for receiving the interaction control signal from the mobile terminal, a sensor unit for sensing the user or the surrounding state to generate the user-side sensing signal, a sensor unit for receiving the user-side sensing signal input from the sensor unit through the wireless communication module, And an interaction output unit for receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal, wherein the device control unit transmits the interaction control signal to the mobile terminal and outputs the interaction control signal transmitted from the mobile terminal .

상기와 같은 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치는, 모바일 단말기로부터 인터랙션 제어신호를 전송받는 무선통신모듈, 사용자 또는 주변의 상태를 감지하여 상기 사용자측 감지신호를 생성하는 센서부, 상기 센서부로부터 입력받은 사용자측 감지신호를 상기 무선통신모듈을 통해 상기 모바일 단말기로 전송하고, 상기 모바일 단말기로부터 전송받은 상기 인터랙션 제어신호를 출력하는 장치 제어부, 및 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a user interaction apparatus including a wireless communication module for receiving an interaction control signal from a mobile terminal, A device controller for transmitting a user side sensing signal received from the sensor unit to the mobile terminal through the wireless communication module and outputting the interaction control signal transmitted from the mobile terminal, And an interaction output unit for receiving a signal and outputting an interaction corresponding to the interaction control signal.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 모바일 단말기 동작방법은, 무선통신부를 통해 사용자 인터랙션 장치로부터 사용자측 감지신호를 전송받는 단계, 상기 무선통신부를 통해 외부로부터 상대방측 감지신호를 전송받는 단계, 단말기 제어부가 상기 무선통신부로부터 상기 상대방측 감지신호 및 상기 사용자측 감지신호를 입력받는 단계, 상기 단말기 제어부가 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계, 및 상기 단말기 제어부가 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of operating a mobile terminal of a user interaction system, the method comprising: receiving a user side sensing signal from a user interaction device through a wireless communication unit; Receiving at least one counterpart sensing signal, receiving at least one counterpart sensing signal and at least one counterpart sensing signal from the wireless communication unit, And generating an interaction control signal according to a comparison result of at least one user-side sensing data included in the user-side sensing signal, and outputting the interaction control signal to the user interaction apparatus through the wireless communication unit A foil .

상기와 같은 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 모바일 단말기 동작방법은, 무선통신부를 통해 사용자 인터랙션 장치로부터 사용자측 감지신호를 전송받는 단계, 사용자 입력에 따라 단말기 제어부가 메모리부에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계, 상기 단말기 제어부가 상기 무선통신부로부터 상기 사용자측 감지신호를 입력받는 단계, 상기 단말기 제어부가 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계, 및 상기 단말기 제어부가 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of operating a mobile terminal of a user interaction system, the method comprising: receiving a user side sensing signal from a user interaction device through a wireless communication unit; The method of claim 1, further comprising the steps of: extracting a comparison object detection signal from the multimedia data stored in the memory; receiving, by the terminal control unit, the user detection signal from the wireless communication unit; Generating sensed data and at least one user-side sensing data included in the sensed user-side sensed data to generate an interaction control signal, and the terminal control unit transmits the interaction control signal to the user interaction sensing unit through the wireless communication unit, And outputting it to the apparatus.

상기와 같은 본 발명에 따른 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템은, 사용자 자신의 동작이나 음성 등을 상대방의 동작이나 음성 등과 비교하여 그 결과에 따라 빛(Light) 또는 향(Perfume) 또는 촉감(Tactile) 등과 같은 다양한 인터랙션을 출력함으로써 사용자와 상대방이 서로 동질감을 느끼고 친밀한 관계를 보다 쉽게 형성할 수 있는 효과가 있다.The user interaction apparatus, the operation method thereof, and the user interaction system according to the present invention as described above may compare the operation or voice of the user with the action or voice of the other party, and may use a light, a perfume, Tactile, etc., so that the user and the opponent feel a sense of identity and can easily form an intimate relationship.

또한, 상기와 같은 본 발명에 따른 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템은, 사용자 간 커뮤니케이션에 있어서 그들의 동작(움직임) 또는 목소리(주변 소리)를 감지하고 이를 서로 인위적으로 동기화하여 사용자간 심리적 거리를 줄이고 보다 친밀감을 갖게 할 수 있는 효과가 있다.In addition, the user interaction apparatus, the operation method thereof, and the user interaction system according to the present invention as described above detect the motion (movement) or the voice (ambient sound) in the communication between the users and artificially synchronize them with each other, It has the effect of reducing distance and having more intimacy.

도 1은 본 발명의 일실시예에 따른 사용자 인터랙션 장치를 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법을 나타내는 순서도(Flowchart)이다.
도 3은 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법을 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 사용자 인터랙션 시스템을 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법을 나타내는 순서도이다.
도 6은 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법을 나타내는 도면이다.
도 7은 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 실제 구현 예를 나타내는 도면이다.
도 8은 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 다른 구현 예를 나타내는 도면이다.
1 is a block diagram illustrating a user interaction apparatus according to an exemplary embodiment of the present invention.
2 is a flowchart illustrating a method of operating a user interaction apparatus according to an embodiment of the present invention.
3 is a diagram illustrating an operation method of a user interaction apparatus according to another embodiment of the present invention.
4 is a diagram illustrating a user interaction system in accordance with an embodiment of the present invention.
5 is a flowchart illustrating an operation method of a user interaction system according to an embodiment of the present invention.
6 is a diagram illustrating an operation method of a user interaction system according to another embodiment of the present invention.
7 is a diagram showing an actual implementation example of a user interaction apparatus according to an embodiment of the present invention.
8 is a diagram illustrating another embodiment of a user interaction apparatus according to an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 도면에 기재된 내용을 참조하여야 한다. In order to fully understand the present invention, operational advantages of the present invention, and objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the accompanying drawings which illustrate preferred embodiments of the present invention.

이하 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 본 발명의 일실시예에 따른 사용자 인터랙션 장치를 나타내는 도면이다. 도 1을 참조하면, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 무선통신모듈(110), 센서부(120), 장치 제어부(130) 및 인터랙션 출력부(140)를 포함할 수 있다. 일례로서, 도 1에 도시된 사용자 인터랙션 장치(100)는 반지(Ring), 장갑(Gloves), 손목시계(Watches), 암밴드(Arm Band), 커프스(Cuffs), 목걸이(Necklace), 팔찌(Bracelet), 팬던트(Pendant), 단추(Button) 등 다양한 악세서리 형태로 변형되어 구현될 수 있다. 이에 따라, 상기 사용자 인터랙션 장치(100)는 웨어러블 장치 및 악세사리 형태로 구현되어 사용자의 손목이나 팔, 어깨, 머리, 및 목 등에 착용될 수 있다. 또한, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 작은 크기의 모듈 형태로 제작될 수도 있고 모듈 형태로 제작된 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는 기존의 다양한 악세서리, 예를 들면 머리핀, 넥타이, 펜던트, 팔찌, 안경 등에 삽입되거나 부착되어 사용될 수도 있다.1 is a block diagram illustrating a user interaction apparatus according to an exemplary embodiment of the present invention. 1, a user interaction apparatus 100 according to an embodiment of the present invention includes a wireless communication module 110, a sensor unit 120, a device control unit 130, and an interaction output unit 140 . For example, the user interaction apparatus 100 shown in FIG. 1 may include a ring, a glove, a watch, an arm band, a cuff, a necklace, a bracelet, ), A pendant, a button, and the like. Accordingly, the user interaction apparatus 100 may be implemented as a wearable device and an accessory, and may be worn on the user's wrist, arm, shoulder, head, and neck. In addition, the user interaction apparatus 100 according to an embodiment of the present invention may be manufactured in a small-sized module form or in a module form, It may be used in various accessories, such as a hairpin, a necktie, a pendant, a bracelet, glasses or the like.

무선통신모듈(110)은, 외부로부터 상대방측 감지신호를 전송받을 수 있고, 전송받은 상대방측 감지신호를 장치 제어부(130)로 출력할 수 있다. 상기 상대방측 감지신호는, 도 1에 도시된 사용자 인터랙션 장치(100)와 유사한 상대방의 사용자 인터랙션 장치에 의해 생성될 수 있고, 상기 상대방의 사용자 인터랙션 장치의 무선통신모듈로부터 전송되거나 상대방의 모바일 단말기로부터 전송될 수 있다. 상기 상대방측 감지신호는 적어도 하나의 상대방측 센싱데이터를 포함할 수 있고, 상기 적어도 하나의 상대방측 센싱데이터는 상대방의 사용자 인터랙션 장치에 의해 감지된 동작인식데이터 및 음향데이터 등을 포함할 수 있다. 또한, 상기 상대방측 감지신호는 사용자 인터랙션 장치 이외의 다른 장치에 의해 임의로 형성된 데이터일 수도 있고, 인터넷 망(IP Network)을 통해 전송받을 수도 있다.The wireless communication module 110 can receive the other side sensing signal from the outside and output the receiving side sensing signal to the device control unit 130. The counterpart side sensing signal may be generated by a user interaction apparatus of a counterpart similar to the user interaction apparatus 100 shown in FIG. 1, and may be transmitted from a wireless communication module of the counterpart user interaction apparatus or from a counterpart mobile terminal Lt; / RTI > The counterpart side sensing signal may include at least one counterpart sensing data, and the at least one counterpart sensing data may include motion recognition data and sound data sensed by the counterpart user interaction device. In addition, the counterpart side sensing signal may be data arbitrarily formed by a device other than the user interaction device, or may be transmitted through an Internet network (IP network).

또한, 무선통신모듈(110)은 장치 제어부(130)로부터 입력받은 사용자측 감지신호를 상대방에게 전송할 수도 있다. 무선통신모듈(110)은 장치 제어부(130)의 제어 등에 따라 일정한 주기로 사용자측 감지신호를 상대방의 사용자 인터랙션 장치로 전송할 수 있고 일정한 주기로 상대방측 감지신호를 전송받을 수 있다. 상기 무선통신모듈(110)은 상대방의 모바일 단말기나 상대방의 사용자 인터랙션 장치와 무선으로 통신할 수 있는 모든 형태의 통신모듈을 포함하는 개념이며, 대표적으로는 블루투스(Bluetooth) 모듈, WiFi(Wireless Fidelity) 모듈, 무선 인터넷 모듈, 지그비(ZigBee) 모듈, 적외선 통신모듈, 또는 NFC(Near Field Communication) 모듈, WCDMA 모듈, LTE 모듈, WiBro 모듈 등일 수 있고, 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다. 따라서, 상기 무선통신부(411)는 근접 거리의 통신 뿐만 아니라 Over The IP로 통칭될 수 있는 인터넷 프로토콜 망(IP Network)을 통한 통신도 가능할 수 있다.Also, the wireless communication module 110 may transmit the user side sensing signal received from the device control unit 130 to the other party. The wireless communication module 110 may transmit a user-side sensing signal to the user interaction apparatus of the other party at regular intervals according to the control of the device control unit 130, and may receive the opposite side sensing signal at a predetermined period. The wireless communication module 110 is a concept including all types of communication modules capable of wirelessly communicating with a mobile terminal of the other party or a user interaction device of the other party. Typically, the module includes a Bluetooth module, a wireless fidelity (WiFi) Module, a wireless Internet module, a ZigBee module, an infrared communication module, or an NFC (Near Field Communication) module, a WCDMA module, an LTE module, a WiBro module and the like, . Therefore, the wireless communication unit 411 can communicate not only with a close-range communication but also through an Internet Protocol (IP) network, which may be referred to as Over The IP.

센서부(120)는, 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성할 수 있다. 즉, 센서부(120)는 사용자의 움직임이나 음성, 주변의 소리 등을 감지하여 사용자측 감지신호를 생성할 수 있고, 이러한 사용자측 감지신호는 적어도 하나의 사용자측 센싱데이터를 포함할 수 있다. 적어도 하나의 사용자측 센싱데이터에는 동작인식센서(123)에 의해 감지된 동작인식데이터 및 음향인식센서(120)에 의해 감지된 음향데이터가 포함될 수 있다. 상기 적어도 하나의 사용자측 센싱데이터는 이에 국한되지 않으며 센서를 통해 감지가 가능한 다양한 형태의 센싱데이터를 포함할 수 있다.The sensor unit 120 may detect a user or a surrounding state to generate a user-side sensing signal. That is, the sensor unit 120 may generate a user-side sensing signal by sensing the user's movement, voice, surrounding sound, etc., and the user-side sensing signal may include at least one user-side sensing data. At least one user-side sensing data may include motion recognition data sensed by the motion recognition sensor 123 and sound data sensed by the sound recognition sensor 120. [ The at least one user-side sensing data is not limited thereto and may include various types of sensing data that can be sensed through a sensor.

상기 센서부(120)는, 도 1에 도시된 바와 같이, 동작인식센서(123) 및 음향인식센서(126)를 포함할 수 있다.The sensor unit 120 may include an operation recognition sensor 123 and an acoustic recognition sensor 126, as shown in FIG.

동작인식센서(123)는, 사용자 인터랙션 장치(100)의 움직임을 측정할 수 있다. 즉, 동작인식센서(123)는, 사용자가 사용자 인터랙션 장치(100)를 손목 등에 착용한 후 사용자 인터랙션 장치(100)를 흔드는 등의 동작을 하는 경우, 이에 따른 사용자 인터랙션 장치(100)의 움직임에 대응되는 동작인식데이터를 생성하여 장치 제어부(130)로 출력할 수 있다. 일례로서, 상기 동작인식센서(123)는 사용자 인터랙션 장치(100)에 내장될 수 있고, 가속도 센서(Accelerometer sensor)나 자이로스코프(Gyroscope), 중력 센서(Gravity Sensor)등과 같은 다양한 형태의 동작감지 센서에 의해 구현될 수 있다. 동작인식센서(123)에서 출력되는 동작인식데이터는 사용자 인터랙션 장치(100)의 이동방향 및 가속도 등의 정보를 포함할 수 있으며, 이에 대한 자세한 사항은 통상의 기술자에게 널리 알려져 있으므로 여기에서는 자세한 설명을 생략한다.The motion recognition sensor 123 can measure the motion of the user interaction apparatus 100. [ That is, when the user performs an operation such as shaking the user interaction device 100 after the user wears the user interaction device 100 on the wrist or the like, the motion recognition sensor 123 may detect the movement of the user interaction device 100 It is possible to generate corresponding motion recognition data and output it to the device control unit 130. [ For example, the motion recognition sensor 123 may be embedded in the user interaction apparatus 100 and may include various types of motion detection sensors such as an accelerometer sensor, a gyroscope, a gravity sensor, Lt; / RTI > The motion recognition data output from the motion recognition sensor 123 may include information such as a moving direction and an acceleration of the user interaction apparatus 100 and details thereof are well known to those skilled in the art. It is omitted.

음향인식센서(126)는 사용자 인터랙션 장치(100) 주변의 소리 및 사용자의 음성을 감지할 수 있는 센서로서, 그 구성 및 동작 원리는 통상의 기술자에게 널리 알려져 있으므로 여기에서는 자세한 설명을 생략한다. 음향인식센서(126)에서 출력되는 음향데이터는 사용자 인터랙션 장치(100) 주변에서 인식된 소리의 크기 등을 포함할 수 있다.The acoustic recognition sensor 126 is a sensor capable of sensing the sound around the user interaction apparatus 100 and the user's voice, and its configuration and operation principle are well known to those of ordinary skill in the art. The sound data output from the sound recognition sensor 126 may include the size of sounds recognized around the user interaction apparatus 100, and the like.

한편, 도 1에 도시된 센서부(120)의 구성은 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)에 구비되는 센서부(120)는 이외에도 다양한 형태의 센서를 구비할 수 있다.The sensor unit 120 shown in FIG. 1 is an example, and the sensor unit 120 included in the user interaction apparatus 100 according to an embodiment of the present invention may include various types of sensors .

장치 제어부(130)는, 무선통신모듈(110)로부터 상대방측 감지신호를 입력받고, 센서부(120)로부터 사용자측 감지신호를 입력받을 수 있다. 이후, 장치 제어부(130)는 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 인터랙션 출력부(140)로 출력할 수 있다. 일례로서, 상기 인터랙션 제어신호는, 광 출력부(143)를 제어하기 위한 광 제어신호 및 향 발산부(146)를 제어하기 위한 향 제어신호를 포함할 수 있다. The device control unit 130 receives a detection signal from the wireless communication module 110 and receives a user detection signal from the sensor unit 120. Then, the device control unit 130 generates an interaction control signal according to a result of comparison between at least one counterpart sensing data included in the counterpart sensing signal and at least one user-side sensing data included in the user sensing signal, and outputs the interaction control signal to the interaction output unit 140). As an example, the interaction control signal may include a light control signal for controlling the light output section 143 and a direction control signal for controlling the incoherent section 146.

한편, 상기 장치 제어부(110)는, 무선통신모듈(110)을 통해 상기 사용자 인터랙션 장치(100) 주변에 상기 상대방의 사용자 인터랙션 장치가 위치하는지를 판단하고, 상기 사용자 인터랙션 장치(100)와 상기 상대방의 사용자 인터랙션 장치 사이의 거리가 일정 거리 이하인 것으로 판단되면 무선통신모듈(110)을 통해 상기 상대방의 사용자 인터랙션 장치와 무선통신을 연결할 수 있다. 일례로서, 장치 제어부(110)는 무선통신모듈(110)을 통해 상대방의 사용자 인터랙션 장치로부터 수신되는 신호의 RSSI(Received Signal Strength Indicator)나 LQI(Link Quality Indicator) 등을 측정하여 무선신호의 세기나 연결된 통신상태의 품질을 알아낸 후 이에 따라 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치 사이의 거리를 판단할 수 있다. 장치 제어부(110)는, 이외에도 다양한 방법을 이용하여 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치 사이의 거리를 판단할 수 있고, 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치 사이의 거리가 일정 거리 이하인 것으로 판단되면 무선통신모듈(110)을 통해 상대방의 사용자 인터랙션 장치와 무선통신을 연결할 수 있다. 또한, 장치 제어부(110)는 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치 사이의 거리뿐만 아니라 무선신호의 지속시간 등을 함께 고려하여 무선통신을 연결할 수도 있다.The device controller 110 determines whether the user interaction apparatus of the other party is located around the user interaction apparatus 100 through the wireless communication module 110 and determines whether the user interaction apparatus 100 is located near the user interaction apparatus 100, If it is determined that the distance between the user interaction apparatuses is less than a predetermined distance, the user interaction apparatus can be connected to the user interaction apparatus via the wireless communication module 110. For example, the device control unit 110 measures RSSI (Received Signal Strength Indicator) or LQI (Link Quality Indicator) of a signal received from a user interaction apparatus of the other party through the wireless communication module 110, After determining the quality of the connected communication state, the distance between the user interaction device 100 and the user interaction device of the other party can be determined. The device control unit 110 may determine the distance between the user interaction device 100 and the user interaction device 100 of the other user by using various other methods and may determine the distance between the user interaction device 100 and the user interaction device of the other user If it is determined that the distance is equal to or less than the predetermined distance, the wireless communication module 110 can connect the wireless communication with the user interaction device of the other party. Also, the device control unit 110 may connect the wireless communication by considering the distance between the user interaction device 100 and the user interaction device of the other user, as well as the duration of the wireless signal.

상기 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 다양한 구성요소를 제어하고 다양한 데이터를 처리하는 구성요소로서, CPU 프로세서와 같은 중앙처리장치에 의해 구현될 수 있다. 상기 장치 제어부(130)의 동작에 대한 상세한 설명은 도 2를 참조하여 상술하기로 하고 여기에서는 자세한 설명을 생략한다.The device control unit 130 is a component for controlling various components of the user interaction apparatus 100 and processing various data, and may be implemented by a central processing unit such as a CPU processor. The operation of the device control unit 130 will be described in detail with reference to FIG. 2, and a detailed description thereof will be omitted here.

인터랙션 출력부(140)는, 장치 제어부(130)로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 외부로 출력할 수 있다. 여기에서, 인터랙션(Interaction)은, 광(Light), 향(Perfume), 소리(Sound) 및 촉감 등 사용자에게 오감의 자극을 줄 수 있는 다양한 형태의 출력을 의미할 수 있다. 도 1에 도시된 바와 같이, 상기 인터랙션 출력부(140)는 광 출력부(143) 및 향 발산부(146)를 포함할 수 있다.The interaction output unit 140 receives the interaction control signal from the device control unit 130 and can output the interaction corresponding to the interaction control signal to the outside. Here, the interaction may mean various types of output, such as light, perfume, sound, and touch, which can give the user a stimulus of the five senses. 1, the interaction output unit 140 may include an optical output unit 143 and an incense divergence unit 146.

광 출력부(143)는, 장치 제어부(130)로부터 입력받은 광 제어신호에 대응되는 빛을 외부로 출력할 수 있다. 일례로서, 상기 광 출력부(143)는 다양한 색상을 표시할 수 있는 RGB 발광다이오드(LED)로 구현될 수 있고, 상기 광 제어신호에 따라 빛의 밝기, 색깔, 점멸 주파수 등이 조절될 수 있는 다양한 형태의 발광 모듈에 의해 구현될 수도 있다.The light output unit 143 can output light corresponding to the light control signal received from the device control unit 130 to the outside. For example, the light output unit 143 may be implemented as an RGB light emitting diode (LED) capable of displaying various colors, and the brightness, color, and flicker frequency of the light may be adjusted according to the light control signal But may be implemented by various types of light emitting modules.

향 발산부(146)는, 장치 제어부(130)로부터 입력받은 향 제어신호에 대응되는 향을 외부로 발산할 수 있다. 향 발산부(146)는 적어도 하나의 기초향을 구비하고, 상기 적어도 하나의 기초향을 조합하여 발산함으로써 다양한 향을 만들어 낼 수 있다. 이와 대응되도록, 제어부(120)로부터 입력받은 향 제어신호는, 적어도 하나의 기초향 각각에 대응되는 적어도 하나의 기초향 제어신호를 포함할 수 있다.The incense divergence unit 146 can diverge the incense corresponding to the incense control signal received from the device control unit 130 to the outside. The incense diversion section 146 has at least one base incense and can produce various incense by radiating a combination of the at least one base incense. The incense control signal input from the controller 120 may include at least one incidence control signal corresponding to each of the at least one baseline.

예를 들면, 본 발명의 일실시예에 따른 향 발산부(146)는, 4개의 기초향을 구비할 수 있고, 장치 제어부(130)로부터 입력받은 향 제어신호는 4개의 기초향 각각에 대응되는 4개의 기초향 제어신호를 포함할 수 있다. 여기에서, 4개의 기초향을 A, B, C, D 라 하고 향 제어신호를 8비트 신호라고 가정하면, 각각의 기초향 제어신호는 2비트 신호이고, 기초향 제어신호에 따라 각각의 기초향의 발산량을 0단계(발산 안 함), 1단계(소량), 2단계(중량), 3단계(다량)로 조절할 수 있다. 예를 들어, 장치 제어부(130)로부터 입력받은 향 제어신호가 "01100011"이라고 하면, 상위 비트부터 차례대로, 기초향 A에 대응되는 기초향 제어신호는 "00", 기초향 B에 대응되는 기초향 제어신호는 "01", 기초향 C에 대응되는 기초향 제어신호는 "10", 기초향 D에 대응되는 기초향 제어신호는 "11"에 해당된다. 따라서, 이 경우 향 발산부(146)는, 기초향 A를 1단계(소량)만큼 발산하고, 기초향 B를 2단계(중량)만큼 발산하며, 기초향 C를 발산하지 않고, 기초향 D를 3단계(다량)만큼 발산할 수 있다. For example, the directional divergence unit 146 according to an embodiment of the present invention may have four basic directions, and the direction control signal received from the device control unit 130 may correspond to each of the four basic directions And may include four fundamental control signals. Here, assuming that the four fundamental directions are A, B, C, and D, and the incense control signal is an 8-bit signal, each fundamental direction control signal is a 2-bit signal, The amount of divergence can be adjusted to 0 (no divergence), 1 (small amount), 2 (weight), and 3 (large amount). For example, if the incense control signal received from the device control unit 130 is "01100011 ", the base control signal corresponding to the base incense A is" 00 " The fundamental control signal corresponding to the base direction C corresponds to "10 ", and the base direction control signal corresponding to the base direction D corresponds to" 11 ". Therefore, in this case, the incense diversion section 146 diverges the base incense A by one step (a small amount), diverges the base incense B by two stages (weight), does not emit the base incense C, It can be diverged as much as three steps (large amount).

즉, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)의 향 발산부(146)는, 향 제어신호에 포함되는 적어도 하나의 기초향 제어신호에 따라 각 기초향의 발산량을 조절하여 외부로 발산함으로써 적어도 하나의 기초향이 조합된 다양한 향을 만들어 낼 수 있다. 한편, 향 발산부(146)는 외부에 향발산량을 조절할 수 있는 조절버튼을 더 포함할 수 있다.That is, the directional divergence unit 146 of the user interaction apparatus 100 according to an embodiment of the present invention adjusts the divergence amount of each fundamental direction according to at least one fundamental direction control signal included in the incense control signal, By diverging, it is possible to produce a variety of fragrances combined with at least one base flavor. Meanwhile, the incense divergence unit 146 may further include an adjustment button for adjusting the amount of the incense divergence to the outside.

일례로서, 향 발산부(146)에 구비되는 적어도 하나의 기초향은 고체 형태로 형성될 수 있고, 바람직하게는 40℃~50℃의 범위에서 융해(melting)되어 향을 발산할 수 있다. 또한, 향 발산부(146)는 상기 고체 형태의 적어도 하나의 기초향을 가열하기 위하여 전류가 흐르면 열이 발생되는 가열회로부를 더 구비할 수 있다. 향 발산부(146)는 장치 제어부(130)로부터 향 제어신호를 입력받으면 상기 향 제어신호에 대응되는 적어도 하나의 기초향 각각의 발산량을 제어하기 위하여, 가열회로부 각각에 흐르는 전류량을 각기 다르게 제어하거나, 가열회로부 각각의 가열 시간을 각기 다르게 제어할 수 있다. 이에 따라, 장치 제어부(130)로부터 입력받은 향 제어신호에 대응되는 향이 향 발산부(146)로부터 외부로 발산될 수 있다.As one example, the at least one base flavor provided in the flavor diffusing portion 146 may be formed in a solid form, and may be melted in a range of 40 ° C to 50 ° C to emit a fragrance. Further, the incandescent portion 146 may further include a heating circuit portion for generating heat when an electric current flows to heat at least one base incense in the solid form. When the incendive control unit 130 receives the incendiary control signal from the device control unit 130, the incentive divergence unit 146 controls the amounts of currents flowing through the respective heating circuit units to be different from each other , The heating time of each of the heating circuit portions can be controlled differently. Accordingly, the fragrance corresponding to the fragrance control signal received from the device control unit 130 can be diverted from the fragrance divergence unit 146 to the outside.

한편, 상술한 바와 같은 향 발산부(146)의 구성은 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)에 포함되는 향 발산부(146)의 구성 및 형태 등은 이로부터 다양하게 변경될 수 있다.The configuration of the fragrance divergence unit 146 included in the user interaction apparatus 100 according to an embodiment of the present invention is not limited thereto, And can be variously changed.

또한, 도 1에는 인터랙션 출력부(140)가 광 출력부(143) 및 향 발산부(146)를 포함하는 것으로 도시되어 있으나 이는 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)에 포함되는 인터랙션 출력부(140)는 소리를 출력할 수 있는 소리출력부(미도시)나 촉감을 출력할 수 있는 촉감출력부(미도시)와 같이 이외에도 다양한 형태의 출력부를 포함할 수도 있다. 상기 소리 출력부(미도시)는 음향을 출력할 수 있는 스피커 등을 포함할 수 있고, 촉감출력부(미도시)는 진동을 발생시킬 수 있는 진동발생모듈이 포함될 수 있으며, 이러한 소리 출력부(미도시) 및 촉감출력부(미도시)는 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다.1, the interaction output unit 140 is shown as including the light output unit 143 and the incense divergence unit 146. However, the user interaction apparatus 100 according to an exemplary embodiment of the present invention is not limited thereto. (Not shown) capable of outputting a sound or a tactile output unit (not shown) capable of outputting a tactile sense may include various types of output units as well . The sound output unit (not shown) may include a speaker capable of outputting sound, and the tactile output unit (not shown) may include a vibration generating module capable of generating vibration. (Not shown) and the tactile output unit (not shown) may be variously changed within a range known to a person skilled in the art.

한편, 도 1에 도시되지는 않았으나 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는 무선통신모듈(110), 센서부(120), 장치 제어부(130) 및 인터랙션 출력부(140)에 전원을 공급하기 위한 배터리부(미도시)를 더 포함할 수 있다. 또한, 상기 배터리부에 전원을 충전하기 위한 배터리 충전 모듈(미도시)를 더 포함할 수 있다.1, a user interaction apparatus 100 according to an exemplary embodiment of the present invention includes a wireless communication module 110, a sensor unit 120, a device control unit 130, and an interaction output unit 140 And a battery unit (not shown) for supplying power. The apparatus may further include a battery charging module (not shown) for charging the battery.

또한, 도 1에 도시되지는 않았으나 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 비교대상 감지신호를 포함하는 멀티미디어 데이터를 저장하는 메모리부(미도시)를 더 포함할 수 있다. 여기에서, 상기 멀티미디어 데이터는 사진, 동영상, 음성, 음악 등 다양한 데이터를 포함하는 개념일 수 있고, 상기 비교대상 감지신호는 상술한 바와 같은 상대방측 감지신호 및 사용자측 감지신호와 유사한 형태의 데이터일 수 있다. 일례로서, 사용자가 외부 장치(예: 상대방의 모바일 단말기 또는 상대방의 사용자 인터랙션 장치 등)로부터 멀티미디어 데이터 및 비교대상 감지신호를 전송받을 수 있고, 장치 제어부(130)는 전송받은 멀티미디어 데이터 및 비교대상 감지신호를 메모리부(미도시)에 저장할 수 있다. 이 경우 상기 비교대상 감지신호는, 상대방의 사용자 인터랙션 장치 등에서 감지된 상대방의 움직임이나 음성, 주변의 소리 등을 통해 생성된 신호일 수 있다. 다른 예로서, 사용자가 자신의 사용자 인터랙션 장치(100)를 이용하여 멀티미디어 데이터를 생성한 후 생성된 멀티미디어 데이터 및 비교대상 감지신호를 메모리부(미도시)에 저장할 수도 있다. 이 경우의 비교대상 감지신호는, 사용자 인터랙션 장치(100)에 의해 감지된 사용자의 움직임이나 음성, 주변의 소리 등을 통해 생성된 신호일 수 있다.In addition, although not shown in FIG. 1, the user interaction apparatus 100 according to an embodiment of the present invention may further include a memory unit (not shown) for storing multimedia data including a comparison target detection signal. Here, the multimedia data may be a concept including various data such as photographs, moving pictures, voice, music, etc., and the comparison object detection signal may be data similar to the counterpart side detection signal and the user side detection signal have. For example, the user may receive multimedia data and a comparison object detection signal from an external device (e.g., a mobile terminal of the other party or a user interaction device of the other party), and the device control unit 130 may receive the received multimedia data, The signal can be stored in a memory unit (not shown). In this case, the comparison target detection signal may be a signal generated through motion, voice, surrounding sound, or the like of the other party detected by the user interaction apparatus of the other party. As another example, a user may generate multimedia data using his / her user interaction apparatus 100, and store the generated multimedia data and comparison target detection signals in a memory unit (not shown). In this case, the comparison target detection signal may be a signal generated by the user's movement, voice, surrounding sound, etc. sensed by the user interaction apparatus 100.

장치 제어부(130)는, 사용자 입력에 따라 메모리부(미도시)로부터 상기 비교대상 감지신호를 입력받고 센서부(120)로부터 사용자측 감지신호를 입력받을 수 있다. 장치 제어부(130)는, 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력할 수 있다. 이와 같은 장치 제어부(130)의 동작에 대해서는 상술한 바와 유사하므로 여기에서는 자세한 설명을 생략한다. 또한, 인터랙션 출력부(140)가 장치 제어부(130)로부터 인터랙션 제어신호를 입력받고 인터랙션 제어신호에 대응되는 인터랙션을 출력할 수 있음도 상술한 바와 같다.The device control unit 130 receives the comparison target sensing signal from a memory unit (not shown) according to a user input, and receives a sensing signal from the sensor unit 120. The device control unit 130 may generate and output an interaction control signal according to a result of comparison between at least one of the comparison target sensing data included in the comparison target sensing signal and at least one of the user side sensing data included in the user sensing signal. Since the operation of the device control unit 130 is similar to that described above, detailed description is omitted here. It is also described that the interaction output unit 140 receives the interaction control signal from the device control unit 130 and outputs the interaction corresponding to the interaction control signal.

이와 같이, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 메모리부(미도시)에 저장된 멀티미디어 데이터를 나중에 재생하는 경우, 멀티미디어 데이터와 함께 저장된 비교대상 감지신호와 사용자 인터랙션 장치(100)에 의해 감지되는 사용자측 감지신호를 비교하여 비교 결과에 따른 인터랙션을 출력함으로써 시간을 뛰어넘어 사용자 인터랙션이 가능한 효과가 있다.
As described above, when the multimedia data stored in the memory unit (not shown) is later reproduced, the user interaction apparatus 100 according to the embodiment of the present invention performs a comparison operation between the comparison target detection signal stored together with the multimedia data and the user interaction apparatus 100 And outputs the interaction based on the result of the comparison. Thus, there is an effect that user interaction can be performed over time.

도 2는 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법을 나타내는 순서도(Flowchart)이다. 일례로서, 도 2에 도시된 사용자 인터랙션 장치의 동작방법(200)은 도 1을 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)에 의해 수행될 수 있다.2 is a flowchart illustrating a method of operating a user interaction apparatus according to an embodiment of the present invention. As an example, the operation method 200 of the user interaction apparatus shown in FIG. 2 may be performed by the user interaction apparatus 100 according to an embodiment of the present invention described above with reference to FIG.

도 2를 참조하면, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, 먼저, 센서부(120)가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계(S210)를 포함할 수 있다.Referring to FIG. 2, an operation method 200 of a user interaction apparatus according to an embodiment of the present invention includes a step S210 of generating a user-side detection signal by sensing a state of a user or a surrounding area of a sensor unit 120 ).

도 1을 참조하여 상술한 바와 같이, 센서부(120)는, 사용자의 움직임이나 음성, 주변의 소리 등을 감지하여 사용자측 감지신호를 생성하여 장치 제어부(130)로 출력할 수 있고, 이러한 사용자측 감지신호는 적어도 하나의 사용자측 센싱데이터를 포함할 수 있다. 적어도 하나의 사용자측 센싱데이터에는 동작인식센서(123)에 의해 감지된 동작인식데이터 및 음향인식센서(120)에 의해 감지된 음향데이터가 포함될 수 있다. As described above with reference to FIG. 1, the sensor unit 120 may detect a user's motion, voice, and surrounding sounds to generate a user-side sensing signal and output the sensing signal to the device control unit 130, The signal may include at least one user-side sensing data. At least one user-side sensing data may include motion recognition data sensed by the motion recognition sensor 123 and sound data sensed by the sound recognition sensor 120. [

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, 무선통신모듈(110)을 통해 외부로부터 상대방측 감지신호를 전송받는 단계(S220)를 포함할 수 있다.The method 200 of operating a user interaction apparatus according to an embodiment of the present invention may include receiving a counterpart side sensing signal from the outside through the wireless communication module 110 (S220).

상대방측 감지신호는 적어도 하나의 상대방측 센싱데이터를 포함할 수 있고, 상기 적어도 하나의 상대방측 센싱데이터는 상대방의 사용자 인터랙션 장치에 의해 감지된 동작인식데이터 및 음향데이터 등을 포함할 수 있다. 즉, 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터는 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터와 동일 또는 유사한 형식으로 이루어질 수 있다. 또한, 상기 상대방측 감지신호는 사용자 인터랙션 장치 이외의 다른 장치에 의해 임의로 형성된 데이터일 수도 있고, 인터넷 망(IP Network)을 통해 전송받을 수도 있다.The other side sensing signal may include at least one counterpart sensing data, and the at least one counterpart sensing data may include motion recognition data and sound data sensed by the user interaction device of the counterpart. That is, at least one counterpart sensing data included in the counterpart sensing signal may be the same or similar to at least one user sensing data included in the sensing signal on the user side. In addition, the counterpart side sensing signal may be data arbitrarily formed by a device other than the user interaction device, or may be transmitted through an Internet network (IP network).

한편, 도 2에는 도시되지 않았으나 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은 S220 단계 이전에 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치가 서로 무선 연결되는 단계(미도시)가 수행될 수 있다. 즉, 도 1을 참조하여 상술한 바와 같이 장치 제어부(130)는 사용자 인터랙션 장치(100) 주변에 상대방의 사용자 인터랙션 장치가 위치하는지를 판단하고, 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치 사이의 거리가 일정 거리 이하인 것으로 판단되면 무선통신모듈(110)을 통해 상대방의 사용자 인터랙션 장치와 무선통신을 연결할 수 있다. 또한, 장치 제어부(130)는, 사용자로부터 무선 연결할 상대방의 사용자 인터랙션 장치를 입력받은 후 선택된 상대방의 사용자 인터랙션 장치와 무선통신을 연결할 수도 있다.Although not shown in FIG. 2, the method 200 of operating a user interaction apparatus according to an exemplary embodiment of the present invention includes a step of performing a wireless connection between a user interaction apparatus 100 and a user interaction apparatus Time) can be performed. That is, as described above with reference to FIG. 1, the device control unit 130 determines whether the user interaction apparatus of the other user is located in the vicinity of the user interaction apparatus 100, and determines whether the user interaction apparatus exists between the user interaction apparatus 100 and the user interaction apparatus If it is determined that the distance is less than the predetermined distance, the wireless communication module 110 can connect the wireless communication with the user interaction device of the other party. Also, the device control unit 130 may connect the wireless communication with the user interaction device of the selected partner after receiving the user interaction device of the other party to wirelessly connect from the user.

또한, 도 2에는 S210 단계가 수행된 이후에 S220 단계가 수행되는 것으로 도시되어 있으나 이는 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, S210 단계 및 S220 단계의 순서가 서로 바뀌어 수행될 수도 있다.2, operation S220 is performed after operation S210 is performed. However, operation 200 of the user interaction apparatus according to an embodiment of the present invention may include operations S210 and S220 May be carried out in the order of mutually changing.

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, 장치 제어부(130)가 무선통신모듈(110)로부터 상기 상대방측 감지신호를 입력받고 센서부(120)로부터 상기 사용자측 감지신호를 입력받는 단계(S230)를 포함할 수 있다.The operation method 200 of the user interaction apparatus according to an embodiment of the present invention is a method in which the device control unit 130 receives the counterpart side sensing signal from the wireless communication module 110 and receives And receiving a user-side sensing signal (S230).

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, 장치 제어부(130)가 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계(S240)를 포함할 수 있다. 상기 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 비교 결과는 실시간 비교 결과일 수도 있고 일정 시간 동안의 비교 결과일 수도 있으며, 비교 대상이 되는 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 시간적 차이는 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다.Next, an operation method 200 of a user interaction apparatus according to an exemplary embodiment of the present invention may include a method in which a device control unit 130 includes at least one counterpart sensing data included in the counterpart sensing signal, And generating and outputting an interaction control signal according to a comparison result of at least one user-side sensing data (S240). The comparison result of the at least one counterpart side sensing data and the at least one user side sensing data may be a real-time comparison result or a comparison result for a predetermined time, and may include at least one counterpart sensing data to be compared, The temporal difference of the user-side sensing data can be variously changed within a range known to the ordinary artisan.

여기에서, 장치 제어부(130)에 의해 생성되는 인터랙션 제어신호는 광 제어신호 및 향 제어신호를 포함할 수 있고, 상기 광 제어신호 및 상기 향 제어신호 각각은, 사용자측 센싱데이터에 포함되는 동작인식데이터와 상대방측 센싱데이터에 포함되는 동작인식데이터를 비교한 결과 및 사용자측 센싱데이터에 포함되는 음향데이터와 상기 상대방측 센싱데이터에 포함되는 음향데이터를 비교한 결과 중 적어도 하나에 따라 생성될 수 있다. 또한, 장치 제어부(130)는, 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 등 다양한 값에 따라 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성할 수 있다.Here, the interaction control signal generated by the device control unit 130 may include a light control signal and an incense control signal, and each of the light control signal and the incense control signal may include motion recognition data Side sensing data, and a result of comparing the sound recognition data included in the counterpart sensing data with the sound data included in the user-side sensing data and the sound data included in the counterpart sensing data. In addition, when comparing at least one counterpart side sensing data and at least one user side sensing data, the device control unit 130 may control at least one of the sensing data to be compared based on various values such as a maximum value, an average value, Side sensing data and at least one user-side sensing data, respectively.

일례로서, 장치 제어부(130)는 비교의 대상이 되는 센싱데이터들의 근접도(차이)에 따라 센싱데이터의 비교 결과를 생성할 수 있다. 장치 제어부(130)는, 사용자측 센싱데이터에 포함된 동작인식데이터를 통해 사용자 인터랙션 장치(100)의 가속도를 알 수 있고 상대방측 센싱데이터에 포함된 동작인식데이터를 통해 상대방의 사용자 인터랙션 장치의 가속도를 알 수 있다. 이후 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 가속도와 상대방의 사용자 인터랙션 장치의 가속도를 비교하여 두 가속도의 차이가 작을수록 광 출력부에서 출력되는 빛의 점멸 주파수를 크게 하도록 광 제어신호를 생성하여 광 출력부(143)로 출력할 수 있다. 즉, 사용자가 자신의 사용자 인터랙션 장치(100)를 움직이도는 속도와 상대방이 상대방의 사용자 인터랙션 장치를 움직이는 속도가 비슷할수록, 사용자 인터랙션 장치(100)의 광 출력부(143)에서 출력되는 빛은 더욱 자주 깜빡일 수 있다. 이에 따라 사용자와 상대방은 사용자 인터랙션 장치를 비슷한 속도로 움직일수록 서로의 사용자 인터랙션 장치에서 출력되는 빛의 깜빡임이 빨라지므로 서로의 동작을 통해 상호작용하는 광 출력부(143)의 빛을 통해 서로 친밀감을 느낄 수 있는 효과가 있다.As an example, the device control unit 130 may generate the comparison result of the sensing data according to the proximity (difference) of the sensing data to be compared. The device control unit 130 can recognize the acceleration of the user interaction apparatus 100 through the motion recognition data included in the user side sensing data and can recognize the acceleration of the user interaction apparatus of the other side through the motion recognition data included in the counterpart side sensing data Able to know. Then, the device control unit 130 compares the acceleration of the user interaction apparatus 100 with the acceleration of the user interaction apparatus of the other side so as to increase the blink frequency of the light output from the optical output unit as the difference between the two accelerations is smaller. And output it to the light output section 143. [ That is, as the speed at which the user moves his or her user interaction apparatus 100 is similar to the speed at which the other user moves the user interaction apparatus, the light output from the light output unit 143 of the user interaction apparatus 100 May flicker more often. Accordingly, as the user and the other party move the user interaction apparatus at a similar speed, the blinking of the light output from the user interaction apparatuses becomes faster, so that the intimacy of the user interaction apparatus is improved through the light of the optical output unit 143 interacting with each other There is an effect that can be felt.

또한, 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 가속도와 상대방의 사용자 인터랙션 장치의 가속도를 비교하여 두 가속도의 차이에 따라 향 발산부(146)에서 발산되는 향의 종류를 변경하거나 향의 지속시간을 변경할 수도 있다. 예를 들면, 사용자가 자신의 사용자 인터랙션 장치(100)를 움직이는 속도와 상대방이 상대방의 사용자 인터랙션 장치를 움직이는 속도가 비슷할수록, 사용자 인터랙션 장치(100)의 향 발산부(146)에서 발산되는 향은 더욱 진한 향이 될 수 있고 향 발산의 지속시간도 더욱 길어질 수 있다. 이에 따라 사용자와 상대방은 사용자 인터랙션 장치를 비슷한 속도로 움직일수록 서로의 사용자 인터랙션 장치에서 발산되는 향이 더욱 진해지고 지속시간도 길어지므로, 서로의 동작을 통해 상호작용하는 향 발산부(146)의 향을 통해 서로 더욱 친밀감을 느낄 수 있는 효과가 있다.The device control unit 130 also compares the acceleration of the user interaction apparatus 100 with the acceleration of the user interaction apparatus of the other party to change the type of incense emitted from the incense diversion unit 146 according to the difference between the two accelerations, May be changed. For example, as the speed at which the user moves his / her user interaction apparatus 100 and the speed at which the other user interacts with the user interaction apparatus are the same, the incense emitted from the incense diversion unit 146 of the user interaction apparatus 100 becomes The more intense the fragrance can be and the longer the duration of the fragrance emission can be. Accordingly, as the user and the user move the user interaction apparatus at a similar speed, the fragrance emitted from the user interaction apparatuses becomes stronger and the duration of the user interaction apparatus becomes longer. Therefore, the fragrance diffuser 146 interacting with each other There is an effect of feeling more intimacy through each other.

또한, 장치 제어부(130)는, 사용자측 센싱데이터에 포함된 음향데이터를 통해 사용자 인터랙션 장치(100) 주변의 소리 크기(dB)를 알 수 있고 상대방측 센싱데이터에 포함된 음향데이터를 통해 상대방의 사용자 인터랙션 장치 주변의 소리크기(dB)를 알 수 있다. 이후 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기를 비교하여 두 소리 크기의 차이에 따라 광 출력부(143)에서 출력되는 빛의 색상을 변경할 수 있다. 즉, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기의 차이가 5 데시벨(dB) 이하인 경우에는 자주색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기의 차이가 5dB 이상 10dB 이하인 경우에는 파란색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기의 차이가 10dB 이상 15dB 이하인 경우에는 녹색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기의 차이가 15dB 이상 20dB 이하인 경우에는 노란색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기의 차이가 20dB 이상인 경우에는 흰색의 빛이 광 출력부(143)에서 출력될 수 있다. 여기에서 소리 크기의 차이를 구분하는 범위 및 이에 따른 빛의 색상은 예시적인 것으로서 이로부터 다양하게 변경될 수 있음이 당업자에게 자명하다.In addition, the device control unit 130 can recognize the sound volume (dB) around the user interaction apparatus 100 through the sound data included in the user-side sensing data, You can see the sound volume (dB) around the interaction device. The device controller 130 compares the sound volume of the surroundings of the user interaction apparatus 100 with the sound volume of the surroundings of the user interaction apparatus of the other party so that the sound volume of the light output from the light output unit 143 You can change the color. That is, when the difference between the sound volume around the user interaction apparatus 100 and the sound volume around the user interaction apparatus of the other party is less than 5 decibels (dB), the purple color, the sound volume around the user interaction apparatus 100, When the difference in sound volume around the user interaction apparatus is not less than 5dB and less than 10dB, the difference is not less than 10dB and less than 15dB in the case where the difference between the sound volume around the user interaction apparatus 100 and the sound volume around the user interaction apparatus is blue, When the difference between the sound volume around the user interaction apparatus 100 and the sound volume around the user interaction apparatus 100 of the other party is equal to or more than 15 dB and equal to or less than 20 dB, the sound volume around the user interaction apparatus 100 and the sound volume around the user interaction apparatus 100 The white light is emitted from the light output portion 143 It can ryeokdoel. It is apparent to those skilled in the art that the range for distinguishing the difference in the loudness of the sound and the color of the light according to the loudness are illustrative and can be variously changed therefrom.

또한 다른 예로서, 장치 제어부(130)는 비교의 대상이 되는 센싱데이터들의 최대값에 따라 센싱데이터의 비교 결과를 생성할 수 있다. 예를 들면, 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 가속도와 상대방의 사용자 인터랙션 장치의 가속도를 비교하여 두 가속도 중에서 큰 값(최대값)에 따라 광 출력부에서 출력되는 빛의 점멸 주파수를 결정할 수도 있다. 또한, 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기를 비교하여 두 소리 크기 중의 최대값에 따라 광 출력부(143)에서 출력되는 빛의 색상을 변경할 수 있다. 즉, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기 중의 최대값이 20 데시벨(dB) 이하인 경우에는 자주색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기 중의 최대값이 21dB 이상 40dB 이하인 경우에는 파란색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기 중의 최대값이 41dB 이상 60dB 이하인 경우에는 녹색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기 중의 최대값이 61dB 이상 480dB 이하인 경우에는 노란색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기 중의 최대값이 81dB 이상인 경우에는 흰색의 빛이 광 출력부(143)에서 출력될 수 있다. 여기에서 소리 크기의 최대값을 구분하는 범위 및 이에 따른 빛의 색상은 예시적인 것으로서 이로부터 다양하게 변경될 수 있음이 당업자에게 자명하다.As another example, the device control unit 130 may generate the comparison result of the sensing data according to the maximum value of the sensing data to be compared. For example, the device control unit 130 compares the acceleration of the user interaction apparatus 100 with the acceleration of the user interaction apparatus of the other party, and determines whether the light output from the optical output unit is blinking The frequency can also be determined. The device control unit 130 compares the sound volume around the user interaction apparatus 100 with the sound volume around the user interaction apparatus of the other party so as to output the sound volume from the optical output unit 143 You can change the color of the light. That is, when the maximum value of the sound volume around the user interaction apparatus 100 and the sound volume around the user interaction apparatus 100 is less than 20 decibels (dB), the purple color, the sound volume around the user interaction apparatus 100, When the maximum value of the sound volume around the user interaction apparatus of the user interaction apparatus 100 is not less than 21dB and not more than 40dB, the maximum value of the sound environment size of the user interaction apparatus 100 and the sound environment around the user interaction apparatus 100 is not less than 60dB The volume of the surroundings of the user interaction apparatus 100 and the sound volume of the surroundings of the user interaction apparatus 100 in the green state are not less than 61 dB and 480 dB, If the maximum value of the sound volume around the user interaction device is 81dB or more, The light may be output from the optical output portion 143. It is apparent to those skilled in the art that the range for distinguishing the maximum value of the sound size and the color of the light corresponding thereto are illustrative and can be variously changed therefrom.

또한 다른 예로서, 장치 제어부(130)는 비교의 대상이 되는 센싱데이터들의 평균값에 따라 센싱데이터의 비교 결과를 생성할 수도 있다. 예를 들면, 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 가속도와 상대방의 사용자 인터랙션 장치의 가속도를 비교하여 두 가속도의 평균값에 따라 광 출력부에서 출력되는 빛의 점멸 주파수를 결정할 수도 있다. 즉, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 등 다양한 값에 따라 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성할 수 있다.As another example, the device control unit 130 may generate the comparison result of the sensing data according to the average value of the sensing data to be compared. For example, the device control unit 130 may compare the acceleration of the user interaction apparatus 100 with the acceleration of the user interaction apparatus of the other party, and determine the blink frequency of the light output from the optical output unit according to the average value of the two accelerations . That is, in comparing the at least one counterpart sensing data and the at least one user-side sensing data, the user interaction apparatus 100 according to an embodiment of the present invention compares the maximum value, the average value, and the maximum value of the sensing data, Proximity, and the like, and at least one comparison result of at least one counterpart side sensing data and at least one user side sensing data according to various values.

또한, 상술한 예에서는, 동작인식데이터에 포함된 가속도의 비교 결과에 따라 빛의 점멸 주파수가 결정되고 음향데이터에 포함된 소리 크기의 비교 결과에 따라 빛의 색상이 결정되어 광 제어신호는 동작인식데이터의 비교 결과 및 음향데이터의 비교 결과에 따라 생성되고, 동작인식데이터에 포함된 가속도의 비교 결과에 따라 향의 종류를 변경하거나 향의 지속시간을 변경하여 향 제어신호는 동작인식데이터의 비교 결과에 따라 생성되는데, 이는 예시적인 것으로서 광 제어신호 및 향 제어신호는 이외에도 다양한 방법으로 생성될 수 있다.In the above example, the flicker frequency of the light is determined according to the result of the comparison of the acceleration included in the motion recognition data, the color of the light is determined according to the result of the comparison of the sound size included in the sound data, The direction control signal is generated according to the comparison result of the data and the acoustic data, and the type of the incense is changed or the duration of the incense is changed according to the comparison result of the acceleration included in the motion recognition data, Which is an example, and the light control signal and the incense control signal may be generated in various other ways as well.

한편, 상술한 예에서는 장치 제어부(130)가 동작인식데이터 중에서 사용자 인터랙션 장치(100)의 가속도 정보만을 사용하는 것으로 되어 있으나 이는 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 동작인식데이터 중에서 가속도 및 이동방향을 함께 사용하여 사용자와 상대방이 서로 유사한 제스처(예: 원을 그리는 제스처, 십자가를 그리는 제스처 등)를 취하는 경우 이에 따라 광 출력부(143)에서 출력되는 빛의 점멸 주파수를 빠르게 하여 서로 친밀감을 느끼게 할 수도 있다. 또한, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 음향데이터에 포함된 사용자 인터랙션 장치(100) 주변의 소리 크기뿐만 아니라 사용자의 음성 등을 인식하여 사용자의 음성을 상대방의 음성과 비교한 결과에 따라 광 출력부(143)에서 출력되는 빛의 색상을 변화시키는 등 다양한 음향데이터를 사용하여 빛 또는 향을 출력할 수도 있다.In the above example, the device controller 130 uses only the acceleration information of the user interaction apparatus 100 among the motion recognition data. However, this is only an example, and the user interaction apparatus 100 according to the embodiment of the present invention, (E.g., a gesture for drawing a circle, a gesture for drawing a cross, etc.) using the acceleration and the moving direction in combination of the motion recognition data and the light output from the light output unit 143 It is possible to make the flicker frequency of the flicker of the flicker of the flicker of the flicker of the flicker of the flicker be increased. In addition, the user interaction apparatus 100 according to an embodiment of the present invention recognizes not only the sound volume around the user interaction apparatus 100 included in the sound data but also the user's voice, And may output light or an incense using various acoustic data such as changing the color of light output from the light output unit 143 according to the comparison result.

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, 인터랙션 출력부(140)가 장치 제어부(130)로부터 인터랙션 제어신호를 입력받고, 입력받은 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계(S250)를 포함할 수 있다. 즉, 인터랙션 출력부(140)는 장치 제어부(130)로부터 입력받은 인터랙션 제어신호에 따라 광 출력부(143)에서 빛을 출력하거나 향 발산부(146)에서 향을 발산할 수 있고, 또한 소리 출력부(미도시)에서 소리를 출력하거나 촉감출력부(미도시)에서 촉감을 출력할 수 있다.
Next, an operation method 200 of a user interaction apparatus according to an embodiment of the present invention will be described. In the operation method 200, the interaction output unit 140 receives an interaction control signal from the device control unit 130, And outputting the interaction (S250). That is, the interaction output unit 140 can output light from the light output unit 143 or diverge the incense from the incense diversion unit 146 according to the interaction control signal input from the device control unit 130, A sound can be output from a portion (not shown) or a tactile output can be outputted from a tactile output portion (not shown).

도 3은 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법을 나타내는 도면이다. 일례로서, 도 3에 도시된 사용자 인터랙션 장치의 동작방법(300)은 도 1을 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)에 의해 수행될 수 있다.3 is a diagram illustrating an operation method of a user interaction apparatus according to another embodiment of the present invention. As an example, the operation method 300 of the user interaction apparatus shown in FIG. 3 may be performed by the user interaction apparatus 100 according to an embodiment of the present invention described above with reference to FIG.

도 3을 참조하면, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법(300)은, 먼저, 센서부(120)가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계(S310)를 포함할 수 있다. 상기 S310 단계는 도 2를 참조하여 상술한 S210 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.3, an operation method 300 of a user interaction apparatus according to another embodiment of the present invention includes a step S310 of generating a user-side sensing signal by sensing a state of a user or a neighboring state of the sensor unit 120 ). Since the step S310 is similar to the step S210 described above with reference to FIG. 2, a detailed description will be omitted here.

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법(300)은, 사용자 입력에 따라 장치 제어부(130)가 메모리부에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계(S320)를 포함할 수 있다. 일례로서, 상기 사용자 입력은 사용자 인터랙션 장치(100)가 구비되는 터치스크린이나 입력버튼과 같은 인터페이스부(미도시)를 통해 입력될 수 있고, 사용자가 멀티미디어 데이터를 재생하는 등의 명령을 입력하는 경우 장치 제어부(130)는 메모리부(미도시)에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출할 수 있다.The operation method 300 of the user interaction apparatus according to another embodiment of the present invention includes a step S320 of extracting a comparison object detection signal from the multimedia data stored in the memory unit by the apparatus control unit 130 according to a user input, . ≪ / RTI > For example, the user input may be input through an interface (not shown) such as a touch screen or an input button provided with the user interaction apparatus 100, and when a user inputs a command for playing multimedia data The device control unit 130 may extract the comparison target detection signal from the multimedia data stored in the memory unit (not shown).

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법(300)은, 장치 제어부(130)가 센서부(120)로부터 상기 사용자측 감지신호를 입력받는 단계(S330)를 포함할 수 있다. 상기 S330 단계는 도 2를 참조하여 상술한 S230 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.The operation method 300 of the user interaction apparatus according to another embodiment of the present invention may include a step S330 in which the apparatus control unit 130 receives the user side sensing signal from the sensor unit 120 . Since the step S330 is similar to the step S230 described above with reference to FIG. 2, a detailed description will be omitted here.

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법(300)은, 장치 제어부(130)가 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계(S340)를 포함할 수 있다. 상기 S340 단계는 도 2를 참조하여 상술한 S240 단계와 비교대상 감지신호가 차이가 있을 뿐 다른 점은 유사하므로 여기에서는 자세한 설명을 생략한다.Next, an operation method 300 of a user interaction apparatus according to another embodiment of the present invention is a method of operating a user interaction apparatus 300 according to an embodiment of the present invention. The apparatus control unit 130 may include at least one comparison object sensing data included in a comparison object sensing signal, And generating and outputting an interaction control signal according to a comparison result of one user-side sensing data (S340). The above-described step S240 and step S240 are the same as the step S240 except that the sensing signals are different from each other. Therefore, detailed description thereof will be omitted here.

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법(300)은, 인터랙션 출력부(140)가 장치 제어부(130)로부터 인터랙션 제어신호를 입력받고, 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계(S350)를 포함할 수 있다. 상기 S350 단계는 도 2를 참조하여 상술한 바와 같은 S250 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.Next, an operation method 300 of a user interaction apparatus according to another embodiment of the present invention is a method in which an interaction output unit 140 receives an interaction control signal from a device control unit 130 and receives an interaction corresponding to an interaction control signal (Step S350). Since the step S350 is similar to the step S250 described above with reference to FIG. 2, a detailed description will be omitted here.

한편, 본 발명에 따른 사용자 인터랙션 장치의 동작방법은, 도 2 또는 도 3을 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200, 300)을 수행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체에 의해 구현될 수도 있다. 즉, 본 발명에 따른 사용자 인터랙션 장치의 동작방법은, 유무선 단말기에 구비된 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
Meanwhile, a method for operating a user interaction apparatus according to the present invention is a method for operating a user interaction apparatus 200, 300 according to an embodiment of the present invention described above with reference to FIG. 2 or 3, And may be implemented by a computer-readable recording medium. That is, the operation method of the user interaction apparatus according to the present invention can be implemented as a code readable by a processor on a recording medium readable by a processor provided in a wired / wireless terminal. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium readable by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and also a carrier wave such as transmission over the Internet. In addition, the processor readable recording medium may be distributed over networked computer systems so that code readable by the processor in a distributed manner can be stored and executed.

도 4는 본 발명의 일실시예에 따른 사용자 인터랙션 시스템을 나타내는 도면이다. 도 4에 도시된 바와 같이 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)은, 사용자의 모바일 단말기(410) 및 사용자 인터랙션 장치(460)를 포함할 수 있다.4 is a diagram illustrating a user interaction system in accordance with an embodiment of the present invention. As shown in FIG. 4, the user interaction system 400 according to an embodiment of the present invention may include a user's mobile terminal 410 and a user interaction apparatus 460.

모바일 단말기(410)는, 무선통신부(411) 및 단말기 제어부(413)를 포함할 수 있고, 디스플레이부(415), 인터페이스부(417) 및 메모리부(419)를 더 포함할 수 있다. 상기 모바일 단말기(410)는, 휴대폰, 스마트폰, 태블릿 PC, 개인휴대정보단말(PDA), 휴대용 멀티미디어 재생장치(PMP) 등 휴대가 가능한 다양한 형태의 단말기를 포함하는 개념으로서, 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다. 또한, 도 4에 도시된 모바일 단말기(410)의 구성은 예시적인 것으로서 모바일 단말기(410)의 구체적인 구성은 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다.The mobile terminal 410 may include a wireless communication unit 411 and a terminal control unit 413 and may further include a display unit 415, an interface unit 417, and a memory unit 419. The mobile terminal 410 is a concept including various types of portable terminals such as a mobile phone, a smart phone, a tablet PC, a personal digital assistant (PDA), and a portable multimedia player (PMP) And can be variously changed in the range. In addition, the configuration of the mobile terminal 410 shown in FIG. 4 is exemplary, and the specific configuration of the mobile terminal 410 may be variously changed within a range known to the ordinary artisan.

무선통신부(411)는, 외부로부터 상대방측 감지신호를 전송받고 상기 사용자 인터랙션 장치(460)로부터 사용자측 감지신호를 전송받을 수 있다. 무선통신부(411)는, 상대방측 감지신호 및 사용자측 감지신호를 단말기 제어부(413)로 출력할 수 있다. 여기에서, 상기 상대방측 감지신호는 도 1을 참조하여 상술한 바와 같이, 상대방의 사용자 인터랙션 장치에 의해 생성될 수 있고, 상기 상대방의 사용자 인터랙션 장치의 무선통신모듈로부터 전송되거나 상대방의 모바일 단말기로부터 전송될 수 있다. 또한, 실시예에 따라서는 상기 상대방측 감지신호는 사용자 인터랙션 장치 이외의 다른 장치에 의해 임의로 형성된 데이터일 수도 있고, 인터넷 망(IP Network)을 통해 전송받을 수도 있다.The wireless communication unit 411 receives the detection signal from the outside and receives the user detection signal from the user interaction apparatus 460. The wireless communication unit 411 may output the other side sensing signal and the user side sensing signal to the terminal control unit 413. Here, the counterpart side sensing signal may be generated by the user interaction apparatus of the counter party, as described above with reference to FIG. 1, and may be transmitted from the wireless communication module of the counterpart user interaction apparatus or transmitted from the counterpart mobile terminal . In addition, according to an embodiment, the counterpart side sensing signal may be data arbitrarily formed by a device other than the user interaction device, or may be transmitted through an Internet network (IP network).

상기 무선통신부(411)는, 사용자 인터랙션 장치(460)나 다른 모바일 단말기, 또는 다양한 통신 장치와 무선으로 통신할 수 있는 모든 형태의 통신모듈을 포함하는 개념이며, 대표적으로는 WCDMA 모듈, LTE 모듈, WiBro 모듈, 블루투스(Bluetooth) 모듈, WiFi(Wireless Fidelity) 모듈, 지그비(ZigBee) 모듈, 적외선 통신모듈, 또는 NFC(Near Field Communication) 모듈 등일 수 있고, 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다. 따라서, 상기 무선통신부(411)는 근접 거리의 통신 뿐만 아니라 Over The IP로 통칭될 수 있는 인터넷 프로토콜 망(IP Network)을 통한 통신도 가능할 수 있다.The wireless communication unit 411 includes a WCDMA module, an LTE module, and a WCDMA module. The wireless communication unit 411 is a concept including a user interaction apparatus 460, another mobile terminal, or any type of communication module capable of wirelessly communicating with various communication apparatuses. A WiBro module, a Bluetooth module, a WiFi module, a ZigBee module, an infrared communication module, or an NFC (Near Field Communication) module, and may be variously changed have. Therefore, the wireless communication unit 411 can communicate not only with a close-range communication but also through an Internet Protocol (IP) network, which may be referred to as Over The IP.

단말기 제어부(413)는, 무선통신부(411)로부터 상대방측 감지신호 및 사용자측 감지신호를 입력받고, 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하며, 생성된 인터랙션 제어신호를 무선통신부(411)를 통해 사용자 인터랙션 장치(460)로 출력할 수 있다.The terminal control unit 413 receives the opposite side sensing signal and the user side sensing signal from the wireless communication unit 411 and receives at least one counterpart side sensing data and at least one user side sensing signal And generates the interaction control signal according to the comparison result of the sensing data, and outputs the generated interaction control signal to the user interaction apparatus 460 through the wireless communication unit 411. [

한편, 상기 단말기 제어부(413)는, 무선통신모듈(411)을 통해 상기 모바일 단말기(410) 주변에 상기 상대방의 사용자 인터랙션 장치 또는 상대방의 모바일 단말기가 위치하는지를 판단하고, 사용자의 모바일 단말기(100)와 상대방의 사용자 인터랙션 장치(또는 상대방의 모바일 단말기) 사이의 거리가 일정 거리 이하인 것으로 판단되면 무선통신모듈(411)을 통해 상대방의 사용자 인터랙션 장치(또는 상대방의 모바일 단말기)와 무선통신을 연결할 수 있다. 이와 같은 동작은 도 1 내지 도 2를 참조하여 상술한 바 있으므로 여기에서는 자세한 설명을 생략한다. 또한, 상기 단말기 제어부(413)는, 무선통신부(411)를 통해 사용자 인터랙션 장치(460)와의 거리가 일정 거리 이하인 것으로 판단되면 무선통신부(411)를 통해 사용자 인터랙션 장치(460)와 무선통신을 연결할 수 있다. 또한, 단말기 제어부(413)는, 인터페이스부(417)를 통해 사용자로부터 무선 연결할 사용자 인터랙션 장치(460)를 입력받은 후 사용자 인터랙션 장치(460)와 무선통신을 연결할 수도 있다.The terminal control unit 413 determines whether the user interaction apparatus of the other party or the other party's mobile terminal is located around the mobile terminal 410 through the wireless communication module 411, And the user interaction device of the other party (or the mobile terminal of the other party) is less than a certain distance, the wireless communication module 411 can connect the wireless communication with the user interaction device of the other party (or the mobile terminal of the other party) . This operation has been described above with reference to FIGS. 1 and 2. Therefore, detailed description thereof will be omitted here. If it is determined that the distance from the user interaction apparatus 460 is less than a predetermined distance through the wireless communication unit 411, the terminal control unit 413 may connect the wireless communication with the user interaction apparatus 460 through the wireless communication unit 411 . The terminal control unit 413 may receive the user interaction device 460 to be wirelessly connected from the user through the interface unit 417 and may then establish a wireless communication with the user interaction device 460.

상기 단말기 제어부(413)는, 모바일 단말기(410)의 다양한 구성요소를 제어하고 다양한 데이터를 처리하는 구성요소로서, CPU 프로세서와 같은 중앙처리장치에 의해 구현될 수 있다. 상기 단말기 제어부(413)의 동작에 대한 상세한 설명은 도 5 및 도 6을 참조하여 상술하기로 하고 여기에서는 자세한 설명을 생략한다.The terminal control unit 413 is a component that controls various components of the mobile terminal 410 and processes various data, and may be implemented by a central processing unit such as a CPU processor. The operation of the terminal control unit 413 will be described in detail with reference to FIGS. 5 and 6, and a detailed description thereof will be omitted here.

디스플레이부(415)는, 단말기 제어부(413)로부터 입력받은 신호에 따라 화면을 표시할 수 있다. 디스플레이부(415)는, 모바일 단말기(410)의 외면에 형성될 수 있으며, 통상의 기술자에게 알려진 바와 같이, 액정표시장치(LCD), 발광다이오드(LED), 유기발광다이오드(OLED) 등 모바일 단말기(410)에 적용될 수 있는 다양한 형태의 디스플레이 장치에 의해 구현될 수 있다.The display unit 415 can display a screen according to a signal input from the terminal control unit 413. [ The display unit 415 may be formed on the outer surface of the mobile terminal 410 and may be connected to a mobile terminal 410 such as a liquid crystal display (LCD), a light emitting diode (LED), an organic light emitting diode (OLED) May be implemented by various types of display devices that may be applied to the display device 410.

인터페이스부(417)는, 사용자로부터 입력받은 신호를 단말기 제어부(413)로 전송할 수 있다. 상기 인터페이스부(417)는, 터치스크린, 키보드 및 마우스와 같이 사용자로부터 인터페이스 신호를 입력받을 수 있는 다양한 형태의 입력 장치에 의해 구현될 수 있으며, 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다.The interface unit 417 can transmit the signal received from the user to the terminal control unit 413. [ The interface unit 417 may be implemented by various types of input devices, such as a touch screen, a keyboard, and a mouse, capable of receiving an interface signal from a user, and may be variously changed within a range known to those skilled in the art .

메모리부(419)는, 모바일 단말기(410)를 구동하는 운영체제(OS), 사용자에 의해 메모리부(419)에 저장되어 실행될 수 있는 어플리케이션과 같은 응용프로그램 및 사용자 데이터 등을 저장할 수 있으며, 통상의 기술자에게 알려진 바와 같이, ROM(Read Only Memory), RAM(Random Access Memory), EEPROM(Electrically Erasable and Programmable Read Only Memory) 등과 같은 다양한 형태의 메모리 저장장치로 구현될 수 있다.The memory unit 419 can store an operating system (OS) for driving the mobile terminal 410, an application program such as an application that can be stored and executed by the user in the memory unit 419, user data, (ROM), random access memory (RAM), electrically erasable programmable read only memory (EEPROM), or the like, as is well known to those skilled in the art.

도 4를 참조하면, 사용자 인터랙션 장치(460)는, 무선통신모듈(461), 센서부(462), 장치 제어부(465) 및 인터랙션 출력부(466)를 포함할 수 있다. 도 1에 도시된 사용자 인터랙션 장치(100)와 유사하게 도 4에 도시된 사용자 인터랙션 장치(460)는, 반지(Ring), 장갑(Gloves), 손목시계(Watches), 암밴드(Arm Band), 커프스(Cuffs), 목걸이(Necklace), 팔찌(Bracelet), 팬던트(Pendant), 단추(Button) 등 다양한 악세서리 형태로 변형되어 구현될 수 있다. 이에 따라, 상기 사용자 인터랙션 장치(460)는 악세서리 형태로 구현되어 사용자의 손목이나 목 등에 착용될 수 있다.4, the user interaction apparatus 460 may include a wireless communication module 461, a sensor unit 462, a device control unit 465, and an interaction output unit 466. Similar to the user interaction apparatus 100 shown in FIG. 1, the user interaction apparatus 460 shown in FIG. 4 includes a ring, a glove, a watch, an arm band, It can be modified into various accessories such as cuffs, necklaces, bracelets, pendants, and buttons. Accordingly, the user interaction device 460 may be implemented as an accessory and may be worn on the user's wrist or neck.

무선통신모듈(461)은 모바일 단말기(410)로부터 인터랙션 제어신호를 전송받을 수 있다. 또한, 무선통신모듈(461)은 장치 제어부(465)로부터 입력받은 사용자측 감지신호를 모바일 단말기(410)로 전송할 수도 있다. 상기 무선통신모듈(461)은 사용자의 모바일 단말기(410)와 무선으로 통신할 수 있는 모든 형태의 통신모듈을 포함하는 개념이며, 대표적으로는 블루투스(Bluetooth) 모듈, WiFi(Wireless Fidelity) 모듈, 지그비(ZigBee) 모듈, 적외선 통신모듈, 또는 NFC(Near Field Communication) 모듈일 수 있다. The wireless communication module 461 may receive the interaction control signal from the mobile terminal 410. In addition, the wireless communication module 461 may transmit the user-side sensing signal received from the device control unit 465 to the mobile terminal 410. The wireless communication module 461 is a concept including all types of communication modules capable of wirelessly communicating with a user's mobile terminal 410. Typically, the wireless communication module 461 includes a Bluetooth module, a WiFi (Wireless Fidelity) module, (ZigBee) module, an infrared communication module, or an NFC (Near Field Communication) module.

센서부(462)는, 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성할 수 있다. 즉, 센서부(462)는 사용자의 움직임이나 음성, 주변의 소리 등을 감지하여 사용자측 감지신호를 생성할 수 있고, 이러한 사용자측 감지신호는 적어도 하나의 사용자측 센싱데이터를 포함할 수 있다. 적어도 하나의 사용자측 센싱데이터에는 동작인식센서(463)에 의해 감지된 동작인식데이터 및 음향인식센서(464)에 의해 감지된 음향데이터가 포함될 수 있다. 상기 적어도 하나의 사용자측 센싱데이터는 이에 국한되지 않으며 센서를 통해 감지가 가능한 다양한 형태의 센싱데이터를 포함할 수 있다. 센서부(462)는 도 4에 도시된 바와 같이, 동작인식센서(463) 및 음향인식센서(464)를 포함할 수 있는데, 이에 대한 설명은 이미 도 1을 참조하여 상술한 바 있으므로 여기에서는 자세한 설명을 생략한다. 한편, 도 4에 도시된 센서부(462)의 구성은 예시적인 것으로서, 사용자 인터랙션 장치(460)에 구비되는 센서부(462)는 이외에도 다양한 형태의 센서를 구비할 수 있다.The sensor unit 462 may detect a user or a surrounding state to generate a user-side sensing signal. That is, the sensor unit 462 may generate a user-side sensing signal by sensing a user's movement, voice, surrounding sound, etc., and the user-side sensing signal may include at least one user-side sensing data. At least one user-side sensing data may include motion recognition data sensed by the motion recognition sensor 463 and sound data sensed by the sound recognition sensor 464. The at least one user-side sensing data is not limited thereto and may include various types of sensing data that can be sensed through a sensor. The sensor unit 462 may include an operation recognition sensor 463 and an acoustic recognition sensor 464 as shown in FIG. 4, which has already been described above with reference to FIG. 1, The description will be omitted. The configuration of the sensor unit 462 shown in FIG. 4 is exemplary, and the sensor unit 462 included in the user interaction device 460 may include various types of sensors.

장치 제어부(465)는, 센서부(462)로부터 입력받은 사용자측 감지신호를 무선통신모듈(461)을 통해 모바일 단말기(410)로 전송할 수 있고, 모바일 단말기(410)로부터 전송받은 인터랙션 제어신호를 인터랙션 출력부(466)로 출력할 수 있다. 일례로서, 상기 인터랙션 제어신호는, 광 출력부(467)를 제어하기 위한 광 제어신호 및 향 발산부(468)를 제어하기 위한 향 제어신호를 포함할 수 있다. The device control unit 465 can transmit the user side sensing signal received from the sensor unit 462 to the mobile terminal 410 through the wireless communication module 461 and can transmit the interaction control signal transmitted from the mobile terminal 410, And output it to the output unit 466. As an example, the interaction control signal may include a light control signal for controlling the light output section 467 and a direction control signal for controlling the incoherent section 468. [

상기 장치 제어부(465)는, 사용자 인터랙션 장치(460)의 다양한 구성요소를 제어하고 다양한 데이터를 처리하는 구성요소로서, CPU 프로세서와 같은 중앙처리장치에 의해 구현될 수 있다. 상기 장치 제어부(465)의 동작에 대한 상세한 설명은 도 5 및 도 6을 참조하여 상술하기로 하고 여기에서는 자세한 설명을 생략한다.The device control unit 465 may be implemented by a central processing unit, such as a CPU processor, as an element that controls various components of the user interaction apparatus 460 and processes various data. The operation of the device control unit 465 will be described in detail with reference to FIGS. 5 and 6, and a detailed description thereof will be omitted.

인터랙션 출력부(466)는, 장치 제어부(465)로부터 인터랙션 제어신호를 입력받고, 입력받은 인터랙션 제어신호에 대응되는 인터랙션을 외부로 출력할 수 있다. 도 4에 도시된 바와 같이, 인터랙션 출력부(466)는 광 출력부(467) 및 향 발산부(468)를 포함할 수 있다. 인터랙션 출력부(466)의 구성 및 동작에 대한 설명은 이미 도 1을 참조하여 상술한 바 있으므로 여기에서는 자세한 설명을 생략한다. 한편, 도 4에 도시된 인터랙션 출력부(466)의 구성은 예시적인 것으로서, 사용자 인터랙션 장치(460)에 구비되는 인터랙션 출력부(466)는 소리출력부(미도시) 또는 촉감출력부(미도시) 등을 구비하는 것과 같이 이외에도 다양한 형태로 구성될 수 있다.The interaction output unit 466 receives the interaction control signal from the device control unit 465, and can output the interaction corresponding to the received interaction control signal to the outside. 4, the interaction output section 466 may include a light output section 467 and an incoherent section 468. [ The configuration and operation of the interaction output unit 466 have already been described above with reference to FIG. 1, and a detailed description thereof will be omitted here. The interaction output unit 466 of the user interaction apparatus 460 may include a sound output unit (not shown) or a tactile output unit (not shown) And the like, as well as various other forms.

한편, 도 4에 도시되지는 않았으나 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)에 포함되는 사용자 인터랙션 장치(460)는 무선통신모듈(461), 센서부(462), 장치 제어부(463) 및 인터랙션 출력부(466)에 전원을 공급하기 위한 배터리부(미도시)를 더 포함할 수 있다. 또한, 상기 배터리부에 전원을 충전하기 위한 배터리 충전 모듈(미도시)를 더 포함할 수 있다.4, the user interaction device 460 included in the user interaction system 400 according to an embodiment of the present invention includes a wireless communication module 461, a sensor unit 462, a device control unit 463 And a battery unit (not shown) for supplying power to the interaction output unit 466. The apparatus may further include a battery charging module (not shown) for charging the battery.

도 4에 도시된 사용자 인터랙션 시스템(400)은, 사용자 인터랙션 장치(460) 및 이를 제어할 수 있는 모바일 단말기(410)로 구성될 수 있다. 즉, 모바일 단말기(410)는 사용자 인터랙션 장치(460)와 무선통신이 연결될 수 있고, 상대방의 모바일 단말기 또는 상대방의 사용자 인터랙션 장치와 무선통신이 연결될 수 있다. 사용자 인터랙션 장치(460)는 센서부(462)에서 감지된 사용자측 감지신호를 모바일 단말기(410)로 전송하고 모바일 단말기(410)로부터 전송받은 인터랙션 제어신호에 따라 다양한 인터랙션을 외부로 출력할 수 있다. 이런 의미에서 사용자 인터랙션 장치(460) 및 모바일 단말기(410)는 사용자 인터랙션 시스템을 구성하는 각각의 구성요소로 볼 수도 있다.The user interaction system 400 shown in FIG. 4 may be composed of a user interaction apparatus 460 and a mobile terminal 410 capable of controlling the same. That is, the mobile terminal 410 may be connected to a wireless communication with the user interaction device 460, and wireless communication may be connected with the user's interaction device of the other party's mobile terminal or the other party. The user interaction device 460 transmits the user-side sensing signal detected by the sensor unit 462 to the mobile terminal 410 and outputs various interactions to the outside according to the interaction control signal transmitted from the mobile terminal 410. [ In this sense, the user interaction device 460 and the mobile terminal 410 may be viewed as respective components of the user interaction system.

한편, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)은, 사용자 단말기(410)의 무선통신부(411)가 외부 장치로부터 인터넷 망(IP Network)을 통해 상대방측 감지신호를 전송받을 수도 있다. 예를 들면, 공연장에서 가수의 공연이 있는 경우 상기 외부 장치는 공연을 관람하는 사람들의 사용자 단말기 정보(예: MAC Address)를 획득하고 인터넷 망을 통해 관람자들의 사용자 단말기로 일괄적으로 상대방측 감지신호를 전송할 수 있다. 상기 상대방측 감지신호는 상기 외부 장치에 의해 임의로 형성된 데이터일 수 있고, 사용자 인터랙션 장치에 의해 생성되는 센싱데이터와 동일한 형식으로 이루어질 수 있다. 이에 따라, 관람자의 사용자 단말기는 상기 외부 장치로부터 인터넷 망을 통해 상대방측 감지신호를 전송받을 수 있고, 관람자의 사용자 단말기와 사용자 인터랙션 장치의 상호작용에 의해 빛, 소리, 향 또는 촉각 등의 인터랙션이 출력될 수 있다. 또한, 상기 외부 장치는 TV를 통해 공연을 보고 있는 시청자의 사용자 단말기로도 인터넷 망을 통해 상대방측 감지신호를 전송할 수 있고, 시청자의 사용자 단말기 및 사용자 인터랙션 장치도 빛, 소리, 향 또는 촉각 등의 인터랙션이 출력될 수 있다. 즉, 공연장에서 공연을 관람하는 관람자들이나 TV로 공연을 관람하는 시청자들에게 일괄적으로 동일한 상대방측 감지신호가 전송될 수 있으며, 이에 따라 동일한 공연을 관람하는 사람들의 사용자 인터랙션 장치는 동일한 빛, 소리, 향, 촉각 등의 인터랙션을 출력할 수 있어 서로 동질감이나 친밀감을 느낄 수 있게 된다.Meanwhile, in the user interaction system 400 according to the embodiment of the present invention, the wireless communication unit 411 of the user terminal 410 may receive the opposite side detection signal from the external device through the Internet network (IP Network) . For example, when there is a performance of a singer in a theater, the external device acquires user terminal information (e.g., MAC address) of a person watching a performance and collectively transmits a counter signal Can be transmitted. The counterpart side sensing signal may be data arbitrarily formed by the external device and may have the same format as the sensing data generated by the user interaction device. Accordingly, the user terminal of the spectator can receive the counterpart side detection signal through the Internet network from the external apparatus, and the interaction with the user terminal of the spectator and the user interaction apparatus causes the interaction such as light, sound, Can be output. In addition, the external device may transmit a counterpart side detection signal to a user terminal of a viewer watching a performance through a TV, and a user terminal of the viewer and a user interaction device may also transmit the detection signal through the Internet, Interaction can be output. That is, the same counterpart side detection signal can be collectively transmitted to the spectators watching the performance at the performance hall or the viewers watching the performance on the TV, and accordingly, the user interaction apparatuses of the people watching the same performance can receive the same light, sound, Incense, and tactile sense can be output, so that they can feel a sense of identity and intimacy with each other.

또한, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)에 포함되는 모바일 단말기(410)는, 비교대상 감지신호를 포함하는 멀티미디어 데이터를 메모리부(419)에 저장할 수도 있다. 상기 멀티미디어 데이터 및 비교대상 감지신호에 대해서는 도 1을 참조하여 상술한 바 있으므로 여기에서는 자세한 설명을 생략한다. 한편, 일례로서, 사용자의 모바일 단말기(410)는 유무선 통신을 통해 외부 장치(예: 상대방의 모바일 단말기 또는 상대방의 사용자 인터랙션 장치 등)로부터 멀티미디어 데이터 및 비교대상 감지신호를 전송받을 수 있고, 단말기 제어부(413)는 전송받은 멀티미디어 데이터 및 비교대상 감지신호를 메모리부(419)에 저장할 수 있다. 상기 비교대상 감지신호는, 상대방의 사용자 인터랙션 장치 등에서 감지된 상대방의 움직임이나 음성, 주변의 소리 등을 통해 생성된 신호일 수 있다. 다른 예로서, 사용자가 자신의 모바일 단말기(410)를 이용하여 멀티미디어 데이터를 생성한 후 생성된 멀티미디어 데이터 및 비교대상 감지신호를 메모리부(419)에 저장할 수도 있다. 이 경우의 비교대상 감지신호는, 사용자 인터랙션 장치(460)에 의해 감지된 사용자의 움직임이나 음성, 주변의 소리 등을 통해 생성된 신호일 수 있다.In addition, the mobile terminal 410 included in the user interaction system 400 according to an embodiment of the present invention may store the multimedia data including the comparison target detection signal in the memory unit 419. [ The multimedia data and the comparison target detection signal have been described above with reference to FIG. 1, and a detailed description thereof will be omitted here. Meanwhile, as an example, the user's mobile terminal 410 can receive the multimedia data and the comparison object detection signal from an external device (e.g., a mobile terminal of the other party or a user interaction device of the other party) via wire / wireless communication, The control unit 413 may store the received multimedia data and the comparison target detection signal in the memory unit 419. [ The comparison target detection signal may be a signal generated through motion, voice, surrounding sound, or the like of the other party detected by the user interaction apparatus of the other party. As another example, a user may generate multimedia data using his / her mobile terminal 410, and store the generated multimedia data and the comparison target detection signal in the memory unit 419. [ In this case, the comparison target detection signal may be a signal generated by the user's motion, voice, surrounding sound, etc. sensed by the user interaction apparatus 460.

단말기 제어부(413)는, 사용자 입력에 따라 메모리부(419)로부터 상기 비교대상 감지신호를 입력받고 사용자 인터랙션 장치(460)로부터 사용자측 감지신호를 입력받을 수 있다. 상기 사용자 입력은 인터페이스부(417)를 통해 입력될 수 있다. 단말기 제어부(413)는, 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력할 수 있다. 이와 같은 단말기 제어부(413)의 동작에 대해서는 상술한 바와 유사하므로 여기에서는 자세한 설명을 생략한다. 또한, 사용자 인터랙션 장치(460)의 인터랙션 출력부(466)가 단말기 제어부(413)로부터 인터랙션 제어신호를 입력받고 인터랙션 제어신호에 대응되는 인터랙션을 출력할 수 있음도 상술한 바와 같다.
The terminal control unit 413 receives the comparison target detection signal from the memory unit 419 according to a user input and receives a user side sensing signal from the user interaction apparatus 460. [ The user input may be input through the interface unit 417. The terminal control unit 413 may generate and output an interaction control signal according to a comparison result of at least one comparison subject sensing data included in the comparison subject sensing signal and at least one user side sensing data included in the user side sensing signal. The operation of the terminal control unit 413 is similar to that described above, and thus a detailed description thereof will be omitted. It is also described that the interaction output unit 466 of the user interaction apparatus 460 receives the interaction control signal from the terminal control unit 413 and outputs the interaction corresponding to the interaction control signal.

도 5는 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법을 나타내는 순서도이다. 도 5에 도시된 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 도 4에 도시된 모바일 단말기(410) 및 사용자 인터랙션 장치(460)에 의해 수행될 수 있다. 도 5에 도시된 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은 모바일 단말기(410) 또는 사용자 인터랙션 장치(460)에 설치될 수 있는 어플리케이션의 형태로 구현될 수 있다.5 is a flowchart illustrating an operation method of a user interaction system according to an embodiment of the present invention. The method 500 of operation of the user interaction system according to an embodiment of the present invention shown in FIG. 5 may be performed by the mobile terminal 410 and the user interaction apparatus 460 shown in FIG. 5 may be implemented in the form of an application that may be installed in the mobile terminal 410 or the user interaction device 460. [

도 5를 참조하면, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 먼저, 사용자 인터랙션 장치(460)의 센서부(462)가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계(S510)를 포함할 수 있다. S510 단계는 도 2를 참조하여 상술한 S210 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.Referring to FIG. 5, an operation method 500 of a user interaction system according to an embodiment of the present invention firstly detects a state of a user or its surroundings by a sensor unit 462 of a user interaction apparatus 460, And generating a signal (S510). The step S510 is similar to the step S210 described above with reference to FIG. 2, so a detailed description will be omitted here.

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 사용자 인터랙션 장치(460)가 무선통신모듈(461)을 통해 사용자측 감지신호를 사용자의 모바일 단말기(410)로 전송하는 단계(S520)를 포함할 수 있다.Next, a method 500 of operating a user interaction system according to an exemplary embodiment of the present invention transmits a user-side sensing signal to a user's mobile terminal 410 through a wireless communication module 461 (S520).

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 사용자의 모바일 단말기(410)가 무선통신부(411)를 통해 사용자 인터랙션 장치(460)로부터 사용자측 감지신호를 전송받는 단계(S530)를 포함할 수 있다.Next, a method 500 of operating a user interaction system according to an embodiment of the present invention is a method of operating a user interaction system in which a user's mobile terminal 410 receives a user-side detection signal from a user interaction apparatus 460 through a wireless communication unit 411 Step S530 may be included.

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 사용자의 모바일 단말기(410)가 무선통신부(411)를 통해 외부로부터 상대방측 감지신호를 전송받는 단계(S540)를 포함할 수 있다. S540 단계는 도 2를 참조하여 상술한 S220 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.The operation method 500 of the user interaction system according to an embodiment of the present invention includes a step S540 of receiving a counterpart side detection signal from the outside through the wireless communication unit 411 by the user's mobile terminal 410, . ≪ / RTI > The step S540 is similar to the step S220 described above with reference to FIG. 2, so a detailed description will be omitted here.

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 단말기 제어부(413)가 무선통신부(411)로부터 상대방측 감지신호 및 사용자측 감지신호를 입력받는 단계(S550)를 포함할 수 있다.The operation method 500 of the user interaction system according to an embodiment of the present invention may include a step S550 in which the terminal control unit 413 receives the opposite side detection signal and the user side detection signal from the wireless communication unit 411 .

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 단말기 제어부(413)가 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계(S560)를 포함할 수 있다. Next, a method 500 of operating a user interaction system according to an embodiment of the present invention will be described in which a terminal control unit 413 detects at least one counterpart sensing data included in a counterpart side sensing signal, And generating (S560) an interaction control signal according to a comparison result of one user-side sensing data.

여기에서, 단말기 제어부(413)에 의해 생성되는 인터랙션 제어신호는 광 제어신호 및 향 제어신호를 포함할 수 있고, 상기 광 제어신호 및 상기 향 제어신호 각각은, 사용자측 센싱데이터에 포함되는 동작인식데이터와 상대방측 센싱데이터에 포함되는 동작인식데이터를 비교한 결과 및 사용자측 센싱데이터에 포함되는 음향데이터와 상기 상대방측 센싱데이터에 포함되는 음향데이터를 비교한 결과 중 적어도 하나에 따라 생성될 수 있다. 또한, 단말기 제어부(413)는, 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 등 다양한 값에 따라 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성할 수 있다. 단말기 제어부(413)에 의해 수행되는 S560 단계는 장치 제어부(130)에 의해 수행된다는 차이점 이외에는 도 2를 참조하여 상술한 S240 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.Here, the interaction control signal generated by the terminal control unit 413 may include a light control signal and an incense control signal, and each of the light control signal and the incense control signal may include motion recognition data Side sensing data, and a result of comparing the sound recognition data included in the counterpart sensing data with the sound data included in the user-side sensing data and the sound data included in the counterpart sensing data. In comparing the at least one counterpart sensing data and the at least one user-side sensing data, the terminal control unit 413 may control at least one of the sensing data to be compared based on various values such as a maximum value, an average value, Side sensing data and at least one user-side sensing data, respectively. The step S560 performed by the terminal control unit 413 is similar to the step S240 described above with reference to FIG. 2, except that it is performed by the device control unit 130, and thus a detailed description thereof will be omitted.

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 단말기 제어부(413)가 인터랙션 제어신호를 무선통신부(411)를 통해 사용자 인터랙션 장치(460)로 출력하는 단계(S570)를 포함할 수 있다.The method 500 of operating the user interaction system according to an embodiment of the present invention includes the steps of the terminal control unit 413 outputting the interaction control signal to the user interaction apparatus 460 through the wireless communication unit 411 S570).

다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 사용자 인터랙션 장치(460)가 무선통신모듈(461)을 통해 인터랙션 제어신호를 전송받는 단계(S580) 및 인터랙션 출력부(466)가 인터랙션 제어신호를 입력받고 입력받은 인터랙션 제어신호에 대응되는 인터랙션을 외부로 출력하는 단계(S590)를 포함할 수 있다.The operation method 500 of the user interaction system according to an embodiment of the present invention may include a step S580 of receiving the interaction control signal through the wireless communication module 461 by the user interaction device 460, And a step (S590) of outputting the interaction corresponding to the interaction control signal, which is input and received by the interaction unit 466, to the outside.

한편, 도 5에는 도시되지 않았으나 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)의 동작방법(500)은, S540 단계 이전에 사용자의 모바일 단말기(410)와 상대방의 모바일 단말기(또는 상대방의 사용자 인터랙션 장치)가 서로 무선통신이 연결되는 단계(미도시)가 수행될 수 있다. 즉, 단말기 제어부(413)는 무선통신부(411)를 통해 사용자의 모바일 단말기(410) 주변에 상대방의 모바일 단말기(또는 상대방의 사용자 인터랙션 장치)가 위치하는지를 판단하고, 사용자의 모바일 단말기(410)와 상대방의 모바일 단말기 사이의 거리 또는 사용자의 모바일 단말기(410)와 상대방의 모바일 단말기 사이의 거리가 일정 거리 이하인 것으로 판단되면 무선통신부(411)를 통해 상대방의 모바일 단말기(또는 상대방의 사용자 인터랙션 장치)와 무선통신을 연결할 수 있다. 또한, 단말기 제어부(413)는, 인터페이스부(417)를 통해 사용자로부터 무선 연결할 상대방의 모바일 단말기(또는 상대방의 사용자 인터랙션 장치)를 입력받은 후 선택된 상대방의 모바일 단말기(또는 상대방의 사용자 인터랙션 장치)와 무선통신을 연결할 수도 있다. 또한, 이와 유사하게, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)의 동작방법(500)은, S530 단계 이전에 사용자의 모바일 단말기(410)와 사용자 인터랙션 장치(460)가 서로 무선통신이 연결되는 단계(미도시)가 수행될 수 있다.5, an operation method 500 of the user interaction system 400 according to an exemplary embodiment of the present invention may include the steps of determining whether a user's mobile terminal 410 and a mobile terminal of the other party (Not shown) in which wireless communication is connected to each other can be performed. That is, the terminal control unit 413 determines whether the mobile terminal of the other party (or the user interaction apparatus of the other party) is located around the mobile terminal 410 of the user through the wireless communication unit 411, If it is determined that the distance between the mobile terminal of the other party or the distance between the mobile terminal 410 of the user and the mobile terminal of the other party is less than a predetermined distance, the mobile terminal of the other party (or the user interaction apparatus of the other party) Wireless communication can be connected. The terminal control unit 413 receives the mobile terminal of the other party (or the user interaction apparatus of the other party) to be wirelessly connected from the user through the interface unit 417, Wireless communication may be connected. Similarly, a method 500 of operating a user interaction system 400 in accordance with an embodiment of the present invention may include a method in which a user's mobile terminal 410 and a user interaction device 460 communicate with each other wirelessly (Not shown) may be performed.

또한, 도 5에는 S530 단계가 수행된 이후에 S540 단계가 수행되는 것으로 도시되어 있으나 이는 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)의 동작방법(500)은, S530 단계 및 S540 단계 등의 순서가 서로 바뀌어 수행될 수도 있다.
5, the operation 500 of the user interaction system 400 according to an exemplary embodiment of the present invention includes steps S530 to S530, And the step S540 may be carried out in the order of the replacement.

도 6은 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법을 나타내는 도면이다. 도 6에 도시된 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 도 4에 도시된 모바일 단말기(410) 및 사용자 인터랙션 장치(460)에 의해 수행될 수 있다. 도 6에 도시된 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은 모바일 단말기(410) 또는 사용자 인터랙션 장치(460)에 설치될 수 있는 어플리케이션의 형태로 구현될 수 있다.6 is a diagram illustrating an operation method of a user interaction system according to another embodiment of the present invention. The method 600 of operation of the user interaction system according to another embodiment of the present invention shown in FIG. 6 may be performed by the mobile terminal 410 and the user interaction apparatus 460 shown in FIG. The operation method 600 of the user interaction system 600 according to another embodiment of the present invention shown in FIG. 6 may be implemented in the form of an application that can be installed in the mobile terminal 410 or the user interaction apparatus 460.

도 6을 참조하면, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 먼저, 사용자 인터랙션 장치(460)의 센서부(462)가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계(S610)를 포함할 수 있다. S610 단계는 도 2를 참조하여 상술한 S210 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.Referring to FIG. 6, a method 600 of a user interaction system according to another embodiment of the present invention starts by sensing a state of a user or its surroundings by a sensor unit 462 of a user interaction apparatus 460, And generating a signal (S610). The step S610 is similar to the step S210 described above with reference to FIG. 2, so a detailed description will be omitted here.

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 사용자 인터랙션 장치(460)가 무선통신모듈(461)을 통해 사용자측 감지신호를 사용자의 모바일 단말기(410)로 전송하는 단계(S620)를 포함할 수 있다.Next, a method 600 of operating a user interaction system according to another embodiment of the present invention is a method in which a user interaction device 460 transmits a user-side detection signal to a user's mobile terminal 410 via a wireless communication module 461 (Step S620).

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 사용자의 모바일 단말기(410)가 무선통신부(411)를 통해 사용자 인터랙션 장치(460)로부터 사용자측 감지신호를 전송받는 단계(S630)를 포함할 수 있다.Next, a method 600 of operating a user interaction system according to another embodiment of the present invention is a method in which a user's mobile terminal 410 receives a user-side sensing signal from a user interaction apparatus 460 through a wireless communication unit 411 Step S630.

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 사용자 입력에 따라 단말기 제어부(413)가 메모리부(419)에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계(S640)를 포함할 수 있다. 상기 S640 단계는 도 3을 참조하여 상술한 S320 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.The operation method 600 of the user interaction system according to another embodiment of the present invention includes extracting a comparison object detection signal from the multimedia data stored in the memory unit 419 by the terminal control unit 413 according to user input (S640). Since the step S640 is similar to the step S320 described above with reference to FIG. 3, a detailed description will be omitted here.

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 단말기 제어부(413)가 무선통신부(411)로부터 사용자측 감지신호를 입력받는 단계(S650)를 포함할 수 있다.The operation method 600 of the user interaction system according to another embodiment of the present invention may include a step S650 in which the terminal control unit 413 receives the user side detection signal from the wireless communication unit 411.

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 단말기 제어부(413)가 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계(S660)를 포함할 수 있다. The operation method 600 of the user interaction system according to another embodiment of the present invention is a method in which the terminal control unit 413 generates at least one comparison object data included in the comparison object sensing signal and at least one And generating (S660) an interaction control signal in accordance with the comparison result of one user-side sensing data.

여기에서, 단말기 제어부(413)에 의해 생성되는 인터랙션 제어신호는 광 제어신호 및 향 제어신호를 포함할 수 있고, 상기 광 제어신호 및 상기 향 제어신호 각각은, 사용자측 센싱데이터에 포함되는 동작인식데이터와 비교대상 센싱데이터에 포함되는 동작인식데이터를 비교한 결과 및 사용자측 센싱데이터에 포함되는 음향데이터와 상기 비교대상 센싱데이터에 포함되는 음향데이터를 비교한 결과 중 적어도 하나에 따라 생성될 수 있다. 또한, 단말기 제어부(413)는, 적어도 하나의 비교대상 센싱데이터 및 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 등 다양한 값에 따라 적어도 하나의 비교대상 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성할 수 있다. 단말기 제어부(413)에 의해 수행되는 S660 단계는 장치 제어부(130)에 의해 수행된다는 차이점 이외에는 도 2를 참조하여 상술한 S240 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.Here, the interaction control signal generated by the terminal control unit 413 may include a light control signal and an incense control signal, and each of the light control signal and the incense control signal may include motion recognition data Based on the comparison result of the motion recognition data included in the comparison target sensing data and the comparison result between the sound data included in the user side sensing data and the sound data included in the comparison target sensing data. In comparing the at least one comparison object sensing data and the at least one user-side sensing data, the terminal control unit 413 may control at least one of the sensing data to be compared based on various values such as a maximum value, an average value, And the comparison result of at least one user-side sensing data. The step S660 performed by the terminal control unit 413 is similar to the step S240 described above with reference to FIG. 2 except for the fact that the step S660 is performed by the device control unit 130, and thus a detailed description thereof will be omitted.

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 단말기 제어부(413)가 인터랙션 제어신호를 무선통신부(411)를 통해 사용자 인터랙션 장치(460)로 출력하는 단계(S670)를 포함할 수 있다.The operation method 600 of the user interaction system according to another embodiment of the present invention includes a step of the terminal control unit 413 outputting the interaction control signal to the user interaction apparatus 460 through the wireless communication unit 411 S670).

다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 사용자 인터랙션 장치(460)가 무선통신모듈(461)을 통해 인터랙션 제어신호를 전송받는 단계(S680) 및 인터랙션 출력부(466)가 인터랙션 제어신호를 입력받고 입력받은 인터랙션 제어신호에 대응되는 인터랙션을 외부로 출력하는 단계(S690)를 포함할 수 있다.The operation method 600 of the user interaction system according to another embodiment of the present invention includes a step S680 of receiving the interaction control signal through the wireless communication module 461 by the user interaction device 460, And the step (S690) of outputting the interaction corresponding to the interaction control signal, which is input and received by the interaction unit 466, to the outside.

또한, 도 6에는 S630 단계가 수행된 이후에 S640 단계가 수행되는 것으로 도시되어 있으나 이는 예시적인 것으로서, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템(400)의 동작방법(600)은, S630 단계 및 S640 단계의 순서가 서로 바뀌어 수행될 수도 있다.6, the operation 600 of the user interaction system 400 according to another exemplary embodiment of the present invention includes steps S630 to S630, And the step S640 may be performed in the same order.

한편, 본 발명에 따른 사용자 인터랙션 시스템의 동작방법은, 도 5 또는 도 6을 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500, 600)을 수행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체에 의해 구현될 수도 있다. 즉, 본 발명에 따른 사용자 인터랙션 시스템의 동작방법은, 유무선 단말기에 구비된 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
Meanwhile, a method of operating a user interaction system according to the present invention is a method of operating a user interaction system (500, 600) according to an embodiment of the present invention described above with reference to FIG. 5 or 6 And may be implemented by a computer-readable recording medium. That is, the operation method of the user interaction system according to the present invention can be implemented as a code readable by a processor on a recording medium readable by a processor provided in a wired / wireless terminal. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium readable by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and also a carrier wave such as transmission over the Internet. In addition, the processor readable recording medium may be distributed over networked computer systems so that code readable by the processor in a distributed manner can be stored and executed.

도 7은 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 실제 구현 예를 나타내는 도면이다.7 is a diagram showing an actual implementation example of a user interaction apparatus according to an embodiment of the present invention.

도 7의 (a)를 참조하면, 본 발명의 일실시예에 따른 사용자 인터랙션 장치는 무선통신모듈(110)에 해당하는 블루투스 모듈(Bluetooth), 동작인식센서(123)에 해당하는 가속도센서(Accelerometer), 음향인식센서(126)에 해당하는 마이크로폰(Microphone), 장치 제어부(130)에 해당하는 프로세서(Processor), 광 출력부(143)에 해당하는 LED Board 및 RGB LED, 향 발산부(146)에 해당하는 Heating circuit 및 Perfume heater, 배터리부에 해당하는 Battery를 포함할 수 있다. 또한, 도 7의 (a)에 도시된 바와 같이 본 발명의 일실시예에 따른 사용자 인터랙션 장치는 착용 밴드(Elastic band for wearing)를 더 구비할 수 있다. 사용자는 착용밴드를 이용하여 본 발명의 일실시예에 따른 사용자 인터랙션 장치를 도 7의 (b)에 도시된 바와 같이 착용할 수 있다.
Referring to FIG. 7A, a user interaction apparatus according to an embodiment of the present invention includes a Bluetooth module corresponding to the wireless communication module 110, an acceleration sensor corresponding to the motion recognition sensor 123, A microphone corresponding to the acoustic recognition sensor 126, a processor corresponding to the device control unit 130, an LED board and RGB LED corresponding to the optical output unit 143, an incense diversion unit 146, A heating circuit and a perfume heater corresponding to the battery, and a battery corresponding to the battery. In addition, as shown in FIG. 7 (a), the user interaction apparatus according to an embodiment of the present invention may further include an elastic band for wearing. The user may wear the user interaction apparatus according to an embodiment of the present invention as shown in Fig. 7 (b) using a wear band.

도 8은 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 다른 구현 예를 나타내는 도면이다.8 is a diagram illustrating another embodiment of a user interaction apparatus according to an embodiment of the present invention.

도 8의 (a)에 도시된 바와 같이, 본 발명의 일실시예에 따른 사용자 인터랙션 장치는 팔찌 형태로 구현될 수 있다. 사용자는 도 8의 (b)에 도시된 바와 같이 팔찌 형태로 구현된 본 발명의 일실시예에 따른 사용자 인터랙션 장치를 착용할 수 있다.As shown in FIG. 8 (a), the user interaction apparatus according to an embodiment of the present invention may be implemented as a bracelet. The user may wear a user interaction device according to an embodiment of the present invention, which is implemented in the form of a bracelet, as shown in FIG. 8 (b).

한편, 도 7 및 도 8에 도시된 본 발명의 일실시예에 따른 사용자 인터랙션 장치들은 예시적인 구현 예로서, 상술한 바와 같이 본 발명에 따른 사용자 인터랙션 장치는 다양한 악세서리 형태로 구현될 수 있다.
Meanwhile, the user interaction apparatuses according to an embodiment of the present invention shown in FIGS. 7 and 8 are exemplary implementations. As described above, the user interaction apparatus according to the present invention can be implemented in various accessories.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

100, 460: 사용자 인터랙션 장치 110, 461: 무선통신모듈
120, 462: 센서부 123, 463: 동작인식센서
126, 464: 음향인식센서 130, 465: 장치 제어부
140, 466: 인터랙션 출력부 143, 467: 광 출력부
146, 468: 향 발산부 410: 모바일 단말기
411: 무선통신부 413: 단말기 제어부
415: 디스플레이부 417: 인터페이스부
419: 메모리부
100, 460: user interaction device 110, 461: wireless communication module
120, 462: sensor unit 123, 463: motion recognition sensor
126, 464: Acoustic recognition sensor 130, 465:
140, 466: Interaction output section 143, 467: Optical output section
146, 468: incense diverting unit 410: mobile terminal
411: Wireless communication unit 413:
415: Display unit 417: Interface unit
419:

Claims (24)

외부로부터 상대방측 감지신호를 전송받는 무선통신모듈;
사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 센서부;
상기 무선통신모듈로부터 상기 상대방측 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받으며, 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 장치 제어부; 및
상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.
A wireless communication module for receiving a counterpart side sensing signal from the outside;
A sensor unit for detecting a state of a user or a surrounding area to generate a user-side sensing signal;
Receiving at least one counterpart sensing signal from the sensor module and at least one counterpart sensing signal included in the counterpart sensing signal and at least one counterpart sensing signal included in the counterpart sensing signal, A device control unit for generating and outputting an interaction control signal according to a comparison result of user-side sensing data of the user; And
And an interaction output unit receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal.
제1항에 있어서, 상기 센서부는,
상기 사용자 인터랙션 장치의 움직임을 측정하는 동작인식센서; 및
상기 사용자 인터랙션 장치 주변의 소리 및 상기 사용자의 음성을 감지하는 음향인식센서를 포함하고,
상기 적어도 하나의 사용자측 센싱데이터는,
상기 동작인식센서에 의해 감지된 동작인식데이터 및 상기 음향인식센서에 의해 감지된 음향데이터를 포함하고,
상기 적어도 하나의 상대방측 센싱데이터는,
상기 상대방의 사용자 인터랙션 장치에 의해 감지된 동작인식데이터 및 음향데이터를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.
The apparatus according to claim 1,
An operation recognition sensor for measuring a motion of the user interaction device; And
And a sound recognition sensor for sensing a sound around the user interaction device and a sound of the user,
Wherein the at least one user-
A motion recognizing sensor sensed by the motion recognizing sensor and sound data sensed by the sound recognizing sensor,
Wherein the at least one counterpart side sensing data comprises:
Wherein the user interaction device includes motion recognition data and sound data sensed by the user interaction device of the other party.
제2항에 있어서, 상기 인터랙션 제어신호는,
광 제어신호 및 향 제어신호를 포함하고,
상기 인터랙션 출력부는,
상기 장치 제어부로부터 입력받은 광 제어신호에 대응되는 빛을 외부로 출력하는 광 출력부; 및
상기 장치 제어부로부터 입력받은 향 제어신호에 대응되는 향을 외부로 발산하는 향 발산부를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.
3. The apparatus of claim 2, wherein the interaction control signal comprises:
A light control signal and an incense control signal,
Wherein the interaction output unit comprises:
A light output unit for outputting light corresponding to a light control signal received from the device control unit to the outside; And
And a fragrance divergence unit for diverting the fragrance corresponding to the fragrance control signal received from the device control unit to the outside.
제3항에 있어서, 상기 광 제어신호 및 상기 향 제어신호 각각은,
상기 사용자측 센싱데이터에 포함되는 동작인식데이터와 상기 상대방측 센싱데이터에 포함되는 동작인식데이터를 비교한 결과 및 상기 사용자측 센싱데이터에 포함되는 음향데이터와 상기 상대방측 센싱데이터에 포함되는 음향데이터를 비교한 결과 중 적어도 하나에 따라 생성되는 것을 특징으로 하는 사용자 인터랙션 장치.
4. The method of claim 3, wherein the light control signal and the incense control signal, respectively,
A comparison result between the motion recognition data included in the user side sensing data and the motion recognition data included in the counterpart side sensing data and the comparison result between the sound data included in the user side sensing data and the sound data included in the counterpart side sensing data And the result is generated according to at least one of the results.
제1항에 있어서, 상기 장치 제어부는,
상기 적어도 하나의 상대방측 센싱데이터 및 상기 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 중 어느 하나에 따라 상기 적어도 하나의 상대방측 센싱데이터 및 상기 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성하는 것을 특징으로 하는 사용자 인터랙션 장치.
The apparatus according to claim 1,
Wherein the at least one counterpart sensing data and the at least one counterpart sensing data are compared with each other according to any one of a maximum value, an average value, and a proximity value of sensing data to be compared, And generates each of the comparison results of the at least one user-side sensing data.
제1항에 있어서, 상기 상대방측 감지신호는,
상대방의 사용자 인터랙션 장치에 의해 생성될 수 있고, 상기 상대방의 사용자 인터랙션 장치의 무선통신모듈로부터 전송되거나 상대방의 모바일 단말기로부터 전송되는 것을 특징으로 하는 사용자 인터랙션 장치.
The apparatus as claimed in claim 1,
Wherein the user interaction device is generated by a user interaction device of the other party and is transmitted from a wireless communication module of the user interaction device of the other party or from a mobile terminal of the other party.
제1항에 있어서, 상기 장치 제어부는,
상기 무선통신모듈을 통해 상기 사용자 인터랙션 장치 주변에 상기 상대방의 사용자 인터랙션 장치가 위치하는지를 판단하고, 상기 사용자 인터랙션 장치와 상기 상대방의 사용자 인터랙션 장치 사이의 거리가 일정 거리 이하인 것으로 판단되면 상기 무선통신모듈을 통해 상기 상대방의 사용자 인터랙션 장치와 무선통신을 연결하는 것을 특징으로 하는 사용자 인터랙션 장치.
The apparatus according to claim 1,
Determining whether the user interaction apparatus of the other party is located in the vicinity of the user interaction apparatus through the wireless communication module and if the distance between the user interaction apparatus and the user interaction apparatus of the other party is less than a predetermined distance, Wherein the user interaction apparatus is connected to the user interaction apparatus through wireless communication.
사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 센서부;
비교대상 감지신호를 포함하는 멀티미디어 데이터를 저장하는 메모리부;
상기 메모리부로부터 상기 비교대상 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받으며, 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 장치 제어부; 및
상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.
A sensor unit for detecting a state of a user or a surrounding area to generate a user-side sensing signal;
A memory unit for storing multimedia data including a comparison target detection signal;
And a control unit for receiving the comparison target sensing signal from the memory unit and receiving the user sensing signal from the sensor unit, receiving at least one comparison target sensing data included in the comparison target sensing signal, and at least one A device control unit for generating and outputting an interaction control signal according to a comparison result of user-side sensing data; And
And an interaction output unit receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal.
센서부가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계;
무선통신모듈을 통해 외부로부터 상대방측 감지신호를 전송받는 단계;
장치 제어부가 무선통신모듈로부터 상기 상대방측 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받는 단계;
상기 장치 제어부가 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계; 및
인터랙션 출력부가 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치의 동작방법.
Generating a user-side sensing signal by sensing a state of a user or a neighboring sensor unit;
Receiving a counterpart side sensing signal from the outside via a wireless communication module;
Receiving a detection signal from the wireless communication module and receiving the detection signal from the sensor unit;
Generating and outputting an interaction control signal according to a result of comparison between at least one counterpart sensing data included in the counterpart sensing signal and at least one user sensing data included in the sensing signal on the user side; And
Wherein the interaction output unit receives the interaction control signal from the device control unit and outputs an interaction corresponding to the interaction control signal.
센서부가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계;
사용자 입력에 따라 장치 제어부가 메모리부에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계;
상기 장치 제어부가 상기 센서부로부터 상기 사용자측 감지신호를 입력받는 단계;
상기 장치 제어부가 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계; 및
인터랙션 출력부가 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치의 동작방법.
Generating a user-side sensing signal by sensing a state of a user or a neighboring sensor unit;
Extracting a comparison object detection signal from the multimedia data stored in the memory unit according to a user input;
Receiving the user-side sensing signal from the sensor unit;
Generating and outputting an interaction control signal according to a comparison result of at least one comparison object sensing data included in the comparison object sensing signal and at least one user side sensing data included in the user sensing signal; And
Wherein the interaction output unit receives the interaction control signal from the device control unit and outputs an interaction corresponding to the interaction control signal.
제9항 내지 제10항 중 어느 한 항에 기재된 사용자 인터랙션 장치의 동작방법을 수행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for performing a method of operating a user interaction apparatus according to any one of claims 9 to 10. 사용자의 모바일 단말기 및 사용자 인터랙션 장치를 포함하는 사용자 인터랙션 시스템에 있어서,
상기 모바일 단말기는,
외부로부터 상대방측 감지신호를 전송받고 상기 사용자 인터랙션 장치로부터 사용자측 감지신호를 전송받는 무선통신부; 및
상기 무선통신부로부터 상기 상대방측 감지신호 및 상기 사용자측 감지신호를 입력받고, 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하며, 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단말기 제어부를 포함하고,
상기 사용자 인터랙션 장치는,
상기 모바일 단말기로부터 상기 인터랙션 제어신호를 전송받는 무선통신모듈;
상기 사용자 또는 주변의 상태를 감지하여 상기 사용자측 감지신호를 생성하는 센서부;
상기 센서부로부터 입력받은 사용자측 감지신호를 상기 무선통신모듈을 통해 상기 모바일 단말기로 전송하고, 상기 모바일 단말기로부터 전송받은 상기 인터랙션 제어신호를 출력하는 장치 제어부; 및
상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템.
A user interaction system comprising a user's mobile terminal and a user interaction device,
The mobile terminal comprises:
A wireless communication unit for receiving a counterpart side detection signal from the outside and receiving a user side detection signal from the user interaction apparatus; And
A comparison result of at least one user side sensing data included in at least one counterpart side sensing data included in the counterpart side sensing signal and at least one user side sensing data included in the user side sensing signal, And outputting the interaction control signal to the user interaction apparatus via the wireless communication unit,
The user interaction apparatus comprising:
A wireless communication module for receiving the interaction control signal from the mobile terminal;
A sensor unit for sensing the state of the user or the surroundings and generating the user-side sensing signal;
A device controller for transmitting a user side sensing signal received from the sensor unit to the mobile terminal through the wireless communication module and outputting the interaction control signal received from the mobile terminal; And
And an interaction output unit receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal.
모바일 단말기로부터 인터랙션 제어신호를 전송받는 무선통신모듈;
사용자 또는 주변의 상태를 감지하여 상기 사용자측 감지신호를 생성하는 센서부;
상기 센서부로부터 입력받은 사용자측 감지신호를 상기 무선통신모듈을 통해 상기 모바일 단말기로 전송하고, 상기 모바일 단말기로부터 전송받은 상기 인터랙션 제어신호를 출력하는 장치 제어부; 및
상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.
A wireless communication module for receiving an interaction control signal from the mobile terminal;
A sensor unit for sensing a state of the user or the surroundings and generating the user-side sensing signal;
A device controller for transmitting a user side sensing signal received from the sensor unit to the mobile terminal through the wireless communication module and outputting the interaction control signal received from the mobile terminal; And
And an interaction output unit receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal.
제13항에 있어서, 상기 센서부는,
상기 사용자 인터랙션 장치의 움직임을 측정하는 동작인식센서; 및
상기 사용자 인터랙션 장치 주변의 소리 및 상기 사용자의 음성을 감지하는 음향인식센서를 포함하고,
상기 적어도 하나의 사용자측 센싱데이터는,
상기 동작인식센서에 의해 감지된 동작인식데이터 및 상기 음향인식센서에 의해 감지된 음향데이터를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.
14. The apparatus according to claim 13,
An operation recognition sensor for measuring a motion of the user interaction device; And
And a sound recognition sensor for sensing a sound around the user interaction device and a sound of the user,
Wherein the at least one user-
Wherein the motion recognition data includes motion recognition data sensed by the motion recognition sensor and sound data sensed by the sound recognition sensor.
제14항에 있어서, 상기 인터랙션 제어신호는,
광 제어신호 및 향 제어신호를 포함하고,
상기 인터랙션 출력부는,
상기 장치 제어부로부터 입력받은 광 제어신호에 대응되는 빛을 외부로 출력하는 광 출력부; 및
상기 장치 제어부로부터 입력받은 향 제어신호에 대응되는 향을 외부로 발산하는 향 발산부를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.
15. The apparatus of claim 14, wherein the interaction control signal comprises:
A light control signal and an incense control signal,
Wherein the interaction output unit comprises:
A light output unit for outputting light corresponding to a light control signal received from the device control unit to the outside; And
And a fragrance divergence unit for diverting the fragrance corresponding to the fragrance control signal received from the device control unit to the outside.
무선통신부를 통해 사용자 인터랙션 장치로부터 사용자측 감지신호를 전송받는 단계;
상기 무선통신부를 통해 외부로부터 상대방측 감지신호를 전송받는 단계;
단말기 제어부가 상기 무선통신부로부터 상기 상대방측 감지신호 및 상기 사용자측 감지신호를 입력받는 단계;
상기 단말기 제어부가 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계; 및
상기 단말기 제어부가 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단계를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.
Receiving a user side sensing signal from a user interaction device through a wireless communication unit;
Receiving a counterpart side sensing signal from the outside through the wireless communication unit;
The terminal control unit receiving the opposite side sensing signal and the user side sensing signal from the wireless communication unit;
The terminal control unit generating an interaction control signal according to a result of comparison between at least one counterpart sensing data included in the counterpart sensing signal and at least one user sensing data included in the counterpart sensing signal; And
And the terminal control unit outputs the interaction control signal to the user interaction apparatus through the wireless communication unit.
제16항에 있어서, 상기 사용자 인터랙션 장치는,
상기 사용자 인터랙션 장치의 움직임을 측정하는 동작인식센서; 및
상기 사용자 인터랙션 장치 주변의 소리 및 상기 사용자의 음성을 감지하는 음향인식센서를 포함하고,
상기 적어도 하나의 사용자측 센싱데이터는,
상기 동작인식센서에 의해 감지된 동작인식데이터 및 상기 음향인식센서에 의해 감지된 음향데이터를 포함하고,
상기 적어도 하나의 상대방측 센싱데이터는,
상대방의 사용자 인터랙션 장치에 의해 감지된 동작인식데이터 및 음향데이터를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.
17. The user interaction apparatus according to claim 16,
An operation recognition sensor for measuring a motion of the user interaction device; And
And a sound recognition sensor for sensing a sound around the user interaction device and a sound of the user,
Wherein the at least one user-
A motion recognizing sensor sensed by the motion recognizing sensor and sound data sensed by the sound recognizing sensor,
Wherein the at least one counterpart side sensing data comprises:
Wherein the mobile communication terminal includes operation recognition data and sound data sensed by a user interaction device of the other party.
제17항에 있어서, 상기 인터랙션 제어신호는,
광 제어신호 및 향 제어신호를 포함하고,
상기 사용자 인터랙션 장치는,
상기 광 제어신호에 대응되는 빛을 외부로 출력하는 광 출력부; 및
상기 향 제어신호에 대응되는 향을 외부로 발산하는 향 발산부를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.
18. The apparatus of claim 17, wherein the interaction control signal comprises:
A light control signal and an incense control signal,
The user interaction apparatus comprising:
A light output unit for outputting light corresponding to the light control signal to the outside; And
And a directional divergence unit for diverging the incense corresponding to the incense control signal to the outside.
제18항에 있어서, 상기 광 제어신호 및 상기 향 제어신호 각각은,
상기 사용자측 센싱데이터에 포함되는 동작인식데이터와 상기 상대방측 센싱데이터에 포함되는 동작인식데이터를 비교한 결과 및 상기 사용자측 센싱데이터에 포함되는 음향데이터와 상기 상대방측 센싱데이터에 포함되는 음향데이터를 비교한 결과 중 적어도 하나에 따라 생성되는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.
19. The method of claim 18, wherein the light control signal and the incense control signal, respectively,
A comparison result between the motion recognition data included in the user side sensing data and the motion recognition data included in the counterpart side sensing data and the comparison result between the sound data included in the user side sensing data and the sound data included in the counterpart side sensing data And the result is generated according to at least one of the results.
제16항에 있어서, 상기 단말기 제어부는,
상기 적어도 하나의 상대방측 센싱데이터 및 상기 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 중 어느 하나에 따라 상기 적어도 하나의 상대방측 센싱데이터 및 상기 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.
17. The terminal of claim 16,
Wherein the at least one counterpart sensing data and the at least one counterpart sensing data are compared with each other according to any one of a maximum value, an average value, and a proximity value of sensing data to be compared, Wherein each of the comparison results of the at least one user-side sensing data is generated.
제16항에 있어서, 상기 상대방측 감지신호는,
상대방의 사용자 인터랙션 장치에 의해 생성될 수 있고, 상기 상대방의 사용자 인터랙션 장치의 무선통신모듈로부터 전송되거나 상기 상대방의 모바일 단말기로부터 전송되는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.
17. The method of claim 16,
Wherein the mobile communication terminal is generated by a user interaction device of the other party and is transmitted from a wireless communication module of the user interaction device of the other party or from the mobile terminal of the other party.
제16항에 있어서, 상기 단말기 제어부는,
상기 무선통신부를 통해 상기 사용자의 모바일 단말기 주변에 상기 상대방의 사용자 인터랙션 장치 또는 상기 상대방의 모바일 단말기가 위치하는지를 판단하고, 상기 사용자의 모바일 단말기와 상기 상대방의 사용자 인터랙션 장치 사이의 거리 또는 상기 사용자의 모바일 단말기와 상기 상대방의 모바일 단말기 사이의 거리가 일정 거리 이하인 것으로 판단되면 상기 무선통신모듈을 통해 상기 상대방의 사용자 인터랙션 장치 또는 상기 상대방의 모바일 단말기와 무선통신을 연결하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.
17. The terminal of claim 16,
The mobile communication terminal determines whether the user interaction apparatus of the other party or the mobile terminal of the other party is located around the mobile terminal of the user through the wireless communication unit and determines a distance between the mobile terminal of the user and the user interaction apparatus of the user, When the mobile terminal determines that the distance between the terminal and the mobile terminal of the other party is less than a predetermined distance, the mobile communication terminal connects wireless communication with the user interaction apparatus of the other party or the mobile terminal of the other party through the wireless communication module. A method of operating a terminal.
무선통신부를 통해 사용자 인터랙션 장치로부터 사용자측 감지신호를 전송받는 단계;
사용자 입력에 따라 단말기 제어부가 메모리부에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계;
상기 단말기 제어부가 상기 무선통신부로부터 상기 사용자측 감지신호를 입력받는 단계;
상기 단말기 제어부가 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계; 및
상기 단말기 제어부가 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단계를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.
Receiving a user side sensing signal from a user interaction device through a wireless communication unit;
Extracting a comparison object detection signal from the multimedia data stored in the memory unit according to a user input;
Receiving the user side sensing signal from the wireless communication unit;
Generating the interaction control signal according to a comparison result of at least one comparison subject sensing data included in the comparison subject sensing signal and at least one user side sensing data included in the user sensing signal; And
And the terminal control unit outputs the interaction control signal to the user interaction apparatus through the wireless communication unit.
제16항 내지 제23항 중 어느 한 항에 기재된 사용자 인터랙션 시스템의 모바일 단말기 동작방법을 수행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for performing a method of operating a mobile terminal of the user interaction system according to any one of claims 16 to 23.
KR1020130126090A 2013-10-22 2013-10-22 User interaction apparatus, operating method thereof and user interaction system KR101563582B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130126090A KR101563582B1 (en) 2013-10-22 2013-10-22 User interaction apparatus, operating method thereof and user interaction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130126090A KR101563582B1 (en) 2013-10-22 2013-10-22 User interaction apparatus, operating method thereof and user interaction system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR20150025242A Division KR20150046769A (en) 2015-02-23 2015-02-23 User interaction apparatus, operating method thereof and user interaction system

Publications (2)

Publication Number Publication Date
KR20150046629A true KR20150046629A (en) 2015-04-30
KR101563582B1 KR101563582B1 (en) 2015-10-27

Family

ID=53037951

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130126090A KR101563582B1 (en) 2013-10-22 2013-10-22 User interaction apparatus, operating method thereof and user interaction system

Country Status (1)

Country Link
KR (1) KR101563582B1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100996629B1 (en) * 2010-03-04 2010-12-07 (주) 루스케이프 Multi-function lighting device and control method therefor

Also Published As

Publication number Publication date
KR101563582B1 (en) 2015-10-27

Similar Documents

Publication Publication Date Title
US20240146847A1 (en) Methods and Apparatus to Assist Listeners in Distinguishing Between Electronically Generated Binaural Sound and Physical Environment Sound
CN105373222B (en) Electronic device and control method thereof
JP6760267B2 (en) Information processing equipment, control methods, and programs
KR102060776B1 (en) Electronic device operating in asscociated state with external audio device based on biometric information and method therefor
US20180124497A1 (en) Augmented Reality Sharing for Wearable Devices
US20150328082A1 (en) Interactive Entertainment System Having Sensory Feedback
CN108156280B (en) Display control method and related product
CN107728400B (en) Information display method and mobile terminal
WO2016185740A1 (en) Information-processing device, information-processing method, and program
US10205814B2 (en) Wireless earpiece with walkie-talkie functionality
CN112533017B (en) Live broadcast method, device, terminal and storage medium
WO2018163637A1 (en) Information-processing device, information-processing method, and recording medium
WO2017175689A1 (en) System, terminal device, method and recording medium
CN109061903B (en) Data display method and device, intelligent glasses and storage medium
CN108886653A (en) A kind of earphone sound channel control method, relevant device and system
CN116471431A (en) Modifying and transferring audio between devices
CN110348198A (en) Personal identification method, relevant apparatus and the system of simulation object
CN109224432A (en) Control method, device, storage medium and the wearable device of entertainment applications
KR20150046769A (en) User interaction apparatus, operating method thereof and user interaction system
KR101563582B1 (en) User interaction apparatus, operating method thereof and user interaction system
US10198072B2 (en) Haptic feedback for opportunistic displays
CN211752495U (en) Fingertip building block
KR101517399B1 (en) Sound/Perfume Actuator, Method For Controlling Sound/Perfume Actuator In Mobile Terminal and Communication System Using Mobile Terminal and Sound/Perfume Actuator
CN111111232A (en) Fingertip building block, and control method and control device thereof
KR20200080410A (en) Apparatus and method for controlling operation of robot capable of mounting accessory

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181023

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191021

Year of fee payment: 5