KR20150046629A - User interaction apparatus, operating method thereof and user interaction system - Google Patents
User interaction apparatus, operating method thereof and user interaction system Download PDFInfo
- Publication number
- KR20150046629A KR20150046629A KR20130126090A KR20130126090A KR20150046629A KR 20150046629 A KR20150046629 A KR 20150046629A KR 20130126090 A KR20130126090 A KR 20130126090A KR 20130126090 A KR20130126090 A KR 20130126090A KR 20150046629 A KR20150046629 A KR 20150046629A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- interaction
- control signal
- unit
- user interaction
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Abstract
Description
본 발명은 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템에 관한 것으로서, 특히 사용자 자신의 동작이나 음성 등을 상대방의 동작이나 음성 등과 비교하여 그 결과에 따라 빛(Light), 향(Perfume), 소리 또는 촉감 등과 같은 다양한 인터랙션을 출력하는 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a user interaction apparatus, an operation method thereof, and a user interaction system. More particularly, the present invention relates to a user interaction apparatus, Or tactile sensation, an operation method thereof, and a user interaction system.
일반적으로 사람들은 상대방이 자신과 비슷한 행동을 하거나 비슷한 표현을 사용하는 등 자신과 상대방이 서로 유사하다고 느끼는 경우, 처음 만난 상대방에게도 동질감을 느끼게 되고 상대방과 친밀한 관계를 보다 빠르게 형성할 수 있게 된다. 연구 결과에 따르면, 이러한 상대방의 행동이나 표현을 의도적으로 따라하게 하거나 또는 인위적인 장치를 통한 따라하기와 비슷한 효과를 만들어 주어도 심리적으로 무의식적 따라하기를 통해 얻는 상대방에 대한 동질감과 호감의 효과가 비슷한 심리적 결과로 나온다는 것을 알 수 있다.In general, when a person feels that they are similar to each other, for example, by using similar expressions or using similar expressions, they feel a sense of identity to the person they first met and can establish an intimate relationship with the other person more quickly. According to the results of the study, even if the behavior or the expression of the other party is intentionally followed or the effect is similar to that of the follow-up through the artificial device, psychological result similar to the psychological result . ≪ / RTI >
한편, 종래에도 빛이나 향을 함께 발생하는 구성은 공개되어 있었다. 즉, 대한민국 공개특허공보 제10-0008-0102731호에는 엘이디(LED) 발광체와 향기발생부를 통해 빛과 향을 함께 발생하는 구성이 공개되어 있고, 대한민국 공개특허공보 제10-2005-0016402호에도 향기, 빛 및 소리를 다양하게 조합하여 출력하는 구성이 공개되어 있다. 그러나, 이와 같은 종래기술들은 단순히 빛이나 향을 함께 발생할 뿐이고, 상대방의 동작이나 반응, 사용자 주변의 환경 등에 따라 빛과 향, 소리 및 촉감 등의 표현을 이용한 상호작용 기술은 알려져 있지 않았다.On the other hand, a configuration in which light and incense are generated together has been disclosed. That is, Korean Patent Laid-Open Publication No. 10-0008-0102731 discloses a configuration in which light and aroma are generated together through an LED light emitting body and a fragrance generating unit, and Korean Patent Laid-Open Publication No. 10-2005-0016402 , And light and sound are output in various combinations. However, such conventional techniques merely generate light or incense together, and there is no known interaction technique using expressions of light, incense, sound, and touch according to the operation or response of the other party, the environment around the user, and the like.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 사용자 자신의 동작이나 음성 등을 상대방의 동작이나 음성 등과 비교하여 그 결과에 따라 빛(Light), 향(Perfume), 소리 또는 촉감 등과 같은 다양한 인터랙션을 출력하는 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide an image processing apparatus and method that compares an operation or voice of a user with an operation or voice of the other party, And to provide a user interaction apparatus, a method of operating the same, and a user interaction system.
또한, 본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 사용자 간 커뮤니케이션에 있어서 그들의 동작(움직임) 또는 목소리(주변 소리)를 감지하고 이를 서로 인위적으로 동기화하여 사용자간 심리적 거리를 줄이고 보다 친밀감을 갖게 할 수 있는 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a mobile communication system and a mobile communication method in which communication between users is detected and a psychological distance between users is reduced by artificially synchronizing their movements or voices And a user interaction system capable of performing a user interaction with the user, an operation method thereof, and a user interaction system.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 사용자 인터랙션 장치는, 외부로부터 상대방측 감지신호를 전송받는 무선통신모듈, 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 센서부, 상기 무선통신모듈로부터 상기 상대방측 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받으며, 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 장치 제어부, 및 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a user interaction apparatus including a wireless communication module that receives a counterpart side sensing signal from the outside, a sensor that detects a user or a state of the user and generates a user- And a control unit for receiving the counterpart side sensing signal from the wireless communication module and receiving the sensing signal from the sensor unit, receiving at least one counterpart sensing data included in the counterpart sensing signal, A device control unit for generating and outputting an interaction control signal according to a result of comparison of at least one user-side sensing data, and an interaction output unit for receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal .
상기와 같은 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치는, 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 센서부, 비교대상 감지신호를 포함하는 멀티미디어 데이터를 저장하는 메모리부, 상기 메모리부로부터 상기 비교대상 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받으며, 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 장치 제어부, 및 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a user interaction apparatus including a sensor unit for sensing a user or a surrounding state and generating a user-side sensing signal, a storage unit for storing multimedia data including a comparison- A memory unit for receiving the comparison target sensing signal from the memory unit, receiving the sensing signal from the sensor unit, and at least one comparison target sensing data included in the comparison target sensing signal and included in the user sensing signal And an interaction output unit for receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal, wherein the interaction control unit receives the interaction control signal from the device control unit and generates an interaction control signal based on the comparison result of at least one user- Special to include It shall be.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법은, 센서부가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계, 무선통신모듈을 통해 외부로부터 상대방측 감지신호를 전송받는 단계, 장치 제어부가 무선통신모듈로부터 상기 상대방측 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받는 단계, 상기 장치 제어부가 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계, 및 인터랙션 출력부가 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of operating a user interaction apparatus, the method comprising: sensing a user or a surrounding state of a sensor unit to generate a user-side sensing signal; Receiving a detection signal of a counterpart side, receiving a counterpart side detection signal from a wireless communication module and receiving the user detection signal from the sensor unit, Generating and outputting an interaction control signal in accordance with a comparison result of one counterpart sensing data and at least one user sensing data included in the user sensing signal and outputting the interaction control signal as an interaction output signal from the device control unit , Corresponding to the interaction control signal It is characterized by including the step of outputting the interaction.
상기와 같은 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법은, 센서부가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계, 사용자 입력에 따라 장치 제어부가 메모리부에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계, 상기 장치 제어부가 상기 센서부로부터 상기 사용자측 감지신호를 입력받는 단계, 상기 장치 제어부가 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계, 및 인터랙션 출력부가 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of operating a user interaction apparatus, the method comprising the steps of: The method comprising the steps of: extracting a comparison object detection signal from multimedia data stored in a memory unit; receiving the user-side detection signal from the sensor unit; Generating and outputting an interaction control signal according to a comparison result of sensing data and at least one user-side sensing data included in the user-side sensing signal, and receiving the interaction control signal from the device control unit, Corresponds to the signal Characterized in that it comprises a step of outputting the interaction.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템은, 사용자의 모바일 단말기 및 사용자 인터랙션 장치를 포함하고, 상기 모바일 단말기는, 외부로부터 상대방측 감지신호를 전송받고 상기 사용자 인터랙션 장치로부터 사용자측 감지신호를 전송받는 무선통신부, 및 상기 무선통신부로부터 상기 상대방측 감지신호 및 상기 사용자측 감지신호를 입력받고, 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하며, 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단말기 제어부를 포함하고, 상기 사용자 인터랙션 장치는, 상기 모바일 단말기로부터 상기 인터랙션 제어신호를 전송받는 무선통신모듈, 상기 사용자 또는 주변의 상태를 감지하여 상기 사용자측 감지신호를 생성하는 센서부, 상기 센서부로부터 입력받은 사용자측 감지신호를 상기 무선통신모듈을 통해 상기 모바일 단말기로 전송하고, 상기 모바일 단말기로부터 전송받은 상기 인터랙션 제어신호를 출력하는 장치 제어부, 및 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 한다.In order to achieve the above object, a user interaction system according to an embodiment of the present invention includes a user's mobile terminal and a user interaction device, wherein the mobile terminal receives a detection signal of the opposite side from the outside, A wireless communication unit for receiving a user side sensing signal from the interaction device, and a control unit for receiving the opposite side sensing signal and the user side sensing signal from the wireless communication unit, receiving at least one counterpart sensing data included in the counter side sensing signal, And a terminal control unit for generating an interaction control signal according to a comparison result of at least one user-side sensing data included in the signal and outputting the interaction control signal to the user interaction apparatus via the wireless communication unit, , Prize A wireless communication module for receiving the interaction control signal from the mobile terminal, a sensor unit for sensing the user or the surrounding state to generate the user-side sensing signal, a sensor unit for receiving the user-side sensing signal input from the sensor unit through the wireless communication module, And an interaction output unit for receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal, wherein the device control unit transmits the interaction control signal to the mobile terminal and outputs the interaction control signal transmitted from the mobile terminal .
상기와 같은 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치는, 모바일 단말기로부터 인터랙션 제어신호를 전송받는 무선통신모듈, 사용자 또는 주변의 상태를 감지하여 상기 사용자측 감지신호를 생성하는 센서부, 상기 센서부로부터 입력받은 사용자측 감지신호를 상기 무선통신모듈을 통해 상기 모바일 단말기로 전송하고, 상기 모바일 단말기로부터 전송받은 상기 인터랙션 제어신호를 출력하는 장치 제어부, 및 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a user interaction apparatus including a wireless communication module for receiving an interaction control signal from a mobile terminal, A device controller for transmitting a user side sensing signal received from the sensor unit to the mobile terminal through the wireless communication module and outputting the interaction control signal transmitted from the mobile terminal, And an interaction output unit for receiving a signal and outputting an interaction corresponding to the interaction control signal.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 모바일 단말기 동작방법은, 무선통신부를 통해 사용자 인터랙션 장치로부터 사용자측 감지신호를 전송받는 단계, 상기 무선통신부를 통해 외부로부터 상대방측 감지신호를 전송받는 단계, 단말기 제어부가 상기 무선통신부로부터 상기 상대방측 감지신호 및 상기 사용자측 감지신호를 입력받는 단계, 상기 단말기 제어부가 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계, 및 상기 단말기 제어부가 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of operating a mobile terminal of a user interaction system, the method comprising: receiving a user side sensing signal from a user interaction device through a wireless communication unit; Receiving at least one counterpart sensing signal, receiving at least one counterpart sensing signal and at least one counterpart sensing signal from the wireless communication unit, And generating an interaction control signal according to a comparison result of at least one user-side sensing data included in the user-side sensing signal, and outputting the interaction control signal to the user interaction apparatus through the wireless communication unit A foil .
상기와 같은 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 모바일 단말기 동작방법은, 무선통신부를 통해 사용자 인터랙션 장치로부터 사용자측 감지신호를 전송받는 단계, 사용자 입력에 따라 단말기 제어부가 메모리부에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계, 상기 단말기 제어부가 상기 무선통신부로부터 상기 사용자측 감지신호를 입력받는 단계, 상기 단말기 제어부가 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계, 및 상기 단말기 제어부가 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of operating a mobile terminal of a user interaction system, the method comprising: receiving a user side sensing signal from a user interaction device through a wireless communication unit; The method of claim 1, further comprising the steps of: extracting a comparison object detection signal from the multimedia data stored in the memory; receiving, by the terminal control unit, the user detection signal from the wireless communication unit; Generating sensed data and at least one user-side sensing data included in the sensed user-side sensed data to generate an interaction control signal, and the terminal control unit transmits the interaction control signal to the user interaction sensing unit through the wireless communication unit, And outputting it to the apparatus.
상기와 같은 본 발명에 따른 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템은, 사용자 자신의 동작이나 음성 등을 상대방의 동작이나 음성 등과 비교하여 그 결과에 따라 빛(Light) 또는 향(Perfume) 또는 촉감(Tactile) 등과 같은 다양한 인터랙션을 출력함으로써 사용자와 상대방이 서로 동질감을 느끼고 친밀한 관계를 보다 쉽게 형성할 수 있는 효과가 있다.The user interaction apparatus, the operation method thereof, and the user interaction system according to the present invention as described above may compare the operation or voice of the user with the action or voice of the other party, and may use a light, a perfume, Tactile, etc., so that the user and the opponent feel a sense of identity and can easily form an intimate relationship.
또한, 상기와 같은 본 발명에 따른 사용자 인터랙션 장치, 그 동작방법 및 사용자 인터랙션 시스템은, 사용자 간 커뮤니케이션에 있어서 그들의 동작(움직임) 또는 목소리(주변 소리)를 감지하고 이를 서로 인위적으로 동기화하여 사용자간 심리적 거리를 줄이고 보다 친밀감을 갖게 할 수 있는 효과가 있다.In addition, the user interaction apparatus, the operation method thereof, and the user interaction system according to the present invention as described above detect the motion (movement) or the voice (ambient sound) in the communication between the users and artificially synchronize them with each other, It has the effect of reducing distance and having more intimacy.
도 1은 본 발명의 일실시예에 따른 사용자 인터랙션 장치를 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법을 나타내는 순서도(Flowchart)이다.
도 3은 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법을 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 사용자 인터랙션 시스템을 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법을 나타내는 순서도이다.
도 6은 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법을 나타내는 도면이다.
도 7은 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 실제 구현 예를 나타내는 도면이다.
도 8은 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 다른 구현 예를 나타내는 도면이다.1 is a block diagram illustrating a user interaction apparatus according to an exemplary embodiment of the present invention.
2 is a flowchart illustrating a method of operating a user interaction apparatus according to an embodiment of the present invention.
3 is a diagram illustrating an operation method of a user interaction apparatus according to another embodiment of the present invention.
4 is a diagram illustrating a user interaction system in accordance with an embodiment of the present invention.
5 is a flowchart illustrating an operation method of a user interaction system according to an embodiment of the present invention.
6 is a diagram illustrating an operation method of a user interaction system according to another embodiment of the present invention.
7 is a diagram showing an actual implementation example of a user interaction apparatus according to an embodiment of the present invention.
8 is a diagram illustrating another embodiment of a user interaction apparatus according to an embodiment of the present invention.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 도면에 기재된 내용을 참조하여야 한다. In order to fully understand the present invention, operational advantages of the present invention, and objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the accompanying drawings which illustrate preferred embodiments of the present invention.
이하 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.
도 1은 본 발명의 일실시예에 따른 사용자 인터랙션 장치를 나타내는 도면이다. 도 1을 참조하면, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 무선통신모듈(110), 센서부(120), 장치 제어부(130) 및 인터랙션 출력부(140)를 포함할 수 있다. 일례로서, 도 1에 도시된 사용자 인터랙션 장치(100)는 반지(Ring), 장갑(Gloves), 손목시계(Watches), 암밴드(Arm Band), 커프스(Cuffs), 목걸이(Necklace), 팔찌(Bracelet), 팬던트(Pendant), 단추(Button) 등 다양한 악세서리 형태로 변형되어 구현될 수 있다. 이에 따라, 상기 사용자 인터랙션 장치(100)는 웨어러블 장치 및 악세사리 형태로 구현되어 사용자의 손목이나 팔, 어깨, 머리, 및 목 등에 착용될 수 있다. 또한, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 작은 크기의 모듈 형태로 제작될 수도 있고 모듈 형태로 제작된 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는 기존의 다양한 악세서리, 예를 들면 머리핀, 넥타이, 펜던트, 팔찌, 안경 등에 삽입되거나 부착되어 사용될 수도 있다.1 is a block diagram illustrating a user interaction apparatus according to an exemplary embodiment of the present invention. 1, a
무선통신모듈(110)은, 외부로부터 상대방측 감지신호를 전송받을 수 있고, 전송받은 상대방측 감지신호를 장치 제어부(130)로 출력할 수 있다. 상기 상대방측 감지신호는, 도 1에 도시된 사용자 인터랙션 장치(100)와 유사한 상대방의 사용자 인터랙션 장치에 의해 생성될 수 있고, 상기 상대방의 사용자 인터랙션 장치의 무선통신모듈로부터 전송되거나 상대방의 모바일 단말기로부터 전송될 수 있다. 상기 상대방측 감지신호는 적어도 하나의 상대방측 센싱데이터를 포함할 수 있고, 상기 적어도 하나의 상대방측 센싱데이터는 상대방의 사용자 인터랙션 장치에 의해 감지된 동작인식데이터 및 음향데이터 등을 포함할 수 있다. 또한, 상기 상대방측 감지신호는 사용자 인터랙션 장치 이외의 다른 장치에 의해 임의로 형성된 데이터일 수도 있고, 인터넷 망(IP Network)을 통해 전송받을 수도 있다.The
또한, 무선통신모듈(110)은 장치 제어부(130)로부터 입력받은 사용자측 감지신호를 상대방에게 전송할 수도 있다. 무선통신모듈(110)은 장치 제어부(130)의 제어 등에 따라 일정한 주기로 사용자측 감지신호를 상대방의 사용자 인터랙션 장치로 전송할 수 있고 일정한 주기로 상대방측 감지신호를 전송받을 수 있다. 상기 무선통신모듈(110)은 상대방의 모바일 단말기나 상대방의 사용자 인터랙션 장치와 무선으로 통신할 수 있는 모든 형태의 통신모듈을 포함하는 개념이며, 대표적으로는 블루투스(Bluetooth) 모듈, WiFi(Wireless Fidelity) 모듈, 무선 인터넷 모듈, 지그비(ZigBee) 모듈, 적외선 통신모듈, 또는 NFC(Near Field Communication) 모듈, WCDMA 모듈, LTE 모듈, WiBro 모듈 등일 수 있고, 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다. 따라서, 상기 무선통신부(411)는 근접 거리의 통신 뿐만 아니라 Over The IP로 통칭될 수 있는 인터넷 프로토콜 망(IP Network)을 통한 통신도 가능할 수 있다.Also, the
센서부(120)는, 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성할 수 있다. 즉, 센서부(120)는 사용자의 움직임이나 음성, 주변의 소리 등을 감지하여 사용자측 감지신호를 생성할 수 있고, 이러한 사용자측 감지신호는 적어도 하나의 사용자측 센싱데이터를 포함할 수 있다. 적어도 하나의 사용자측 센싱데이터에는 동작인식센서(123)에 의해 감지된 동작인식데이터 및 음향인식센서(120)에 의해 감지된 음향데이터가 포함될 수 있다. 상기 적어도 하나의 사용자측 센싱데이터는 이에 국한되지 않으며 센서를 통해 감지가 가능한 다양한 형태의 센싱데이터를 포함할 수 있다.The
상기 센서부(120)는, 도 1에 도시된 바와 같이, 동작인식센서(123) 및 음향인식센서(126)를 포함할 수 있다.The
동작인식센서(123)는, 사용자 인터랙션 장치(100)의 움직임을 측정할 수 있다. 즉, 동작인식센서(123)는, 사용자가 사용자 인터랙션 장치(100)를 손목 등에 착용한 후 사용자 인터랙션 장치(100)를 흔드는 등의 동작을 하는 경우, 이에 따른 사용자 인터랙션 장치(100)의 움직임에 대응되는 동작인식데이터를 생성하여 장치 제어부(130)로 출력할 수 있다. 일례로서, 상기 동작인식센서(123)는 사용자 인터랙션 장치(100)에 내장될 수 있고, 가속도 센서(Accelerometer sensor)나 자이로스코프(Gyroscope), 중력 센서(Gravity Sensor)등과 같은 다양한 형태의 동작감지 센서에 의해 구현될 수 있다. 동작인식센서(123)에서 출력되는 동작인식데이터는 사용자 인터랙션 장치(100)의 이동방향 및 가속도 등의 정보를 포함할 수 있으며, 이에 대한 자세한 사항은 통상의 기술자에게 널리 알려져 있으므로 여기에서는 자세한 설명을 생략한다.The
음향인식센서(126)는 사용자 인터랙션 장치(100) 주변의 소리 및 사용자의 음성을 감지할 수 있는 센서로서, 그 구성 및 동작 원리는 통상의 기술자에게 널리 알려져 있으므로 여기에서는 자세한 설명을 생략한다. 음향인식센서(126)에서 출력되는 음향데이터는 사용자 인터랙션 장치(100) 주변에서 인식된 소리의 크기 등을 포함할 수 있다.The
한편, 도 1에 도시된 센서부(120)의 구성은 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)에 구비되는 센서부(120)는 이외에도 다양한 형태의 센서를 구비할 수 있다.The
장치 제어부(130)는, 무선통신모듈(110)로부터 상대방측 감지신호를 입력받고, 센서부(120)로부터 사용자측 감지신호를 입력받을 수 있다. 이후, 장치 제어부(130)는 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 인터랙션 출력부(140)로 출력할 수 있다. 일례로서, 상기 인터랙션 제어신호는, 광 출력부(143)를 제어하기 위한 광 제어신호 및 향 발산부(146)를 제어하기 위한 향 제어신호를 포함할 수 있다. The
한편, 상기 장치 제어부(110)는, 무선통신모듈(110)을 통해 상기 사용자 인터랙션 장치(100) 주변에 상기 상대방의 사용자 인터랙션 장치가 위치하는지를 판단하고, 상기 사용자 인터랙션 장치(100)와 상기 상대방의 사용자 인터랙션 장치 사이의 거리가 일정 거리 이하인 것으로 판단되면 무선통신모듈(110)을 통해 상기 상대방의 사용자 인터랙션 장치와 무선통신을 연결할 수 있다. 일례로서, 장치 제어부(110)는 무선통신모듈(110)을 통해 상대방의 사용자 인터랙션 장치로부터 수신되는 신호의 RSSI(Received Signal Strength Indicator)나 LQI(Link Quality Indicator) 등을 측정하여 무선신호의 세기나 연결된 통신상태의 품질을 알아낸 후 이에 따라 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치 사이의 거리를 판단할 수 있다. 장치 제어부(110)는, 이외에도 다양한 방법을 이용하여 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치 사이의 거리를 판단할 수 있고, 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치 사이의 거리가 일정 거리 이하인 것으로 판단되면 무선통신모듈(110)을 통해 상대방의 사용자 인터랙션 장치와 무선통신을 연결할 수 있다. 또한, 장치 제어부(110)는 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치 사이의 거리뿐만 아니라 무선신호의 지속시간 등을 함께 고려하여 무선통신을 연결할 수도 있다.The
상기 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 다양한 구성요소를 제어하고 다양한 데이터를 처리하는 구성요소로서, CPU 프로세서와 같은 중앙처리장치에 의해 구현될 수 있다. 상기 장치 제어부(130)의 동작에 대한 상세한 설명은 도 2를 참조하여 상술하기로 하고 여기에서는 자세한 설명을 생략한다.The
인터랙션 출력부(140)는, 장치 제어부(130)로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 외부로 출력할 수 있다. 여기에서, 인터랙션(Interaction)은, 광(Light), 향(Perfume), 소리(Sound) 및 촉감 등 사용자에게 오감의 자극을 줄 수 있는 다양한 형태의 출력을 의미할 수 있다. 도 1에 도시된 바와 같이, 상기 인터랙션 출력부(140)는 광 출력부(143) 및 향 발산부(146)를 포함할 수 있다.The
광 출력부(143)는, 장치 제어부(130)로부터 입력받은 광 제어신호에 대응되는 빛을 외부로 출력할 수 있다. 일례로서, 상기 광 출력부(143)는 다양한 색상을 표시할 수 있는 RGB 발광다이오드(LED)로 구현될 수 있고, 상기 광 제어신호에 따라 빛의 밝기, 색깔, 점멸 주파수 등이 조절될 수 있는 다양한 형태의 발광 모듈에 의해 구현될 수도 있다.The
향 발산부(146)는, 장치 제어부(130)로부터 입력받은 향 제어신호에 대응되는 향을 외부로 발산할 수 있다. 향 발산부(146)는 적어도 하나의 기초향을 구비하고, 상기 적어도 하나의 기초향을 조합하여 발산함으로써 다양한 향을 만들어 낼 수 있다. 이와 대응되도록, 제어부(120)로부터 입력받은 향 제어신호는, 적어도 하나의 기초향 각각에 대응되는 적어도 하나의 기초향 제어신호를 포함할 수 있다.The
예를 들면, 본 발명의 일실시예에 따른 향 발산부(146)는, 4개의 기초향을 구비할 수 있고, 장치 제어부(130)로부터 입력받은 향 제어신호는 4개의 기초향 각각에 대응되는 4개의 기초향 제어신호를 포함할 수 있다. 여기에서, 4개의 기초향을 A, B, C, D 라 하고 향 제어신호를 8비트 신호라고 가정하면, 각각의 기초향 제어신호는 2비트 신호이고, 기초향 제어신호에 따라 각각의 기초향의 발산량을 0단계(발산 안 함), 1단계(소량), 2단계(중량), 3단계(다량)로 조절할 수 있다. 예를 들어, 장치 제어부(130)로부터 입력받은 향 제어신호가 "01100011"이라고 하면, 상위 비트부터 차례대로, 기초향 A에 대응되는 기초향 제어신호는 "00", 기초향 B에 대응되는 기초향 제어신호는 "01", 기초향 C에 대응되는 기초향 제어신호는 "10", 기초향 D에 대응되는 기초향 제어신호는 "11"에 해당된다. 따라서, 이 경우 향 발산부(146)는, 기초향 A를 1단계(소량)만큼 발산하고, 기초향 B를 2단계(중량)만큼 발산하며, 기초향 C를 발산하지 않고, 기초향 D를 3단계(다량)만큼 발산할 수 있다. For example, the
즉, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)의 향 발산부(146)는, 향 제어신호에 포함되는 적어도 하나의 기초향 제어신호에 따라 각 기초향의 발산량을 조절하여 외부로 발산함으로써 적어도 하나의 기초향이 조합된 다양한 향을 만들어 낼 수 있다. 한편, 향 발산부(146)는 외부에 향발산량을 조절할 수 있는 조절버튼을 더 포함할 수 있다.That is, the
일례로서, 향 발산부(146)에 구비되는 적어도 하나의 기초향은 고체 형태로 형성될 수 있고, 바람직하게는 40℃~50℃의 범위에서 융해(melting)되어 향을 발산할 수 있다. 또한, 향 발산부(146)는 상기 고체 형태의 적어도 하나의 기초향을 가열하기 위하여 전류가 흐르면 열이 발생되는 가열회로부를 더 구비할 수 있다. 향 발산부(146)는 장치 제어부(130)로부터 향 제어신호를 입력받으면 상기 향 제어신호에 대응되는 적어도 하나의 기초향 각각의 발산량을 제어하기 위하여, 가열회로부 각각에 흐르는 전류량을 각기 다르게 제어하거나, 가열회로부 각각의 가열 시간을 각기 다르게 제어할 수 있다. 이에 따라, 장치 제어부(130)로부터 입력받은 향 제어신호에 대응되는 향이 향 발산부(146)로부터 외부로 발산될 수 있다.As one example, the at least one base flavor provided in the
한편, 상술한 바와 같은 향 발산부(146)의 구성은 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)에 포함되는 향 발산부(146)의 구성 및 형태 등은 이로부터 다양하게 변경될 수 있다.The configuration of the
또한, 도 1에는 인터랙션 출력부(140)가 광 출력부(143) 및 향 발산부(146)를 포함하는 것으로 도시되어 있으나 이는 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)에 포함되는 인터랙션 출력부(140)는 소리를 출력할 수 있는 소리출력부(미도시)나 촉감을 출력할 수 있는 촉감출력부(미도시)와 같이 이외에도 다양한 형태의 출력부를 포함할 수도 있다. 상기 소리 출력부(미도시)는 음향을 출력할 수 있는 스피커 등을 포함할 수 있고, 촉감출력부(미도시)는 진동을 발생시킬 수 있는 진동발생모듈이 포함될 수 있으며, 이러한 소리 출력부(미도시) 및 촉감출력부(미도시)는 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다.1, the
한편, 도 1에 도시되지는 않았으나 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는 무선통신모듈(110), 센서부(120), 장치 제어부(130) 및 인터랙션 출력부(140)에 전원을 공급하기 위한 배터리부(미도시)를 더 포함할 수 있다. 또한, 상기 배터리부에 전원을 충전하기 위한 배터리 충전 모듈(미도시)를 더 포함할 수 있다.1, a
또한, 도 1에 도시되지는 않았으나 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 비교대상 감지신호를 포함하는 멀티미디어 데이터를 저장하는 메모리부(미도시)를 더 포함할 수 있다. 여기에서, 상기 멀티미디어 데이터는 사진, 동영상, 음성, 음악 등 다양한 데이터를 포함하는 개념일 수 있고, 상기 비교대상 감지신호는 상술한 바와 같은 상대방측 감지신호 및 사용자측 감지신호와 유사한 형태의 데이터일 수 있다. 일례로서, 사용자가 외부 장치(예: 상대방의 모바일 단말기 또는 상대방의 사용자 인터랙션 장치 등)로부터 멀티미디어 데이터 및 비교대상 감지신호를 전송받을 수 있고, 장치 제어부(130)는 전송받은 멀티미디어 데이터 및 비교대상 감지신호를 메모리부(미도시)에 저장할 수 있다. 이 경우 상기 비교대상 감지신호는, 상대방의 사용자 인터랙션 장치 등에서 감지된 상대방의 움직임이나 음성, 주변의 소리 등을 통해 생성된 신호일 수 있다. 다른 예로서, 사용자가 자신의 사용자 인터랙션 장치(100)를 이용하여 멀티미디어 데이터를 생성한 후 생성된 멀티미디어 데이터 및 비교대상 감지신호를 메모리부(미도시)에 저장할 수도 있다. 이 경우의 비교대상 감지신호는, 사용자 인터랙션 장치(100)에 의해 감지된 사용자의 움직임이나 음성, 주변의 소리 등을 통해 생성된 신호일 수 있다.In addition, although not shown in FIG. 1, the
장치 제어부(130)는, 사용자 입력에 따라 메모리부(미도시)로부터 상기 비교대상 감지신호를 입력받고 센서부(120)로부터 사용자측 감지신호를 입력받을 수 있다. 장치 제어부(130)는, 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력할 수 있다. 이와 같은 장치 제어부(130)의 동작에 대해서는 상술한 바와 유사하므로 여기에서는 자세한 설명을 생략한다. 또한, 인터랙션 출력부(140)가 장치 제어부(130)로부터 인터랙션 제어신호를 입력받고 인터랙션 제어신호에 대응되는 인터랙션을 출력할 수 있음도 상술한 바와 같다.The
이와 같이, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 메모리부(미도시)에 저장된 멀티미디어 데이터를 나중에 재생하는 경우, 멀티미디어 데이터와 함께 저장된 비교대상 감지신호와 사용자 인터랙션 장치(100)에 의해 감지되는 사용자측 감지신호를 비교하여 비교 결과에 따른 인터랙션을 출력함으로써 시간을 뛰어넘어 사용자 인터랙션이 가능한 효과가 있다.
As described above, when the multimedia data stored in the memory unit (not shown) is later reproduced, the
도 2는 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법을 나타내는 순서도(Flowchart)이다. 일례로서, 도 2에 도시된 사용자 인터랙션 장치의 동작방법(200)은 도 1을 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)에 의해 수행될 수 있다.2 is a flowchart illustrating a method of operating a user interaction apparatus according to an embodiment of the present invention. As an example, the
도 2를 참조하면, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, 먼저, 센서부(120)가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계(S210)를 포함할 수 있다.Referring to FIG. 2, an
도 1을 참조하여 상술한 바와 같이, 센서부(120)는, 사용자의 움직임이나 음성, 주변의 소리 등을 감지하여 사용자측 감지신호를 생성하여 장치 제어부(130)로 출력할 수 있고, 이러한 사용자측 감지신호는 적어도 하나의 사용자측 센싱데이터를 포함할 수 있다. 적어도 하나의 사용자측 센싱데이터에는 동작인식센서(123)에 의해 감지된 동작인식데이터 및 음향인식센서(120)에 의해 감지된 음향데이터가 포함될 수 있다. As described above with reference to FIG. 1, the
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, 무선통신모듈(110)을 통해 외부로부터 상대방측 감지신호를 전송받는 단계(S220)를 포함할 수 있다.The
상대방측 감지신호는 적어도 하나의 상대방측 센싱데이터를 포함할 수 있고, 상기 적어도 하나의 상대방측 센싱데이터는 상대방의 사용자 인터랙션 장치에 의해 감지된 동작인식데이터 및 음향데이터 등을 포함할 수 있다. 즉, 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터는 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터와 동일 또는 유사한 형식으로 이루어질 수 있다. 또한, 상기 상대방측 감지신호는 사용자 인터랙션 장치 이외의 다른 장치에 의해 임의로 형성된 데이터일 수도 있고, 인터넷 망(IP Network)을 통해 전송받을 수도 있다.The other side sensing signal may include at least one counterpart sensing data, and the at least one counterpart sensing data may include motion recognition data and sound data sensed by the user interaction device of the counterpart. That is, at least one counterpart sensing data included in the counterpart sensing signal may be the same or similar to at least one user sensing data included in the sensing signal on the user side. In addition, the counterpart side sensing signal may be data arbitrarily formed by a device other than the user interaction device, or may be transmitted through an Internet network (IP network).
한편, 도 2에는 도시되지 않았으나 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은 S220 단계 이전에 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치가 서로 무선 연결되는 단계(미도시)가 수행될 수 있다. 즉, 도 1을 참조하여 상술한 바와 같이 장치 제어부(130)는 사용자 인터랙션 장치(100) 주변에 상대방의 사용자 인터랙션 장치가 위치하는지를 판단하고, 사용자 인터랙션 장치(100)와 상대방의 사용자 인터랙션 장치 사이의 거리가 일정 거리 이하인 것으로 판단되면 무선통신모듈(110)을 통해 상대방의 사용자 인터랙션 장치와 무선통신을 연결할 수 있다. 또한, 장치 제어부(130)는, 사용자로부터 무선 연결할 상대방의 사용자 인터랙션 장치를 입력받은 후 선택된 상대방의 사용자 인터랙션 장치와 무선통신을 연결할 수도 있다.Although not shown in FIG. 2, the
또한, 도 2에는 S210 단계가 수행된 이후에 S220 단계가 수행되는 것으로 도시되어 있으나 이는 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, S210 단계 및 S220 단계의 순서가 서로 바뀌어 수행될 수도 있다.2, operation S220 is performed after operation S210 is performed. However,
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, 장치 제어부(130)가 무선통신모듈(110)로부터 상기 상대방측 감지신호를 입력받고 센서부(120)로부터 상기 사용자측 감지신호를 입력받는 단계(S230)를 포함할 수 있다.The
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, 장치 제어부(130)가 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계(S240)를 포함할 수 있다. 상기 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 비교 결과는 실시간 비교 결과일 수도 있고 일정 시간 동안의 비교 결과일 수도 있으며, 비교 대상이 되는 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 시간적 차이는 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다.Next, an
여기에서, 장치 제어부(130)에 의해 생성되는 인터랙션 제어신호는 광 제어신호 및 향 제어신호를 포함할 수 있고, 상기 광 제어신호 및 상기 향 제어신호 각각은, 사용자측 센싱데이터에 포함되는 동작인식데이터와 상대방측 센싱데이터에 포함되는 동작인식데이터를 비교한 결과 및 사용자측 센싱데이터에 포함되는 음향데이터와 상기 상대방측 센싱데이터에 포함되는 음향데이터를 비교한 결과 중 적어도 하나에 따라 생성될 수 있다. 또한, 장치 제어부(130)는, 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 등 다양한 값에 따라 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성할 수 있다.Here, the interaction control signal generated by the
일례로서, 장치 제어부(130)는 비교의 대상이 되는 센싱데이터들의 근접도(차이)에 따라 센싱데이터의 비교 결과를 생성할 수 있다. 장치 제어부(130)는, 사용자측 센싱데이터에 포함된 동작인식데이터를 통해 사용자 인터랙션 장치(100)의 가속도를 알 수 있고 상대방측 센싱데이터에 포함된 동작인식데이터를 통해 상대방의 사용자 인터랙션 장치의 가속도를 알 수 있다. 이후 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 가속도와 상대방의 사용자 인터랙션 장치의 가속도를 비교하여 두 가속도의 차이가 작을수록 광 출력부에서 출력되는 빛의 점멸 주파수를 크게 하도록 광 제어신호를 생성하여 광 출력부(143)로 출력할 수 있다. 즉, 사용자가 자신의 사용자 인터랙션 장치(100)를 움직이도는 속도와 상대방이 상대방의 사용자 인터랙션 장치를 움직이는 속도가 비슷할수록, 사용자 인터랙션 장치(100)의 광 출력부(143)에서 출력되는 빛은 더욱 자주 깜빡일 수 있다. 이에 따라 사용자와 상대방은 사용자 인터랙션 장치를 비슷한 속도로 움직일수록 서로의 사용자 인터랙션 장치에서 출력되는 빛의 깜빡임이 빨라지므로 서로의 동작을 통해 상호작용하는 광 출력부(143)의 빛을 통해 서로 친밀감을 느낄 수 있는 효과가 있다.As an example, the
또한, 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 가속도와 상대방의 사용자 인터랙션 장치의 가속도를 비교하여 두 가속도의 차이에 따라 향 발산부(146)에서 발산되는 향의 종류를 변경하거나 향의 지속시간을 변경할 수도 있다. 예를 들면, 사용자가 자신의 사용자 인터랙션 장치(100)를 움직이는 속도와 상대방이 상대방의 사용자 인터랙션 장치를 움직이는 속도가 비슷할수록, 사용자 인터랙션 장치(100)의 향 발산부(146)에서 발산되는 향은 더욱 진한 향이 될 수 있고 향 발산의 지속시간도 더욱 길어질 수 있다. 이에 따라 사용자와 상대방은 사용자 인터랙션 장치를 비슷한 속도로 움직일수록 서로의 사용자 인터랙션 장치에서 발산되는 향이 더욱 진해지고 지속시간도 길어지므로, 서로의 동작을 통해 상호작용하는 향 발산부(146)의 향을 통해 서로 더욱 친밀감을 느낄 수 있는 효과가 있다.The
또한, 장치 제어부(130)는, 사용자측 센싱데이터에 포함된 음향데이터를 통해 사용자 인터랙션 장치(100) 주변의 소리 크기(dB)를 알 수 있고 상대방측 센싱데이터에 포함된 음향데이터를 통해 상대방의 사용자 인터랙션 장치 주변의 소리크기(dB)를 알 수 있다. 이후 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기를 비교하여 두 소리 크기의 차이에 따라 광 출력부(143)에서 출력되는 빛의 색상을 변경할 수 있다. 즉, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기의 차이가 5 데시벨(dB) 이하인 경우에는 자주색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기의 차이가 5dB 이상 10dB 이하인 경우에는 파란색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기의 차이가 10dB 이상 15dB 이하인 경우에는 녹색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기의 차이가 15dB 이상 20dB 이하인 경우에는 노란색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기의 차이가 20dB 이상인 경우에는 흰색의 빛이 광 출력부(143)에서 출력될 수 있다. 여기에서 소리 크기의 차이를 구분하는 범위 및 이에 따른 빛의 색상은 예시적인 것으로서 이로부터 다양하게 변경될 수 있음이 당업자에게 자명하다.In addition, the
또한 다른 예로서, 장치 제어부(130)는 비교의 대상이 되는 센싱데이터들의 최대값에 따라 센싱데이터의 비교 결과를 생성할 수 있다. 예를 들면, 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 가속도와 상대방의 사용자 인터랙션 장치의 가속도를 비교하여 두 가속도 중에서 큰 값(최대값)에 따라 광 출력부에서 출력되는 빛의 점멸 주파수를 결정할 수도 있다. 또한, 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기를 비교하여 두 소리 크기 중의 최대값에 따라 광 출력부(143)에서 출력되는 빛의 색상을 변경할 수 있다. 즉, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기 중의 최대값이 20 데시벨(dB) 이하인 경우에는 자주색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기 중의 최대값이 21dB 이상 40dB 이하인 경우에는 파란색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기 중의 최대값이 41dB 이상 60dB 이하인 경우에는 녹색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기 중의 최대값이 61dB 이상 480dB 이하인 경우에는 노란색, 사용자 인터랙션 장치(100)의 주변의 소리 크기와 상대방의 사용자 인터랙션 장치 주변의 소리 크기 중의 최대값이 81dB 이상인 경우에는 흰색의 빛이 광 출력부(143)에서 출력될 수 있다. 여기에서 소리 크기의 최대값을 구분하는 범위 및 이에 따른 빛의 색상은 예시적인 것으로서 이로부터 다양하게 변경될 수 있음이 당업자에게 자명하다.As another example, the
또한 다른 예로서, 장치 제어부(130)는 비교의 대상이 되는 센싱데이터들의 평균값에 따라 센싱데이터의 비교 결과를 생성할 수도 있다. 예를 들면, 장치 제어부(130)는, 사용자 인터랙션 장치(100)의 가속도와 상대방의 사용자 인터랙션 장치의 가속도를 비교하여 두 가속도의 평균값에 따라 광 출력부에서 출력되는 빛의 점멸 주파수를 결정할 수도 있다. 즉, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 등 다양한 값에 따라 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성할 수 있다.As another example, the
또한, 상술한 예에서는, 동작인식데이터에 포함된 가속도의 비교 결과에 따라 빛의 점멸 주파수가 결정되고 음향데이터에 포함된 소리 크기의 비교 결과에 따라 빛의 색상이 결정되어 광 제어신호는 동작인식데이터의 비교 결과 및 음향데이터의 비교 결과에 따라 생성되고, 동작인식데이터에 포함된 가속도의 비교 결과에 따라 향의 종류를 변경하거나 향의 지속시간을 변경하여 향 제어신호는 동작인식데이터의 비교 결과에 따라 생성되는데, 이는 예시적인 것으로서 광 제어신호 및 향 제어신호는 이외에도 다양한 방법으로 생성될 수 있다.In the above example, the flicker frequency of the light is determined according to the result of the comparison of the acceleration included in the motion recognition data, the color of the light is determined according to the result of the comparison of the sound size included in the sound data, The direction control signal is generated according to the comparison result of the data and the acoustic data, and the type of the incense is changed or the duration of the incense is changed according to the comparison result of the acceleration included in the motion recognition data, Which is an example, and the light control signal and the incense control signal may be generated in various other ways as well.
한편, 상술한 예에서는 장치 제어부(130)가 동작인식데이터 중에서 사용자 인터랙션 장치(100)의 가속도 정보만을 사용하는 것으로 되어 있으나 이는 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 동작인식데이터 중에서 가속도 및 이동방향을 함께 사용하여 사용자와 상대방이 서로 유사한 제스처(예: 원을 그리는 제스처, 십자가를 그리는 제스처 등)를 취하는 경우 이에 따라 광 출력부(143)에서 출력되는 빛의 점멸 주파수를 빠르게 하여 서로 친밀감을 느끼게 할 수도 있다. 또한, 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)는, 음향데이터에 포함된 사용자 인터랙션 장치(100) 주변의 소리 크기뿐만 아니라 사용자의 음성 등을 인식하여 사용자의 음성을 상대방의 음성과 비교한 결과에 따라 광 출력부(143)에서 출력되는 빛의 색상을 변화시키는 등 다양한 음향데이터를 사용하여 빛 또는 향을 출력할 수도 있다.In the above example, the
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200)은, 인터랙션 출력부(140)가 장치 제어부(130)로부터 인터랙션 제어신호를 입력받고, 입력받은 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계(S250)를 포함할 수 있다. 즉, 인터랙션 출력부(140)는 장치 제어부(130)로부터 입력받은 인터랙션 제어신호에 따라 광 출력부(143)에서 빛을 출력하거나 향 발산부(146)에서 향을 발산할 수 있고, 또한 소리 출력부(미도시)에서 소리를 출력하거나 촉감출력부(미도시)에서 촉감을 출력할 수 있다.
Next, an
도 3은 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법을 나타내는 도면이다. 일례로서, 도 3에 도시된 사용자 인터랙션 장치의 동작방법(300)은 도 1을 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인터랙션 장치(100)에 의해 수행될 수 있다.3 is a diagram illustrating an operation method of a user interaction apparatus according to another embodiment of the present invention. As an example, the
도 3을 참조하면, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법(300)은, 먼저, 센서부(120)가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계(S310)를 포함할 수 있다. 상기 S310 단계는 도 2를 참조하여 상술한 S210 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.3, an
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법(300)은, 사용자 입력에 따라 장치 제어부(130)가 메모리부에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계(S320)를 포함할 수 있다. 일례로서, 상기 사용자 입력은 사용자 인터랙션 장치(100)가 구비되는 터치스크린이나 입력버튼과 같은 인터페이스부(미도시)를 통해 입력될 수 있고, 사용자가 멀티미디어 데이터를 재생하는 등의 명령을 입력하는 경우 장치 제어부(130)는 메모리부(미도시)에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출할 수 있다.The
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법(300)은, 장치 제어부(130)가 센서부(120)로부터 상기 사용자측 감지신호를 입력받는 단계(S330)를 포함할 수 있다. 상기 S330 단계는 도 2를 참조하여 상술한 S230 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.The
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법(300)은, 장치 제어부(130)가 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계(S340)를 포함할 수 있다. 상기 S340 단계는 도 2를 참조하여 상술한 S240 단계와 비교대상 감지신호가 차이가 있을 뿐 다른 점은 유사하므로 여기에서는 자세한 설명을 생략한다.Next, an
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 장치의 동작방법(300)은, 인터랙션 출력부(140)가 장치 제어부(130)로부터 인터랙션 제어신호를 입력받고, 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계(S350)를 포함할 수 있다. 상기 S350 단계는 도 2를 참조하여 상술한 바와 같은 S250 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.Next, an
한편, 본 발명에 따른 사용자 인터랙션 장치의 동작방법은, 도 2 또는 도 3을 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 동작방법(200, 300)을 수행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체에 의해 구현될 수도 있다. 즉, 본 발명에 따른 사용자 인터랙션 장치의 동작방법은, 유무선 단말기에 구비된 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
Meanwhile, a method for operating a user interaction apparatus according to the present invention is a method for operating a
도 4는 본 발명의 일실시예에 따른 사용자 인터랙션 시스템을 나타내는 도면이다. 도 4에 도시된 바와 같이 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)은, 사용자의 모바일 단말기(410) 및 사용자 인터랙션 장치(460)를 포함할 수 있다.4 is a diagram illustrating a user interaction system in accordance with an embodiment of the present invention. As shown in FIG. 4, the
모바일 단말기(410)는, 무선통신부(411) 및 단말기 제어부(413)를 포함할 수 있고, 디스플레이부(415), 인터페이스부(417) 및 메모리부(419)를 더 포함할 수 있다. 상기 모바일 단말기(410)는, 휴대폰, 스마트폰, 태블릿 PC, 개인휴대정보단말(PDA), 휴대용 멀티미디어 재생장치(PMP) 등 휴대가 가능한 다양한 형태의 단말기를 포함하는 개념으로서, 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다. 또한, 도 4에 도시된 모바일 단말기(410)의 구성은 예시적인 것으로서 모바일 단말기(410)의 구체적인 구성은 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다.The
무선통신부(411)는, 외부로부터 상대방측 감지신호를 전송받고 상기 사용자 인터랙션 장치(460)로부터 사용자측 감지신호를 전송받을 수 있다. 무선통신부(411)는, 상대방측 감지신호 및 사용자측 감지신호를 단말기 제어부(413)로 출력할 수 있다. 여기에서, 상기 상대방측 감지신호는 도 1을 참조하여 상술한 바와 같이, 상대방의 사용자 인터랙션 장치에 의해 생성될 수 있고, 상기 상대방의 사용자 인터랙션 장치의 무선통신모듈로부터 전송되거나 상대방의 모바일 단말기로부터 전송될 수 있다. 또한, 실시예에 따라서는 상기 상대방측 감지신호는 사용자 인터랙션 장치 이외의 다른 장치에 의해 임의로 형성된 데이터일 수도 있고, 인터넷 망(IP Network)을 통해 전송받을 수도 있다.The
상기 무선통신부(411)는, 사용자 인터랙션 장치(460)나 다른 모바일 단말기, 또는 다양한 통신 장치와 무선으로 통신할 수 있는 모든 형태의 통신모듈을 포함하는 개념이며, 대표적으로는 WCDMA 모듈, LTE 모듈, WiBro 모듈, 블루투스(Bluetooth) 모듈, WiFi(Wireless Fidelity) 모듈, 지그비(ZigBee) 모듈, 적외선 통신모듈, 또는 NFC(Near Field Communication) 모듈 등일 수 있고, 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다. 따라서, 상기 무선통신부(411)는 근접 거리의 통신 뿐만 아니라 Over The IP로 통칭될 수 있는 인터넷 프로토콜 망(IP Network)을 통한 통신도 가능할 수 있다.The
단말기 제어부(413)는, 무선통신부(411)로부터 상대방측 감지신호 및 사용자측 감지신호를 입력받고, 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하며, 생성된 인터랙션 제어신호를 무선통신부(411)를 통해 사용자 인터랙션 장치(460)로 출력할 수 있다.The
한편, 상기 단말기 제어부(413)는, 무선통신모듈(411)을 통해 상기 모바일 단말기(410) 주변에 상기 상대방의 사용자 인터랙션 장치 또는 상대방의 모바일 단말기가 위치하는지를 판단하고, 사용자의 모바일 단말기(100)와 상대방의 사용자 인터랙션 장치(또는 상대방의 모바일 단말기) 사이의 거리가 일정 거리 이하인 것으로 판단되면 무선통신모듈(411)을 통해 상대방의 사용자 인터랙션 장치(또는 상대방의 모바일 단말기)와 무선통신을 연결할 수 있다. 이와 같은 동작은 도 1 내지 도 2를 참조하여 상술한 바 있으므로 여기에서는 자세한 설명을 생략한다. 또한, 상기 단말기 제어부(413)는, 무선통신부(411)를 통해 사용자 인터랙션 장치(460)와의 거리가 일정 거리 이하인 것으로 판단되면 무선통신부(411)를 통해 사용자 인터랙션 장치(460)와 무선통신을 연결할 수 있다. 또한, 단말기 제어부(413)는, 인터페이스부(417)를 통해 사용자로부터 무선 연결할 사용자 인터랙션 장치(460)를 입력받은 후 사용자 인터랙션 장치(460)와 무선통신을 연결할 수도 있다.The
상기 단말기 제어부(413)는, 모바일 단말기(410)의 다양한 구성요소를 제어하고 다양한 데이터를 처리하는 구성요소로서, CPU 프로세서와 같은 중앙처리장치에 의해 구현될 수 있다. 상기 단말기 제어부(413)의 동작에 대한 상세한 설명은 도 5 및 도 6을 참조하여 상술하기로 하고 여기에서는 자세한 설명을 생략한다.The
디스플레이부(415)는, 단말기 제어부(413)로부터 입력받은 신호에 따라 화면을 표시할 수 있다. 디스플레이부(415)는, 모바일 단말기(410)의 외면에 형성될 수 있으며, 통상의 기술자에게 알려진 바와 같이, 액정표시장치(LCD), 발광다이오드(LED), 유기발광다이오드(OLED) 등 모바일 단말기(410)에 적용될 수 있는 다양한 형태의 디스플레이 장치에 의해 구현될 수 있다.The
인터페이스부(417)는, 사용자로부터 입력받은 신호를 단말기 제어부(413)로 전송할 수 있다. 상기 인터페이스부(417)는, 터치스크린, 키보드 및 마우스와 같이 사용자로부터 인터페이스 신호를 입력받을 수 있는 다양한 형태의 입력 장치에 의해 구현될 수 있으며, 통상의 기술자에게 알려진 범위에서 다양하게 변경될 수 있다.The
메모리부(419)는, 모바일 단말기(410)를 구동하는 운영체제(OS), 사용자에 의해 메모리부(419)에 저장되어 실행될 수 있는 어플리케이션과 같은 응용프로그램 및 사용자 데이터 등을 저장할 수 있으며, 통상의 기술자에게 알려진 바와 같이, ROM(Read Only Memory), RAM(Random Access Memory), EEPROM(Electrically Erasable and Programmable Read Only Memory) 등과 같은 다양한 형태의 메모리 저장장치로 구현될 수 있다.The
도 4를 참조하면, 사용자 인터랙션 장치(460)는, 무선통신모듈(461), 센서부(462), 장치 제어부(465) 및 인터랙션 출력부(466)를 포함할 수 있다. 도 1에 도시된 사용자 인터랙션 장치(100)와 유사하게 도 4에 도시된 사용자 인터랙션 장치(460)는, 반지(Ring), 장갑(Gloves), 손목시계(Watches), 암밴드(Arm Band), 커프스(Cuffs), 목걸이(Necklace), 팔찌(Bracelet), 팬던트(Pendant), 단추(Button) 등 다양한 악세서리 형태로 변형되어 구현될 수 있다. 이에 따라, 상기 사용자 인터랙션 장치(460)는 악세서리 형태로 구현되어 사용자의 손목이나 목 등에 착용될 수 있다.4, the
무선통신모듈(461)은 모바일 단말기(410)로부터 인터랙션 제어신호를 전송받을 수 있다. 또한, 무선통신모듈(461)은 장치 제어부(465)로부터 입력받은 사용자측 감지신호를 모바일 단말기(410)로 전송할 수도 있다. 상기 무선통신모듈(461)은 사용자의 모바일 단말기(410)와 무선으로 통신할 수 있는 모든 형태의 통신모듈을 포함하는 개념이며, 대표적으로는 블루투스(Bluetooth) 모듈, WiFi(Wireless Fidelity) 모듈, 지그비(ZigBee) 모듈, 적외선 통신모듈, 또는 NFC(Near Field Communication) 모듈일 수 있다. The
센서부(462)는, 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성할 수 있다. 즉, 센서부(462)는 사용자의 움직임이나 음성, 주변의 소리 등을 감지하여 사용자측 감지신호를 생성할 수 있고, 이러한 사용자측 감지신호는 적어도 하나의 사용자측 센싱데이터를 포함할 수 있다. 적어도 하나의 사용자측 센싱데이터에는 동작인식센서(463)에 의해 감지된 동작인식데이터 및 음향인식센서(464)에 의해 감지된 음향데이터가 포함될 수 있다. 상기 적어도 하나의 사용자측 센싱데이터는 이에 국한되지 않으며 센서를 통해 감지가 가능한 다양한 형태의 센싱데이터를 포함할 수 있다. 센서부(462)는 도 4에 도시된 바와 같이, 동작인식센서(463) 및 음향인식센서(464)를 포함할 수 있는데, 이에 대한 설명은 이미 도 1을 참조하여 상술한 바 있으므로 여기에서는 자세한 설명을 생략한다. 한편, 도 4에 도시된 센서부(462)의 구성은 예시적인 것으로서, 사용자 인터랙션 장치(460)에 구비되는 센서부(462)는 이외에도 다양한 형태의 센서를 구비할 수 있다.The
장치 제어부(465)는, 센서부(462)로부터 입력받은 사용자측 감지신호를 무선통신모듈(461)을 통해 모바일 단말기(410)로 전송할 수 있고, 모바일 단말기(410)로부터 전송받은 인터랙션 제어신호를 인터랙션 출력부(466)로 출력할 수 있다. 일례로서, 상기 인터랙션 제어신호는, 광 출력부(467)를 제어하기 위한 광 제어신호 및 향 발산부(468)를 제어하기 위한 향 제어신호를 포함할 수 있다. The
상기 장치 제어부(465)는, 사용자 인터랙션 장치(460)의 다양한 구성요소를 제어하고 다양한 데이터를 처리하는 구성요소로서, CPU 프로세서와 같은 중앙처리장치에 의해 구현될 수 있다. 상기 장치 제어부(465)의 동작에 대한 상세한 설명은 도 5 및 도 6을 참조하여 상술하기로 하고 여기에서는 자세한 설명을 생략한다.The
인터랙션 출력부(466)는, 장치 제어부(465)로부터 인터랙션 제어신호를 입력받고, 입력받은 인터랙션 제어신호에 대응되는 인터랙션을 외부로 출력할 수 있다. 도 4에 도시된 바와 같이, 인터랙션 출력부(466)는 광 출력부(467) 및 향 발산부(468)를 포함할 수 있다. 인터랙션 출력부(466)의 구성 및 동작에 대한 설명은 이미 도 1을 참조하여 상술한 바 있으므로 여기에서는 자세한 설명을 생략한다. 한편, 도 4에 도시된 인터랙션 출력부(466)의 구성은 예시적인 것으로서, 사용자 인터랙션 장치(460)에 구비되는 인터랙션 출력부(466)는 소리출력부(미도시) 또는 촉감출력부(미도시) 등을 구비하는 것과 같이 이외에도 다양한 형태로 구성될 수 있다.The
한편, 도 4에 도시되지는 않았으나 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)에 포함되는 사용자 인터랙션 장치(460)는 무선통신모듈(461), 센서부(462), 장치 제어부(463) 및 인터랙션 출력부(466)에 전원을 공급하기 위한 배터리부(미도시)를 더 포함할 수 있다. 또한, 상기 배터리부에 전원을 충전하기 위한 배터리 충전 모듈(미도시)를 더 포함할 수 있다.4, the
도 4에 도시된 사용자 인터랙션 시스템(400)은, 사용자 인터랙션 장치(460) 및 이를 제어할 수 있는 모바일 단말기(410)로 구성될 수 있다. 즉, 모바일 단말기(410)는 사용자 인터랙션 장치(460)와 무선통신이 연결될 수 있고, 상대방의 모바일 단말기 또는 상대방의 사용자 인터랙션 장치와 무선통신이 연결될 수 있다. 사용자 인터랙션 장치(460)는 센서부(462)에서 감지된 사용자측 감지신호를 모바일 단말기(410)로 전송하고 모바일 단말기(410)로부터 전송받은 인터랙션 제어신호에 따라 다양한 인터랙션을 외부로 출력할 수 있다. 이런 의미에서 사용자 인터랙션 장치(460) 및 모바일 단말기(410)는 사용자 인터랙션 시스템을 구성하는 각각의 구성요소로 볼 수도 있다.The
한편, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)은, 사용자 단말기(410)의 무선통신부(411)가 외부 장치로부터 인터넷 망(IP Network)을 통해 상대방측 감지신호를 전송받을 수도 있다. 예를 들면, 공연장에서 가수의 공연이 있는 경우 상기 외부 장치는 공연을 관람하는 사람들의 사용자 단말기 정보(예: MAC Address)를 획득하고 인터넷 망을 통해 관람자들의 사용자 단말기로 일괄적으로 상대방측 감지신호를 전송할 수 있다. 상기 상대방측 감지신호는 상기 외부 장치에 의해 임의로 형성된 데이터일 수 있고, 사용자 인터랙션 장치에 의해 생성되는 센싱데이터와 동일한 형식으로 이루어질 수 있다. 이에 따라, 관람자의 사용자 단말기는 상기 외부 장치로부터 인터넷 망을 통해 상대방측 감지신호를 전송받을 수 있고, 관람자의 사용자 단말기와 사용자 인터랙션 장치의 상호작용에 의해 빛, 소리, 향 또는 촉각 등의 인터랙션이 출력될 수 있다. 또한, 상기 외부 장치는 TV를 통해 공연을 보고 있는 시청자의 사용자 단말기로도 인터넷 망을 통해 상대방측 감지신호를 전송할 수 있고, 시청자의 사용자 단말기 및 사용자 인터랙션 장치도 빛, 소리, 향 또는 촉각 등의 인터랙션이 출력될 수 있다. 즉, 공연장에서 공연을 관람하는 관람자들이나 TV로 공연을 관람하는 시청자들에게 일괄적으로 동일한 상대방측 감지신호가 전송될 수 있으며, 이에 따라 동일한 공연을 관람하는 사람들의 사용자 인터랙션 장치는 동일한 빛, 소리, 향, 촉각 등의 인터랙션을 출력할 수 있어 서로 동질감이나 친밀감을 느낄 수 있게 된다.Meanwhile, in the
또한, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)에 포함되는 모바일 단말기(410)는, 비교대상 감지신호를 포함하는 멀티미디어 데이터를 메모리부(419)에 저장할 수도 있다. 상기 멀티미디어 데이터 및 비교대상 감지신호에 대해서는 도 1을 참조하여 상술한 바 있으므로 여기에서는 자세한 설명을 생략한다. 한편, 일례로서, 사용자의 모바일 단말기(410)는 유무선 통신을 통해 외부 장치(예: 상대방의 모바일 단말기 또는 상대방의 사용자 인터랙션 장치 등)로부터 멀티미디어 데이터 및 비교대상 감지신호를 전송받을 수 있고, 단말기 제어부(413)는 전송받은 멀티미디어 데이터 및 비교대상 감지신호를 메모리부(419)에 저장할 수 있다. 상기 비교대상 감지신호는, 상대방의 사용자 인터랙션 장치 등에서 감지된 상대방의 움직임이나 음성, 주변의 소리 등을 통해 생성된 신호일 수 있다. 다른 예로서, 사용자가 자신의 모바일 단말기(410)를 이용하여 멀티미디어 데이터를 생성한 후 생성된 멀티미디어 데이터 및 비교대상 감지신호를 메모리부(419)에 저장할 수도 있다. 이 경우의 비교대상 감지신호는, 사용자 인터랙션 장치(460)에 의해 감지된 사용자의 움직임이나 음성, 주변의 소리 등을 통해 생성된 신호일 수 있다.In addition, the
단말기 제어부(413)는, 사용자 입력에 따라 메모리부(419)로부터 상기 비교대상 감지신호를 입력받고 사용자 인터랙션 장치(460)로부터 사용자측 감지신호를 입력받을 수 있다. 상기 사용자 입력은 인터페이스부(417)를 통해 입력될 수 있다. 단말기 제어부(413)는, 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력할 수 있다. 이와 같은 단말기 제어부(413)의 동작에 대해서는 상술한 바와 유사하므로 여기에서는 자세한 설명을 생략한다. 또한, 사용자 인터랙션 장치(460)의 인터랙션 출력부(466)가 단말기 제어부(413)로부터 인터랙션 제어신호를 입력받고 인터랙션 제어신호에 대응되는 인터랙션을 출력할 수 있음도 상술한 바와 같다.
The
도 5는 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법을 나타내는 순서도이다. 도 5에 도시된 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 도 4에 도시된 모바일 단말기(410) 및 사용자 인터랙션 장치(460)에 의해 수행될 수 있다. 도 5에 도시된 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은 모바일 단말기(410) 또는 사용자 인터랙션 장치(460)에 설치될 수 있는 어플리케이션의 형태로 구현될 수 있다.5 is a flowchart illustrating an operation method of a user interaction system according to an embodiment of the present invention. The method 500 of operation of the user interaction system according to an embodiment of the present invention shown in FIG. 5 may be performed by the
도 5를 참조하면, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 먼저, 사용자 인터랙션 장치(460)의 센서부(462)가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계(S510)를 포함할 수 있다. S510 단계는 도 2를 참조하여 상술한 S210 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.Referring to FIG. 5, an operation method 500 of a user interaction system according to an embodiment of the present invention firstly detects a state of a user or its surroundings by a
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 사용자 인터랙션 장치(460)가 무선통신모듈(461)을 통해 사용자측 감지신호를 사용자의 모바일 단말기(410)로 전송하는 단계(S520)를 포함할 수 있다.Next, a method 500 of operating a user interaction system according to an exemplary embodiment of the present invention transmits a user-side sensing signal to a user's
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 사용자의 모바일 단말기(410)가 무선통신부(411)를 통해 사용자 인터랙션 장치(460)로부터 사용자측 감지신호를 전송받는 단계(S530)를 포함할 수 있다.Next, a method 500 of operating a user interaction system according to an embodiment of the present invention is a method of operating a user interaction system in which a user's
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 사용자의 모바일 단말기(410)가 무선통신부(411)를 통해 외부로부터 상대방측 감지신호를 전송받는 단계(S540)를 포함할 수 있다. S540 단계는 도 2를 참조하여 상술한 S220 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.The operation method 500 of the user interaction system according to an embodiment of the present invention includes a step S540 of receiving a counterpart side detection signal from the outside through the
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 단말기 제어부(413)가 무선통신부(411)로부터 상대방측 감지신호 및 사용자측 감지신호를 입력받는 단계(S550)를 포함할 수 있다.The operation method 500 of the user interaction system according to an embodiment of the present invention may include a step S550 in which the
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 단말기 제어부(413)가 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계(S560)를 포함할 수 있다. Next, a method 500 of operating a user interaction system according to an embodiment of the present invention will be described in which a
여기에서, 단말기 제어부(413)에 의해 생성되는 인터랙션 제어신호는 광 제어신호 및 향 제어신호를 포함할 수 있고, 상기 광 제어신호 및 상기 향 제어신호 각각은, 사용자측 센싱데이터에 포함되는 동작인식데이터와 상대방측 센싱데이터에 포함되는 동작인식데이터를 비교한 결과 및 사용자측 센싱데이터에 포함되는 음향데이터와 상기 상대방측 센싱데이터에 포함되는 음향데이터를 비교한 결과 중 적어도 하나에 따라 생성될 수 있다. 또한, 단말기 제어부(413)는, 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 등 다양한 값에 따라 적어도 하나의 상대방측 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성할 수 있다. 단말기 제어부(413)에 의해 수행되는 S560 단계는 장치 제어부(130)에 의해 수행된다는 차이점 이외에는 도 2를 참조하여 상술한 S240 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.Here, the interaction control signal generated by the
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 단말기 제어부(413)가 인터랙션 제어신호를 무선통신부(411)를 통해 사용자 인터랙션 장치(460)로 출력하는 단계(S570)를 포함할 수 있다.The method 500 of operating the user interaction system according to an embodiment of the present invention includes the steps of the
다음으로, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500)은, 사용자 인터랙션 장치(460)가 무선통신모듈(461)을 통해 인터랙션 제어신호를 전송받는 단계(S580) 및 인터랙션 출력부(466)가 인터랙션 제어신호를 입력받고 입력받은 인터랙션 제어신호에 대응되는 인터랙션을 외부로 출력하는 단계(S590)를 포함할 수 있다.The operation method 500 of the user interaction system according to an embodiment of the present invention may include a step S580 of receiving the interaction control signal through the
한편, 도 5에는 도시되지 않았으나 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)의 동작방법(500)은, S540 단계 이전에 사용자의 모바일 단말기(410)와 상대방의 모바일 단말기(또는 상대방의 사용자 인터랙션 장치)가 서로 무선통신이 연결되는 단계(미도시)가 수행될 수 있다. 즉, 단말기 제어부(413)는 무선통신부(411)를 통해 사용자의 모바일 단말기(410) 주변에 상대방의 모바일 단말기(또는 상대방의 사용자 인터랙션 장치)가 위치하는지를 판단하고, 사용자의 모바일 단말기(410)와 상대방의 모바일 단말기 사이의 거리 또는 사용자의 모바일 단말기(410)와 상대방의 모바일 단말기 사이의 거리가 일정 거리 이하인 것으로 판단되면 무선통신부(411)를 통해 상대방의 모바일 단말기(또는 상대방의 사용자 인터랙션 장치)와 무선통신을 연결할 수 있다. 또한, 단말기 제어부(413)는, 인터페이스부(417)를 통해 사용자로부터 무선 연결할 상대방의 모바일 단말기(또는 상대방의 사용자 인터랙션 장치)를 입력받은 후 선택된 상대방의 모바일 단말기(또는 상대방의 사용자 인터랙션 장치)와 무선통신을 연결할 수도 있다. 또한, 이와 유사하게, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)의 동작방법(500)은, S530 단계 이전에 사용자의 모바일 단말기(410)와 사용자 인터랙션 장치(460)가 서로 무선통신이 연결되는 단계(미도시)가 수행될 수 있다.5, an operation method 500 of the
또한, 도 5에는 S530 단계가 수행된 이후에 S540 단계가 수행되는 것으로 도시되어 있으나 이는 예시적인 것으로서, 본 발명의 일실시예에 따른 사용자 인터랙션 시스템(400)의 동작방법(500)은, S530 단계 및 S540 단계 등의 순서가 서로 바뀌어 수행될 수도 있다.
5, the operation 500 of the
도 6은 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법을 나타내는 도면이다. 도 6에 도시된 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 도 4에 도시된 모바일 단말기(410) 및 사용자 인터랙션 장치(460)에 의해 수행될 수 있다. 도 6에 도시된 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은 모바일 단말기(410) 또는 사용자 인터랙션 장치(460)에 설치될 수 있는 어플리케이션의 형태로 구현될 수 있다.6 is a diagram illustrating an operation method of a user interaction system according to another embodiment of the present invention. The
도 6을 참조하면, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 먼저, 사용자 인터랙션 장치(460)의 센서부(462)가 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 단계(S610)를 포함할 수 있다. S610 단계는 도 2를 참조하여 상술한 S210 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.Referring to FIG. 6, a
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 사용자 인터랙션 장치(460)가 무선통신모듈(461)을 통해 사용자측 감지신호를 사용자의 모바일 단말기(410)로 전송하는 단계(S620)를 포함할 수 있다.Next, a
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 사용자의 모바일 단말기(410)가 무선통신부(411)를 통해 사용자 인터랙션 장치(460)로부터 사용자측 감지신호를 전송받는 단계(S630)를 포함할 수 있다.Next, a
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 사용자 입력에 따라 단말기 제어부(413)가 메모리부(419)에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계(S640)를 포함할 수 있다. 상기 S640 단계는 도 3을 참조하여 상술한 S320 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.The
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 단말기 제어부(413)가 무선통신부(411)로부터 사용자측 감지신호를 입력받는 단계(S650)를 포함할 수 있다.The
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 단말기 제어부(413)가 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계(S660)를 포함할 수 있다. The
여기에서, 단말기 제어부(413)에 의해 생성되는 인터랙션 제어신호는 광 제어신호 및 향 제어신호를 포함할 수 있고, 상기 광 제어신호 및 상기 향 제어신호 각각은, 사용자측 센싱데이터에 포함되는 동작인식데이터와 비교대상 센싱데이터에 포함되는 동작인식데이터를 비교한 결과 및 사용자측 센싱데이터에 포함되는 음향데이터와 상기 비교대상 센싱데이터에 포함되는 음향데이터를 비교한 결과 중 적어도 하나에 따라 생성될 수 있다. 또한, 단말기 제어부(413)는, 적어도 하나의 비교대상 센싱데이터 및 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 등 다양한 값에 따라 적어도 하나의 비교대상 센싱데이터 및 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성할 수 있다. 단말기 제어부(413)에 의해 수행되는 S660 단계는 장치 제어부(130)에 의해 수행된다는 차이점 이외에는 도 2를 참조하여 상술한 S240 단계와 유사하므로 여기에서는 자세한 설명을 생략한다.Here, the interaction control signal generated by the
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 단말기 제어부(413)가 인터랙션 제어신호를 무선통신부(411)를 통해 사용자 인터랙션 장치(460)로 출력하는 단계(S670)를 포함할 수 있다.The
다음으로, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템의 동작방법(600)은, 사용자 인터랙션 장치(460)가 무선통신모듈(461)을 통해 인터랙션 제어신호를 전송받는 단계(S680) 및 인터랙션 출력부(466)가 인터랙션 제어신호를 입력받고 입력받은 인터랙션 제어신호에 대응되는 인터랙션을 외부로 출력하는 단계(S690)를 포함할 수 있다.The
또한, 도 6에는 S630 단계가 수행된 이후에 S640 단계가 수행되는 것으로 도시되어 있으나 이는 예시적인 것으로서, 본 발명의 다른 실시예에 따른 사용자 인터랙션 시스템(400)의 동작방법(600)은, S630 단계 및 S640 단계의 순서가 서로 바뀌어 수행될 수도 있다.6, the
한편, 본 발명에 따른 사용자 인터랙션 시스템의 동작방법은, 도 5 또는 도 6을 참조하여 상술한 본 발명의 일실시예에 따른 사용자 인터랙션 시스템의 동작방법(500, 600)을 수행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체에 의해 구현될 수도 있다. 즉, 본 발명에 따른 사용자 인터랙션 시스템의 동작방법은, 유무선 단말기에 구비된 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
Meanwhile, a method of operating a user interaction system according to the present invention is a method of operating a user interaction system (500, 600) according to an embodiment of the present invention described above with reference to FIG. 5 or 6 And may be implemented by a computer-readable recording medium. That is, the operation method of the user interaction system according to the present invention can be implemented as a code readable by a processor on a recording medium readable by a processor provided in a wired / wireless terminal. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the recording medium readable by the processor include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and also a carrier wave such as transmission over the Internet. In addition, the processor readable recording medium may be distributed over networked computer systems so that code readable by the processor in a distributed manner can be stored and executed.
도 7은 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 실제 구현 예를 나타내는 도면이다.7 is a diagram showing an actual implementation example of a user interaction apparatus according to an embodiment of the present invention.
도 7의 (a)를 참조하면, 본 발명의 일실시예에 따른 사용자 인터랙션 장치는 무선통신모듈(110)에 해당하는 블루투스 모듈(Bluetooth), 동작인식센서(123)에 해당하는 가속도센서(Accelerometer), 음향인식센서(126)에 해당하는 마이크로폰(Microphone), 장치 제어부(130)에 해당하는 프로세서(Processor), 광 출력부(143)에 해당하는 LED Board 및 RGB LED, 향 발산부(146)에 해당하는 Heating circuit 및 Perfume heater, 배터리부에 해당하는 Battery를 포함할 수 있다. 또한, 도 7의 (a)에 도시된 바와 같이 본 발명의 일실시예에 따른 사용자 인터랙션 장치는 착용 밴드(Elastic band for wearing)를 더 구비할 수 있다. 사용자는 착용밴드를 이용하여 본 발명의 일실시예에 따른 사용자 인터랙션 장치를 도 7의 (b)에 도시된 바와 같이 착용할 수 있다.
Referring to FIG. 7A, a user interaction apparatus according to an embodiment of the present invention includes a Bluetooth module corresponding to the
도 8은 본 발명의 일실시예에 따른 사용자 인터랙션 장치의 다른 구현 예를 나타내는 도면이다.8 is a diagram illustrating another embodiment of a user interaction apparatus according to an embodiment of the present invention.
도 8의 (a)에 도시된 바와 같이, 본 발명의 일실시예에 따른 사용자 인터랙션 장치는 팔찌 형태로 구현될 수 있다. 사용자는 도 8의 (b)에 도시된 바와 같이 팔찌 형태로 구현된 본 발명의 일실시예에 따른 사용자 인터랙션 장치를 착용할 수 있다.As shown in FIG. 8 (a), the user interaction apparatus according to an embodiment of the present invention may be implemented as a bracelet. The user may wear a user interaction device according to an embodiment of the present invention, which is implemented in the form of a bracelet, as shown in FIG. 8 (b).
한편, 도 7 및 도 8에 도시된 본 발명의 일실시예에 따른 사용자 인터랙션 장치들은 예시적인 구현 예로서, 상술한 바와 같이 본 발명에 따른 사용자 인터랙션 장치는 다양한 악세서리 형태로 구현될 수 있다.
Meanwhile, the user interaction apparatuses according to an embodiment of the present invention shown in FIGS. 7 and 8 are exemplary implementations. As described above, the user interaction apparatus according to the present invention can be implemented in various accessories.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
100, 460: 사용자 인터랙션 장치 110, 461: 무선통신모듈
120, 462: 센서부 123, 463: 동작인식센서
126, 464: 음향인식센서 130, 465: 장치 제어부
140, 466: 인터랙션 출력부 143, 467: 광 출력부
146, 468: 향 발산부 410: 모바일 단말기
411: 무선통신부 413: 단말기 제어부
415: 디스플레이부 417: 인터페이스부
419: 메모리부100, 460:
120, 462:
126, 464:
140, 466:
146, 468: incense diverting unit 410: mobile terminal
411: Wireless communication unit 413:
415: Display unit 417: Interface unit
419:
Claims (24)
사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 센서부;
상기 무선통신모듈로부터 상기 상대방측 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받으며, 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 장치 제어부; 및
상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.A wireless communication module for receiving a counterpart side sensing signal from the outside;
A sensor unit for detecting a state of a user or a surrounding area to generate a user-side sensing signal;
Receiving at least one counterpart sensing signal from the sensor module and at least one counterpart sensing signal included in the counterpart sensing signal and at least one counterpart sensing signal included in the counterpart sensing signal, A device control unit for generating and outputting an interaction control signal according to a comparison result of user-side sensing data of the user; And
And an interaction output unit receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal.
상기 사용자 인터랙션 장치의 움직임을 측정하는 동작인식센서; 및
상기 사용자 인터랙션 장치 주변의 소리 및 상기 사용자의 음성을 감지하는 음향인식센서를 포함하고,
상기 적어도 하나의 사용자측 센싱데이터는,
상기 동작인식센서에 의해 감지된 동작인식데이터 및 상기 음향인식센서에 의해 감지된 음향데이터를 포함하고,
상기 적어도 하나의 상대방측 센싱데이터는,
상기 상대방의 사용자 인터랙션 장치에 의해 감지된 동작인식데이터 및 음향데이터를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.The apparatus according to claim 1,
An operation recognition sensor for measuring a motion of the user interaction device; And
And a sound recognition sensor for sensing a sound around the user interaction device and a sound of the user,
Wherein the at least one user-
A motion recognizing sensor sensed by the motion recognizing sensor and sound data sensed by the sound recognizing sensor,
Wherein the at least one counterpart side sensing data comprises:
Wherein the user interaction device includes motion recognition data and sound data sensed by the user interaction device of the other party.
광 제어신호 및 향 제어신호를 포함하고,
상기 인터랙션 출력부는,
상기 장치 제어부로부터 입력받은 광 제어신호에 대응되는 빛을 외부로 출력하는 광 출력부; 및
상기 장치 제어부로부터 입력받은 향 제어신호에 대응되는 향을 외부로 발산하는 향 발산부를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.3. The apparatus of claim 2, wherein the interaction control signal comprises:
A light control signal and an incense control signal,
Wherein the interaction output unit comprises:
A light output unit for outputting light corresponding to a light control signal received from the device control unit to the outside; And
And a fragrance divergence unit for diverting the fragrance corresponding to the fragrance control signal received from the device control unit to the outside.
상기 사용자측 센싱데이터에 포함되는 동작인식데이터와 상기 상대방측 센싱데이터에 포함되는 동작인식데이터를 비교한 결과 및 상기 사용자측 센싱데이터에 포함되는 음향데이터와 상기 상대방측 센싱데이터에 포함되는 음향데이터를 비교한 결과 중 적어도 하나에 따라 생성되는 것을 특징으로 하는 사용자 인터랙션 장치.4. The method of claim 3, wherein the light control signal and the incense control signal, respectively,
A comparison result between the motion recognition data included in the user side sensing data and the motion recognition data included in the counterpart side sensing data and the comparison result between the sound data included in the user side sensing data and the sound data included in the counterpart side sensing data And the result is generated according to at least one of the results.
상기 적어도 하나의 상대방측 센싱데이터 및 상기 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 중 어느 하나에 따라 상기 적어도 하나의 상대방측 센싱데이터 및 상기 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성하는 것을 특징으로 하는 사용자 인터랙션 장치.The apparatus according to claim 1,
Wherein the at least one counterpart sensing data and the at least one counterpart sensing data are compared with each other according to any one of a maximum value, an average value, and a proximity value of sensing data to be compared, And generates each of the comparison results of the at least one user-side sensing data.
상대방의 사용자 인터랙션 장치에 의해 생성될 수 있고, 상기 상대방의 사용자 인터랙션 장치의 무선통신모듈로부터 전송되거나 상대방의 모바일 단말기로부터 전송되는 것을 특징으로 하는 사용자 인터랙션 장치.The apparatus as claimed in claim 1,
Wherein the user interaction device is generated by a user interaction device of the other party and is transmitted from a wireless communication module of the user interaction device of the other party or from a mobile terminal of the other party.
상기 무선통신모듈을 통해 상기 사용자 인터랙션 장치 주변에 상기 상대방의 사용자 인터랙션 장치가 위치하는지를 판단하고, 상기 사용자 인터랙션 장치와 상기 상대방의 사용자 인터랙션 장치 사이의 거리가 일정 거리 이하인 것으로 판단되면 상기 무선통신모듈을 통해 상기 상대방의 사용자 인터랙션 장치와 무선통신을 연결하는 것을 특징으로 하는 사용자 인터랙션 장치.The apparatus according to claim 1,
Determining whether the user interaction apparatus of the other party is located in the vicinity of the user interaction apparatus through the wireless communication module and if the distance between the user interaction apparatus and the user interaction apparatus of the other party is less than a predetermined distance, Wherein the user interaction apparatus is connected to the user interaction apparatus through wireless communication.
비교대상 감지신호를 포함하는 멀티미디어 데이터를 저장하는 메모리부;
상기 메모리부로부터 상기 비교대상 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받으며, 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 장치 제어부; 및
상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.A sensor unit for detecting a state of a user or a surrounding area to generate a user-side sensing signal;
A memory unit for storing multimedia data including a comparison target detection signal;
And a control unit for receiving the comparison target sensing signal from the memory unit and receiving the user sensing signal from the sensor unit, receiving at least one comparison target sensing data included in the comparison target sensing signal, and at least one A device control unit for generating and outputting an interaction control signal according to a comparison result of user-side sensing data; And
And an interaction output unit receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal.
무선통신모듈을 통해 외부로부터 상대방측 감지신호를 전송받는 단계;
장치 제어부가 무선통신모듈로부터 상기 상대방측 감지신호를 입력받고 상기 센서부로부터 상기 사용자측 감지신호를 입력받는 단계;
상기 장치 제어부가 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계; 및
인터랙션 출력부가 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치의 동작방법.Generating a user-side sensing signal by sensing a state of a user or a neighboring sensor unit;
Receiving a counterpart side sensing signal from the outside via a wireless communication module;
Receiving a detection signal from the wireless communication module and receiving the detection signal from the sensor unit;
Generating and outputting an interaction control signal according to a result of comparison between at least one counterpart sensing data included in the counterpart sensing signal and at least one user sensing data included in the sensing signal on the user side; And
Wherein the interaction output unit receives the interaction control signal from the device control unit and outputs an interaction corresponding to the interaction control signal.
사용자 입력에 따라 장치 제어부가 메모리부에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계;
상기 장치 제어부가 상기 센서부로부터 상기 사용자측 감지신호를 입력받는 단계;
상기 장치 제어부가 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 단계; 및
인터랙션 출력부가 상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 단계를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치의 동작방법.Generating a user-side sensing signal by sensing a state of a user or a neighboring sensor unit;
Extracting a comparison object detection signal from the multimedia data stored in the memory unit according to a user input;
Receiving the user-side sensing signal from the sensor unit;
Generating and outputting an interaction control signal according to a comparison result of at least one comparison object sensing data included in the comparison object sensing signal and at least one user side sensing data included in the user sensing signal; And
Wherein the interaction output unit receives the interaction control signal from the device control unit and outputs an interaction corresponding to the interaction control signal.
상기 모바일 단말기는,
외부로부터 상대방측 감지신호를 전송받고 상기 사용자 인터랙션 장치로부터 사용자측 감지신호를 전송받는 무선통신부; 및
상기 무선통신부로부터 상기 상대방측 감지신호 및 상기 사용자측 감지신호를 입력받고, 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하며, 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단말기 제어부를 포함하고,
상기 사용자 인터랙션 장치는,
상기 모바일 단말기로부터 상기 인터랙션 제어신호를 전송받는 무선통신모듈;
상기 사용자 또는 주변의 상태를 감지하여 상기 사용자측 감지신호를 생성하는 센서부;
상기 센서부로부터 입력받은 사용자측 감지신호를 상기 무선통신모듈을 통해 상기 모바일 단말기로 전송하고, 상기 모바일 단말기로부터 전송받은 상기 인터랙션 제어신호를 출력하는 장치 제어부; 및
상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템.A user interaction system comprising a user's mobile terminal and a user interaction device,
The mobile terminal comprises:
A wireless communication unit for receiving a counterpart side detection signal from the outside and receiving a user side detection signal from the user interaction apparatus; And
A comparison result of at least one user side sensing data included in at least one counterpart side sensing data included in the counterpart side sensing signal and at least one user side sensing data included in the user side sensing signal, And outputting the interaction control signal to the user interaction apparatus via the wireless communication unit,
The user interaction apparatus comprising:
A wireless communication module for receiving the interaction control signal from the mobile terminal;
A sensor unit for sensing the state of the user or the surroundings and generating the user-side sensing signal;
A device controller for transmitting a user side sensing signal received from the sensor unit to the mobile terminal through the wireless communication module and outputting the interaction control signal received from the mobile terminal; And
And an interaction output unit receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal.
사용자 또는 주변의 상태를 감지하여 상기 사용자측 감지신호를 생성하는 센서부;
상기 센서부로부터 입력받은 사용자측 감지신호를 상기 무선통신모듈을 통해 상기 모바일 단말기로 전송하고, 상기 모바일 단말기로부터 전송받은 상기 인터랙션 제어신호를 출력하는 장치 제어부; 및
상기 장치 제어부로부터 상기 인터랙션 제어신호를 입력받고, 상기 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.A wireless communication module for receiving an interaction control signal from the mobile terminal;
A sensor unit for sensing a state of the user or the surroundings and generating the user-side sensing signal;
A device controller for transmitting a user side sensing signal received from the sensor unit to the mobile terminal through the wireless communication module and outputting the interaction control signal received from the mobile terminal; And
And an interaction output unit receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal.
상기 사용자 인터랙션 장치의 움직임을 측정하는 동작인식센서; 및
상기 사용자 인터랙션 장치 주변의 소리 및 상기 사용자의 음성을 감지하는 음향인식센서를 포함하고,
상기 적어도 하나의 사용자측 센싱데이터는,
상기 동작인식센서에 의해 감지된 동작인식데이터 및 상기 음향인식센서에 의해 감지된 음향데이터를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.14. The apparatus according to claim 13,
An operation recognition sensor for measuring a motion of the user interaction device; And
And a sound recognition sensor for sensing a sound around the user interaction device and a sound of the user,
Wherein the at least one user-
Wherein the motion recognition data includes motion recognition data sensed by the motion recognition sensor and sound data sensed by the sound recognition sensor.
광 제어신호 및 향 제어신호를 포함하고,
상기 인터랙션 출력부는,
상기 장치 제어부로부터 입력받은 광 제어신호에 대응되는 빛을 외부로 출력하는 광 출력부; 및
상기 장치 제어부로부터 입력받은 향 제어신호에 대응되는 향을 외부로 발산하는 향 발산부를 포함하는 것을 특징으로 하는 사용자 인터랙션 장치.15. The apparatus of claim 14, wherein the interaction control signal comprises:
A light control signal and an incense control signal,
Wherein the interaction output unit comprises:
A light output unit for outputting light corresponding to a light control signal received from the device control unit to the outside; And
And a fragrance divergence unit for diverting the fragrance corresponding to the fragrance control signal received from the device control unit to the outside.
상기 무선통신부를 통해 외부로부터 상대방측 감지신호를 전송받는 단계;
단말기 제어부가 상기 무선통신부로부터 상기 상대방측 감지신호 및 상기 사용자측 감지신호를 입력받는 단계;
상기 단말기 제어부가 상기 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계; 및
상기 단말기 제어부가 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단계를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.Receiving a user side sensing signal from a user interaction device through a wireless communication unit;
Receiving a counterpart side sensing signal from the outside through the wireless communication unit;
The terminal control unit receiving the opposite side sensing signal and the user side sensing signal from the wireless communication unit;
The terminal control unit generating an interaction control signal according to a result of comparison between at least one counterpart sensing data included in the counterpart sensing signal and at least one user sensing data included in the counterpart sensing signal; And
And the terminal control unit outputs the interaction control signal to the user interaction apparatus through the wireless communication unit.
상기 사용자 인터랙션 장치의 움직임을 측정하는 동작인식센서; 및
상기 사용자 인터랙션 장치 주변의 소리 및 상기 사용자의 음성을 감지하는 음향인식센서를 포함하고,
상기 적어도 하나의 사용자측 센싱데이터는,
상기 동작인식센서에 의해 감지된 동작인식데이터 및 상기 음향인식센서에 의해 감지된 음향데이터를 포함하고,
상기 적어도 하나의 상대방측 센싱데이터는,
상대방의 사용자 인터랙션 장치에 의해 감지된 동작인식데이터 및 음향데이터를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.17. The user interaction apparatus according to claim 16,
An operation recognition sensor for measuring a motion of the user interaction device; And
And a sound recognition sensor for sensing a sound around the user interaction device and a sound of the user,
Wherein the at least one user-
A motion recognizing sensor sensed by the motion recognizing sensor and sound data sensed by the sound recognizing sensor,
Wherein the at least one counterpart side sensing data comprises:
Wherein the mobile communication terminal includes operation recognition data and sound data sensed by a user interaction device of the other party.
광 제어신호 및 향 제어신호를 포함하고,
상기 사용자 인터랙션 장치는,
상기 광 제어신호에 대응되는 빛을 외부로 출력하는 광 출력부; 및
상기 향 제어신호에 대응되는 향을 외부로 발산하는 향 발산부를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.18. The apparatus of claim 17, wherein the interaction control signal comprises:
A light control signal and an incense control signal,
The user interaction apparatus comprising:
A light output unit for outputting light corresponding to the light control signal to the outside; And
And a directional divergence unit for diverging the incense corresponding to the incense control signal to the outside.
상기 사용자측 센싱데이터에 포함되는 동작인식데이터와 상기 상대방측 센싱데이터에 포함되는 동작인식데이터를 비교한 결과 및 상기 사용자측 센싱데이터에 포함되는 음향데이터와 상기 상대방측 센싱데이터에 포함되는 음향데이터를 비교한 결과 중 적어도 하나에 따라 생성되는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.19. The method of claim 18, wherein the light control signal and the incense control signal, respectively,
A comparison result between the motion recognition data included in the user side sensing data and the motion recognition data included in the counterpart side sensing data and the comparison result between the sound data included in the user side sensing data and the sound data included in the counterpart side sensing data And the result is generated according to at least one of the results.
상기 적어도 하나의 상대방측 센싱데이터 및 상기 적어도 하나의 사용자측 센싱데이터를 비교함에 있어서, 비교의 대상이 되는 센싱데이터들의 최대값, 평균값 및 근접도 중 어느 하나에 따라 상기 적어도 하나의 상대방측 센싱데이터 및 상기 적어도 하나의 사용자측 센싱데이터의 비교 결과 각각을 생성하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.17. The terminal of claim 16,
Wherein the at least one counterpart sensing data and the at least one counterpart sensing data are compared with each other according to any one of a maximum value, an average value, and a proximity value of sensing data to be compared, Wherein each of the comparison results of the at least one user-side sensing data is generated.
상대방의 사용자 인터랙션 장치에 의해 생성될 수 있고, 상기 상대방의 사용자 인터랙션 장치의 무선통신모듈로부터 전송되거나 상기 상대방의 모바일 단말기로부터 전송되는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.17. The method of claim 16,
Wherein the mobile communication terminal is generated by a user interaction device of the other party and is transmitted from a wireless communication module of the user interaction device of the other party or from the mobile terminal of the other party.
상기 무선통신부를 통해 상기 사용자의 모바일 단말기 주변에 상기 상대방의 사용자 인터랙션 장치 또는 상기 상대방의 모바일 단말기가 위치하는지를 판단하고, 상기 사용자의 모바일 단말기와 상기 상대방의 사용자 인터랙션 장치 사이의 거리 또는 상기 사용자의 모바일 단말기와 상기 상대방의 모바일 단말기 사이의 거리가 일정 거리 이하인 것으로 판단되면 상기 무선통신모듈을 통해 상기 상대방의 사용자 인터랙션 장치 또는 상기 상대방의 모바일 단말기와 무선통신을 연결하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.17. The terminal of claim 16,
The mobile communication terminal determines whether the user interaction apparatus of the other party or the mobile terminal of the other party is located around the mobile terminal of the user through the wireless communication unit and determines a distance between the mobile terminal of the user and the user interaction apparatus of the user, When the mobile terminal determines that the distance between the terminal and the mobile terminal of the other party is less than a predetermined distance, the mobile communication terminal connects wireless communication with the user interaction apparatus of the other party or the mobile terminal of the other party through the wireless communication module. A method of operating a terminal.
사용자 입력에 따라 단말기 제어부가 메모리부에 저장된 멀티미디어 데이터로부터 비교대상 감지신호를 추출하는 단계;
상기 단말기 제어부가 상기 무선통신부로부터 상기 사용자측 감지신호를 입력받는 단계;
상기 단말기 제어부가 상기 비교대상 감지신호에 포함되는 적어도 하나의 비교대상 센싱데이터 및 상기 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하는 단계; 및
상기 단말기 제어부가 상기 인터랙션 제어신호를 상기 무선통신부를 통해 상기 사용자 인터랙션 장치로 출력하는 단계를 포함하는 것을 특징으로 하는 사용자 인터랙션 시스템의 모바일 단말기 동작방법.Receiving a user side sensing signal from a user interaction device through a wireless communication unit;
Extracting a comparison object detection signal from the multimedia data stored in the memory unit according to a user input;
Receiving the user side sensing signal from the wireless communication unit;
Generating the interaction control signal according to a comparison result of at least one comparison subject sensing data included in the comparison subject sensing signal and at least one user side sensing data included in the user sensing signal; And
And the terminal control unit outputs the interaction control signal to the user interaction apparatus through the wireless communication unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130126090A KR101563582B1 (en) | 2013-10-22 | 2013-10-22 | User interaction apparatus, operating method thereof and user interaction system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130126090A KR101563582B1 (en) | 2013-10-22 | 2013-10-22 | User interaction apparatus, operating method thereof and user interaction system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20150025242A Division KR20150046769A (en) | 2015-02-23 | 2015-02-23 | User interaction apparatus, operating method thereof and user interaction system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150046629A true KR20150046629A (en) | 2015-04-30 |
KR101563582B1 KR101563582B1 (en) | 2015-10-27 |
Family
ID=53037951
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130126090A KR101563582B1 (en) | 2013-10-22 | 2013-10-22 | User interaction apparatus, operating method thereof and user interaction system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101563582B1 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100996629B1 (en) * | 2010-03-04 | 2010-12-07 | (주) 루스케이프 | Multi-function lighting device and control method therefor |
-
2013
- 2013-10-22 KR KR1020130126090A patent/KR101563582B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR101563582B1 (en) | 2015-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240146847A1 (en) | Methods and Apparatus to Assist Listeners in Distinguishing Between Electronically Generated Binaural Sound and Physical Environment Sound | |
CN105373222B (en) | Electronic device and control method thereof | |
JP6760267B2 (en) | Information processing equipment, control methods, and programs | |
KR102060776B1 (en) | Electronic device operating in asscociated state with external audio device based on biometric information and method therefor | |
US20180124497A1 (en) | Augmented Reality Sharing for Wearable Devices | |
US20150328082A1 (en) | Interactive Entertainment System Having Sensory Feedback | |
CN108156280B (en) | Display control method and related product | |
CN107728400B (en) | Information display method and mobile terminal | |
WO2016185740A1 (en) | Information-processing device, information-processing method, and program | |
US10205814B2 (en) | Wireless earpiece with walkie-talkie functionality | |
CN112533017B (en) | Live broadcast method, device, terminal and storage medium | |
WO2018163637A1 (en) | Information-processing device, information-processing method, and recording medium | |
WO2017175689A1 (en) | System, terminal device, method and recording medium | |
CN109061903B (en) | Data display method and device, intelligent glasses and storage medium | |
CN108886653A (en) | A kind of earphone sound channel control method, relevant device and system | |
CN116471431A (en) | Modifying and transferring audio between devices | |
CN110348198A (en) | Personal identification method, relevant apparatus and the system of simulation object | |
CN109224432A (en) | Control method, device, storage medium and the wearable device of entertainment applications | |
KR20150046769A (en) | User interaction apparatus, operating method thereof and user interaction system | |
KR101563582B1 (en) | User interaction apparatus, operating method thereof and user interaction system | |
US10198072B2 (en) | Haptic feedback for opportunistic displays | |
CN211752495U (en) | Fingertip building block | |
KR101517399B1 (en) | Sound/Perfume Actuator, Method For Controlling Sound/Perfume Actuator In Mobile Terminal and Communication System Using Mobile Terminal and Sound/Perfume Actuator | |
CN111111232A (en) | Fingertip building block, and control method and control device thereof | |
KR20200080410A (en) | Apparatus and method for controlling operation of robot capable of mounting accessory |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20181023 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20191021 Year of fee payment: 5 |