KR101898162B1 - Apparatus and method of providing additional function and feedback to other apparatus by using information of multiple sensor - Google Patents

Apparatus and method of providing additional function and feedback to other apparatus by using information of multiple sensor Download PDF

Info

Publication number
KR101898162B1
KR101898162B1 KR1020160154980A KR20160154980A KR101898162B1 KR 101898162 B1 KR101898162 B1 KR 101898162B1 KR 1020160154980 A KR1020160154980 A KR 1020160154980A KR 20160154980 A KR20160154980 A KR 20160154980A KR 101898162 B1 KR101898162 B1 KR 101898162B1
Authority
KR
South Korea
Prior art keywords
control signal
device control
user interface
user
received
Prior art date
Application number
KR1020160154980A
Other languages
Korean (ko)
Other versions
KR20180056973A (en
Inventor
한건희
이승엽
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020160154980A priority Critical patent/KR101898162B1/en
Publication of KR20180056973A publication Critical patent/KR20180056973A/en
Application granted granted Critical
Publication of KR101898162B1 publication Critical patent/KR101898162B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/30Arrangements in telecontrol or telemetry systems using a wired architecture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 다중 센서감지를 통해 다른 기기로 추가기능 및 피드백을 제공하는 기기 및 방법에 관한 것으로서, 일실시예에 따른 제1기기는 비구조화된 유저인터페이스 영역을 통해 사용자 입력을 센싱하는 센서 입력부, 상기 센싱된 사용자 입력에 상응하는 기기제어동작을 인식하고, 상기 인식된 기기제어동작에 상응하는 기기제어신호를 생성하는 동작 인식부, 및 상기 생성된 기기제어신호를 구조화된 유저인터페이스를 제공하는 제2기기로 전달하는 데이터 통신부를 포함하고, 상기 제2기기는 상기 기기제어신호를 수신하고, 상기 수신된 기기제어신호에 응답하여 동작하되, 상기 구조화된 유저인터페이스가 비활성화된 상태에서 상기 구조화된 유저인터페이스의 기능을 상기 기기제어신호에 기초하여 제공한다.The present invention relates to an apparatus and method for providing additional functions and feedback to other apparatuses through multi-sensor detection. The first apparatus includes a sensor input unit for sensing user input through an unstructured user interface region, An operation recognition unit that recognizes a device control operation corresponding to the sensed user input and generates a device control signal corresponding to the recognized device control operation; 2 device, the second device receiving the device control signal and operating in response to the received device control signal, wherein the structured user interface is inactive with the structured user interface inactive, And provides the function of the interface based on the device control signal.

Figure R1020160154980
Figure R1020160154980

Description

다중 센서감지를 통해 다른 기기로 추가기능 및 피드백을 제공하는 기기 및 방법{APPARATUS AND METHOD OF PROVIDING ADDITIONAL FUNCTION AND FEEDBACK TO OTHER APPARATUS BY USING INFORMATION OF MULTIPLE SENSOR}[0001] APPARATUS AND METHOD OF PROVIDING ADDITIONAL FUNCTION AND FEEDBACK TO OTHER EQUIPMENT WITH MULTIPLE SENSOR DETECTION [0002]

추가적인 하드웨어 입력장치 없이 1인 2기기 시대에 맞추어 사용자가 갖고 다니는 스마트폰과 같은 사용자의 기기를 이용하여 생산성과 관련된 과업을 더욱 효율적이고 효과적으로 수행할 수 있도록 다른 기기에 추가기능을 제공하는 기술에 관한 것이다.A technology that provides additional functions to other devices so that users can perform tasks related to productivity more efficiently and effectively by using a user's device such as a smart phone, will be.

대화면 터치스크린을 구비한 태블릿PC의 대중화와 더불어 컴퓨팅 기술의 발전은 사용자들이 더 이상은 컨텐츠를 소비하는데 머물지 않고 컨텐츠를 생산하는 일들을 가능하게 했다. 그러나 태블릿PC는 마우스, 키보드와 같은 하드웨어 입력기기의 부재로 인해 전문적인 생산성을 갖추지는 못하였고 이러한 한계점을 극복하고자 최근에는 키보드와 트랙패드를 구비한 기기들과 탈부착이 가능한 형태의 태블릿PC들이 많이 등장하고 있다. 그러나 이러한 입력장치들과의 하드웨어적인 결합은 기기의 무게와 크기를 늘려 이동성이 크게 떨어진다.Along with the popularization of tablet PCs with a large screen touch screen, the development of computing technology has enabled users to produce contents without having to spend on content any more. However, due to the lack of hardware input devices such as a mouse and a keyboard, the tablet PC is not equipped with professional productivity. In order to overcome these limitations, devices having keyboards and track pads and tablet PCs capable of being detachable . However, the hardware combination with these input devices increases the weight and size of the device, resulting in poor mobility.

기존의 터치스크린 기기들이 제공하는 대부분의 어플리케이션들은 세부적인 UI(User Interface)구성이 상이하나 기본적으로 추가기능을 제공하기 위해 하나의 스크린에 구조화된 UI를 갖고 있다는 큰 공통점을 지니고 있다. 예를 들어 그림을 그리거나 필기를 하는 어플리케이션에서는 색상을 선택할 수 있는 팔레트GUI(Graphical User Interface)를 제공하거나 다양한 도구가 나열된 GUI를 제공함으로써 사용자가 기능을 전환하도록 한다. 또한 이미지를 편집하는 어플리케이션 역시도 사용자가 사진의 색상을 변경하거나, 다양한 효과를 주기 위해서는 구조화된 UI에 포함된 다양한 도구들을 그래픽으로서 제공하고 있다. 그러나 이러한 GUI를 기반한 기능전환방법들은 아래의 세 가지 큰 한계점을 지닌다. Most of the applications provided by the existing touch screen devices are different in the detailed UI (User Interface) configuration, but have a large commonality that they have a structured UI on one screen in order to provide additional functions basically. For example, a drawing or handwriting application provides a palette GUI (Graphical User Interface) that allows you to select a color, or a GUI that lists a variety of tools to allow the user to switch functions. In addition, the application for editing images also provides a variety of tools included in the structured UI as graphics for the user to change the color of the photo or to provide various effects. However, these GUI-based functional switching methods have three major limitations.

먼저, 이러한 기능전환방법들은 추가적인 기능을 이용하기 위해서 사용자가 수행하던 작업을 멈추고 원하는 기능을 수행하는 구조화된 UI내의 상호작용이 가능한 객체(interactive object 이하 IO, 예: 버튼 혹은 아이콘 등)에 시선을 옮겨 찾아야 한다. 이러한 단계는 사용자의 과업수행을 중단하기 때문에 과업수행효율을 저해한다.In order to use additional functions, these function switching methods are used to stop an operation performed by a user and to make an interactive object (an interactive object such as a button or an icon) in a structured UI performing a desired function I have to find it. This step interferes with the performance of the task because the user stops performing the task.

다음으로, 사용자가 기능의 전환을 하기 위해서는 눈으로 찾은 원하는 객체를 터치(터치스크린 기기의 경우) 또는 클릭(데스크탑과 같은 일반 PC의 경우) 등의 입력동작을 수행해야 한다.Next, in order for the user to switch the functions, input operations such as touching a desired object found by eyes (in the case of a touch screen device) or clicking (in the case of a general PC such as a desktop) must be performed.

마지막으로, 기존의 대부분 어플리케이션의 구조화된 UI는 하나의 스크린에 효율적인 활용을 위해 사용자가 여러 번에 걸쳐 추가기능에 접근하도록 정의되어 있다. 예를 들어 사용자가 필기어플리케이션을 사용하던 중 색상을 전환하기 위해서는 팔레트 아이콘을 터치한 후에 팔레트 창(window)에서 다시 색상을 터치하여 선택하여야 한다. Finally, the structured UI of most existing applications is defined to allow users to access additional functionality multiple times for efficient use on a single screen. For example, in order to switch the color while the user is using the handwriting application, the palette icon should be touched and then the palette window should be touched again.

이러한 동작들은 사용자가 수행하고 있는 창작활동이 중간중간 끊기게 되고 이는 결과적으로 사용성 저해 및 사용자 경험 저해를 유발시키며 전체적인 작업수행효율 역시 저해시킬 수 있다.These operations cause the user's creative activities to be interrupted in the middle, which may result in usability inhibition, user experience hindrance, and overall work efficiency.

한국등록특허 제0986619호 "이동통신단말기를 이용한 멀티입출력장치 및 방법"Korean Patent No. 0986619 "Multi Input / Output Device and Method Using Mobile Communication Terminal" 한국공개특허 제2011-0107143호 "멀티 입력을 이용한 휴대단말의 기능 제어 방법 및 장치"Korean Patent Laid-Open No. 2011-0107143 entitled " Method and Apparatus for Controlling Function of Portable Terminal Using Multi-Input "

일실시예에 따르면, 사용자에게 불필요한 시각을 줄임으로써 원하는 기능을 탐색하는 과정을 줄이는 것이다.According to one embodiment, it is possible to reduce unnecessary time for the user, thereby reducing the process of searching for a desired function.

일실시예에 따르면, 사용자가 불필요하게 여러 번 터치하는 것과 같이 기능을 선택하는 과정을 줄이는 것이다.According to one embodiment, it is possible to reduce the process of selecting a function such as a user unnecessarily touching multiple times.

일실시예에 따르면, 사용자의 과제수행효율을 증대시키고 빠른 기능의 전환을 통해 사용자경험(UX)를 향상시키는 것이다.According to one embodiment, it is possible to increase the efficiency of task execution by the user and to improve the user experience (UX) through quick switching of functions.

일실시예에 따른 제1기기는 비구조화된 유저인터페이스 영역을 통해 사용자 입력을 센싱하는 센서 입력부, 상기 센싱된 사용자 입력에 상응하는 기기제어동작을 인식하고, 상기 인식된 기기제어동작에 상응하는 기기제어신호를 생성하는 동작 인식부, 및 상기 생성된 기기제어신호를 구조화된 유저인터페이스를 제공하는 제2기기로 전달하는 데이터 통신부를 포함하고, 상기 제2기기는 상기 기기제어신호를 수신하고, 상기 수신된 기기제어신호에 응답하여 동작하되, 상기 구조화된 유저인터페이스가 비활성화된 상태에서 상기 구조화된 유저인터페이스의 기능을 상기 기기제어신호에 기초하여 제공하는 것을 특징으로 한다.The first device according to an embodiment of the present invention includes a sensor input unit for sensing a user input through an unstructured user interface area, a device recognition unit for recognizing a device control operation corresponding to the sensed user input, And a data communication unit for transmitting the generated device control signal to a second device providing a structured user interface, wherein the second device receives the device control signal, And a function of the structured user interface is provided based on the device control signal in response to the received device control signal while the structured user interface is inactive.

일실시예에 따른 상기 제2기기는 적어도 하나 이상의 표시자 유저인터페이스를 포함하는 구조화된 유저인터페이스 영역을 포함하며, 상기 비구조화된 유저인터페이스 영역 및 상기 구조화된 유저인터페이스 영역 중에서 적어도 하나는 아이콘, 텍스트, 및 색상값 중에서 적어도 하나의 형태로 맥락정보를 출력하는 것을 특징으로 한다.The second device according to an embodiment includes a structured user interface area including at least one or more indicator user interfaces, wherein at least one of the unstructured user interface area and the structured user interface area comprises at least one of an icon, , And a color value.

일실시예에 따른 상기 제2기기는 상기 수신된 기기제어신호에 상응하는 기능으로 동작하되, 이전의 설정값을 상기 기기제어신호에 상응하는 설정값으로 변경하는 것을 특징으로 한다.The second device according to an embodiment operates with a function corresponding to the received device control signal and changes a previous setting value to a setting value corresponding to the device control signal.

일실시예에 따른 상기 제2기기는 상기 수신된 기기제어신호에 상응하는 기능으로 동작하되, 상기 제2기기에서 구동되는 어플리케이션과 관련된 추가기능들 중에서, 상기 기기제어신호에 상응하는 특정 추가기능을 구동시키는 것을 특징으로 한다.The second device according to an exemplary embodiment of the present invention operates as a function corresponding to the received device control signal and selects a specific additional function corresponding to the device control signal among the additional functions related to the application driven by the second device And drives the motor.

일실시예에 따른 상기 데이터 통신부는 상기 제2기기에 수집된 제2 기기제어동작에 상응하는 제2 기기제어신호를 수신하고, 상기 동작 인식부는 상기 수신된 제2 기기제어신호에 상응하는 추가기능을 인식한다.The data communication unit may receive a second device control signal corresponding to a second device control operation collected by the second device, and the operation recognition unit may receive an additional function corresponding to the received second device control signal Lt; / RTI >

일실시예에 따른 제1기기는 상기 인식된 추가기능을 구동시키는 제어부를 더 포함한다.The first device according to an embodiment further includes a control unit for driving the recognized additional function.

일실시예에 따른 상기 제어부는, 상기 구동된 추가기능에 의해서 생성된 컨텐츠를 상기 데이터 통신부를 통해 상기 제2기기로 제공하도록 제어하는 것을 특징으로 한다.The control unit controls the content generated by the driven additional function to be provided to the second device through the data communication unit.

일실시예에 따른 상기 제어부는, 상기 제2기기로부터 상기 기기제어신호에 상응하는 피드백을 수신하여 출력하도록 제어한다.The control unit controls the second device to receive and output feedback corresponding to the device control signal.

일실시예에 따른 상기 센서 입력부는, 상기 사용자 입력에 대한 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나를 센싱하고, 상기 동작 인식부는, 상기 센싱된 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나에 따라 기기제어동작을 인식한다.The sensor input unit senses at least one of a pressure, a frequency, a speed, an acceleration, a direction, a rotation, a sound, and a number of the user input. The operation recognition unit senses the sensed pressure, The device control operation is recognized according to at least one of speed, acceleration, direction, rotation, sound, and number.

일실시예에 따른 제2기기는 제1기기로부터 전달되는 기기제어신호를 수신하는 데이터 통신부, 및 상기 수신된 기기제어신호에 응답하여 동작하되, 구조화된 유저인터페이스가 비활성화된 상태에서 상기 구조화된 유저인터페이스의 기능을 상기 기기제어신호에 기초하여 제공하도록 어플리케이션을 제어하는 제어부를 포함하고, 상기 제1기기는 비구조화된 유저인터페이스 영역을 통해 사용자 입력을 센싱하고, 상기 센싱된 사용자 입력에 상응하는 기기제어동작을 인식하며, 상기 인식된 기기제어동작에 상응하는 기기제어신호를 생성하고, 상기 생성된 기기제어신호를 상기 데이터 통신부로 전달하는 것을 특징으로 한다.The second device according to an embodiment includes a data communication unit for receiving a device control signal transmitted from the first device, and a data communication unit operable in response to the received device control signal, wherein, when the structured user interface is inactivated, And a control unit for controlling an application to provide a function of an interface based on the device control signal, wherein the first device senses a user input through an unstructured user interface area, and the device corresponding to the sensed user input The control unit recognizes the control operation, generates a device control signal corresponding to the recognized device control operation, and transmits the generated device control signal to the data communication unit.

일실시예에 따른 상기 제어부는 상기 어플리케이션을 제어하되, 이전의 설정값을 상기 기기제어신호에 상응하는 설정값으로 변경하여 상기 어플리케이션을 제어하는 것을 특징으로 한다.The control unit controls the application by changing a previous setting value to a setting value corresponding to the device control signal.

일실시예에 따른 상기 제어부는 상기 어플리케이션을 제어하되, 현재 구동되는 어플리케이션과 관련된 추가기능들 중에서, 상기 기기제어신호에 상응하는 특정 추가기능을 구동시키는 것을 특징으로 한다.The control unit controls the application and drives a specific additional function corresponding to the device control signal among the additional functions related to the application currently being operated.

일실시예에 따른 상기 데이터 통신부는, 상기 제1기기에서 구동된 추가기능에 의해서 생성된 컨텐츠를 수신하고, 상기 제어부는, 상기 수신된 컨텐츠를 상기 현재 구동되는 어플리케이션을 통해 출력하는 것을 특징으로 한다.The data communication unit according to an embodiment receives content generated by the additional function driven by the first device, and the control unit outputs the received content through the currently-running application .

일실시예에 따른 제1기기의 동작 방법은 센서 입력부에서, 비구조화된 유저인터페이스 영역을 통해 사용자 입력을 센싱하는 단계, 동작 인식부에서, 상기 센싱된 사용자 입력에 상응하는 기기제어동작을 인식하고, 상기 인식된 기기제어동작에 상응하는 기기제어신호를 생성하는 단계, 및 데이터 통신부에서, 상기 생성된 기기제어신호를 구조화된 유저인터페이스를 제공하는 제2기기로 전달하는 단계를 포함하고, 상기 제2기기는 상기 기기제어신호를 수신하고, 상기 수신된 기기제어신호에 응답하여 동작하되, 상기 구조화된 유저인터페이스가 비활성화된 상태에서 상기 구조화된 유저인터페이스의 기능을 상기 기기제어신호에 기초하여 제공하는 것을 특징으로 한다.A method of operating a first device according to an embodiment includes sensing a user input through a non-structured user interface area in a sensor input unit, recognizing a device control operation corresponding to the sensed user input in an operation recognition unit Generating a device control signal corresponding to the recognized device control operation and transmitting the generated device control signal to a second device providing a structured user interface in the data communication unit, 2 device receives the device control signal and operates in response to the received device control signal to provide the function of the structured user interface based on the device control signal while the structured user interface is inactive .

일실시예에 따른 상기 제2기기는 상기 수신된 기기제어신호에 상응하는 기능으로 동작하되, 이전의 설정값을 상기 기기제어신호에 상응하는 설정값으로 변경하는 것을 특징으로 한다.The second device according to an embodiment operates with a function corresponding to the received device control signal and changes a previous setting value to a setting value corresponding to the device control signal.

일실시예에 따른 상기 제2기기는 상기 수신된 기기제어신호에 상응하는 기능으로 동작하되, 상기 제2기기에서 구동되는 어플리케이션과 관련된 추가기능들 중에서, 상기 기기제어신호에 상응하는 특정 추가기능을 구동시키는 것을 특징으로 한다.The second device according to an exemplary embodiment of the present invention operates as a function corresponding to the received device control signal and selects a specific additional function corresponding to the device control signal among the additional functions related to the application driven by the second device And drives the motor.

일실시예에 따른 제1기기의 동작 방법은 상기 데이터 통신부에서, 상기 제2기기에 수집된 제2 기기제어동작에 상응하는 제2 기기제어신호를 수신하는 단계, 및 상기 동작 인식부에서, 상기 수신된 제2 기기제어신호에 상응하는 추가기능을 인식하는 단계, 및 제어부에서, 상기 인식된 추가기능을 구동시키는 단계를 더 포함한다.The method of operating the first device according to an embodiment may further include the steps of receiving, in the data communication unit, a second device control signal corresponding to a second device control operation collected by the second device, Recognizing an additional function corresponding to the received second device control signal, and, in the control unit, driving the recognized additional function.

일실시예에 따른 상기 인식된 추가기능을 구동시키는 단계는, 상기 구동된 추가기능에 의해서 생성된 컨텐츠를 상기 데이터 통신부를 통해 상기 제2기기로 제공하도록 제어하는 단계를 포함한다.The step of driving the recognized additional function according to an embodiment includes controlling the content generated by the driven additional function to be provided to the second device through the data communication unit.

일실시예에 따른 상기 인식된 추가기능을 구동시키는 단계는, 상기 제2기기로부터 상기 기기제어신호에 상응하는 피드백을 수신하여 출력하도록 제어하는 단계를 포함한다.The step of driving the recognized additional function according to an embodiment includes controlling to receive and output feedback corresponding to the device control signal from the second device.

일실시예에 따른 사용자 입력을 센싱하는 상기 단계는, 상기 사용자 입력에 대한 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나를 센싱하는 단계를 포함하고, 상기 센싱된 사용자 입력에 상응하는 기기제어동작을 인식하는 상기 단계는, 상기 센싱된 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나에 따라 기기제어동작을 인식하는 단계를 포함한다.Sensing the user input in accordance with an embodiment includes sensing at least one of pressure, frequency, speed, acceleration, direction, rotation, sound, and number of user inputs to the user, The step of recognizing the device control operation corresponding to the input includes recognizing the device control operation according to at least one of the sensed pressure, frequency, speed, acceleration, direction, rotation, sound, and number.

본 발명에 따르면, 사용자에게 불필요한 시각을 줄임으로써 원하는 기능을 탐색하는 과정을 줄일 수 있다.According to the present invention, it is possible to reduce a process of searching for a desired function by reducing unnecessary time for a user.

본 발명에 따르면, 사용자가 불필요하게 여러 번 터치하는 것과 같이 기능을 선택하는 과정을 줄일 수 있다.According to the present invention, it is possible to reduce a process of selecting a function such as a user unnecessarily touching several times.

본 발명에 따르면, 사용자의 과제수행효율을 증대시키고 빠른 기능의 전환을 통해 사용자경험(UX)를 향상시킬 수 있다.According to the present invention, it is possible to increase the efficiency of task execution by the user and to improve the user experience (UX) through quick switching of functions.

도 1은 일실시예에 따른 전체 시스템을 설명하는 도면이다.
도 2는 일실시예에 따른 제1기기 및 제2기기를 구체적으로 설명하는 도면이다.
도 3 내지 도 7은 제1기기를 제어하여 제2기기의 입력 모드를 변경하는 실시예를 설명하는 도면이다.
도 8 및 도 9는 제1기기를 제어하여 제2기기의 추가기능을 실행하는 실시예를 설명하는 도면이다.
도 10 및 도 11은 제2기기를 제어하여 제1기기의 추가기능을 실행하는 실시예를 설명하는 도면이다.
도 12 내지 도 14는 적어도 하나 이상의 제1기기를 제2기기의 입력 장치로 사용하는 실시예를 설명하는 도면이다.
도 15 내지 도 18은 제1단말기에 표시되는 표시자 유저인터페이스 및 맥락정보를 확인하여 제2기기를 제어하는 실시예를 설명하는 도면이다.
도 19는 제1기기에서 발생하는 터치의 변화를 감지하여 맥락정보를 변경하고, 이를 기반으로 제2기기를 제어하는 실시예를 설명하는 도면이다.
도 20은 제1기기에서 수행하는 동작에 따라 제2 기기에서 시각피드백, 촉각피드백, 및 청각피드백 중에서 적어도 하나의 피드백을 제공하는 실시예를 설명하는 도면이다.
도 21은 제1기기에서 수행하는 동작에 따라 제2 기기에서 시각피드백, 촉각피드백, 및 청각피드백 중에서 적어도 하나의 피드백을 제공하는 다른 실시예를 설명하는 도면이다.
도 22는 일실시예에 따른 제1기기의 동작 방법을 설명하는 도면이다.
1 is a diagram illustrating an overall system according to one embodiment.
2 is a view for explaining a first device and a second device according to an embodiment of the present invention.
3 to 7 are diagrams for explaining an embodiment in which the first device is controlled to change the input mode of the second device.
Figs. 8 and 9 are views for explaining an embodiment in which the first device is controlled to perform the additional function of the second device. Fig.
10 and 11 are views for explaining an embodiment in which the second device is controlled to perform the additional function of the first device.
12 to 14 are diagrams for explaining an embodiment in which at least one first device is used as an input device of the second device.
15 to 18 are diagrams for explaining an embodiment for controlling the second device by checking the display device user interface and the context information displayed on the first terminal.
FIG. 19 is a view for explaining an embodiment of detecting the change of the touch generated in the first device, changing the context information, and controlling the second device based thereon.
20 is a view for explaining an embodiment for providing at least one feedback from visual feedback, tactile feedback, and auditory feedback in a second device in accordance with an operation performed by the first device;
21 is a view for explaining another embodiment for providing at least one feedback from visual feedback, tactile feedback, and auditory feedback in a second device in accordance with an operation performed by the first device.
22 is a view for explaining an operation method of the first device according to the embodiment.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are presented for the purpose of describing embodiments only in accordance with the concepts of the present invention, May be embodied in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. However, it is not intended to limit the embodiments according to the concepts of the present invention to the specific disclosure forms, but includes changes, equivalents, or alternatives falling within the spirit and scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first, second, or the like may be used to describe various elements, but the elements should not be limited by the terms. The terms may be named for the purpose of distinguishing one element from another, for example without departing from the scope of the right according to the concept of the present invention, the first element being referred to as the second element, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Expressions that describe the relationship between components, for example, "between" and "immediately" or "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises ", or" having ", and the like, are used to specify one or more of the features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

도 1은 일실시예에 따른 전체 시스템(100)을 설명하는 도면이다.1 is a diagram illustrating an overall system 100 in accordance with one embodiment.

일실시예에 따른 전체 시스템(100)은 제1기기(110) 및 제2기기(120)를 포함한다.The overall system 100 according to one embodiment includes a first device 110 and a second device 120.

본 명세서에서 제1기기(110)는 스마트폰과 같이 터치스크린을 구비하고 있고 가속도센서, 자이로센서, 근접센서, 이미지센서(예: 카메라), 마이크, 진동센서, 압력센서 중 하나이상의 센서모듈을 구비한 기기로 해석될 수 있다. 또한, 제2기기(120)는 타블렛과 같이 다양한 센서모듈을 구비하지는 못했지만, 대화면에 제1기기(110)와 통신이 가능한 통신모듈을 구비한 기기로 해석될 수 있다.In this specification, the first device 110 includes a touch screen such as a smart phone and includes at least one sensor module such as an acceleration sensor, a gyro sensor, a proximity sensor, an image sensor (e.g., a camera), a microphone, It can be interpreted as an equipped device. Also, the second device 120 may not be provided with various sensor modules such as a tablet, but may be interpreted as a device having a communication module capable of communicating with the first device 110 on a large screen.

제1기기(110)내 터치스크린은 구조화지 않은 유저인터페이스를 필수적으로 구비하고 있으며 구조화된 유저인터페이스는 선택적으로 존재할 수 있다. 만약 구조화된 유저인터페이스가 존재한다면 구조화된 유저인터페이스는 텍스트/이미지 등 하나 이상의 상호작용 가능한 객체(IO)를 포함하고 있으며 이 객체들은 제1기기(110) 자체의 조작을 사용하는데 사용될 수 있다. 반면에 제1기기(110)의 비구조화된 유저인터페이스는 다양한 기능을 수행할 수 있다.The touch screen in the first device 110 essentially includes a non-structured user interface, and a structured user interface may optionally exist. If a structured user interface exists, the structured user interface includes one or more interactive objects (IO), such as text / images, which can be used to use the manipulation of the first device 110 itself. On the other hand, the unstructured user interface of the first device 110 may perform various functions.

예를 들어, 제1기기(110)의 비구조화된 유저인터페이스는 제2기기(120)에 대한 추가기능의 제공, 전환 등의 명령을 수행하기 위해 사용자의 입력동작을 받아들이는 기능을 수행할 수 있다. 이때, 사용자의 입력동작은 터치스크린 내 터치센서를 통해서 센싱할 수 있다.For example, the unstructured user interface of the first device 110 may perform a function of accepting a user's input operation to perform a command such as providing, switching, etc., additional functions to the second device 120 have. At this time, the user's input operation can be sensed through the touch sensor in the touch screen.

또한, 제1기기(110)의 비구조화된 유저인터페이스는 제2기기(120)의 추가기능이 제공, 전환되었을 때 시각적인 피드백을 제공하는 기능을 수행할 수 있다. 제1기기(110)내 센서모듈은 터치스크린의 비구조화된 유저인터페이스를 통해 받아들이는 사용자의 터치입력동작이외에 사용자의 각종 상황을 감지하는 역할을 수행한다.In addition, the unstructured user interface of the first device 110 may perform a function of providing visual feedback when the additional function of the second device 120 is provided and switched. The sensor module in the first device 110 performs a function of detecting various conditions of the user in addition to the touch input operation of the user through the unstructured user interface of the touch screen.

일실시예에 제2기기(120)는 하나의 예시로서 태블릿PC가 도시되어 있으나, TV, 노트북, 데스크탑PC, 태블릿PC 및 스마트폰과 같은 제1기기(120)와 유/무선으로 연결이 가능한 스크린을 구비한 각종 기기일 수 있다. 제2기기(120)의 유저인터페이스는 제1기기(110)와 마찬가지로 비구조화된 유저인터페이스 이외에도 구조화된 유저인터페이스를 포함할 수 있으며 이는 어플리케이션에 따라 달리 구성될 수 있다. 구조화된 유저인터페이스는 제1기기(110)와 마찬가지로 하나이상의 객체를 포함하며 각 객체들은 제2기기(120) 자체를 조작하기 위한 역할을 수행한다. 제2기기(120)의 비구조화된 유저인터페이스는 제1기기(110)를 통해 수신한 명령값을 실행함과 동시에 시각적으로 피드백을 출력하는 역할을 수행한다.In one embodiment, the second device 120 is illustrated as a tablet PC, but may be connected to the first device 120, such as a TV, a notebook PC, a desktop PC, a tablet PC, and a smart phone, And may be a variety of devices equipped with a screen. Like the first device 110, the user interface of the second device 120 may include a structured user interface in addition to the unstructured user interface, which may be configured differently depending on the application. The structured user interface includes one or more objects similar to the first device 110, and each of the objects serves to operate the second device 120 itself. The unstructured user interface of the second device 120 plays a role of visually outputting the feedback while executing the command value received through the first device 110.

본 발명을 구현하기 위해서는 터치스크린을 구비한 제1기기를 기본전제로 한다.In order to implement the present invention, a first device having a touch screen is assumed as a basic premise.

제1기기(110) 및 제2기기(120)는 모두 데이터 송수신 모듈이 존재하여야 한다. 이를 위해, 제1기기(110) 및 제2기기(120)는 서로 데이터를 송수신하는데 이때 사용되는 방식은 같은 와이파이에 연결되어 로컬 네트워크를 공유하는 상태일 수도 있으며 블루투스와 같이 기기간 통신 방식을 사용하는 데이터를 송수신 방식일 수도 있다. 두 기기간 통신 방식은 제조사나 소프트웨어 개발에 따라 다양하게 적용될 수 있을 것이다.Both the first device 110 and the second device 120 must have a data transmission / reception module. For this purpose, the first device 110 and the second device 120 transmit / receive data to / from each other. The method used at this time may be a state in which they are connected to the same Wi-Fi and share a local network, Data transmission / reception system. The communication method between the two devices can be applied variously according to the manufacturer or software development.

도 2는 일실시예에 따른 제1기기(210) 및 제2기기(220)를 구체적으로 설명하는 도면이다.2 is a view for explaining the first device 210 and the second device 220 according to an embodiment of the present invention.

일실시예에 따른 제1기기(210)는 센서 입력부(211), 터치스크린 입력부(212), 동작 인식부(213), 제어부(214), 출력부(215), 및 데이터 통신부(216)를 포함할 수 있다.The first device 210 according to one embodiment includes a sensor input unit 211, a touch screen input unit 212, an operation recognition unit 213, a control unit 214, an output unit 215, and a data communication unit 216 .

또한, 일실시예에 따른 제2기기(220)는 데이터 통신부(221), 비교 연산부(222), 사용자 설정 저장부(223), 사용자 입력 인식부(224), 제어부(225), 및 출력부(226)를 포함할 수 있다.The second device 220 according to one embodiment includes a data communication unit 221, a comparison operation unit 222, a user setting storage unit 223, a user input recognition unit 224, a control unit 225, Lt; RTI ID = 0.0 > 226 < / RTI >

제1기기(210)와 제2기기(220)가 데이터를 송수신한다는 전제하에 제2기기(220)는 사용자의 입력에 직접적인 출력을 제공하는 기기(예: 일반 데스크탑PC, TV, 스마트폰, 태블릿PC)로 해석될 수 있다. 또한, 제1기기(210)는 제2기기(220)의 입력에 대한 출력을 전환 및 변환해주는 역할을 한다. 제1기기(210)에 사용자가 특정 터치 제스쳐 및 각종 센서에 감지되는 행위를 하면 센서 입력부(211)와 함께 터치스크린 입력부(212)가 이를 수집할 수 있다. 특히, 센서 입력부(211)는 비구조화된 유저인터페이스 영역을 통해 센싱된 입력에 상응하는 기기제어동작을 인식하고, 인식된 기기제어동작에 상응하는 기기제어신호를 생성할 수 있다. 이를 위해, 센서 입력부(211)는 사용자 입력에 대한 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나를 센싱할 수 있다.The second device 220 may be a device that provides direct output to a user's input (e.g., a general desktop PC, a TV, a smartphone, a tablet, etc.), provided that the first device 210 and the second device 220 transmit and receive data. PC). In addition, the first device 210 functions to convert and convert the output of the second device 220. The touch screen input unit 212 may collect the first touch screen device 210 together with the sensor input unit 211 when the user performs a specific touch gesture and various sensors. In particular, the sensor input unit 211 can recognize the device control operation corresponding to the sensed input through the unstructured user interface area, and generate the device control signal corresponding to the recognized device control operation. To this end, the sensor input unit 211 may sense at least one of pressure, frequency, speed, acceleration, direction, rotation, sound, and number of user inputs.

제1기기(210)의 동작 인식부(213)는 해당동작을 분류(classification) 및 결정(decision)할 수 있다. 즉, 동작 인식부(213)는 센싱된 입력에 상응하는 기기제어동작을 인식하여 해당동작을 분류(classification) 및 결정(decision)하고, 이를 통해 인식된 기기제어동작에 상응하는 기기제어신호를 생성할 수 있다. 예를 들어, 동작 인식부(213)는 센싱된 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나에 따라 기기제어동작을 인식할 수 있다.The operation recognition unit 213 of the first device 210 may classify and decide the corresponding operation. That is, the operation recognition unit 213 recognizes the device control operation corresponding to the sensed input, classifies and decides the operation, and generates a device control signal corresponding to the recognized device control operation can do. For example, the motion recognition unit 213 may recognize the device control operation according to at least one of the sensed pressure, frequency, velocity, acceleration, direction, rotation, sound, and number.

생성된 기기제어신호는 데이터 통신부(216)를 통해 구조화된 유저인터페이스를 제공하는 제2기기(220)로 전달된다.The generated device control signal is transmitted to the second device 220 providing the structured user interface through the data communication unit 216.

제2기기(220)는 기기제어신호를 수신하고, 수신된 기기제어신호에 응답하여 동작하되, 구조화된 유저인터페이스가 비활성화된 상태에서 구조화된 유저인터페이스의 기능을 기기제어신호에 기초하여 제공할 수 있다. 이를 위해, 제2기기(220)는 적어도 하나 이상의 표시자 유저인터페이스를 포함하는 구조화된 유저인터페이스 영역을 포함할 수 있다. 또한, 비구조화된 유저인터페이스 영역 및 구조화된 유저인터페이스 영역 중에서 적어도 하나는 아이콘, 텍스트, 및 색상값 중에서 적어도 하나의 형태로 맥락정보를 출력할 수 있다.The second device 220 may receive the device control signal and may operate in response to the received device control signal to provide the functionality of the structured user interface based on the device control signal with the structured user interface inactive have. To this end, the second device 220 may comprise a structured user interface area comprising at least one or more indicator user interfaces. Also, at least one of the unstructured user interface area and the structured user interface area may output context information in at least one form of icons, text, and color values.

일실시예에 따른 제어부(214)는 프로세서와 같이 명령어를 입력 받아서 제1기기(210)의 전반적인 동작을 제어하는 구성요소로 해석될 수 있다.The controller 214 according to an exemplary embodiment may be interpreted as a component that controls the overall operation of the first device 210 by receiving commands such as a processor.

또한 인식된 동작의 결과값은 출력부(215)를 통해 사용자에게 입력행위(event)가 인식되었음을 시각, 청각 및 촉각을 통해 피드백으로 제공할 수 있다.Also, the result value of the recognized operation can be fed back to the user through the output unit 215 through the visual, auditory, and tactile senses that an input event has been recognized.

제2기기(220)의 데이터 통신부(221)로 전달되는 인식결과값, 즉 기기제어신호는 제2기기(220)의 어플리케이션에서 제공하는 추가기능을 구현할 수 있다.The recognition result value transmitted to the data communication unit 221 of the second device 220, that is, the device control signal, may implement the additional function provided by the application of the second device 220.

일실시예에 따르면, 제2기기(220)는 수신된 기기제어신호에 상응하는 기능으로 동작하되, 이전의 설정값을 기기제어신호에 상응하는 설정값으로 변경할 수 있다. According to one embodiment, the second device 220 may operate with a function corresponding to the received device control signal, and may change the previous setting value to a setting value corresponding to the device control signal.

이를 위해, 기기제어신호는 사용자가 사용자 설정 저장부(223)에 기설정해 놓은 동작과 그 동작에 해당하는 기능이 존재하는지를 매칭하는 비교 연산부(222)로 전달된다. 매칭을 통해 제1기기(210)의 인식값과 사용자 설정이 매칭되는 결과값이 있다면 해당 설정값에 대한 기능을 수행하도록 제어부(225)로 전달될 수 있다. 제어부(225)는 설정값에 대한 기능이 사용자의 추가적인 입력이 없이도 자동적으로 실행되는 것일 경우, 이를 출력부(226)를 통해 출력할 수 있다. 일례로, 제어부(225)는 수신된 기기제어신호에 응답하여 동작하되, 구조화된 유저인터페이스가 비활성화된 상태에서 구조화된 유저인터페이스의 기능을 기기제어신호에 기초하여 제공하도록 어플리케이션을 제어할 수 있다. 또한, 제어부(225)는 어플리케이션을 제어하되, 이전의 설정값을 기기제어신호에 상응하는 설정값으로 변경하여 어플리케이션을 제어할 수 있다.To this end, the device control signal is transmitted to a comparison operation unit 222 that matches the operation previously set by the user in the user setting storage unit 223 and the function corresponding to the operation. If there is a matching result between the recognition value of the first device 210 and the user setting through the matching, the control unit 225 may be provided with a function for the corresponding setting value. If the function for the set value is automatically executed without additional input by the user, the control unit 225 can output the function through the output unit 226. [ In one example, the control unit 225 may operate in response to the received device control signal, but may control the application to provide the functionality of the structured user interface based on the device control signal, with the structured user interface inactive. In addition, the control unit 225 may control the application, and may change the previous setting value to a setting value corresponding to the device control signal to control the application.

또한, 제어부(225)는 어플리케이션을 제어하되, 현재 구동되는 어플리케이션과 관련된 추가기능들 중에서, 기기제어신호에 상응하는 특정 추가기능을 구동시킬 수 있다.In addition, the control unit 225 may control the application, and may drive a specific additional function corresponding to the device control signal among the additional functions related to the currently-running application.

데이터 통신부(221)는 제1기기(210)에서 구동된 추가기능에 의해서 생성된 컨텐츠를 수신하고, 제어부(225)는 수신된 컨텐츠를 현재 구동되는 어플리케이션을 통해 출력할 수 있다.The data communication unit 221 receives the content generated by the additional function driven by the first device 210 and the control unit 225 can output the received content through the currently running application.

이는 도면 8 및 도면 9의 실시예에 해당한다.This corresponds to the embodiment of Figures 8 and 9.

다음으로, 사용자의 추가적인 입력에 대한 변환된 기능을 실행하는 것일 경우 사용자 입력 인식부(224)에 사용자 입력이 들어오면 그때, 전환된 기능을 출력부(226)를 통해 사용자에게 제공할 수 있다.Next, when the user input is input to the user input recognizing unit 224, the converted function may be provided to the user through the output unit 226 when the converted function for the user's additional input is executed.

이는 도면 3 내지 도면 6에 개시된 실시예에 해당한다.This corresponds to the embodiment disclosed in Figs. 3 to 6.

제1기기(210)를 통한 제2기기(220)의 추가기능제공을 사용자에게 직관적으로 알려주기 위해 사용자에게 시각, 청각, 촉각 정보의 형태로 피드백을 제공할 수 있다.The user may be provided feedback in the form of visual, auditory or tactile information to intuitively inform the user of the provision of the additional function of the second device 220 through the first device 210. [

시각정보의 형태로 사용자에게 피드백을 제공하기 위해 제1기기(210)와 제2기기(220)는 기기제어신호를 수신하면 그에 상응하는 기능으로 동작할 수 있다. 이 경우, 제1기기(210) 또는 제2기기(220)는 기기제어신호에 상응하여 맥락정보(contextual information) 및 표시자(indicator)를 제공할 수 있다.In order to provide feedback to the user in the form of visual information, the first device 210 and the second device 220 may operate as corresponding functions when receiving the device control signal. In this case, the first device 210 or the second device 220 may provide contextual information and an indicator corresponding to the device control signal.

제1기기(210)는 앞서 설명한 터치스크린의 비구조화된 유저인터페이스 영역을 포함한다. 이 비구조화된 유저인터페이스는 기기제어신호에 상응하는 아이콘(이미지), 텍스트 및 색상값 형태의 맥락정보를 출력할 수 있다.The first device 210 includes an unstructured user interface area of the touch screen as described above. This unstructured user interface can output context information of icon (image), text and color value types corresponding to the device control signal.

제2기기(220)는 출력부(226)를 통해 표시자 유저인터페이스를 표시할 수 있다. 표시자 유저인터페이스는 마찬가지로 아이콘, 텍스트 및 색상값 형태의 맥락정보를 출력할 수 있다.And the second device 220 can display the indicator user interface through the output unit 226. [ The indicator user interface can similarly output context information in the form of icons, text, and color values.

시각 피드백 이외에 청각 피드백은 제1기기(210)나 제2기기(220)의 출력부(215) 또는 출력부(226)에 선택적으로 출력할 수 있다. 예를 들어 추가기능의 제공 및 전환이 완료된 경우 제1기기(210)와 제2기기(220)의 스피커 모두에서 알림음이 나올 수 있으며 제1기기(210)나 제2기기(220)의 스피커 둘 중 하나에서만 알림음이 나올 수도 있다.In addition to visual feedback, the auditory feedback may selectively output to the output 215 or output 226 of the first device 210 or the second device 220. For example, when the provision and switching of the additional function is completed, a notification sound may be output from both the speaker of the first device 210 and the speaker of the second device 220, and the speaker of the first device 210 or the speaker of the second device 220 Only one of them may sound a beep.

촉각적으로 피드백을 제공하는 경우 역시 제1기기(210) 및 제2기기(220) 내 진동모터와 같은 액츄에이터(actuator)를 통해 앞선 음성 피드백과 마찬가지로 두 기기 모두 또는 둘 중 하나의 기기에 출력시킬 수 있다.In the case of providing tactile feedback, it is also possible to output to both of the two devices or to one of the two devices in the same manner as the previous voice feedback through an actuator such as a vibration motor in the first device 210 and the second device 220 .

또한 앞선 시각/청각/촉각 피드백은 둘 이상의 조합으로 함께 제공될 수도 있다.The prior visual / auditory / tactile feedback may also be provided in combination of two or more.

일례로, 제2기기(220)는 수신된 기기제어신호에 상응하는 기능으로 동작하되, 제2기기에서 구동되는 어플리케이션과 관련된 추가기능들 중에서, 기기제어신호에 상응하는 특정 추가기능을 구동시킬 수 있다.For example, the second device 220 may be operated with a function corresponding to the received device control signal, and may be operable to drive a particular additional function corresponding to the device control signal, among additional functions associated with applications running on the second device have.

일례로, 제1기기(210)는 데이터 통신부(216)를 통해 제2기기(220)에 수집된 제2 기기제어동작에 상응하는 제2 기기제어신호를 수신하고, 동작 인식부(213)는 수신된 제2기기에 대한 기기제어신호에 상응하는 추가기능을 인식할 수 있다. 이때, 제어부(214)는 인식된 추가기능을 제1기기(210)를 통해 구동할 수도 있다.For example, the first device 210 receives a second device control signal corresponding to a second device control operation collected in the second device 220 through the data communication unit 216, and the operation recognition unit 213 It is possible to recognize the additional function corresponding to the device control signal for the received second device. At this time, the control unit 214 may drive the recognized additional function through the first device 210.

제어부(214)는 구동된 추가기능에 의해서 생성된 컨텐츠를 데이터 통신부(216)를 통해 제2기기(220)로 제공하도록 제어할 수 있다. 제어부(214)는, 제2기기(220)로부터 기기제어신호에 상응하는 피드백을 수신하여 출력하도록 제어할 수 있다.The control unit 214 may control the content generated by the driven additional function to be provided to the second device 220 through the data communication unit 216. The control unit 214 can control the second device 220 to receive and output feedback corresponding to the device control signal.

도 3 내지 도 7은 제1기기를 제어하여 제2기기의 입력 모드를 변경하는 실시예를 설명하는 도면이다.3 to 7 are diagrams for explaining an embodiment in which the first device is controlled to change the input mode of the second device.

도 3을 살펴보면, 도면부호 310의 사용자는 제2기기를 통해 '검정펜'으로 입력 도중에 제1기기를 제어하여 입력 수단을 변경할 수 있다. 즉, 도면부호 320에서 보는 바와 같이, 사용자는 두 손가락만 스마트폰에 터치한 채로 유지하여 '검정펜' 입력을 '빨강펜' 입력으로 전환시킬 수 있다.Referring to FIG. 3, the user 310 may change the input means by controlling the first device during the input with the 'black pen' through the second device. That is, as shown at 320, the user may touch and hold only two fingers on the smartphone to switch the 'black pen' input to the 'red pen' input.

즉, 제1기기는 두 손가락을 스마트폰에 터치한 동작을 센서를 통해 센싱하고, 이에 상응하는 기기제어동작을 인식할 수 있다. 두 손가락을 스마트폰에 터치한 동작에 해당하는 기기제어동작이 '빨강펜' 입력으로 기설정된 경우, 사용자가 제1기기에 두 손가락을 터치한 경우 기존 색에서 빨간색으로 색이 변경될 수 있다.That is, the first device can sense the operation of touching the two fingers with the smartphone through the sensor, and recognize the corresponding device control operation. If the device control operation corresponding to the operation of touching the two fingers with the smartphone is predefined as the 'red pen' input, the color may be changed from the existing color to red when the user touches the two fingers to the first device.

도면부호 330과 같이, 사용자는 변경된 색상에 따라 '빨강펜' 입력을 사용하고, 도면부호 340과 같이, 두 손가락의 터치를 떼는 경우 빨간색으로 변경되기 이전의 색으로 다시 변경된 입력을 사용할 수 있다.As with reference numeral 330, the user may use the 'red pen' input according to the changed color and use the changed input again to the color before red when the touch of two fingers is released as shown at 340.

도 4를 살펴보면, 도면부호 410의 사용자는 제2기기를 통해 '볼펜'으로 입력 도중에 제1기기를 제어하여 제2기기의 입력 수단을 '붓 도구'로 변경할 수 있다. 즉, 도면부호 420에서 보는 바와 같이, 사용자는 두 손가락만 스마트폰에 터치한 채로 유지하여 '볼펜' 입력을 '붓 도구' 입력으로 전환시킬 수 있다.Referring to FIG. 4, the user 410 can change the input means of the second device to the 'brush tool' by controlling the first device during the input with the 'ball pen' through the second device. That is, as shown at 420, the user may touch the smartphone with only two fingers to turn the 'ball pen' input into a 'brush tool' input.

즉, 제1기기는 두 손가락을 스마트폰에 터치한 동작을 센서를 통해 센싱하고, 이에 상응하는 기기제어동작을 인식할 수 있다. 두 손가락을 스마트폰에 터치한 동작에 해당하는 기기제어동작이 '붓 도구' 입력으로 기설정된 경우, 사용자가 제1기기에 두 손가락을 터치한 경우 기존 도구에서 현재의 도구로 변경될 수 있다.That is, the first device can sense the operation of touching the two fingers with the smartphone through the sensor, and recognize the corresponding device control operation. If the device control operation corresponding to the operation in which two fingers are touched on the smartphone is pre-set as the 'brush tool' input, the existing tool may be changed to the current tool when the user touches the first device with two fingers.

도면부호 430과 같이, 사용자는 변경된 도구에 따라 '붓 도구' 입력을 사용하고, 도면부호 440과 같이, 두 손가락의 터치를 떼는 경우 '붓 도구'로 변경되기 이전의 도구로 다시 변경된 입력을 사용할 수 있다.As with reference numeral 430, the user may use the 'Brush tool' input according to the changed tool, and if the two fingers are touched, as shown at reference numeral 440, .

도 5를 살펴보면, 도면부호 510의 사용자는 제2기기를 통해 '볼펜'으로 입력 도중에 제1기기를 제어하여 제2기기의 입력 수단을 '오리기 도구'로 변경할 수 있다. 즉, 도면부호 520에서 보는 바와 같이, 사용자는 두 손가락만 스마트폰에 터치한 채로 유지하여 '볼펜' 입력을 '오리기 도구'로 전환시킬 수 있다.Referring to FIG. 5, the user 510 can change the input means of the second device to the 'tool for cutting' by controlling the first device during the input with the 'ball pen' through the second device. That is, as shown at reference numeral 520, the user can touch and hold only two fingers on the smartphone to convert the 'ball pen' input to the 'scissor tool'.

즉, 제1기기는 두 손가락을 스마트폰에 터치한 동작을 센서를 통해 센싱하고, 이에 상응하는 기기제어동작을 인식할 수 있다. 두 손가락을 스마트폰에 터치한 동작에 해당하는 기기제어동작이 '오리기 도구'로 기설정된 경우, 사용자가 제1기기에 두 손가락을 터치한 경우 기존 도구에서 현재의 도구로 변경될 수 있다.That is, the first device can sense the operation of touching the two fingers with the smartphone through the sensor, and recognize the corresponding device control operation. When the device control operation corresponding to the operation of touching two fingers to the smartphone is pre-set with the 'scissor tool', the user can change from the existing tool to the current tool when the user touches the first device with two fingers.

도면부호 530과 같이, 사용자는 변경된 도구에 따라 '오리기 도구' 입력을 사용하고, 도면부호 540과 같이, 두 손가락의 터치를 떼는 경우 '오리기 도구'로 변경되기 이전의 도구로 다시 변경된 입력을 사용할 수 있다.As with reference numeral 530, the user may use the 'scissor tool' input according to the changed tool, and if the two fingers are touched off as shown at reference numeral 540, the tool that has been changed to the 'scissor tool' .

도 6을 살펴보면, 도면부호 610의 사용자는 제2기기를 통해 '볼펜'으로 입력 도중에 제1기기에 한 손가락 터치를 통해 제2기기의 입력 수단을 '붓 도구' 입력으로 변경할 수 있다. 또한, 사용자는 두 손가락 터치를 통해 제2기기의 입력 수단을 '빨강펜' 입력으로 변경할 수 있다. 또한, 사용자는 세 손가락 터치를 통해 제2기기의 입력 수단을 '오리기 도구'로 변경할 수도 있다.Referring to FIG. 6, the user of 610 may change the input means of the second device to the 'brush tool' input by touching the first device with a 'ball pen' during the input through the second device. Also, the user can change the input means of the second device to the 'red pen' input through two finger touches. Further, the user may change the input means of the second device to a "clipping tool" through a three-finger touch.

도 7을 살펴보면, 도면부호 710의 사용자는 제2기기를 통해 '이미지 편집 도구'의 사용 중 제1기기를 제어하여 제2기기의 입력 수단을 '모자이크 도구'로 변경할 수 있다. 즉, 도면부호 720에서 보는 바와 같이, 사용자는 한 손가락을 스마트폰에 터치한 채로 유지하여 '이미지 편집 도구'의 사용 중 '모자이크 도구' 사용으로 입력을 전환시킬 수 있다.Referring to FIG. 7, the user at 710 may control the first device during use of the 'image editing tool' through the second device, and change the input means of the second device to 'mosaic tool'. That is, as shown at reference numeral 720, the user can keep one finger touched on the smartphone and switch the input using the 'mosaic tool' during the use of the 'image editing tool'.

또한, 사용자는 도면부호 730과 같이, 두 손가락을 스마트폰에 터치한 동작을 센서를 통해 센싱하고, 이를 통해 '모자이크 도구'의 사용에서 '오리기 도구'의 사용으로 변경 시킬 수 있다.In addition, the user senses the operation of touching the two fingers with the smartphone through the sensor as shown by reference numeral 730, and can change the use of the 'mosaic tool' to the use of the 'scissor tool'.

도 8 및 도 9는 제1기기를 제어하여 제2기기의 추가기능을 실행하는 실시예를 설명하는 도면이다.Figs. 8 and 9 are views for explaining an embodiment in which the first device is controlled to perform the additional function of the second device. Fig.

도 8을 살펴보면, 도면부호 810에서 보는 바와 같이 사용자가 볼펜 도구의 사용 중 제1기기에 터치 입력을 하여 제2기기에서 실행 가능한 어플리케이션을 통한 추가기능을 실행할 수 있다. 도면부호 820에서 보는 바와 같이, 사용자가 제1기기에 한 손가락 터치를 수행하는 경우 제2기기에서 실행 가능한 어플리케이션 중에서 '사진앨범' 윈도우가 팝업될 수 있다. 도면부호 820에서 보는 바와 같이, 사용자는 팝업된 '사진앨범' 윈도우를 통해 원하는 이미지를 선택하여 삽입하는 추가기능을 수행할 수 있다.Referring to FIG. 8, as shown at 810, a user may perform touch input to the first device during use of the ballpoint pen to execute an additional function through an application executable in the second device. As shown at 820, when the user performs one finger touch to the first device, a 'photo album' window may be popped up among applications executable on the second device. As shown at 820, the user can perform an additional function of selecting and inserting a desired image through the pop-up 'photo album' window.

도 9를 살펴보면, 도면부호 910에서 보는 바와 같이 사용자가 볼펜 도구의 사용 중 제1기기에 두 손가락을 이용하여 입력을 하여 제2기기에서 실행 가능한 어플리케이션을 통한 추가기능을 실행할 수 있다. 도면부호 920에서 보는 바와 같이, 사용자가 제1기기에 두 손가락을 이용하여 핀치인(pinch-in) 입력을 하는 경우 제2기기에서 실행 가능한 어플리케이션 중에서 '전체 노트 및 스케치 라이브러리'를 출력할 수 있다. 도면부호 920에서 보는 바와 같이, 사용자는 팝업된 '전체 노트 및 스케치 라이브러리' 윈도우를 통해 원하는 이미지를 선택하여 삽입하는 추가기능을 수행할 수 있다.Referring to FIG. 9, as shown at reference numeral 910, a user can input an input using the two fingers to the first device during use of the ballpoint pen tool, thereby executing an additional function through an application executable in the second device. As shown in reference numeral 920, when the user inputs a pinch-in using two fingers to the first device, it is possible to output 'entire notebook and sketch library' among the applications executable in the second device . As shown at 920, the user may perform an additional function of selecting and inserting a desired image through the pop-up 'All Note and Sketch Library' window.

도 10 및 도 11은 제2기기를 제어하여 제1기기의 추가기능을 실행하는 실시예를 설명하는 도면이다.10 and 11 are views for explaining an embodiment in which the second device is controlled to perform the additional function of the first device.

도 10을 살펴보면, 도면부호 1010에서 보는 바와 같이 사용자가 제2기기를 통한 드로잉 및 문서 편집 중 제1기기에 추가기능을 실행하기 위한 입력을 수행할 수 있다.Referring to FIG. 10, a user can perform an input for executing an additional function in a first device during drawing and editing a document through a second device, as shown at reference numeral 1010.

도면부호 1020에서 보는 바와 같이 사용자가 한 손가락을 이용하여 제2기기에 터치 입력을 하면, 제1기기에서 실행 가능한 어플리케이션을 통한 추가기능을 실행할 수 있다. 도면부호 1020에서 보는 바와 같이 사용자가 제2기기에 손가락을 이용하여 터치 입력을 하는 경우, 도면부호 1030에서 보는 바와 같이 제1기기에서 실행 가능한 어플리케이션 중에서 '녹음기'를 실행할 수 있다. 도면부호 1040에서 보는 바와 같이 사용자는 실행된 '녹음기'를 통해 원하는 음성을 녹음할 수 있다. 또한, 녹음된 음성은 제1기기의 보이스 투 텍스트(Voice to Text) 기능을 통해 제2기기에 텍스트 형태로 전달될 수 있다. 이에, 도면부호 1050에서 보는 바와 같이 제2기기는 전달된 텍스트를 출력할 수 있다. 보이스 투 텍스트(Voice to Text) 기능은 제1기기에서 실행될 수도 있지만, 제2기기에서 보이스를 전달받아 실행될 수도 있다.As shown in reference numeral 1020, when the user touches the second device using one finger, an additional function through the application executable in the first device can be executed. As shown in reference numeral 1020, when a user inputs a touch using a finger to the second device, a 'recorder' may be executed among applications that can be executed in the first device, as shown at reference numeral 1030. As shown at reference numeral 1040, the user can record a desired voice through the executed 'recorder'. In addition, the recorded voice may be delivered in text form to the second device via the Voice to Text function of the first device. Thus, as shown at 1050, the second device can output the transmitted text. The Voice to Text function may be executed by the first device, but may be executed by receiving the voice from the second device.

도 11을 살펴보면, 도면부호 1110에서 보는 바와 같이 사용자가 제2기기를 통한 드로잉 및 문서 편집 중 제1기기에 추가기능을 실행하기 위한 입력을 수행할 수 있다.Referring to FIG. 11, the user may perform an input for executing an additional function in the first device during drawing and document editing through the second device, as shown at reference numeral 1110.

도면부호 1120에서 보는 바와 같이 사용자가 한 손가락을 이용하여 제2기기에 더블 터치 입력을 하면, 제1기기에서 실행 가능한 어플리케이션을 통한 추가기능을 실행할 수 있다. 도면부호 1120에서 보는 바와 같이 사용자가 제2기기에 손가락을 이용하여 터치 입력을 하는 경우, 도면부호 1130에서 보는 바와 같이 제1기기에서 실행 가능한 어플리케이션 중에서 '카메라'를 실행할 수 있다. 도면부호 1140에서 보는 바와 같이 사용자는 실행된 '카메라'를 통해 원하는 영상을 촬영할 수 있다. 또한, 촬영된 영상은 제2기기에 전달될 수 있다. 이에, 도면부호 1150에서 보는 바와 같이 제2기기가 전달된 영상을 출력할 수 있다.As shown in reference numeral 1120, when the user performs a double-touch input to the second device using one finger, the additional function through the application executable in the first device can be executed. As shown in reference numeral 1120, when the user inputs a touch using the finger to the second device, the 'camera' can be executed among the applications executable in the first device, as shown at reference numeral 1130. As shown at reference numeral 1140, the user can shoot a desired image through the executed 'camera'. Further, the photographed image can be transmitted to the second device. Thus, as shown at reference numeral 1150, the second device can output the transmitted image.

도 12 내지 도 14는 적어도 하나 이상의 제1기기를 제2기기의 입력 장치로 사용하는 실시예를 설명하는 도면이다.12 to 14 are diagrams for explaining an embodiment in which at least one first device is used as an input device of the second device.

도 12에서 보는 바와 같이, 사용자는 제2기기를 통해 동영상 플레이어의 재생 중 제1기기를 이용해서 동영상 플레이어의 기능을 제어할 수 있다. 구체적으로, 도면부호 1210에서 보는 바와 같이 사용자는 제1기기에 터치 입력을 하고 제1기기를 움직일 수 있다. 이때, 제1기기는 사용자로부터의 터치 및 움직임을 센싱하고 이를 제2기기로 전달하여 제2기기에 추가기능(동영상 플레이어 제어)을 수행할 수 있다.As shown in FIG. 12, the user can control the function of the moving picture player using the first device during playback of the moving picture player through the second device. Specifically, as shown at reference numeral 1210, the user can touch input the first device and move the first device. At this time, the first device senses the touch and movement from the user, and transmits the sensed touch and movement to the second device to perform an additional function (video player control) to the second device.

마찬가지로, 도면부호 1220에서 보는 바와 같이 사용자는 다중 조작이 필요한 게임 플레이 중, 제1기기에 터치 입력을 하고 제1기기를 움직일 수 있다. 이때 제1기기는 사용자로부터의 터치 및 움직임을 센싱하여 이를 제2기기로 전달할 수 있는데, 제2기기는 제1기기로부터 전달되는 기기제어신호를 수신하여 제2기기에 추가기능(게임 조작)을 수행할 수 있다.Similarly, as shown in reference numeral 1220, the user can touch input the first device and move the first device during game play requiring multiple operations. In this case, the first device senses the touch and movement from the user and can transmit the sensed touch and movement to the second device. The second device receives the device control signal transmitted from the first device and transmits the additional function (game operation) to the second device Can be performed.

도 13에서는, 멀티플레이어 모드의 게임 플레잉 중, 복수의 스마트폰을 통해 제2기기를 제어하는 실시예(1300)를 설명한다.13, an embodiment 1300 for controlling a second device through a plurality of smartphones, among game playing in a multiplayer mode, will be described.

사용자A는 제1기기에 터치 입력을 하면서 제1기기를 움직일 수 있다. 이에 제1기기는 사용자A의 터치 입력과 움직임을 센싱하고, 센싱된 입력에 상응하는 기기제어동작을 인식할 수 있다. 또한, 제1기기는 인식된 기기제어동작에 상응하는 기기제어신호를 생성하여 제2기기로 전달할 수 있다. 이때, 제2기기는 기기제어신호를 수신하고, 수신된 기기제어신호에 상응하는 기능으로 동작할 수 있다. 즉, 제2기기는 사용자A로부터의 입력에 응답하여 사용자A의 플레잉 영역에 대한 게임 조작을 수행할 수 있다.The user A can move the first device while touching the first device. Accordingly, the first device senses the touch input and the movement of the user A, and recognizes the device control operation corresponding to the sensed input. Also, the first device may generate and transmit the device control signal corresponding to the recognized device control operation to the second device. At this time, the second device receives the device control signal and can operate with a function corresponding to the received device control signal. That is, the second device can perform the game operation for the playing area of the user A in response to the input from the user A.

이와 독립적으로, 사용자B는 제3기기에 터치 입력을 하면서 제3기기를 움직일 수 있다. 이에, 제3기기는 사용자B의 터치 입력과 움직임을 센싱하고, 센싱된 입력에 상응하는 기기제어동작을 인식할 수 있다. 또한, 제3기기는 인식된 기기제어동작에 상응하는 기기제어신호를 생성하여 제2기기로 전달할 수 있다. 이때, 제2기기는 기기제어신호를 수신하고, 수신된 기기제어신호에 상응하는 기능으로 동작할 수 있다. 즉, 제2기기는 사용자B로부터의 입력에 응답하여 사용자B의 플레잉 영역에 대한 게임 조작을 수행할 수 있다.Independently, the user B can move the third device while touching the third device. Accordingly, the third device senses the touch input and movement of the user B, and recognizes the device control operation corresponding to the sensed input. Also, the third device may generate and transmit the device control signal corresponding to the recognized device control operation to the second device. At this time, the second device receives the device control signal and can operate with a function corresponding to the received device control signal. That is, the second device may perform a game operation on the playing area of the user B in response to the input from the user B.

도 14 내지 도 18은 제1단말기에 표시되는 표시자 유저인터페이스 및 맥락정보를 확인하여 제2기기를 제어하는 실시예를 설명하는 도면이다.14 to 18 are diagrams for explaining an embodiment for controlling the second device by checking the display user interface and the context information displayed on the first terminal.

도 14는 제1기기를 제어하여 제2기기에서 맥락정보 및 표시자 유저인터페이스를 제공하는 실시예(1400)를 설명한다.14 illustrates an embodiment 1400 in which a first device is controlled to provide contextual information and an indicator user interface at a second device.

도면부호 1410에서 보는 바와 같이, 제1기기에서는 맥락정보 및 표시자 유저인터페이스가 아이콘으로 제시되고, 사용자가 제1기기에서 이를 터치하면 제1기기는 센싱된 입력에 상응하는 기기제어동작을 인식하며, 인식된 기기제어동작에 상응하는 기기제어신호를 생성한다.As shown in 1410, in the first device, the context information and the display user interface are displayed as icons. When the user touches the first device, the first device recognizes the device control operation corresponding to the sensed input , And generates a device control signal corresponding to the recognized device control operation.

이에, 생성된 기기제어신호는 제2기기로 전달되고 제2기기에서는 제1기기의 맥락정보 및 표시자 유저인터페이스가 아이콘으로 표시될 수 있다. 또한, 제1기기에서 발생하는 기기 움직임 또는 손가락 움직임 등의 입력에 응답하여 제2기기의 기능이 수행될 수 있다. 예를 들어, 제2기기는 사용자에 의한 제1기기의 움직임이나 손가락 움직임에 응답하여 출력되는 소리의 크기를 변경시킬 수 있다.The generated device control signal is transmitted to the second device, and in the second device, context information of the first device and an indicator user interface may be displayed as icons. In addition, the function of the second device can be performed in response to an input such as a device motion or a finger motion generated in the first device. For example, the second device can change the magnitude of the sound output in response to movement of the first device or finger movement by the user.

도 15는 제1기기를 제어하여 제2기기에서 맥락정보 및 표시자 유저인터페이스를 제공하는 실시예(1500)를 설명한다.FIG. 15 illustrates an embodiment 1500 in which a first device is controlled to provide contextual information and an indicator user interface in a second device.

도면부호 1510에서 보는 바와 같이, 제1기기에서는 맥락정보 및 표시자 유저인터페이스가 텍스트로 제시되고, 사용자가 제1기기에서 이를 터치하면 제1기기는 센싱된 입력에 상응하는 기기제어동작을 인식하고, 인식된 기기제어동작에 상응하는 기기제어신호를 생성한다.As shown in 1510, in the first device, the context information and the display user interface are presented as text, and when the user touches the first information, the first device recognizes the device control operation corresponding to the sensed input , And generates a device control signal corresponding to the recognized device control operation.

이에, 생성된 기기제어신호는 제2기기로 전달되고 제2기기에서는 제1기기의 맥락정보 및 표시자 유저인터페이스가 텍스트로 표시될 수 있다. 또한, 제1기기에서 발생하는 기기 움직임 또는 손가락 움직임(single finger tap) 등의 입력에 응답하여 제2기기의 기능이 수행될 수 있다. 예를 들어, 제2기기는 사용자에 의한 제1기기의 움직임이나 손가락 움직임에 응답하여 입력되는 선의 굵기를 변경시킬 수 있다.The generated device control signal is transmitted to the second device. In the second device, the context information of the first device and the display user interface may be displayed in text. In addition, the function of the second device can be performed in response to input of a device motion or a finger finger (single finger tap) generated in the first device. For example, the second device can change the thickness of the line input in response to movement of the first device or finger movement by the user.

도 16은 제1기기를 제어하여 제2기기에서 맥락정보 및 표시자 유저인터페이스를 제공하는 실시예(1600)를 설명한다. 이때의 맥락정보 및 표시자 유저인터페이스는 색상 자체로 제시될 수 있다.Figure 16 illustrates an embodiment 1600 in which a first device is controlled to provide contextual information and an indicator user interface at a second device. The context information and the display user interface at this time can be presented by the color itself.

도면부호 1610에서 보는 바와 같이, 제1기기에서는 맥락정보 및 표시자 유저인터페이스가 색상 자체로 제시되고, 사용자가 제1기기에서 이를 터치하면 제1기기는 센싱된 입력에 상응하는 기기제어동작을 인식하고, 인식된 기기제어동작에 상응하는 기기제어신호를 생성한다.As shown in the reference numeral 1610, in the first device, the context information and the display user interface are presented as colors, and when the user touches the first device, the first device recognizes the device control operation corresponding to the sensed input And generates a device control signal corresponding to the recognized device control operation.

이에, 생성된 기기제어신호는 제2기기로 전달되고 제2기기에서는 제1기기의 맥락정보 및 표시자 유저인터페이스가 색상 자체로 표시될 수 있다. 또한, 제1기기에서 발생하는 기기 움직임 또는 손가락 움직임 등의 입력에 응답하여 제2기기의 기능이 수행될 수 있다. 예를 들어, 제2기기는 사용자에 의한 제1기기의 움직임이나 손가락 움직임(two finger tap)에 응답하여 입력되는 선의 색상을 변경시킬 수 있다.The generated device control signal is transmitted to the second device, and in the second device, the context information of the first device and the display user interface may be displayed as the color itself. In addition, the function of the second device can be performed in response to an input such as a device motion or a finger motion generated in the first device. For example, the second device may change the color of the line input in response to movement of the first device or two finger tap by the user.

도 17은 제1기기를 제어하여 제2기기에서 맥락정보 및 표시자 유저인터페이스를 제공하는 실시예(1700)를 설명한다. 이때의 맥락정보 및 표시자 유저인터페이스는 시각/청각/촉각적으로 함께 제시될 수 있다.17 illustrates an embodiment 1700 in which a first device is controlled to provide context information and an indicator user interface at a second device. At this time, context information and an indicator user interface can be presented together in a visual / audible / tactile sense.

도면부호 1710에서 보는 바와 같이, 제1기기에서는 맥락정보 및 표시자 유저인터페이스가 시각/청각/촉각적으로 제시되고, 사용자가 제1기기에서 이를 터치(two finger tap)하면 제1기기는 센싱된 입력에 상응하는 기기제어동작을 인식하고, 인식된 기기제어동작에 상응하는 기기제어신호를 생성한다.As shown in reference numeral 1710, in the first device, the context information and the display user interface are presented in a visual / audible / tactile sense, and when the user touches the touch screen with the first device (two finger tap) Recognizes the device control operation corresponding to the input, and generates the device control signal corresponding to the recognized device control operation.

이에, 생성된 기기제어신호는 제2기기로 전달되고 제2기기에서는 제1기기의 맥락정보 및 표시자 유저인터페이스가 시각/청각/촉각적으로 표시될 수 있다. 또한, 제1기기에서 발생하는 기기 움직임 또는 손가락 움직임 등의 입력에 응답하여 제2기기의 기능이 수행될 수 있다. 예를 들어, 제2기기는 사용자에 의한 제1기기의 움직임이나 손가락 움직임(two finger tap)에 응답하여 입력되는 선의 색상을 변경시킬 수 있다.The generated device control signal is transmitted to the second device. In the second device, the context information of the first device and the display user interface may be displayed in a visual / audible / tactile sense. In addition, the function of the second device can be performed in response to an input such as a device motion or a finger motion generated in the first device. For example, the second device may change the color of the line input in response to movement of the first device or two finger tap by the user.

도 18은 제1기기를 제어하여 제2기기에서 맥락정보 및 표시자 유저인터페이스를 제공하는 실시예(1800)를 설명한다. 이때의 맥락정보 및 표시자 유저인터페이스는 색상 자체로 제시될 수 있다.18 illustrates an embodiment 1800 in which a first device is controlled to provide context information and an indicator user interface at a second device. The context information and the display user interface at this time can be presented by the color itself.

도면부호 1810에서 보는 바와 같이, 사용자는 제2기기를 통한 드로잉 및 문서 편집을 수행할 수 있다. 드로잉 및 문서 편집은 제1기기에 표시된 색상에 기반하는데, 추가기능을 실행하여 제1기기에 표시된 색상을 변경하기 위해 사용자는 도면부호 1820에서와 같이 화면에 터치 입력을 할 수 있다. 제1기기에 화면이 터치되면 제1기기는 센싱된 입력에 상응하는 기기제어동작(색상의 변경)을 인식하고, 인식된 기기제어동작에 상응하는 기기제어신호를 생성할 수 있다. 사용자가 한 손가락을 이용하여 제1기기에 상하 이동을 하면, 제2기기에서의 입력 색상이 변경될 수 있다. 즉, 제1기기에 터치 및 스크롤 입력을 하면, 제2기기에서 실행 가능한 어플리케이션을 통한 추가기능을 실행할 수 있다.As shown at 1810, the user may perform drawing and document editing through the second device. Drawing and document editing are based on the colors displayed on the first device, and the user can touch input on the screen as in 1820 to perform additional functions to change the colors displayed on the first device. When the screen is touched by the first device, the first device recognizes the device control operation (change of color) corresponding to the sensed input, and generates the device control signal corresponding to the recognized device control operation. When the user moves up and down the first device using one finger, the input color in the second device can be changed. That is, when touching and scrolling are input to the first device, an additional function through the application executable by the second device can be executed.

도면부호 1830에서 보는 바와 같이 사용자가 제2기기에 손가락을 이용하여 터치 입력을 하고, 터치한 채로 위로 손가락을 올리는 제스쳐를 수행하면 제1기기는 이를 센싱하여 기기제어동작을 인식할 수 있다. 또한, 제1기기는 인식된 기기제어동작에 상응하는 기기제어신호를 생성할 수 있는데, 제2기기는 생성된 기기제어신호를 전달받아 손가락을 위로 올리는 제스쳐에 응답하여 펜의 색상을 밝은 빨간색으로 변화하고 이에 맞게 맥락정보를 제공할 수 있다.As shown in 1830, when a user performs a touch input using a finger to a second device and performs a gesture to raise a finger while touching the first device, the first device senses the device and can recognize the device control operation. In addition, the first device may generate a device control signal corresponding to the recognized device control action. The second device receives the generated device control signal and responds to the gesture to raise the finger, It can change and provide context information accordingly.

도면부호 1840을 살펴보면, 사용자가 제2기기에 손가락을 이용하여 터치 입력을 하고, 터치한 채로 아래로 손가락을 내리는 제스쳐를 수행하면 제1기기는 이를 센싱하여 기기제어동작을 인식할 수 있다. 또한, 제1기기는 인식된 기기제어동작에 상응하는 기기제어신호를 생성할 수 있는데, 제2기기는 생성된 기기제어신호를 전달받아 손가락을 아래로 내리는 제스쳐에 응답하여 펜의 색상을 밝은 빨간색에서 짙은 빨간색으로 변화시키고, 이에 맞게 맥락정보를 제공할 수 있다.When the user performs a touch input using the finger to the second device and performs a gesture to lower the finger while touching the second device, the first device senses the gesture and recognizes the device control operation. The first device may generate a device control signal corresponding to the recognized device control action. The second device receives the generated device control signal and responds to the gesture of lowering the finger downward, To dark red, and context information can be provided accordingly.

도 19는 제1기기에서 발생하는 터치의 변화를 감지하여 맥락정보를 변경하고, 이를 기반으로 제2기기를 제어하는 실시예를 설명하는 도면이다.FIG. 19 is a view for explaining an embodiment of detecting the change of the touch generated in the first device, changing the context information, and controlling the second device based thereon.

도면부호 1910에서 보는 바와 같이, 터치의 변화는 터치의 좌표 변화에 기초하여 센싱될 수 있다. 구체적으로, X축은 선의 두께(0 = 0.01, xmax = 100), Y축은 컬러스페이스에서 HSB 스페이스일 경우 0~y0는 S(Saturation), y0~ymax는 B(Brightness)라고 가정할 수 있다.As shown at 1910, the change of the touch can be sensed based on the coordinate change of the touch. More specifically, assume that the X axis is the thickness of the line (0 = 0.01, xmax = 100), the Y axis is HSB space in the color space, and 0 to y0 is S (saturation) and y0 to ymax is B (brightness).

만약 사용자의 터치가 싱글 탭(Single Tap) = 빨간색(H: 0, S: 100%, B: 100%)이라고 가정 한다면, x0, y0 포인트에서 터치가 완료되면, 즉, 사용자의 손가락이 스크린에서 떨어지면 맥락정보는 "빨강"으로 출력할 수 있다.Assuming that the user's touch is Single Tap = Red (H: 0, S: 100%, B: 100%), if the touch is completed at x0, y0, If it falls, context information can be output as "red".

x0, y0 포인트에서 x1, y1 포인트로 사용자가 터치를 한 채로 움직이면, 맥락정보에서의 "빨강" 색상의 밝기는 (y0 - y1)/(ymax - y0)의 비율만큼 B값이 변화할 수 있다. 즉, x1, y1 포인트에서의 색상값은 (H: 0%, S: 100%, B: (y1-y0)/(ymax-y0)*100%)의 색상값을 갖게 된다.If the user moves with the touch at x1, y1 point at x1, y1 point, the brightness of the "red" color in the context information may change by the ratio of (y0 - y1) / (ymax - y0) . That is, the color values at points x1 and y1 have color values of (H: 0%, S: 100%, B: (y1-y0) / (ymax-y0) * 100%).

두께의 경우 x0, y0 포인트에서의 두께값이 현재 설정된 임의의 두께값이 w라고 했을 때, 사용자가 터치점을 x1, y1으로 옮기면 두께는 w*(x1-x0)/(xmax-x0)의 비율만큼 두꺼워지게 된다.If the thickness value at x0, y0 point is w, and the thickness value at present is w, the thickness is w * (x1-x0) / (xmax-x0) when the touch point is moved to x1, Ratio.

이러한 변화에 맞춰 시각/청각/촉각 맥락 역시 변화시켜 제1기기 및 제2기기의 출력부를 통해 출력할 수 있다. 만약 두 개 이상의 손가락이 터치되는 멀티터치(multi-touch)의 상황에서는 x0와 y0의 좌표를 모든 터치점들의 평균으로 도출하여 구현할 수 있다. 위에서 설명한 두께 값 및 색상 값은 하나의 예시이며, 개발자에 의해서 다양한 값으로 변경될 수 있다.According to this change, the visual / auditory / tactile context can also be changed and output through the output unit of the first device and the second device. In a multi-touch situation where two or more fingers are touched, the coordinates of x0 and y0 can be derived as an average of all touch points. The thickness values and color values described above are only one example and can be changed by the developer to various values.

도면부호 1920은 자이로 센서의 Y축 데이터 에 대해서 회전각이 영상플레이어의 볼륨크기(0도 = 0, 180도 = 100)이라 가정하면, 최초 기기의 오리엔테이션(orientation)을

Figure 112016113440093-pat00001
0라고 했을 때, 사용자가 기기의 오리엔테이션(orientation)을
Figure 112016113440093-pat00002
1으로 회전시킨 경우 최초 상태에서 임의의 볼륨(V0)는 [수학식 1]의 비율만큼 볼륨이 증가할 수 있다.Reference numeral 1920 denotes the orientation of the first device when the rotation angle of the gyro sensor is Y-axis data, assuming that the volume size of the video player (0 degree = 0, 180 degrees = 100)
Figure 112016113440093-pat00001
0, the user can change the orientation of the device.
Figure 112016113440093-pat00002
1, an arbitrary volume V0 in the initial state may be increased in volume by the ratio of (Equation 1).

[수학식 1][Equation 1]

비율 = (

Figure 112016113440093-pat00003
1-
Figure 112016113440093-pat00004
0)/(180-
Figure 112016113440093-pat00005
0)Ratio = (
Figure 112016113440093-pat00003
One-
Figure 112016113440093-pat00004
0) / (180-
Figure 112016113440093-pat00005
0)

따라서,

Figure 112016113440093-pat00006
1 상태에서의 볼륨(V1)은 아래 [수학식 2]로 계산될 수 있다.therefore,
Figure 112016113440093-pat00006
The volume V1 in the 1 state can be calculated by the following equation (2).

[수학식 2]&Quot; (2) "

볼륨(V1) = 볼륨(V0)*(

Figure 112016113440093-pat00007
1-
Figure 112016113440093-pat00008
0)/(180-
Figure 112016113440093-pat00009
0)Volume (V1) = volume (V0) * (
Figure 112016113440093-pat00007
One-
Figure 112016113440093-pat00008
0) / (180-
Figure 112016113440093-pat00009
0)

이때, 모든 기기의 자이로에 의한 회전은 현재 예시의 y축 데이터에 한정되지 않고, x축 및 z축 데이터에서도 동일하게 적용될 수 있다. 또한, 변화 하려는 설정값은 볼륨 이외에도 다양한 개발자가 정의한 다양한 설정값으로 정의될 수 있다.At this time, the rotation by the gyro of all the devices is not limited to the y-axis data of the present example, and the same applies to the x-axis and z-axis data. In addition, the set value to be changed can be defined by various developer-defined setting values in addition to the volume.

도 20은 제1기기에서 수행하는 동작에 따라 제2 기기에서 시각 피드백, 촉각 피드백, 및 청각 피드백 중에서 적어도 하나의 피드백을 제공하는 실시예를 설명하는 도면이다.20 is a view for explaining an embodiment for providing at least one feedback from visual feedback, tactile feedback, and auditory feedback in a second device in accordance with an operation performed by the first device;

도 20의 실시예(2000)를 살펴보면, 제1 기기(예: 스마트폰)에 상응하도록 제2기기(예: 아이패드)에 시각적으로 "구조화된 표시자 UI"가 제공될 수 있다. 이때, 제1 기기의 특정 센서(예: 자이로 센서)가 사용자의 움직임을 감지하면, 제2 기기는 사용자의 구조화된 표시자 UI를 변경할 수 있다. 예를 들어, 도면부호 2010과 같이 제1 기기의 현재 위치에서 '붓' 입력인 경우 제2 기기는 구조화된 표시자 UI를 통해 '붓'을 표현할 수 있다. 또한, 도면부호 2020와 같이 제1 기기가 반시계 또는 시계 방향으로 회전하는 경우 자이로 센서는 제1 기기의 움직임을 인식하고, 제2 기기는 이러한 제1 기기의 움직임에 응답하여 구조화된 표시자 UI를 '붓' 입력에서 '연필' 입력으로 변경하여 표시할 수 있다.Looking at the embodiment 2000 of FIG. 20, a visually "structured indicator UI" may be provided to a second device (e.g., iPad) to correspond to a first device (e.g., a smartphone). At this time, if a specific sensor (e.g., a gyro sensor) of the first device senses the movement of the user, the second device can change the user's structured indicator UI. For example, if the input is a 'brush' at the current location of the first device, such as 2010, the second device may express the 'brush' via the structured indicator UI. In addition, when the first device is rotated counterclockwise or clockwise as indicated by reference numeral 2020, the gyro sensor recognizes the movement of the first device, and the second device responds to the movement of the first device, Can be changed from 'brush' input to 'pencil' input.

도면부호 2030을 살펴보면, 제1 기기에 움직임이 발생한 경우 자이로 센서는 제1 기기의 움직임을 감지하고, 제2 기기는 감지된 제1 기기의 움직임에 응답하여 구조화된 표시자 UI를 '연필' 입력에서 '볼펜' 입력으로 변경하여 표시할 수 있다.The gyro sensor senses the movement of the first device when the movement of the first device occurs, and the second device responds to the movement of the first device that senses the movement of the first device, To 'ballpoint pen' input.

제1 기기의 센서가 사용자의 동작을 감지하면 제2 기기는 상술한 바와 같이, 구조화된 표시자 UI를 변경하는 시각적 피드백 이외에도 촉각 피드백(예: 진동), 청각 피드백(예: 소리) 등을 제공할 수 있다.When the sensor of the first device senses the user's motion, the second device provides tactile feedback (e.g., vibration), auditory feedback (e.g., sound), etc., in addition to visual feedback to change the structured indicator UI, can do.

도 21은 제1 기기에서 수행하는 동작에 따라 제2 기기에서 시각 피드백, 촉각 피드백, 및 청각 피드백 중에서 적어도 하나의 피드백을 제공하는 다른 실시예를 설명하는 도면이다.21 is a view for explaining another embodiment for providing at least one feedback from visual feedback, tactile feedback, and auditory feedback in a second device in accordance with an operation performed by the first device.

도면부호 2110에서 보는 바와 같이, 제1 기기의 현재 위치에서 빨강색을 표시하는 경우, 제2 기기 역시 제1 기기의 현재 위치에 상응하도록 구조화된 표시자 UI에 빨간색이 강조되도록 표시할 수 있다.As shown at reference numeral 2110, when red is displayed at the current position of the first device, the second device may also be displayed to highlight red in the structured indicator UI so as to correspond to the current position of the first device.

즉, 사용자의 제1 기기의 자이로 센서로 감지 가능한 회전동작을 수행할 경우 도구의 전환이 아니라 색상전환을 제2기기에서 수행할 수 있다. 이때 사용자의 회전 동작은 제1 기기의 절대회전각도가 아닌 "상대적 회전각도"로 기능의 전환이 이루어질 수 있다. 예를 들어 도면부호 2110에서와 같이 사용자가 이미 "빨강색"펜을 사용하고 있고 제1 기기가 도면부호 2110에서와 같이 수직(0도)으로 향하고 있다면 제2 기기의 표시자 UI에서는 사용자가 이미 사용하고 있는 빨강색이 선택된 상태인 UI를 출력할 수 있다.That is, when performing a rotatable operation that can be detected by the user's gyro sensor of the first device, the color conversion can be performed in the second device instead of the conversion of the tool. At this time, the rotation of the user may be switched to the "relative rotation angle" rather than the absolute rotation angle of the first device. For example, if the user is already using the "red" pen as at 2110 and the first device is pointing at a vertical (0 degree) as at 2110, You can print the UI with the red color you are using selected.

도면부호 2120에서, 제1 기기가 현재 위치에서 일정 각도만큼 회전하는 경우, 제1 기기는 센서가 감지하는 회전량을 고려해서 제1 기기에 표시되는 색깔을 변경할 수 있다. 또한, 제2 기기는 이렇게 변경되는 색깔에 부합하여 구조화된 표시자 UI에 변경된 색깔이 강조되도록 표시할 수 있다.At 2120, when the first device rotates at a predetermined angle from the current position, the first device can change the color displayed on the first device in consideration of the amount of rotation sensed by the sensor. In addition, the second device can display the changed color to be highlighted in the structured indicator UI in accordance with the changed color.

즉, 사용자가 x도 만큼 회전을 수행하였다면 표시자 UI에서 빨강색을 기준으로 x도만큼 회전한 짙은 빨강이 선택될 수 있다. That is, if the user has performed the rotation by x degrees, a dark red rotated by x degrees from the red in the indicator UI can be selected.

도면부호 2130을 살펴보면, 제1 기기가 도면부호 2120의 방향과 반대방향으로 회전할 경우 상대적인 각도의 변화량에 따라 주황색으로 색상이 전환되고 해당 색깔이 표시자 UI를 통해 출력될 수 있다.Referring to reference numeral 2130, when the first device is rotated in the direction opposite to the direction of the reference numeral 2120, the color is switched to orange according to the change amount of the relative angle, and the corresponding color can be output through the indicator UI.

도면부호 2110 내지 2130에서의 움직임은 서로 상대적인 것으로서, 이전의 현재위치에서 상대적으로 일정각도만큼 회전하는 경우에 회전한 각도에 상응하도록 색깔이 변경될 수 있다.The motions at reference numerals 2110 to 2130 are relative to each other, and the color may be changed to correspond to the rotated angle in the case of rotating at a relatively constant angle at the previous current position.

도 22은 일실시예에 따른 제1기기의 동작 방법을 설명하는 도면이다.22 is a view for explaining an operation method of the first device according to the embodiment.

일실시예에 따른 제1기기의 동작 방법은 사용자로부터의 입력을 센싱한다(단계 2210).An operation method of the first device according to an exemplary embodiment senses an input from a user (step 2210).

다음으로, 제1기기의 동작 방법은 센싱된 입력에 상응하는 기기제어동작을 인식하고(단계 2220), 인식된 기기제어동작에 상응하는 기기제어신호를 생성한다(단계 2230).Next, the operation method of the first device recognizes the device control operation corresponding to the sensed input (step 2220), and generates a device control signal corresponding to the recognized device control operation (step 2230).

또한, 제1기기의 동작 방법은 생성된 기기제어신호를 제2기기로 전달하고(단계 2240), 이를 수신한 제2기기는 기기제어신호를 수신하며, 수신된 기기제어신호에 상응하는 기능으로 동작할 수 있다. 이때, 제2기기는 기기제어신호를 수신하고, 수신된 기기제어신호에 응답하여 동작하되, 구조화된 유저인터페이스가 비활성화된 상태에서 구조화된 유저인터페이스의 기능을 기기제어신호에 기초하여 제공할 수 있다.The second device transmits the generated device control signal to the second device (step 2240). The second device receives the device control signal and performs a function corresponding to the received device control signal Can operate. At this time, the second device receives the device control signal, and operates in response to the received device control signal, but can provide the function of the structured user interface based on the device control signal with the structured user interface deactivated .

제2기기는 수신된 기기제어신호에 상응하는 기능으로 동작하되, 이전의 설정값을 기기제어신호에 상응하는 설정값으로 변경할 수 있다. 또한, 제2기기는 수신된 기기제어신호에 상응하는 기능으로 동작하되, 제2기기에서 구동되는 어플리케이션과 관련된 추가기능들 중에서 기기제어신호에 상응하는 특정 추가기능을 구동시킬 수 있다.The second device operates with a function corresponding to the received device control signal, and may change the previous setting value to a setting value corresponding to the device control signal. In addition, the second device may operate a function corresponding to the received device control signal, and may drive a specific additional function corresponding to the device control signal among additional functions associated with the application running on the second device.

제1기기의 동작 방법은 데이터 통신부에서 제2기기에 수집된 제2 기기제어동작에 상응하는 제2 기기제어신호를 수신하고, 동작 인식부를 통해 수신된 제2 기기제어신호에 상응하는 추가기능을 인식할 수 있다. 뿐만 아니라, 제어부에서는 인식된 추가기능을 구동시킬 수 있다.The operation method of the first device may include receiving a second device control signal corresponding to the second device control operation collected by the second device in the data communication unit and outputting an additional function corresponding to the second device control signal received through the operation recognition unit Can be recognized. In addition, the control unit can drive the recognized additional function.

제1기기의 동작 방법은 인식된 추가기능을 구동시키기 위해, 구동된 추가기능에 의해서 생성된 컨텐츠를 데이터 통신부를 통해 제2기기로 제공하도록 제어할 수 있다.The operation method of the first device may control to provide the content generated by the driven additional function to the second device through the data communication unit to drive the recognized additional function.

한편, 제1기기의 동작 방법은 인식된 추가기능을 구동시키기 위해 제2기기로부터 기기제어신호에 상응하는 피드백을 수신하여 출력하도록 제어할 수 있다.On the other hand, the operation method of the first device can control to receive and output the feedback corresponding to the device control signal from the second device to drive the recognized additional function.

예를 들어, 사용자 입력을 센싱하기 위해서는 사용자 입력에 대한 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나를 센싱할 수 있다. 또한, 센싱된 입력에 상응하는 기기제어동작을 인식하기 위해서는 센싱된 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나에 따라 기기제어동작을 인식할 수 있다.For example, to sense user input, at least one of pressure, frequency, speed, acceleration, direction, rotation, sound, and number of user inputs may be sensed. In order to recognize the device control operation corresponding to the sensed input, the device control operation may be recognized according to at least one of the sensed pressure, frequency, speed, acceleration, direction, rotation, sound, and number.

결국, 본 발명을 이용하면, 사용자에게 불필요한 시각을 줄임으로써 원하는 기능을 탐색하는 과정을 줄일 수 있다. 또한, 사용자가 불필요하게 여러 번 터치하는 것과 같이 기능을 선택하는 과정을 줄일 수 있고, 사용자의 과제수행효율을 증대시키고 빠른 기능의 전환을 통해 사용자경험(UX)를 향상시킬 수 있다.As a result, by using the present invention, it is possible to reduce a process of searching for a desired function by reducing unnecessary time for a user. In addition, it is possible to reduce the process of selecting functions such as touching the user unnecessarily several times, to increase the efficiency of task execution by the user, and to improve the user experience (UX) through quick switching of functions.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

210: 제1기기 211: 센서 입력부
212: 터치스크린 입력부 213: 동작 인식부
214: 제어부 215: 출력부
216: 데이터 통신부 220: 제2기기
221: 데이터 통신부 222: 비교 연산부
223: 사용자 설정 저장부 224: 사용자 인력 인식부
225: 제어부 226: 출력부
210: first device 211: sensor input unit
212: Touch screen input unit 213: Operation recognition unit
214: control unit 215: output unit
216: data communication unit 220: second device
221: data communication section 222: comparison operation section
223: User setting storage unit 224:
225: control unit 226: output unit

Claims (20)

비구조화된 유저인터페이스 영역을 통해 사용자 입력을 센싱하고, 상기 센싱된 사용자 입력에 상응하는 기기제어동작을 인식하고, 상기 인식된 기기제어동작에 상응하는 기기제어신호를 생성하며, 상기 생성된 기기제어신호를 구조화된 유저인터페이스를 제공하는 제2기기로 전달하는 제1기기; 및
상기 기기제어신호를 수신하고, 상기 수신된 기기제어신호에 응답하여 동작하되, 상기 구조화된 유저인터페이스가 비활성화된 상태에서 상기 구조화된 유저인터페이스의 기능을 상기 기기제어신호에 기초하여 제공하는 제2기기를 포함하고,
상기 제2기기는, 상기 수신된 기기제어신호에 상응하는 기능으로 동작하되, 이전의 설정값을 상기 기기제어신호에 상응하는 설정값으로 변경하고, 상기 기기제어신호가 수신되지 않을 경우, 상기 변경된 설정값을 상기 이전의 설정값으로 변경하며,
상기 제1기기는, 상기 제2기기에서 수집된 제2기기제어동작에 상응하는 제2기기제어 신호를 수신하고, 상기 수신된 제2기기제어신호에 상응하는 추가기능을 구동하며, 상기 구동된 추가기능에 의해 생성된 컨텐츠를 상기 제2기기로 제공하는 것을 특징으로하는 시스템.
Sensing a user input through an unstructured user interface area, recognizing a device control operation corresponding to the sensed user input, generating a device control signal corresponding to the recognized device control operation, A first device for delivering the signal to a second device providing a structured user interface; And
A second device that receives the device control signal and operates in response to the received device control signal, wherein the second device provides the function of the structured user interface based on the device control signal in a state in which the structured user interface is inactive; Lt; / RTI >
Wherein the second device operates with a function corresponding to the received device control signal and changes a previous setting value to a setting value corresponding to the device control signal and when the device control signal is not received, Changes the set value to the previous set value,
Wherein the first device receives a second device control signal corresponding to a second device control operation collected by the second device and drives an additional function corresponding to the received second device control signal, And provides the content generated by the additional function to the second device.
제1항에 있어서,
상기 제2기기는, 적어도 하나 이상의 표시자 유저인터페이스를 포함하는 구조화된 유저인터페이스 영역을 포함하며, 상기 비구조화된 유저인터페이스 영역 및 상기 구조화된 유저인터페이스 영역 중에서 적어도 하나는 아이콘, 텍스트, 및 색상값 중에서 적어도 하나의 형태로 맥락정보를 출력하는 것을 특징으로 하는 시스템.
The method according to claim 1,
Wherein the second device comprises a structured user interface area comprising at least one or more indicator user interfaces wherein at least one of the unstructured user interface area and the structured user interface area comprises at least one of an icon, And outputting context information in at least one of the following forms.
삭제delete 제1항에 있어서,
상기 제2기기는, 상기 수신된 기기제어신호에 상응하는 기능으로 동작하되, 상기 제2기기에서 구동되는 어플리케이션과 관련된 추가기능들 중에서, 상기 기기제어신호에 상응하는 특정 추가기능을 구동시키는 것을 특징으로 하는 시스템.
The method according to claim 1,
The second device operates a specific additional function corresponding to the device control signal among the additional functions related to the application driven by the second device while operating with a function corresponding to the received device control signal, .
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제1기기는, 상기 제2기기로부터 상기 기기제어신호에 상응하는 피드백을 수신하여 출력하도록 제어하는 것을 특징으로 하는 시스템.
The method according to claim 1,
Wherein the first device controls to receive and output feedback corresponding to the device control signal from the second device.
제1항에 있어서,
상기 제1기기는, 상기 사용자 입력에 대한 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나를 센싱하고, 상기 센싱된 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나에 따라 기기제어동작을 인식하는 것을 특징으로 하는 시스템.
The method according to claim 1,
Wherein the first device senses at least one of a pressure, a frequency, a speed, an acceleration, a direction, a rotation, a sound, and a number of the user input and outputs the sensed pressure, frequency, speed, acceleration, , And the number of devices.
제1기기로부터 전달되는 기기제어신호를 수신하는 데이터 통신부; 및
상기 수신된 기기제어신호에 응답하여 동작하되, 구조화된 유저인터페이스가 비활성화된 상태에서 상기 구조화된 유저인터페이스의 기능을 상기 기기제어신호에 기초하여 제공하도록 어플리케이션을 제어하는 제어부
를 포함하고,
상기 제1기기는, 비구조화된 유저인터페이스 영역을 통해 사용자 입력을 센싱하고, 상기 센싱된 사용자 입력에 상응하는 기기제어동작을 인식하며, 상기 인식된 기기제어동작에 상응하는 기기제어신호를 생성하고, 상기 생성된 기기제어신호를 상기 데이터 통신부로 전달하고,
상기 제어부는, 상기 수신된 기기제어신호에 상응하는 기능으로 동작하되, 이전의 설정값을 상기 기기제어신호에 상응하는 설정값으로 변경하고, 상기 기기제어신호가 수신되지 않을 경우, 상기 변경된 설정값을 상기 이전의 설정값으로 변경하며,
상기 데이터 통신부는, 제2기기에서 수집된 제2기기제어동작에 상응하는 제2기기제어 신호를 상기 제1기기로 전달하고, 상기 제1기기로부터 상기 전달된 제2기기제어 신호에 상응하는 추가기능에 의해 생성된 컨텐츠를 수신하는 것을 특징으로 하는 제2기기.
A data communication unit for receiving a device control signal transmitted from the first device; And
A control unit operable in response to the received device control signal to control the application to provide the function of the structured user interface based on the device control signal in a state in which the structured user interface is inactive;
Lt; / RTI >
The first device senses a user input through an unstructured user interface area, recognizes a device control operation corresponding to the sensed user input, generates a device control signal corresponding to the recognized device control operation Transmits the generated device control signal to the data communication unit,
Wherein the control unit changes the previous setting value to a setting value corresponding to the device control signal while operating with a function corresponding to the received device control signal and when the device control signal is not received, To the previous setting value,
Wherein the data communication unit transmits a second device control signal corresponding to a second device control operation collected by the second device to the first device, and transmits the second device control signal corresponding to the added second device control signal from the first device, And the second device receives the content generated by the function.
삭제delete 제10항에 있어서,
상기 제어부는 상기 어플리케이션을 제어하되, 현재 구동되는 어플리케이션과 관련된 추가기능들 중에서, 상기 기기제어신호에 상응하는 특정 추가기능을 구동시키는 것을 특징으로 하는 제2기기.
11. The method of claim 10,
Wherein the control unit controls the application and drives a specific additional function corresponding to the device control signal among the additional functions related to the application currently being operated.
제12항에 있어서,
상기 제어부는, 상기 수신된 컨텐츠를 상기 현재 구동되는 어플리케이션을 통해 출력하는 것을 특징으로 하는 제2기기.
13. The method of claim 12,
And the control unit outputs the received content through the currently-running application.
제1기기에서, 비구조화된 유저인터페이스 영역을 통해 사용자 입력을 센싱하는 단계;
상기 제1기기에서, 상기 센싱된 사용자 입력에 상응하는 기기제어동작을 인식하고, 상기 인식된 기기제어동작에 상응하는 기기제어신호를 생성하는 단계;
상기 제1기기에서, 상기 생성된 기기제어신호를 구조화된 유저인터페이스를 제공하는 제2기기로 전달하는 단계;
상기 제2기기에서, 상기 기기제어신호를 수신하고, 상기 수신된 기기제어신호에 응답하여 동작하되, 상기 구조화된 유저인터페이스가 비활성화된 상태에서 상기 구조화된 유저인터페이스의 기능을 상기 기기제어신호에 기초하여 제공하는 단계;
상기 제1기기에서, 상기 제2기기에서 수집된 제2기기제어동작에 상응하는 제2기기제어 신호를 상기 제2기기로부터 수신하는 단계; 및
상기 제1기기에서, 상기 수신된 제2기기제어신호에 상응하는 추가기능을 구동하며, 상기 구동된 추가기능에 의해 생성된 컨텐츠를 상기 제2기기로 제공하는 단계를 포함하고,
상기 수신된 기기제어신호에 응답하여 동작하되, 상기 구조화된 유저인터페이스의 기능을 상기 기기제어신호에 기초하여 제공하는 단계는,
상기 수신된 기기제어신호에 상응하는 기능으로 동작하되, 이전의 설정값을 상기 기기제어신호에 상응하는 설정값으로 변경하는 단계; 및
상기 기기제어신호가 수신되지 않을 경우, 상기 변경된 설정값을 상기 이전의 설정값으로 변경하는 단계
를 포함하는 것을 특징으로 하는 시스템의 동작 방법.
Sensing, at the first device, user input through an unstructured user interface area;
Recognizing a device control operation corresponding to the sensed user input in the first device and generating a device control signal corresponding to the recognized device control operation;
Transmitting, at the first device, the generated device control signal to a second device providing a structured user interface;
Receiving a device control signal from the second device and operating in response to the received device control signal, wherein the functioning of the structured user interface is disabled based on the device control signal when the structured user interface is inactive ;
Receiving, at the first device, a second device control signal corresponding to a second device control operation collected by the second device from the second device; And
In the first device, driving an additional function corresponding to the received second device control signal, and providing the content generated by the driven additional function to the second device,
Wherein the step of operating in response to the received device control signal, wherein providing the function of the structured user interface based on the device control signal comprises:
Changing a previous setting value to a setting value corresponding to the device control signal, the method comprising: changing a previous setting value to a setting value corresponding to the device control signal; And
If the device control signal is not received, changing the changed setting value to the previous setting value
≪ / RTI >
삭제delete 제14항에 있어서,
상기 제2기기는 상기 수신된 기기제어신호에 상응하는 기능으로 동작하되, 상기 제2기기에서 구동되는 어플리케이션과 관련된 추가기능들 중에서, 상기 기기제어신호에 상응하는 특정 추가기능을 구동시키는 것을 특징으로 하는 시스템의 동작 방법.
15. The method of claim 14,
Wherein the second device operates a function corresponding to the received device control signal and drives a specific additional function corresponding to the device control signal among additional functions related to the application driven by the second device Lt; / RTI >
삭제delete 삭제delete 제14항에 있어서,
상기 추가기능을 구동하는 단계는,
상기 제2기기로부터 상기 기기제어신호에 상응하는 피드백을 수신하여 출력하도록 제어하는 단계
를 포함하는 것을 특징으로 하는 시스템의 동작 방법.
15. The method of claim 14,
Wherein the step of driving the additional function comprises:
And receiving and outputting feedback corresponding to the device control signal from the second device
≪ / RTI >
제14항에 있어서,
상기 사용자 입력을 센싱하는 단계는,
상기 사용자 입력에 대한 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나를 센싱하는 단계
를 포함하고,
상기 센싱된 사용자 입력에 상응하는 기기제어동작을 인식하는 단계는, 상기 센싱된 압력, 횟수, 속도, 가속도, 방향, 회전, 소리, 및 개수 중에서 적어도 하나에 따라 상기 기기제어동작을 인식하는 단계
를 포함하는 시스템의 동작 방법.
15. The method of claim 14,
Wherein sensing the user input comprises:
Sensing at least one of pressure, frequency, speed, acceleration, direction, rotation, sound, and number of user inputs
Lt; / RTI >
The step of recognizing the device control operation corresponding to the sensed user input may include recognizing the device control operation according to at least one of the sensed pressure, frequency, speed, acceleration, direction, rotation, sound,
≪ / RTI >
KR1020160154980A 2016-11-21 2016-11-21 Apparatus and method of providing additional function and feedback to other apparatus by using information of multiple sensor KR101898162B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160154980A KR101898162B1 (en) 2016-11-21 2016-11-21 Apparatus and method of providing additional function and feedback to other apparatus by using information of multiple sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160154980A KR101898162B1 (en) 2016-11-21 2016-11-21 Apparatus and method of providing additional function and feedback to other apparatus by using information of multiple sensor

Publications (2)

Publication Number Publication Date
KR20180056973A KR20180056973A (en) 2018-05-30
KR101898162B1 true KR101898162B1 (en) 2018-10-04

Family

ID=62300420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160154980A KR101898162B1 (en) 2016-11-21 2016-11-21 Apparatus and method of providing additional function and feedback to other apparatus by using information of multiple sensor

Country Status (1)

Country Link
KR (1) KR101898162B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012503244A (en) * 2008-09-20 2012-02-02 リングボー,エルティーディー. Device worn on finger, interaction method and communication method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9529439B2 (en) * 2012-11-27 2016-12-27 Qualcomm Incorporated Multi device pairing and sharing via gestures
KR20150017955A (en) * 2013-08-08 2015-02-23 엘지전자 주식회사 Control apparatus of mobile terminal and method thereof
WO2015126095A1 (en) * 2014-02-21 2015-08-27 삼성전자 주식회사 Electronic device
US10444834B2 (en) * 2014-04-01 2019-10-15 Apple Inc. Devices, methods, and user interfaces for a wearable electronic ring computing device
KR20160029348A (en) * 2014-09-05 2016-03-15 엘지전자 주식회사 Glass type mobile terminal
KR101553503B1 (en) * 2015-01-12 2015-09-16 주식회사 월드텍 Method for controlling a external device using object recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012503244A (en) * 2008-09-20 2012-02-02 リングボー,エルティーディー. Device worn on finger, interaction method and communication method

Also Published As

Publication number Publication date
KR20180056973A (en) 2018-05-30

Similar Documents

Publication Publication Date Title
US20210191582A1 (en) Device, method, and graphical user interface for a radial menu system
JP6054892B2 (en) Application image display method, electronic apparatus, and computer program for multiple displays
US9448714B2 (en) Touch and non touch based interaction of a user with a device
US20180039395A1 (en) Interface scanning for disabled users
KR20160060109A (en) Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
US11314411B2 (en) Virtual keyboard animation
US11099723B2 (en) Interaction method for user interfaces
US20140055385A1 (en) Scaling of gesture based input
KR102138913B1 (en) Method for processing input and an electronic device thereof
US20160139764A1 (en) Method of selection of a portion of a graphical user interface
WO2017139141A1 (en) Scroll mode for touch/pointing control
JP5865615B2 (en) Electronic apparatus and control method
US20180239509A1 (en) Pre-interaction context associated with gesture and touch interactions
JP5911321B2 (en) Display control device and control method of display control device
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input
KR101898162B1 (en) Apparatus and method of providing additional function and feedback to other apparatus by using information of multiple sensor
JP7030529B2 (en) Electronic devices, information processing methods, programs and storage media
KR101136327B1 (en) A touch and cursor control method for portable terminal and portable terminal using the same
US20140250402A1 (en) Efficient input mechanism for a computing device
JP2006039819A (en) Coordinate input device
JP2019121312A (en) Electronic apparatus, information processing method, program and storage medium
KR20160059079A (en) Application control apparatus and method using touch pressure

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant