WO2016052859A1 - Method, device, and system for providing user interface and non-transitory computer-readable recording medium - Google Patents

Method, device, and system for providing user interface and non-transitory computer-readable recording medium Download PDF

Info

Publication number
WO2016052859A1
WO2016052859A1 PCT/KR2015/008747 KR2015008747W WO2016052859A1 WO 2016052859 A1 WO2016052859 A1 WO 2016052859A1 KR 2015008747 W KR2015008747 W KR 2015008747W WO 2016052859 A1 WO2016052859 A1 WO 2016052859A1
Authority
WO
WIPO (PCT)
Prior art keywords
input event
user
posture
movement
content
Prior art date
Application number
PCT/KR2015/008747
Other languages
French (fr)
Korean (ko)
Inventor
황성재
Original Assignee
주식회사 퓨처플레이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150051767A external-priority patent/KR101916700B1/en
Priority claimed from US14/819,151 external-priority patent/US9696815B2/en
Application filed by 주식회사 퓨처플레이 filed Critical 주식회사 퓨처플레이
Publication of WO2016052859A1 publication Critical patent/WO2016052859A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present invention relates to a method, device, system, and non-transitory computer readable recording medium for providing a user interface.
  • mobile smart devices having various communication and sensing functions and powerful computing functions such as smart phones and smart pads have been widely used.
  • Such mobile smart devices may be relatively small in size and can be carried by the user (eg, smart glasses, smart watches, smart bands, smart devices in the form of rings or broaches, directly on the body or clothing). Smart devices that are attached or embedded).
  • a user might want to perform some task using his or her two or more (heterogeneous) smart devices, or want to perform some task that needs to intervene with his smart device and another user's device. Can be.
  • the (potential) intention of such a user could not be properly supported.
  • the object of the present invention is to solve all the above-mentioned problems.
  • the present invention obtains information about the attitude or movement of the first device and the second device, and inputs an input event that is specified based on the relative relationship between the attitude or movement of the first device and the attitude or movement of the second device. Detect and in response to the input event occur, cause at least some of the content and functions provided on the first device to be provided on the second device or provide at least some of the content and functions provided on the second device on the first device. It is another object of the present invention to provide a user with a more convenient and expanded user interface by using a relative relationship between postures or movements of two or more devices.
  • a method for providing a user interface comprising: (a) obtaining information about a posture or movement of a first device and a second device, wherein the posture or movement of the first device and the second device are obtained; Detecting an input event specified based on a relative relationship between a device's posture or movement, and (b) in response to the input event occurring, at least some of the content and functionality provided on the first device To be provided on a second device or to cause at least some of the content and functionality provided on the second device to be provided on the first device.
  • a device for providing a user interface comprising: obtaining information about the posture or movement of the device and other devices associated with the device, the posture or movement of the device and the posture or of the other device; Technical means for sensing a specified input event based on a relative relationship between movements, and in response to the input event occurring, at least some of the content and functions provided on the device are provided on the other device, or A device is provided that includes a program module to allow at least some of the content and functions provided on another device to be provided on the device.
  • a system for providing a user interface comprising: obtaining information about a posture or movement of a first device and a second device, wherein the posture or movement of the first device and the second device Detect a specified input event based on a relative relationship between posture or movement, and in response to the input event occurring, at least some of the content and functions provided on the first device to be provided on the second device; And a control unit for allowing at least some of the contents and functions provided on the second device to be provided on the first device, and a storage storing information received from at least one of the first device and the second device. This is provided.
  • non-transitory computer readable recording medium for recording another method, device, system, and computer program for executing the method.
  • an effect of providing a more convenient and expanded user interface to a user is achieved by using a relative relationship between postures or movements of two or more devices.
  • a user holding the first device in the same hand while wearing the second device on a body part such as a wrist even if the user flips his or her hand (that is, flips)
  • An effect is achieved that enables the content (or function) provision state at the first device and the second device to be switched between each other.
  • a user having both the first device and the second device looking at different directions may use the first device and the second device irrespective of the posture or the direction of the hand holding the device.
  • the first user and the second user each having the first device and the second device, respectively, by simply performing a simple action corresponding to an input event, the content (or The effect is that the functions) can be shared continuously.
  • FIG. 1 is a view showing a schematic configuration of an entire system for providing a user interface according to an embodiment of the present invention.
  • FIG. 2 is a diagram conceptually illustrating a configuration in which a content (or function) provision state is switched between a first device and a second device according to an embodiment of the present invention.
  • 3 to 5 are diagrams exemplarily illustrating a configuration for providing a user interface according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a configuration in which a format of content provided on a first device and a format of content provided on a second device are different from each other according to an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a configuration in which content stored in a first device is transmitted to a second device according to an embodiment of the present invention.
  • FIGS. 8 to 15 are diagrams exemplarily illustrating a configuration in which a user interface is provided according to another embodiment of the present invention.
  • 16 to 22 are diagrams exemplarily illustrating how a user interface provided according to various embodiments of the present invention is actually demonstrated.
  • FIG. 1 is a view showing a schematic configuration of an entire system for providing a user interface according to an embodiment of the present invention.
  • the entire system may include a communication network 100, a user interface providing system 200, and a plurality of devices 310 and 320.
  • the communication network 100 may be configured regardless of a communication mode such as wired communication or wireless communication, and includes a local area network (LAN) and a metropolitan area network (MAN). ), And various communication networks such as a wide area network (WAN).
  • LAN local area network
  • MAN metropolitan area network
  • WAN wide area network
  • the communication network 100 as used herein may be a known Internet or World Wide Web (WWW).
  • WWW World Wide Web
  • the communication network 100 may include, at least in part, a known wired / wireless data communication network, a known telephone network, or a known wired / wireless television communication network without being limited thereto.
  • the user interface providing system 200 may be a digital device having a computing capability by mounting a microprocessor and a memory means.
  • the user interface providing system 200 may be a server system.
  • the user interface providing system 200 may be configured to provide one of the devices 310 and 320 to the other through the communication network 100 to provide predetermined information or control commands to the other, or to receive the predetermined information or control commands from the other. To perform the function.
  • the user interface providing system 200 acquires information about the posture or movement of the first device and the second device, as described in detail below, and the posture or movement of the first device and the second device. Detect a specified input event based on a relative relationship between posture or movement, and in response to the input event occurring, at least some of the content and functions provided on the first device are provided on the second device or By allowing at least some of the contents and functions provided on the first device to be provided on the first device, a function of providing a more convenient and expanded user interface to a user may be performed by using a relative relationship between postures or movements of two or more devices. have.
  • Such user interface provision may be performed by a controller (not shown) included by the user interface provision system 200.
  • a controller may exist in the form of a program module in the user interface providing system 200.
  • Such program modules may take the form of operating systems, application modules or other program modules.
  • the program module may be stored in a remote storage device that can communicate with the user interface providing system 200.
  • the program module includes, but is not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, which will be described later, according to the present invention.
  • the user interface providing system 200 may store information about a posture or a movement provided from at least one of the plurality of devices 310 and 320, and may be used by at least one of the plurality of devices 310 and 320. To do more. Furthermore, the interface providing system 200 stores information constituting contents or functions provided by at least one of the plurality of devices 310 and 320, and the information is stored in at least one of the plurality of devices 310 and 320. It can further perform the function to be used by. The above-described storage may be performed by a storage (not shown) included by the user interface providing system 200. Such storage is a concept that includes a computer readable recording medium, and may be a broad database including not only a narrow database but also a file system based data record.
  • the user interface providing system 200 has been described as above, but this description is exemplary, and at least some of the functions or components required for the user interface providing system 200 are subject to manipulation as necessary. It will be apparent to those skilled in the art that at least one of the devices 310, 320 may be implemented or included.
  • the plurality of devices 310 and 320 may be matched to the user interface providing system 200 or the plurality of devices 310 and 320 (preferably, the plurality of devices 310). , 320) may be separated from each other or externalized (externalized), and may be a digital device having a function of communicating with each other, and having a memory means and a microprocessor, Any number may be employed as the device 310, 320 according to the present invention.
  • Devices 310 and 320 may be so-called smart devices such as smartphones, smart pads, smart glasses, smart watches, smart bands, smart rings, etc., or may be desktop computers, notebook computers, workstations, PDAs, web pads, mobile phones, buttons, mice. It may be a more traditional device such as, a keyboard, an electronic pen, and the like.
  • the devices 310 and 320 may be Internet of Things (IoT) devices such as a remote controller and a home appliance.
  • IoT Internet of Things
  • the devices 310 and 320 may include at least one technical means capable of receiving an operation from a user.
  • technical means include known components, such as touch panels, pointing tools (e.g., mouse, stylus, electronic pen, etc.), graphical objects that can be manipulated by users, keyboards, toggle switches, biometric information (fingerprints, etc.). Recognition sensors, distance sensors, and the like.
  • the device 310, 320 may include at least one technical means for obtaining physical information about the attitude or movement of the device (310, 320).
  • technical means are known components, such as motion sensors, acceleration sensors, gyroscopes, magnetic sensors, positioning modules (GPS modules, beacon-based positioning (identification) modules, etc.), barometers, distance sensors, cameras Etc. can be mentioned.
  • the device 310, 320 has a posture of the device 310, 320 based on the biometric information obtained from the human body of the user having the device (310, 320)
  • Technical means may be obtained for obtaining physical information about the movement.
  • an EMG signal measuring apparatus etc. are mentioned.
  • the devices 310 and 320 process the above physical information to provide information or control commands to other devices 310 and 320, or receive information or control commands from other devices 310 and 320, or the like.
  • An application program for generating such information or control command may be further included.
  • Such an application may exist in the form of a program module in the corresponding devices 310 and 320.
  • the nature of the program module may be similar to the overall control of the user interface providing system 200 as described above.
  • the application may be replaced with a hardware device or a firmware device, at least a part of which may perform a function substantially the same or equivalent thereto.
  • the first device 310 and the second device 320 may have a predetermined association (for example, an association that belongs to the same user, or an association that functions for the same user).
  • the first device 310 and the second device 320 when it is recognized that they have an association that is located substantially close to each other, or that one of them is reasonable to authenticate or allow the other.
  • a predetermined connection may be formed between the two terminals, which may be performed by the user interface providing system 200 or may be performed by the first device 310 and the second device 320.
  • the user interface providing system 200 provides a user interface in which a plurality of devices 310 and 320 are involved according to various embodiments will be described in detail.
  • the user interface providing system 200 obtains information about the attitude or movement of the first device 310 and the second device 320, and the attitude of the first device 310. Or detecting a specific input event based on a relative relationship between a movement and a posture or movement of the second device 320, and in response to the occurrence of the input event, among the contents and functions provided on the first device 310. At least some may be provided on the second device 320 or at least some of the content and functions provided on the second device 320 may be provided on the first device 310.
  • At least one of the first device 310 and the second device 320 may move in combination with an input means for causing an input event.
  • the first device 310 may be a smart phone that the user can hold by hand
  • the second device 320 may be a smart watch that may be worn on the user's wrist.
  • the input event specified based on a relative relationship between the posture or movement of the first device 310 and the posture or movement of the second device 320 may include at least one coordinate axis.
  • an aspect in which the direction of the first device 310 and an aspect in which the direction of the second device 320 is changed may indicate an event that is opposite or symmetrical to each other.
  • the user is holding the first device 310 and flipping a hand (also known as flip) that is wearing the second device 320 on the wrist. It can point to an event.
  • the input event may include a posture or movement of the first device 310 based on the first surface and a posture or movement of the second device 310 based on the second surface. It can be specified based on the relative relationship between them.
  • the first surface or the second surface may correspond to an upper surface, a lower surface, a left surface, a right surface, a front surface, a rear surface, or the like of the first device 310 or the second device 320.
  • FIG. 2 is a diagram conceptually illustrating a configuration in which a content (or function) provision state is switched between a first device and a second device according to an embodiment of the present invention.
  • the above action is performed.
  • the first device 310 or the second device 320 which has provided the content (or function) to the user with the display screen facing the user before the execution is performed, displays the display after the above action is performed.
  • the screen may not be facing the user and may no longer provide content (or functions) to the user.
  • the system 200 for providing a user interface includes both the first device 310 and the second device 320 that the user faces in different directions.
  • the direction of the first device 310 in the form of a smartphone is changed and the direction of the second device 320 in the form of a smart watch is reversed.
  • Some of the parts 201 and 202 may be provided on the second device 320 (or the first device 310) facing the user after the input event occurs. Therefore, according to the present invention, the content (or function) provided to the user can be provided while maintaining continuity through both the first device 310 and the second device 320. 16 and 17, it can be seen that the above embodiment is actually demonstrated.
  • 3 to 5 are diagrams exemplarily illustrating a configuration for providing a user interface according to an embodiment of the present invention.
  • a user wearing the second device 320 on the left wrist and holding the first device 310 with the same left hand turns over his left hand (ie, flips).
  • the case can be assumed.
  • the second device 320 not looking at the user side may be looking at the user side.
  • the first device 310 not looking at the user is facing the user. Can be seen (see FIG. 4).
  • FIG. 5 a posture or direction of the first device 310 and the second device 320 measured by a gyroscope provided in the first device 310 and the second device 320 is measured.
  • Physical information relating to the present invention may be obtained, and the user interface providing system 200 according to an exemplary embodiment may detect whether an input event occurs based on the physical information as illustrated in FIG. 5.
  • FIGS. 5A and 5B indicate gyroscope measurements of the first device 310 and the second device 320, respectively, and yellow in FIGS. 5A and 5B, respectively.
  • Red and green graphs are azimuth respectively. It indicates the measured value in the pitch and roll direction.
  • At least a part of content provided on the first device 310 facing the user is the second device. At least a portion of the content being provided on the second device 320 facing the user may be transmitted to the first device 310.
  • a process that is being executed on the first device 310 facing toward the user is performed by the second device 320.
  • a process that is being executed on the second device 320 that is facing the user may be executed on the first device 310.
  • the first device 310 in response to an input event generated according to a user's flipping action, provided on the first device 310 (or the second device 320) before the input event occurs.
  • the format of the content that is being used and the format of the content provided on the second device 320 (or the first device 310) after the input event occurs may be different.
  • FIG. 6 is a diagram illustrating a configuration in which a format of content provided on a first device and a format of content provided on a second device are different from each other according to an embodiment of the present invention.
  • content that was provided in a visual form on the first device 310 before the input event occurs may be provided on the second device 320 in an auditory or tactile form after the input event occurs.
  • 320 may be provided in the form of voice or vibration.
  • the input event may include not only a relative relationship between the posture or movement of the first device 310 and the posture or movement of the second device 320, but also the first device 310 or It may be specified further based on a user manipulation input to the second device 320.
  • a user operation input to the first device 310 or the second device 320 may include a touch operation, a keyboard operation, a voice recognition operation, and the like.
  • the specific content associated with the above touch manipulation among the contents provided on the first device 310 facing toward the user may be provided on the second device 320 or vice versa.
  • the specific content associated with the above touch manipulation among the contents provided on the second device 320 may be provided on the first device 310.
  • FIG. 7 is a diagram illustrating a configuration in which content stored in a first device is transmitted to a second device according to an embodiment of the present invention.
  • specific content 701, 702 (eg, a specific sound source file, etc.) selected by the user's touch manipulation 710 among contents provided on the first device 310 before an input event occurs. ) May be provided on the second device 320 after an input event occurs.
  • the user interface providing system 200 allows the user to display the first device 310 with the second device 320 facing the user as the user flips.
  • content provided on the first device 310 facing the user is bookmarked (or A list registered as a bookmark and including the bookmark may be displayed on the second device 320.
  • the user interface providing system 200 allows the user to display the second device 310 with the first device 310 facing the user as the user flips.
  • the present invention is not necessarily limited thereto, the scope of the present invention can be achieved It is noted that the input event can be specified by any number of other actions within (eg, flipping the hand more than once).
  • the present invention is not necessarily limited thereto. It will be appreciated that the first device and the second device may be implemented in other forms such as a smart pad, a smart glass, a smart band, a smart ring, and the like within the scope of the object of the present invention.
  • FIGS. 8 to 15 are diagrams exemplarily illustrating a configuration in which a user interface is provided according to another embodiment of the present invention.
  • a user interface providing system 200 possesses both a first device 310 and a second device 320 that a user looks in different directions.
  • the direction of the first device 310 in the form of a smartphone is changed and the direction of the second device 320 in the form of a smart watch is changed. It can be recognized as input events that are opposite or symmetric to each other.
  • the user interface providing system 200 according to another embodiment of the present invention corresponds to the occurrence of the above input event, and the first device 310 in which the display screen is facing the user before the input event occurs.
  • Mirror At least a portion (810) of the content (or function) that was being provided on the screen, and the display screen after the mirrored content (or function) 810 not only the first device 310 but also an input event occurs It may also be provided on the second device 320 facing the side. As a result, even when the user rotates his or her wrist so that the first device 310 faces the other party, the second device 320 indicates what content (or function) is provided to the other party on the first device 310. You can check through.
  • the system 200 for providing a user interface corresponds to an input event in which a user performs a flip action mentioned with reference to FIG. 8.
  • the content (or function) 910 provided on the first device 310 that the display screen was facing toward the user is divided into public content 920 and private content 930.
  • the public content 920 is displayed on the first device 310 facing the other side after the input event is generated, and the private content (on the second device 320 facing the user after the input event is generated) 930 may be displayed.
  • the public content and the private content can be classified and displayed according to the situation of the user.
  • the user interface providing system 200 may correspond to an input event in which a user performs a flip action mentioned with reference to FIG. 8.
  • the language of the content (or function) 1010 provided on the first device 310 facing the user is translated into another language, and the display screen faces the other side after the input event occurs.
  • the second language 320 may be displayed on the second device 320 facing the user after the input event occurs.
  • the content 1030 in Korean may be displayed.
  • the user interface providing system 200 may display a display screen after the input event is generated in response to the occurrence of an input event for a user to perform the flip action described with reference to FIG. 8.
  • the payment processing device eg, RFID reader, etc.
  • Information (eg, payment amount, etc.) 1110 may be displayed (see FIG. 11).
  • a display screen is processed after the input event occurs.
  • a function 1210 may be provided to support the input of a key (see FIG. 12).
  • the user interface providing system 200 may perform the flipping operation described with reference to FIG. 8 in addition to the user performing a touch operation of selecting a destination on the first device 310.
  • various contents related to the exercise for example, current location, distance or time remaining to the destination, music, etc.
  • the second device 320 that the user can easily manipulate during the exercise. Can be provided.
  • the user interface providing system 200 may respond to the user after the input event occurs in response to the occurrence of an input event that the user performs flip action described with reference to FIG. 8.
  • the user manipulation interface 1410 of the IoT household appliance such as a remote controller, which is the first device 310, may be displayed on the second device 320 that is viewed.
  • the security is secured while the user holds the first device 310 in the form of a smartphone with one hand and wears the second device 320 in the form of a smart watch on the wrist of the other hand.
  • the user interface providing system 200 the first device 310 as the user performs an operation such as turning the wrist of the hand wearing the second device 320, etc.
  • the content (or function) provided on the first device 310 eg, a security key code
  • the user interface providing system 200 as the user performs an operation such as turning the wrist of the hand wearing the second device 320 and the like;
  • an operation such as turning the wrist of the hand wearing the second device 320 and the like;
  • Information about the translation or text dictionary search results for the text may be displayed on the second device. 18 and 19, it can be seen that the above embodiment is actually demonstrated.
  • a first user wearing a smart watch-type first device on the right wrist and a second user wearing a smart watch-type second device on the left wrist shake hands with the right hand and the left hand, respectively.
  • the user interface providing system 200 may provide content (or function) provided on the first device worn by the first user in response to the occurrence of the above input event.
  • At least some of the content (or functionality) being provided on the second device worn by the second user is at least partially worn by the first user. It can be provided on the first device that is doing.
  • the user may receive content from another user's device or provide content to another user's device by simply flipping while shaking hands with the other user with a hand wearing the device.
  • Embodiments according to the present invention described above may be implemented in the form of program instructions that may be executed by various computer components, and may be recorded on a non-transitory computer readable recording medium.
  • the non-transitory computer readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the non-transitory computer readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts.
  • non-transitory computer readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, magnetic-optical media such as floppy disks ( magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

An aspect of the present invention provides a method for providing a user interface, the method comprising the steps of: (a) acquiring information on postures or movements of a first device and a second device, and detecting an input event specified on the basis of a relative relationship between the posture or movement of the first device and the posture or movement of the second device; and (b) allowing at least some of contents and functions provided on the first device to be provided on the second device or allowing at least some of contents and functions provided on the second device to be provided on the first device, in response to the occurrence of the input event.

Description

사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체Method, device, system and non-transitory computer readable recording medium for providing a user interface
본 발명은 사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to a method, device, system, and non-transitory computer readable recording medium for providing a user interface.
근래에 들어, 스마트폰, 스마트 패드 등과 같이 다양한 통신 및 센싱 기능과 강력한 연산 기능을 갖춘 이동식 스마트 디바이스가 널리 사용되고 있다. 이러한 이동식 스마트 디바이스 중에는 사용자가 신체에 착용하여 휴대할 수 있는 비교적 작은 크기의 것(예를 들면, 스마트 글래스, 스마트 워치, 스마트 밴드, 링이나 브로치와 같은 형태의 스마트 디바이스, 신체나 의류에 직접적으로 부착되거나 매립되는 스마트 디바이스 등)도 있다.In recent years, mobile smart devices having various communication and sensing functions and powerful computing functions such as smart phones and smart pads have been widely used. Such mobile smart devices may be relatively small in size and can be carried by the user (eg, smart glasses, smart watches, smart bands, smart devices in the form of rings or broaches, directly on the body or clothing). Smart devices that are attached or embedded).
이러한 상황에서 사용자는 본인의 두 개 이상의 (이종의) 스마트 디바이스를 사용하여 어떤 작업을 수행하려고 하거나, 본인의 스마트 디바이스와 다른 사용자의 디바이스가 함께 개입될 필요가 있는 어떤 작업이 수행되게끔 하려고 할 수 있다. 그러나, 종래의 기술에 따르면, 이러한 사용자의 (잠재적인) 의도가 적절하게 서포팅될 수 없었다.In this situation, a user might want to perform some task using his or her two or more (heterogeneous) smart devices, or want to perform some task that needs to intervene with his smart device and another user's device. Can be. However, according to the prior art, the (potential) intention of such a user could not be properly supported.
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.The object of the present invention is to solve all the above-mentioned problems.
또한, 본 발명은 제1 디바이스 및 제2 디바이스의 자세 또는 움직임에 관한 정보를 획득하고, 제1 디바이스의 자세 또는 움직임과 제2 디바이스의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 입력 이벤트를 감지하고, 입력 이벤트가 발생하는 것에 대응하여, 제1 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 제2 디바이스 상에서 제공되도록 하거나 제2 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 제1 디바이스 상에서 제공되도록 함으로써, 두 개 이상의 디바이스의 자세 또는 움직임 사이의 상대적인 관계를 이용하여 사용자에게 보다 편리하고 확장된 사용자 인터페이스를 제공할 수 있도록 하는 것을 다른 목적으로 한다.In addition, the present invention obtains information about the attitude or movement of the first device and the second device, and inputs an input event that is specified based on the relative relationship between the attitude or movement of the first device and the attitude or movement of the second device. Detect and in response to the input event occur, cause at least some of the content and functions provided on the first device to be provided on the second device or provide at least some of the content and functions provided on the second device on the first device It is another object of the present invention to provide a user with a more convenient and expanded user interface by using a relative relationship between postures or movements of two or more devices.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.Representative configuration of the present invention for achieving the above object is as follows.
본 발명의 일 태양에 따르면, 사용자 인터페이스를 제공하기 위한 방법으로서, (a) 제1 디바이스 및 제2 디바이스의 자세 또는 움직임에 관한 정보를 획득하고, 상기 제1 디바이스의 자세 또는 움직임과 상기 제2 디바이스의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 입력 이벤트를 감지하는 단계, 및 (b) 상기 입력 이벤트가 발생하는 것에 대응하여, 상기 제1 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 제2 디바이스 상에서 제공되도록 하거나, 상기 제2 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 제1 디바이스 상에서 제공되도록 하는 단계를 포함하는 방법이 제공된다.According to an aspect of the present invention, there is provided a method for providing a user interface, comprising: (a) obtaining information about a posture or movement of a first device and a second device, wherein the posture or movement of the first device and the second device are obtained; Detecting an input event specified based on a relative relationship between a device's posture or movement, and (b) in response to the input event occurring, at least some of the content and functionality provided on the first device To be provided on a second device or to cause at least some of the content and functionality provided on the second device to be provided on the first device.
본 발명의 다른 태양에 따르면, 사용자 인터페이스를 제공하기 위한 디바이스로서, 상기 디바이스 및 상기 디바이스와 연관된 다른 디바이스의 자세 또는 움직임에 관한 정보를 획득하고, 상기 디바이스의 자세 또는 움직임과 상기 다른 디바이스의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 입력 이벤트를 감지하는 기술 수단, 및 상기 입력 이벤트가 발생하는 것에 대응하여, 상기 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 다른 디바이스 상에서 제공되도록 하거나, 상기 다른 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 디바이스 상에서 제공되도록 하는 프로그램 모듈을 포함하는 디바이스가 제공된다.According to another aspect of the present invention, a device for providing a user interface, comprising: obtaining information about the posture or movement of the device and other devices associated with the device, the posture or movement of the device and the posture or of the other device; Technical means for sensing a specified input event based on a relative relationship between movements, and in response to the input event occurring, at least some of the content and functions provided on the device are provided on the other device, or A device is provided that includes a program module to allow at least some of the content and functions provided on another device to be provided on the device.
본 발명의 또 다른 태양에 따르면, 사용자 인터페이스를 제공하기 위한 시스템으로서, 제1 디바이스 및 제2 디바이스의 자세 또는 움직임에 관한 정보를 획득하고, 상기 제1 디바이스의 자세 또는 움직임과 상기 제2 디바이스의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 입력 이벤트를 감지하고, 상기 입력 이벤트가 발생하는 것에 대응하여, 상기 제1 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 제2 디바이스 상에서 제공되도록 하거나, 상기 제2 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 제1 디바이스 상에서 제공되도록 하는 제어부, 및 상기 제1 디바이스 및 상기 제2 디바이스 중 적어도 하나로부터 제공 받은 정보를 저장하는 저장소를 포함하는 시스템이 제공된다.According to yet another aspect of the present invention, a system for providing a user interface, comprising: obtaining information about a posture or movement of a first device and a second device, wherein the posture or movement of the first device and the second device Detect a specified input event based on a relative relationship between posture or movement, and in response to the input event occurring, at least some of the content and functions provided on the first device to be provided on the second device; And a control unit for allowing at least some of the contents and functions provided on the second device to be provided on the first device, and a storage storing information received from at least one of the first device and the second device. This is provided.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 디바이스, 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition, there is further provided a non-transitory computer readable recording medium for recording another method, device, system, and computer program for executing the method.
본 발명에 의하면, 두 개 이상의 디바이스의 자세 또는 움직임 사이의 상대적인 관계를 이용하여 사용자에게 보다 편리하고 확장된 사용자 인터페이스를 제공할 수 있게 되는 효과가 달성된다.According to the present invention, an effect of providing a more convenient and expanded user interface to a user is achieved by using a relative relationship between postures or movements of two or more devices.
또한, 본 발명에 의하면, 손목 등의 신체 부위에 제2 디바이스를 착용하고 있으면서 같은 손에 제1 디바이스를 들고 있는 사용자가 자신의 손을 뒤집는 행위(즉, 플립(Flip))를 행하는 것만으로도 제1 디바이스와 제2 디바이스에서의 컨텐츠(또는 기능) 제공 상태가 상호 간에 전환되도록 할 수 있게 되는 효과가 달성된다.In addition, according to the present invention, a user holding the first device in the same hand while wearing the second device on a body part such as a wrist, even if the user flips his or her hand (that is, flips), An effect is achieved that enables the content (or function) provision state at the first device and the second device to be switched between each other.
또한, 본 발명에 의하면, 서로 다른 방향을 바라보고 있는 제1 디바이스 및 제2 디바이스를 모두 소지하고 있는 사용자가 이들 디바이스를 소지하고 있는 손의 자세 또는 방향과 관계 없이 제1 디바이스와 제2 디바이스를 통해 컨텐츠 또는 기능을 그 연속성(Continuity)이 유지되는 상태로 제공 받을 수 있게 되는 효과가 달성된다.In addition, according to the present invention, a user having both the first device and the second device looking at different directions may use the first device and the second device irrespective of the posture or the direction of the hand holding the device. Through this, the effect that the content or function can be provided while maintaining its continuity is achieved.
또한, 본 발명에 의하면, 각각 제1 디바이스 및 제2 디바이스를 소지하고 있는 제1 사용자 및 제2 사용자가 입력 이벤트에 해당하는 간단한 행위를 행하는 것만으로 제1 디바이스와 제2 디바이스 사이에서 컨텐츠(또는 기능)가 연속성 있게 공유될 수 있게 되는 효과가 달성된다.In addition, according to the present invention, the first user and the second user each having the first device and the second device, respectively, by simply performing a simple action corresponding to an input event, the content (or The effect is that the functions) can be shared continuously.
도 1은 본 발명의 일 실시예에 따라 사용자 인터페이스를 제공하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a view showing a schematic configuration of an entire system for providing a user interface according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따라 제1 디바이스와 제2 디바이스 상호 간에 컨텐츠(또는 기능) 제공 상태가 전환되는 구성을 개념적으로 나타내는 도면이다.2 is a diagram conceptually illustrating a configuration in which a content (or function) provision state is switched between a first device and a second device according to an embodiment of the present invention.
도 3 내지 도 5는 본 발명의 일 실시예에 따라 사용자 인터페이스를 제공하는 구성을 예시적으로 나타내는 도면이다.3 to 5 are diagrams exemplarily illustrating a configuration for providing a user interface according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따라 제1 디바이스 상에서 제공되는 컨텐츠의 형식과 제2 디바이스 상에서 제공되는 컨텐츠의 형식이 서로 달라지는 구성을 예시적으로 나타내는 도면이다.6 is a diagram illustrating a configuration in which a format of content provided on a first device and a format of content provided on a second device are different from each other according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따라 제1 디바이스에 저장되어 있는 컨텐츠가 제2 디바이스로 전송되는 구성을 예시적으로 나타내는 도면이다.FIG. 7 is a diagram illustrating a configuration in which content stored in a first device is transmitted to a second device according to an embodiment of the present invention.
도 8 내지 도 15는 본 발명의 다른 실시예에 따라 사용자 인터페이스가 제공되는 구성을 예시적으로 나타내는 도면이다.8 to 15 are diagrams exemplarily illustrating a configuration in which a user interface is provided according to another embodiment of the present invention.
도 16 내지 도 22는 본 발명의 다양한 실시예에 따라 제공되는 사용자 인터페이스가 실제로 시연되고 있는 모습을 예시적으로 나타내는 도면이다.16 to 22 are diagrams exemplarily illustrating how a user interface provided according to various embodiments of the present invention is actually demonstrated.
전체 시스템의 구성Configuration of the entire system
도 1은 본 발명의 일 실시예에 따라 사용자 인터페이스를 제공하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.1 is a view showing a schematic configuration of an entire system for providing a user interface according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 사용자 인터페이스 제공 시스템(200), 및 복수의 디바이스(310, 320)를 포함하여 구성될 수 있다.As shown in FIG. 1, the entire system according to an embodiment of the present invention may include a communication network 100, a user interface providing system 200, and a plurality of devices 310 and 320.
먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드와이드웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.First, the communication network 100 according to an embodiment of the present invention may be configured regardless of a communication mode such as wired communication or wireless communication, and includes a local area network (LAN) and a metropolitan area network (MAN). ), And various communication networks such as a wide area network (WAN). Preferably, the communication network 100 as used herein may be a known Internet or World Wide Web (WWW). However, the communication network 100 may include, at least in part, a known wired / wireless data communication network, a known telephone network, or a known wired / wireless television communication network without being limited thereto.
다음으로, 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 시스템(200)은 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기일 수 있다. 이러한 사용자 인터페이스 제공 시스템(200)은 서버 시스템일 수 있다. 사용자 인터페이스 제공 시스템(200)은 통신망(100)을 통하여 디바이스(310, 320) 중 하나가 다른 하나로 소정의 정보나 제어 명령을 제공하거나, 하나가 다른 하나로부터 소정의 정보나 제어 명령을 제공 받도록 매개하는 기능을 수행할 수 있다.Next, the user interface providing system 200 according to an embodiment of the present invention may be a digital device having a computing capability by mounting a microprocessor and a memory means. The user interface providing system 200 may be a server system. The user interface providing system 200 may be configured to provide one of the devices 310 and 320 to the other through the communication network 100 to provide predetermined information or control commands to the other, or to receive the predetermined information or control commands from the other. To perform the function.
이를 위하여, 사용자 인터페이스 제공 시스템(200)은, 아래에서 자세하게 설명되는 바와 같이, 제1 디바이스 및 제2 디바이스의 자세 또는 움직임에 관한 정보를 획득하고, 제1 디바이스의 자세 또는 움직임과 제2 디바이스의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 입력 이벤트를 감지하고, 입력 이벤트가 발생하는 것에 대응하여, 제1 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 제2 디바이스 상에서 제공되도록 하거나 제2 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 제1 디바이스 상에서 제공되도록 함으로써, 두 개 이상의 디바이스의 자세 또는 움직임 사이의 상대적인 관계를 이용하여 사용자에게 보다 편리하고 확장된 사용자 인터페이스를 제공하는 기능을 수행할 수 있다.To this end, the user interface providing system 200 acquires information about the posture or movement of the first device and the second device, as described in detail below, and the posture or movement of the first device and the second device. Detect a specified input event based on a relative relationship between posture or movement, and in response to the input event occurring, at least some of the content and functions provided on the first device are provided on the second device or By allowing at least some of the contents and functions provided on the first device to be provided on the first device, a function of providing a more convenient and expanded user interface to a user may be performed by using a relative relationship between postures or movements of two or more devices. have.
이와 같은 사용자 인터페이스 제공은 사용자 인터페이스 제공 시스템(200)에 의하여 포함되는 제어부(미도시됨)에 의하여 수행될 수 있다. 이러한 제어부는 사용자 인터페이스 제공 시스템(200) 내에서 프로그램 모듈의 형태로 존재할 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태를 가질 수 있다. 또한, 프로그램 모듈은 사용자 인터페이스 제공 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.Such user interface provision may be performed by a controller (not shown) included by the user interface provision system 200. Such a controller may exist in the form of a program module in the user interface providing system 200. Such program modules may take the form of operating systems, application modules or other program modules. In addition, the program module may be stored in a remote storage device that can communicate with the user interface providing system 200. Meanwhile, the program module includes, but is not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or execute particular abstract data types, which will be described later, according to the present invention.
또한, 사용자 인터페이스 제공 시스템(200)은 복수의 디바이스(310, 320) 중 적어도 하나로부터 제공 받은 자세 또는 움직임에 관한 정보를 저장하고, 이것이 복수의 디바이스(310, 320) 중 적어도 하나에 의하여 이용되도록 하는 기능을 더 수행할 수 있다. 나아가, 인터페이스 제공 시스템(200)은 복수의 디바이스(310, 320) 중 적어도 하나에서 제공되고 있는 컨텐츠 또는 기능을 구성하는 정보를 저장하고, 이러한 정보가 복수의 디바이스(310, 320) 중 적어도 하나에 의하여 이용되도록 하는 기능을 더 수행할 수 있다. 상술한 저장은 사용자 인터페이스 제공 시스템(200)에 의하여 포함되는 저장소(미도시됨)에 의하여 수행될 수 있다. 이러한 저장소는 컴퓨터 판독 가능한 기록 매체를 포함하는 개념으로서, 협의의 데이터베이스뿐만 아니라 파일 시스템에 기반을 둔 데이터 기록 등을 포함하는 광의의 데이터베이스일 수도 있다.In addition, the user interface providing system 200 may store information about a posture or a movement provided from at least one of the plurality of devices 310 and 320, and may be used by at least one of the plurality of devices 310 and 320. To do more. Furthermore, the interface providing system 200 stores information constituting contents or functions provided by at least one of the plurality of devices 310 and 320, and the information is stored in at least one of the plurality of devices 310 and 320. It can further perform the function to be used by. The above-described storage may be performed by a storage (not shown) included by the user interface providing system 200. Such storage is a concept that includes a computer readable recording medium, and may be a broad database including not only a narrow database but also a file system based data record.
사용자 인터페이스 제공 시스템(200)의 기능에 관하여는 아래에서 더 자세하게 알아보기로 한다. 한편, 사용자 인터페이스 제공 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 사용자 인터페이스 제공 시스템(200)에 요구되는 기능이나 구성요소의 적어도 일부가 필요에 따라 조작의 대상이 되는 복수의 디바이스(310, 320) 중 적어도 하나에서 실현되거나 포함될 수도 있음은 당업자에게 자명하다.The function of the user interface providing system 200 will be described in more detail below. On the other hand, the user interface providing system 200 has been described as above, but this description is exemplary, and at least some of the functions or components required for the user interface providing system 200 are subject to manipulation as necessary. It will be apparent to those skilled in the art that at least one of the devices 310, 320 may be implemented or included.
마지막으로, 본 발명의 일 실시예에 따른 복수의 디바이스(310, 320)는 사용자 인터페이스 제공 시스템(200) 또는 복수의 디바이스(310, 320) 중 상대되는 것(바람직하게는, 복수의 디바이스(310, 320)는 서로 분리되어 있거나 외부화(externalization) 되어 있을 수 있음)에 접속한 후 통신할 수 있는 기능을 포함하는 디지털 기기로서, 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기라면 얼마든지 본 발명에 따른 디바이스(310, 320)로서 채택될 수 있다. 디바이스(310, 320)는 스마트폰, 스마트 패드, 스마트 글래스, 스마트 워치, 스마트 밴드, 스마트 링 등과 같은 소위 스마트 디바이스이거나 데스크탑 컴퓨터, 노트북 컴퓨터, 워크스테이션, PDA, 웹 패드, 이동 전화기, 버튼, 마우스, 키보드, 전자 펜 등과 같은 다소 전통적인 디바이스일 수 있다. 또한, 디바이스(310, 320)는 리모컨, 가전기기 등의 IoT(Internet of Things) 디바이스일 수 있다.Lastly, the plurality of devices 310 and 320 according to an embodiment of the present invention may be matched to the user interface providing system 200 or the plurality of devices 310 and 320 (preferably, the plurality of devices 310). , 320) may be separated from each other or externalized (externalized), and may be a digital device having a function of communicating with each other, and having a memory means and a microprocessor, Any number may be employed as the device 310, 320 according to the present invention. Devices 310 and 320 may be so-called smart devices such as smartphones, smart pads, smart glasses, smart watches, smart bands, smart rings, etc., or may be desktop computers, notebook computers, workstations, PDAs, web pads, mobile phones, buttons, mice. It may be a more traditional device such as, a keyboard, an electronic pen, and the like. In addition, the devices 310 and 320 may be Internet of Things (IoT) devices such as a remote controller and a home appliance.
특히, 본 발명의 일 실시예에 따르면, 디바이스(310, 320)에는 사용자로부터의 조작을 입력 받을 수 있는 기술 수단이 적어도 하나 포함될 수 있다. 이러한 기술 수단의 예로서, 공지의 구성요소인, 터치 패널, 포인팅 도구(예를 들면, 마우스, 스타일러스, 전자 펜 등), 사용자 조작이 가능한 그래픽 객체, 키보드, 토글 스위치, 생채 정보(지문 등) 인식 센서, 거리 센서 등을 들 수 있다.In particular, according to an embodiment of the present invention, the devices 310 and 320 may include at least one technical means capable of receiving an operation from a user. Examples of such technical means include known components, such as touch panels, pointing tools (e.g., mouse, stylus, electronic pen, etc.), graphical objects that can be manipulated by users, keyboards, toggle switches, biometric information (fingerprints, etc.). Recognition sensors, distance sensors, and the like.
또한, 본 발명의 일 실시예에 따르면, 디바이스(310, 320)에는 그 디바이스(310, 320)의 자세나 움직임에 관한 물리적인 정보를 획득할 수 있는 기술 수단이 적어도 하나 포함될 수 있다. 이러한 기술 수단의 예로서, 공지의 구성요소인, 움직임 센서, 가속도 센서, 자이로스코프, 자기 센서, 위치 결정 모듈(GPS 모듈, 비콘 기반의 위치 결정(확인) 모듈 등), 기압계, 거리 센서, 카메라 등을 들 수 있다.In addition, according to an embodiment of the present invention, the device 310, 320 may include at least one technical means for obtaining physical information about the attitude or movement of the device (310, 320). Examples of such technical means are known components, such as motion sensors, acceleration sensors, gyroscopes, magnetic sensors, positioning modules (GPS modules, beacon-based positioning (identification) modules, etc.), barometers, distance sensors, cameras Etc. can be mentioned.
또한, 본 발명의 일 실시예에 따르면, 디바이스(310, 320)에는 해당 디바이스(310, 320)를 소지하고 있는 사용자의 인체로부터 획득되는 생체 정보에 기초하여 해당 디바이스(310, 320)의 자세나 움직임에 관한 물리적인 정보를 획득할 수 있는 기술 수단이 포함될 수 있다. 이러한 기술 수단의 예로서, 근전도 신호 측정 장치 등을 들 수 있다.In addition, according to an embodiment of the present invention, the device 310, 320 has a posture of the device 310, 320 based on the biometric information obtained from the human body of the user having the device (310, 320) Technical means may be obtained for obtaining physical information about the movement. As an example of such technical means, an EMG signal measuring apparatus etc. are mentioned.
또한, 디바이스(310, 320)에는 위와 같은 물리적인 정보를 처리하여 다른 디바이스(310, 320 등)에 대하여 정보나 제어 명령을 제공하거나 다른 디바이스(310, 320 등)로부터 정보나 제어 명령을 제공 받거나 이러한 정보나 제어 명령을 생성하기 위한 애플리케이션 프로그램이 더 포함되어 있을 수 있다. 이러한 애플리케이션은 해당 디바이스(310, 320) 내에서 프로그램 모듈의 형태로 존재할 수 있다. 이러한 프로그램 모듈의 성격은 전술한 바와 같은 사용자 인터페이스 제공 시스템(200)의 제어부와 전반적으로 유사할 수 있다. 여기서, 애플리케이션은 그 적어도 일부가 필요에 따라 그것과 실질적으로 동일하거나 균등한 기능을 수행할 수 있는 하드웨어 장치나 펌웨어 장치로 치환될 수도 있다.In addition, the devices 310 and 320 process the above physical information to provide information or control commands to other devices 310 and 320, or receive information or control commands from other devices 310 and 320, or the like. An application program for generating such information or control command may be further included. Such an application may exist in the form of a program module in the corresponding devices 310 and 320. The nature of the program module may be similar to the overall control of the user interface providing system 200 as described above. Here, the application may be replaced with a hardware device or a firmware device, at least a part of which may perform a function substantially the same or equivalent thereto.
한편, 본 발명의 일 실시예에 따르면, 제1 디바이스(310)와 제2 디바이스(320)가 소정의 연관성(예를 들면, 동일한 사용자에게 속하는 것이라는 연관성이나, 동일한 사용자를 위하여 기능하는 것이라는 연관성이나, 서로 실질적으로 가까운 곳에 배치되어 있는 것이라는 연관성이나, 이들 중 하나가 다른 하나를 인증하거나 허용하는 것이 합당하다는 연관성)을 갖는 것이라는 점이 인식되는 경우에, 제1 디바이스(310)와 제2 디바이스(320) 간에 소정의 연결이 형성될 수 있는데, 이러한 인식 또는 연결은 사용자 인터페이스 제공 시스템(200)에 의해 수행되거나 제1 디바이스(310) 및 제2 디바이스(320)에 의해 수행될 수 있다.Meanwhile, according to an embodiment of the present invention, the first device 310 and the second device 320 may have a predetermined association (for example, an association that belongs to the same user, or an association that functions for the same user). The first device 310 and the second device 320 when it is recognized that they have an association that is located substantially close to each other, or that one of them is reasonable to authenticate or allow the other. A predetermined connection may be formed between the two terminals, which may be performed by the user interface providing system 200 or may be performed by the first device 310 and the second device 320.
실시예들Examples
아래에서는, 본 발명에 따른 사용자 인터페이스 제공 시스템(200)이 여러 실시예에 따라 복수의 디바이스(310, 320)가 개입되는 사용자 인터페이스를 제공하는 구체적인 예에 관하여 자세하게 살펴보기로 한다.Hereinafter, a detailed example in which the user interface providing system 200 according to the present invention provides a user interface in which a plurality of devices 310 and 320 are involved according to various embodiments will be described in detail.
본 발명의 일 실시예에 따르면, 사용자 인터페이스 제공 시스템(200)은, 제1 디바이스(310) 및 제2 디바이스(320)의 자세 또는 움직임에 관한 정보를 획득하고, 제1 디바이스(310)의 자세 또는 움직임과 제2 디바이스(320)의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 입력 이벤트를 감지하고, 입력 이벤트가 발생하는 것에 대응하여, 제1 디바이스(310) 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 제2 디바이스(320) 상에서 제공되도록 하거나 제2 디바이스(320) 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 제1 디바이스(310) 상에서 제공되도록 할 수 있다.According to an embodiment of the present invention, the user interface providing system 200 obtains information about the attitude or movement of the first device 310 and the second device 320, and the attitude of the first device 310. Or detecting a specific input event based on a relative relationship between a movement and a posture or movement of the second device 320, and in response to the occurrence of the input event, among the contents and functions provided on the first device 310. At least some may be provided on the second device 320 or at least some of the content and functions provided on the second device 320 may be provided on the first device 310.
구체적으로, 본 발명의 일 실시예에 따르면, 제1 디바이스(310) 및 제2 디바이스(320) 중 적어도 하나는 입력 이벤트를 유발시키는 입력 수단과 일체로 결합되어 움직일 수 있다. 예를 들면, 제1 디바이스(310)는 사용자가 손으로 파지할 수 있는 스마트폰일 수 있고, 제2 디바이스(320)는 사용자의 손목에 착용될 수 있는 스마트 워치일 수 있다.In detail, according to one embodiment of the present invention, at least one of the first device 310 and the second device 320 may move in combination with an input means for causing an input event. For example, the first device 310 may be a smart phone that the user can hold by hand, and the second device 320 may be a smart watch that may be worn on the user's wrist.
또한, 본 발명의 일 실시예에 따르면, 제1 디바이스(310)의 자세 또는 움직임과 제2 디바이스(320)의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 입력 이벤트는, 적어도 하나의 좌표 축을 기준으로 할 때 제1 디바이스(310)의 방향이 변화하는 양상과 제2 디바이스(320)의 방향이 변화하는 양상이 서로 반대이거나 대칭인 이벤트를 가리킬 수 있다. 예를 들면, 본 발명의 일 실시예에 따르면, 사용자가 제1 디바이스(310)를 파지하고 있고 손목에 제2 디바이스(320)를 착용하고 있는 손을 뒤집는 행위(일명, 플립(Flip))를 행하는 이벤트를 가리킬 수 있다.In addition, according to an embodiment of the present invention, the input event specified based on a relative relationship between the posture or movement of the first device 310 and the posture or movement of the second device 320 may include at least one coordinate axis. As a reference, an aspect in which the direction of the first device 310 and an aspect in which the direction of the second device 320 is changed may indicate an event that is opposite or symmetrical to each other. For example, according to an embodiment of the present invention, the user is holding the first device 310 and flipping a hand (also known as flip) that is wearing the second device 320 on the wrist. It can point to an event.
한편, 본 발명의 일 실시예에 따르면, 입력 이벤트는, 제1 면을 기준으로 하는 제1 디바이스(310)의 자세 또는 움직임과 제2 면을 기준으로 하는 제2 디바이스(310)의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정될 수 있다. 여기서, 제1 면 또는 제2 면은, 제1 디바이스(310) 또는 제2 디바이스(320)의 상면, 하면, 좌면, 우면, 전면, 후면 등에 해당할 수 있다.Meanwhile, according to an embodiment of the present invention, the input event may include a posture or movement of the first device 310 based on the first surface and a posture or movement of the second device 310 based on the second surface. It can be specified based on the relative relationship between them. Here, the first surface or the second surface may correspond to an upper surface, a lower surface, a left surface, a right surface, a front surface, a rear surface, or the like of the first device 310 or the second device 320.
도 2는 본 발명의 일 실시예에 따라 제1 디바이스와 제2 디바이스 상호 간에 컨텐츠(또는 기능) 제공 상태가 전환되는 구성을 개념적으로 나타내는 도면이다.2 is a diagram conceptually illustrating a configuration in which a content (or function) provision state is switched between a first device and a second device according to an embodiment of the present invention.
일반적으로, 손으로 제1 디바이스(310)를 파지하고 있고 같은 손의 손목에 제2 디바이스(320)를 착용하고 있는 사용자가 해당 손을 뒤집는 행위(즉, 플립)를 행하는 경우에, 위의 행위가 행해지기 전에 표시 화면이 사용자 쪽을 바라보고 있던 상태로 사용자에게 컨텐츠(또는 기능)을 제공하고 있던 제1 디바이스(310) 또는 제2 디바이스(320)는 위의 행위가 행해지고 난 후에는 그 표시 화면이 사용자 쪽을 바라보지 못하게 되어 더 이상 사용자에게 컨텐츠(또는 기능)을 제공하기 어렵게 될 수 있다.In general, when the user holding the first device 310 by hand and wearing the second device 320 on the wrist of the same hand performs an inverted hand (ie flip), the above action is performed. The first device 310 or the second device 320 which has provided the content (or function) to the user with the display screen facing the user before the execution is performed, displays the display after the above action is performed. The screen may not be facing the user and may no longer provide content (or functions) to the user.
도 2를 참조하면, 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 사용자가 서로 다른 방향의 바라보고 있는 제1 디바이스(310) 및 제2 디바이스(320)를 모두 소지하고 있는 손을 뒤집는 플립 행위를 행하는 경우에, 위의 행위를 스마트폰 형태의 제1 디바이스(310)의 방향이 변화하는 양상과 스마트 워치 형태의 제2 디바이스(320)의 방향이 변화하는 양상이 서로 반대이거나 대칭인 입력 이벤트로서 인식하고, 입력 이벤트가 발생하기 전에 표시 화면이 사용자 쪽을 바라보고 있던 제1 디바이스(310)(또는 제2 디바이스(320)) 상에서 제공되고 있던 컨텐츠(또는 기능) 중 적어도 일부(201, 202)가 입력 이벤트가 발생한 이후에 표시 화면이 사용자 쪽을 바라보게 된 제2 디바이스(320)(또는 제1 디바이스(310)) 상에서 제공되도록 할 수 있다. 따라서, 본 발명에 따르면, 사용자에게 제공되는 컨텐츠(또는 기능)가 제1 디바이스(310)와 제2 디바이스(320)를 모두 통해서 연속성(continuity)을 유지한 채로 제공될 수 있게 된다. 도 16 및 도 17을 참조하면, 위의 실시예가 실제로 시연되는 모습을 확인할 수 있다.Referring to FIG. 2, the system 200 for providing a user interface according to an embodiment of the present invention includes both the first device 310 and the second device 320 that the user faces in different directions. In the case of flipping hands, the direction of the first device 310 in the form of a smartphone is changed and the direction of the second device 320 in the form of a smart watch is reversed. At least one of contents (or functions) provided on the first device 310 (or the second device 320) that the display screen is facing toward the user before the input event occurs. Some of the parts 201 and 202 may be provided on the second device 320 (or the first device 310) facing the user after the input event occurs. Therefore, according to the present invention, the content (or function) provided to the user can be provided while maintaining continuity through both the first device 310 and the second device 320. 16 and 17, it can be seen that the above embodiment is actually demonstrated.
도 3 내지 도 5는 본 발명의 일 실시예에 따라 사용자 인터페이스를 제공하는 구성을 예시적으로 나타내는 도면이다.3 to 5 are diagrams exemplarily illustrating a configuration for providing a user interface according to an embodiment of the present invention.
도 3 및 도 4를 참조하면, 왼쪽 손목에 제2 디바이스(320)를 착용하고 있고 같은 왼쪽 손으로 제1 디바이스(310)를 파지하고 있는 사용자가 자신의 왼손을 뒤집는 행위(즉, 플립)를 행하는 경우를 가정할 수 있다. 이러한 경우에, 사용자 쪽을 바라보고 있던 제1 디바이스(310)가 더 이상 사용자 쪽을 바라보지 못하게 되는 대신에 사용자 쪽을 바라보지 않고 있던 제2 디바이스(320)가 사용자 쪽을 바라보게 될 수 있고(도 3 참조), 반대로, 사용자 쪽을 바라보고 있던 제2 디바이스(320)가 더 이상 사용자 쪽을 바라보지 못하게 되는 대신에 사용자 쪽을 바라보지 않고 있던 제1 디바이스(310)가 사용자 쪽을 바라보게 될 수 있다(도 4 참조).3 and 4, a user wearing the second device 320 on the left wrist and holding the first device 310 with the same left hand turns over his left hand (ie, flips). The case can be assumed. In this case, instead of the first device 310 looking at the user side no longer looking at the user side, the second device 320 not looking at the user side may be looking at the user side. On the contrary, instead of the second device 320 looking at the user no longer looking at the user, the first device 310 not looking at the user is facing the user. Can be seen (see FIG. 4).
도 5를 참조하면, 제1 디바이스(310) 및 제2 디바이스(320)에 구비되어 있는 자이로스코프(Gyroscope)에 의하여 측정되는 제1 디바이스(310) 및 제2 디바이스(320)의 자세 또는 방향에 관한 물리적인 정보가 획득될 수 있으며, 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 도 5에 도시된 바와 같은 물리적인 정보에 기초하여 입력 이벤트가 발생하는지 여부를 감지할 수 있다. 구체적으로, 도 5의 (a) 및 (b)는 각각 제1 디바이스(310) 및 제2 디바이스(320)에 대한 자이로스코프 측정값을 가리키며, 도 5의 (a) 및 (b) 각각에서 노란색, 붉은색 및 초록색 그래프는 각각 방위각(azimuth). 피치(pitch) 및 롤(roll) 방향의 측정값을 가리킨다.Referring to FIG. 5, a posture or direction of the first device 310 and the second device 320 measured by a gyroscope provided in the first device 310 and the second device 320 is measured. Physical information relating to the present invention may be obtained, and the user interface providing system 200 according to an exemplary embodiment may detect whether an input event occurs based on the physical information as illustrated in FIG. 5. have. Specifically, FIGS. 5A and 5B indicate gyroscope measurements of the first device 310 and the second device 320, respectively, and yellow in FIGS. 5A and 5B, respectively. , Red and green graphs are azimuth respectively. It indicates the measured value in the pitch and roll direction.
한편, 본 발명의 일 실시예에 따르면, 사용자의 플립 행위에 따른 입력 이벤트가 발생하는 것에 대응하여, 사용자 쪽을 바라보고 있던 제1 디바이스(310) 상에서 제공되고 있던 컨텐츠 중 적어도 일부가 제2 디바이스(320)에게 전송되도록 하거나, 반대로, 사용자 쪽을 바라보고 있던 제2 디바이스(320) 상에서 제공되고 있던 컨텐츠 중 적어도 일부가 제1 디바이스(310)에게 전송되도록 할 수 있다.Meanwhile, according to an embodiment of the present disclosure, in response to an input event caused by a user's flipping action, at least a part of content provided on the first device 310 facing the user is the second device. At least a portion of the content being provided on the second device 320 facing the user may be transmitted to the first device 310.
또한, 본 발명의 일 실시예에 따르면, 사용자의 플립 행위에 따른 입력 이벤트가 발생하는 것에 대응하여, 사용자 쪽을 바라보고 있던 제1 디바이스(310) 상에서 실행되고 있던 프로세스가 제2 디바이스(320) 상에서 실행되도록 하거나, 반대로, 사용자 쪽을 바라보고 있던 제2 디바이스(320) 상에서 실행되고 있던 프로세스가 제1 디바이스(310) 상에서 실행되도록 할 수 있다.In addition, according to an embodiment of the present invention, in response to an input event caused by a user's flipping action, a process that is being executed on the first device 310 facing toward the user is performed by the second device 320. On the contrary, a process that is being executed on the second device 320 that is facing the user may be executed on the first device 310.
또한, 본 발명의 일 실시예에 따르면, 사용자의 플립 행위에 따른 입력 이벤트가 발생하는 것에 대응하여, 입력 이벤트가 발생하기 전에 제1 디바이스 상(310)(또는 제2 디바이스(320))에서 제공되고 있던 컨텐츠의 형식과 입력 이벤트가 발생한 이후에 제2 디바이스(320)(또는 제1 디바이스(310)) 상에서 제공되는 컨텐츠의 형식이 서로 다를 수 있다.In addition, according to an embodiment of the present invention, in response to an input event generated according to a user's flipping action, provided on the first device 310 (or the second device 320) before the input event occurs. The format of the content that is being used and the format of the content provided on the second device 320 (or the first device 310) after the input event occurs may be different.
도 6은 본 발명의 일 실시예에 따라 제1 디바이스 상에서 제공되는 컨텐츠의 형식과 제2 디바이스 상에서 제공되는 컨텐츠의 형식이 서로 달라지는 구성을 예시적으로 나타내는 도면이다.6 is a diagram illustrating a configuration in which a format of content provided on a first device and a format of content provided on a second device are different from each other according to an embodiment of the present invention.
도 6을 참조하면, 입력 이벤트가 발생하기 전에 제1 디바이스(310) 상에서 시각적인 형태로 제공되고 있던 컨텐츠가 입력 이벤트가 발생한 이후에 제2 디바이스(320) 상에서 청각 또는 촉각적인 형태로 제공될 수 있다. 예를 들면, 표시 화면의 크기가 상대적으로 큰 제1 디바이스(310) 상에서 텍스트의 형태로 제공되고 있던 독서 컨텐츠가, 표시 화면의 크기가 상대적으로 작고 사용자의 손목에 밀착하여 착용되는 제2 디바이스(320) 상에서는 음성 또는 진동의 형태로 제공될 수 있다.Referring to FIG. 6, content that was provided in a visual form on the first device 310 before the input event occurs may be provided on the second device 320 in an auditory or tactile form after the input event occurs. have. For example, a second device in which reading content, which has been provided in the form of text on the first device 310 having a relatively large display screen, is worn in close contact with a user's wrist. 320 may be provided in the form of voice or vibration.
한편, 본 발명의 일 실시예에 따르면, 입력 이벤트는, 제1 디바이스(310)의 자세 또는 움직임과 제2 디바이스(320)의 자세 또는 움직임 사이의 상대적인 관계뿐만 아니라, 제1 디바이스(310) 또는 제2 디바이스(320)에 대하여 입력되는 사용자 조작에 더 기초하여 특정될 수 있다. 예를 들면, 제1 디바이스(310) 또는 제2 디바이스(320)에 대하여 입력되는 사용자 조작에는, 터치 조작, 키보드 조작, 음성 인식 조작 등이 포함될 수 있다.Meanwhile, according to an embodiment of the present invention, the input event may include not only a relative relationship between the posture or movement of the first device 310 and the posture or movement of the second device 320, but also the first device 310 or It may be specified further based on a user manipulation input to the second device 320. For example, a user operation input to the first device 310 or the second device 320 may include a touch operation, a keyboard operation, a voice recognition operation, and the like.
구체적으로, 본 발명의 일 실시예에 따르면, 사용자가 플립 행위를 행하는 것과 함께 제1 디바이스(310) 또는 제2 디바이스(320)의 표시 화면 상에 표시된 특정 컨텐츠를 터치하는 입력 이벤트가 발생하는 것에 대응하여, 사용자 쪽을 바라보고 있던 제1 디바이스(310) 상에서 제공되고 있던 컨텐츠 중 위의 터치 조작과 연관된 특정 컨텐츠가 제2 디바이스(320) 상에서 제공되도록 하거나, 반대로, 사용자 쪽을 바라보고 있던 제2 디바이스(320) 상에서 제공되고 있던 컨텐츠 중 위의 터치 조작과 연관된 특정 컨텐츠가 제1 디바이스(310) 상에서 제공되도록 할 수 있다.Specifically, according to an embodiment of the present invention, when a user performs a flip action and an input event for touching specific content displayed on the display screen of the first device 310 or the second device 320 occurs. Correspondingly, the specific content associated with the above touch manipulation among the contents provided on the first device 310 facing toward the user may be provided on the second device 320 or vice versa. The specific content associated with the above touch manipulation among the contents provided on the second device 320 may be provided on the first device 310.
도 7은 본 발명의 일 실시예에 따라 제1 디바이스에 저장되어 있는 컨텐츠가 제2 디바이스로 전송되는 구성을 예시적으로 나타내는 도면이다.FIG. 7 is a diagram illustrating a configuration in which content stored in a first device is transmitted to a second device according to an embodiment of the present invention.
도 7을 참조하면, 입력 이벤트가 발생하기 전에 제1 디바이스(310) 상에서 제공되고 있던 컨텐츠 중 사용자의 터치 조작(710)에 의해 선택된 특정 컨텐츠(701, 702)(예를 들면, 특정 음원 파일 등)만이 입력 이벤트가 발생한 이후에 제2 디바이스(320) 상에서 제공되도록 할 수 있다.Referring to FIG. 7, specific content 701, 702 (eg, a specific sound source file, etc.) selected by the user's touch manipulation 710 among contents provided on the first device 310 before an input event occurs. ) May be provided on the second device 320 after an input event occurs.
또한, 본 발명의 일 실시예에 따르면, 사용자 인터페이스 제공 시스템(200)은 사용자가 플립 행위를 행함에 따라 제2 디바이스(320)가 사용자 쪽을 바라보게 되는 것과 함께 사용자가 제1 디바이스(310)의 표시 화면 상에 표시된 특정 컨텐츠(예를 들면, 웹 페이지 등)를 터치하는 입력 이벤트가 발생하는 것에 대응하여, 사용자 쪽을 바라보고 있던 제1 디바이스(310) 상에서 제공되고 있던 컨텐츠가 북마크(또는 즐겨찾기)로서 등록되고 해당 북마크를 포함하는 목록이 제2 디바이스(320) 상에 표시되도록 할 수 있다. 또한, 본 발명의 일 실시예에 따르면, 사용자 인터페이스 제공 시스템(200)은 사용자가 플립 행위를 행함에 따라 제1 디바이스(310)가 사용자 쪽을 바라보게 되는 것과 함께 사용자가 제2 디바이스(310)의 표시 화면 상에 표시된 북마크 목록(예를 들면, 북마크된 웹 페이지 목록 등) 중 특정 북마크를 선택(즉, 터치)하는 입력 이벤트가 발생하는 것에 대응하여, 사용자 쪽을 바라보고 있던 제2 디바이스(310) 상에서 선택된 특정 북마크에 대응하는 컨텐츠가 제1 디바이스(310) 상에 표시되도록 할 수 있다. 도 20 내지 도 22를 참조하면, 위의 실시예가 실제로 시연되는 모습을 확인할 수 있다.In addition, according to an embodiment of the present invention, the user interface providing system 200 allows the user to display the first device 310 with the second device 320 facing the user as the user flips. In response to an input event of touching a specific content (for example, a web page, etc.) displayed on the display screen of the user, content provided on the first device 310 facing the user is bookmarked (or A list registered as a bookmark and including the bookmark may be displayed on the second device 320. In addition, according to an embodiment of the present invention, the user interface providing system 200 allows the user to display the second device 310 with the first device 310 facing the user as the user flips. In response to an input event for selecting (ie, touching) a specific bookmark from a list of bookmarks (for example, a list of bookmarked web pages, etc.) displayed on the display screen of the second device, The content corresponding to the specific bookmark selected on the 310 may be displayed on the first device 310. 20 to 22, it can be seen that the above embodiment is actually demonstrated.
한편, 이상에서는, 사용자가 자신의 손을 한 번 뒤집는 행위에 의하여 입력 이벤트가 특정되는 실시예에 대하여 주로 설명되었지만, 본 발명이 반드시 이에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 얼마든지 다른 행위(예를 들면, 손을 두 번 이상 뒤집는 행위 등)에 의하여도 입력 이벤트가 특정될 수 있음을 밝혀 둔다.On the other hand, in the above, mainly described with respect to the embodiment in which the input event is specified by the user flipping his hand once, the present invention is not necessarily limited thereto, the scope of the present invention can be achieved It is noted that the input event can be specified by any number of other actions within (eg, flipping the hand more than once).
또한, 이상에서는, 제1 디바이스가 사용자의 손에 파지되는 스마트폰이고 제2 디바이스가 사용자의 손목에 착용되는 스마트 워치인 실시예에 대하여 주로 설명되었지만, 본 발명이 반드시 이에 한정되는 것은 아니며, 본 발명의 목적을 달성할 수 있는 범위 내에서 제1 디바이스와 제2 디바이스는 스마트 패드, 스마트 글래스, 스마트 밴드, 스마트 링 등의 다른 형태로도 구현될 수 있음을 밝혀 둔다.In addition, while the above is mainly described with respect to the embodiment in which the first device is a smart phone held in the user's hand and the second device is a smart watch worn on the user's wrist, the present invention is not necessarily limited thereto. It will be appreciated that the first device and the second device may be implemented in other forms such as a smart pad, a smart glass, a smart band, a smart ring, and the like within the scope of the object of the present invention.
도 8 내지 도 15는 본 발명의 다른 실시예에 따라 사용자 인터페이스가 제공되는 구성을 예시적으로 나타내는 도면이다.8 to 15 are diagrams exemplarily illustrating a configuration in which a user interface is provided according to another embodiment of the present invention.
먼저, 도 8을 참조하면, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 사용자가 서로 다른 방향의 바라보고 있는 제1 디바이스(310) 및 제2 디바이스(320)를 모두 소지하고 있는 손을 뒤집는 플립 행위를 행하는 경우에, 위의 행위를 스마트폰 형태의 제1 디바이스(310)의 방향이 변화하는 양상과 스마트 워치 형태의 제2 디바이스(320)의 방향이 변화하는 양상이 서로 반대이거나 대칭인 입력 이벤트로서 인식할 수 있다. 계속하여, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 위와 같은 입력 이벤트가 발생하는 것에 대응하여, 입력 이벤트 발생 전에 표시 화면이 사용자 쪽을 바라보고 있던 제1 디바이스(310) 상에서 제공되고 있던 컨텐츠(또는 기능) 중 적어도 일부(810)를 미러링(Mirroring)하고, 이렇게 미러링된 컨텐츠(또는 기능)(810)가 제1 디바이스(310)뿐만 아니라 입력 이벤트 발생 후에 표시 화면이 사용자 쪽을 바라보게 된 제2 디바이스(320) 상에도 제공되도록 할 수 있다. 이로써, 사용자가 제1 디바이스(310)가 상대방 쪽을 바라보도록 자신의 손목을 회전시킨 상태에서도 제1 디바이스(310) 상에서 상대방에게 어떤 컨텐츠(또는 기능)가 제공되고 있는지를 제2 디바이스(320)를 통해 확인할 수 있게 된다.First, referring to FIG. 8, a user interface providing system 200 according to another embodiment of the present invention possesses both a first device 310 and a second device 320 that a user looks in different directions. In the case of flipping the flipping hand, the direction of the first device 310 in the form of a smartphone is changed and the direction of the second device 320 in the form of a smart watch is changed. It can be recognized as input events that are opposite or symmetric to each other. Subsequently, the user interface providing system 200 according to another embodiment of the present invention corresponds to the occurrence of the above input event, and the first device 310 in which the display screen is facing the user before the input event occurs. Mirror (Mirroring) at least a portion (810) of the content (or function) that was being provided on the screen, and the display screen after the mirrored content (or function) 810 not only the first device 310 but also an input event occurs It may also be provided on the second device 320 facing the side. As a result, even when the user rotates his or her wrist so that the first device 310 faces the other party, the second device 320 indicates what content (or function) is provided to the other party on the first device 310. You can check through.
다음으로, 도 9를 참조하면, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 사용자가 도 8과 관련하여 언급한 플립 행위를 하는 입력 이벤트가 발생하는 것에 대응하여, 입력 이벤트 발생 전에 표시 화면이 사용자 쪽을 바라보고 있던 제1 디바이스(310) 상에서 제공되고 있던 컨텐츠(또는 기능)(910)를 공적인(Public) 컨텐츠(920)와 사적인(Private) 컨텐츠(930)로 나누고, 입력 이벤트 발생 후에 표시 화면이 상대방 쪽을 바라보게 된 제1 디바이스(310) 상에는 공적인 컨텐츠(920)가 표시되도록 하고, 입력 이벤트 발생 후에 사용자 쪽을 바라보게 된 제2 디바이스(320) 상에는 사적인 컨텐츠(930)가 표시되도록 할 수 있다. 이로써, 사용자가 처한 상황에 따라 공적인 컨텐츠와 사적인 컨텐츠를 구분하여 표시할 수 있게 된다.Next, referring to FIG. 9, the system 200 for providing a user interface according to another embodiment of the present disclosure corresponds to an input event in which a user performs a flip action mentioned with reference to FIG. 8. Before the occurrence, the content (or function) 910 provided on the first device 310 that the display screen was facing toward the user is divided into public content 920 and private content 930. The public content 920 is displayed on the first device 310 facing the other side after the input event is generated, and the private content (on the second device 320 facing the user after the input event is generated) 930 may be displayed. As a result, the public content and the private content can be classified and displayed according to the situation of the user.
다음으로, 도 10을 참조하면, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 사용자가 도 8과 관련하여 언급한 플립 행위를 하는 입력 이벤트가 발생하는 것에 대응하여, 입력 이벤트 발생 전에 표시 화면이 사용자 쪽을 바라보고 있던 제1 디바이스(310) 상에서 제공되고 있던 컨텐츠(또는 기능)(1010)의 언어를 다른 언어로 번역하고, 입력 이벤트 발생 후에 표시 화면이 상대방 쪽을 바라보게 된 제1 디바이스(310) 상에는 제1 언어(예를 들면, 영어)로 된 컨텐츠(1020)가 표시되도록 하고, 입력 이벤트 발생 후에 사용자 쪽을 바라보게 된 제2 디바이스(320) 상에는 제2 언어(예를 들면, 한국어)로 된 컨텐츠(1030)가 표시되도록 할 수 있다.Next, referring to FIG. 10, the user interface providing system 200 according to another exemplary embodiment of the present disclosure may correspond to an input event in which a user performs a flip action mentioned with reference to FIG. 8. Before the occurrence, the language of the content (or function) 1010 provided on the first device 310 facing the user is translated into another language, and the display screen faces the other side after the input event occurs. In order to display the content 1020 in a first language (eg, English) on the first device 310, the second language 320 may be displayed on the second device 320 facing the user after the input event occurs. For example, the content 1030 in Korean may be displayed.
다음으로, 도 11 및 12를 참조하면, 사용자가 자신의 손으로 파지하고 있는 스마트폰 형태의 제1 디바이스(310)를 이용하여 근거리 통신에 기반한 결제를 수행하는 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 사용자가 도 8과 관련하여 언급한 플립 행위를 하는 입력 이벤트가 발생하는 것에 대응하여, 입력 이벤트 발생 후에 표시 화면이 결제 처리 기기(예를 들면, RFID 리더기 등)(330) 쪽을 바라보게 된 제1 디바이스(310)를 대신해 입력 이벤트 발생 후에 사용자 쪽을 바라보게 된 제2 디바이스(320) 상에 결제에 관한 다양한 정보(예를 들면, 결제 금액 등)(1110)가 표시되도록 할 수 있다(도 11 참조). 또한, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 사용자가 도 8과 관련하여 언급한 플립 행위를 하는 입력 이벤트가 발생하는 것에 대응하여, 입력 이벤트 발생 후에 표시 화면이 결제 처리 기기(예를 들면, RFID 리더기 등)(330) 쪽을 바라보게 된 제1 디바이스(310)를 대신해 입력 이벤트 발생 후에 사용자 쪽을 바라보게 된 제2 디바이스(320) 상에 터치 조작에 기반하여 서명을 입력할 수 있도록 지원하는 기능(1210)이 제공되도록 할 수 있다(도 12 참조).Next, referring to FIGS. 11 and 12, it may be assumed that a user performs payment based on short-range communication using the first device 310 of a smartphone type held by his or her hand. In this case, the user interface providing system 200 according to another embodiment of the present invention may display a display screen after the input event is generated in response to the occurrence of an input event for a user to perform the flip action described with reference to FIG. 8. On the second device 320 facing the user after the occurrence of the input event on behalf of the first device 310 facing the payment processing device (eg, RFID reader, etc.) 330 Information (eg, payment amount, etc.) 1110 may be displayed (see FIG. 11). In addition, in the user interface providing system 200 according to another embodiment of the present invention, in response to an input event of a flip action mentioned by the user in relation to FIG. 8 being generated, a display screen is processed after the input event occurs. On the basis of the touch manipulation on the second device 320 facing the user after the occurrence of the input event on behalf of the first device 310 facing the device (eg, RFID reader, etc.) 330. A function 1210 may be provided to support the input of a key (see FIG. 12).
다음으로, 도 13을 참조하면, 사용자가 제2 디바이스(320)를 손목에 착용한 상태로 달리기와 같은 운동을 하는 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 사용자가 제1 디바이스(310) 상에서 목적지를 선택하는 터치 조작을 행하는 것과 함께 도 8과 관련하여 언급한 플립 행위를 하는 입력 이벤트가 발생하는 것에 대응하여, 사용자가 운동 중에서 손쉽게 조작할 수 있는 제2 디바이스(320) 상에 운동에 관한 다양한 컨텐츠(예를 들면, 현재 위치, 목적지까지 남은 거리 또는 시간, 음악 등)가 제공되도록 할 수 있다.Next, referring to FIG. 13, it may be assumed that a user performs an exercise such as running while wearing the second device 320 on a wrist. In this case, the user interface providing system 200 according to another embodiment of the present invention may perform the flipping operation described with reference to FIG. 8 in addition to the user performing a touch operation of selecting a destination on the first device 310. In response to the input event to be generated, various contents related to the exercise (for example, current location, distance or time remaining to the destination, music, etc.) on the second device 320 that the user can easily manipulate during the exercise. Can be provided.
다음으로, 도 14를 참조하면, 사용자가 제2 디바이스(320)를 손목에 착용한 상태로 리모컨과 같은 IoT 가전기기(제1 디바이스(310)에 해당함)를 같은 손으로 파지하는 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 사용자가 도 8과 관련하여 언급한 플립 행위를 하는 입력 이벤트가 발생하는 것에 대응하여, 입력 이벤트 발생 후에 사용자 쪽을 바라보게 된 제2 디바이스(320) 상에 제1 디바이스(310)인 리모컨 등의 IoT 가전기기의 사용자 조작 인터페이스(1410)가 표시되도록 할 수 있다.Next, referring to FIG. 14, it will be assumed that a user grips an IoT home appliance (corresponding to the first device 310), such as a remote controller, with the same hand while wearing the second device 320 on a wrist. Can be. In such a case, the user interface providing system 200 according to another embodiment of the present invention may respond to the user after the input event occurs in response to the occurrence of an input event that the user performs flip action described with reference to FIG. 8. The user manipulation interface 1410 of the IoT household appliance such as a remote controller, which is the first device 310, may be displayed on the second device 320 that is viewed.
다음으로, 도 15를 참조하면, 사용자가 한 손으로 스마트폰 형태의 제1 디바이스(310)를 파지하고 다른 손의 손목에 스마트 워치 형태의 제2 디바이스(320)를 착용하고 있는 상태에서 보안이 요구되는 작업을 수행하는 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 사용자가 제2 디바이스(320)를 착용하고 있는 손의 손목을 돌리는 등의 동작에 행함에 따라 제1 디바이스(310)와 제2 디바이스(320) 모두가 사용자 쪽을 바라보게 되는 입력 이벤트가 발생하는 것에 대응하여, 제1 디바이스(310) 상에 제공되는 컨텐츠(또는 기능)(예를 들면, 사용자가 보안 키 코드를 입력할 수 있도록 지원하는 기능 등)(1510)과 연관되는 부가 컨텐츠(또는 기능)(예를 들면, 입력되어야 할 보안 키 코드 등)(1520)가 제2 디바이스(320) 상에 제공되도록 할 수 있다. 이로써, 사용자가 비밀번호 등의 보안 정보를 입력하는 작업을 수행함에 있어서 편의성과 보안성을 높일 수 있게 된다.Next, referring to FIG. 15, the security is secured while the user holds the first device 310 in the form of a smartphone with one hand and wears the second device 320 in the form of a smart watch on the wrist of the other hand. Suppose you are performing a required task. In this case, the user interface providing system 200 according to another embodiment of the present invention, the first device 310 as the user performs an operation such as turning the wrist of the hand wearing the second device 320, etc. ) And the content (or function) provided on the first device 310 (eg, a security key code) in response to an input event where both the second device 320 and the second device 320 are facing the user. To allow additional content (or functions) (eg, security key codes to be entered, etc.) 1520 associated with 1510 to be provided on the second device 320. Can be. As a result, the user may increase convenience and security in performing a task of inputting security information such as a password.
한편, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 사용자가 제2 디바이스(320)를 착용하고 있는 손의 손목을 돌리는 등의 동작에 행함에 따라 제1 디바이스(310)와 제2 디바이스(320) 모두가 사용자 쪽을 바라보게 되는 것과 함께 사용자가 제1 디바이스(310) 상에 표시되고 있는 컨텐츠 중 특정 텍스트를 선택하는 터치 조작을 행하는 입력 이벤트가 발생하는 것에 대응하여, 특정 텍스트에 대한 번역 또는 어학사전 검색 결과에 관한 정보가 제2 디바이스 상에 표시되도록 할 수 있다. 도 18 및 도 19를 참조하면, 위의 실시예가 실제로 시연되는 모습을 확인할 수 있다.On the other hand, the user interface providing system 200 according to another embodiment of the present invention, as the user performs an operation such as turning the wrist of the hand wearing the second device 320 and the like; In response to an occurrence of an input event for performing a touch operation for selecting a specific text among the contents displayed on the first device 310 as the second device 320 is all faced toward the user, Information about the translation or text dictionary search results for the text may be displayed on the second device. 18 and 19, it can be seen that the above embodiment is actually demonstrated.
한편, 오른쪽 손목에 스마트 워치 형태의 제1 디바이스를 착용하고 있는 제1 사용자와 왼쪽 손목에 스마트 워치 형태의 제2 디바이스를 착용하고 있는 제2 사용자가 각각 오른손과 왼손으로 악수를 나누는 상황에서 제1 사용자와 제2 사용자가 서로 맞잡은 손을 돌리는 플립 행위를 행하는 입력 이벤트가 발생하는 경우를 가정할 수 있다. 이러한 경우에, 본 발명의 다른 실시예에 따른 사용자 인터페이스 제공 시스템(200)은, 위와 같은 입력 이벤트가 발생하는 것에 대응하여, 제1 사용자가 착용하고 있는 제1 디바이스 상에서 제공되고 있는 컨텐츠(또는 기능) 중 적어도 일부가 제2 사용자가 착용하고 있는 제2 디바이스 상에서 제공되도록 하거나, 반대로, 제2 사용자가 착용하고 있는 제2 디바이스 상에서 제공되고 있는 컨텐츠(또는 기능) 중 적어도 일부가 제1 사용자가 착용하고 있는 제1 디바이스 상에서 제공되도록 할 수 있다. 이로써, 사용자는 디바이스를 착용하고 있는 손으로 다른 사용자와 악수를 나누면서 플립 행위를 행하는 것만으로 다른 사용자의 디바이스로부터 컨텐츠를 제공 받거나 다른 사용자의 디바이스에게 컨텐츠를 제공할 수 있게 된다.On the other hand, a first user wearing a smart watch-type first device on the right wrist and a second user wearing a smart watch-type second device on the left wrist shake hands with the right hand and the left hand, respectively. It may be assumed that an input event occurs in which the user and the second user perform a flip action in which the user turns hands held together. In this case, the user interface providing system 200 according to another embodiment of the present invention may provide content (or function) provided on the first device worn by the first user in response to the occurrence of the above input event. At least some of the content (or functionality) being provided on the second device worn by the second user is at least partially worn by the first user. It can be provided on the first device that is doing. As a result, the user may receive content from another user's device or provide content to another user's device by simply flipping while shaking hands with the other user with a hand wearing the device.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 비일시성의 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 비일시성의 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 비일시성의 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 비일시성의 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention described above may be implemented in the form of program instructions that may be executed by various computer components, and may be recorded on a non-transitory computer readable recording medium. The non-transitory computer readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the non-transitory computer readable recording medium may be those specially designed and configured for the present invention, or may be known and available to those skilled in the computer software arts. Examples of non-transitory computer readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs, DVDs, magnetic-optical media such as floppy disks ( magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.Although the present invention has been described by specific embodiments such as specific components and the like, but the embodiments and the drawings are provided to assist in a more general understanding of the present invention, the present invention is not limited to the above embodiments. For those skilled in the art, various modifications and variations can be made from these descriptions.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the appended claims, fall within the scope of the spirit of the present invention. I will say.
-부호의 설명-Explanation of sign
100: 통신망100: network
200: 사용자 인터페이스 제공 시스템200: user interface providing system
310: 제1 디바이스310: first device
320: 제2 디바이스320: second device

Claims (16)

  1. 사용자 인터페이스를 제공하기 위한 방법으로서,As a method for providing a user interface,
    (a) 제1 디바이스 및 제2 디바이스의 자세 또는 움직임에 관한 정보를 획득하고, 상기 제1 디바이스의 자세 또는 움직임과 상기 제2 디바이스의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 입력 이벤트를 감지하는 단계, 및(a) obtaining information about a posture or movement of the first device and the second device, and inputting an input event specified based on a relative relationship between the posture or movement of the first device and the posture or movement of the second device; Detecting, and
    (b) 상기 입력 이벤트가 발생하는 것에 대응하여, 상기 제1 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 제2 디바이스 상에서 제공되도록 하거나, 상기 제2 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 제1 디바이스 상에서 제공되도록 하는 단계(b) in response to the occurrence of the input event, at least some of the content and functions provided on the first device are provided on the second device, or at least some of the content and functions provided on the second device are Providing on the first device
    를 포함하는 방법.How to include.
  2. 제1항에 있어서,The method of claim 1,
    상기 제1 디바이스 및 상기 제2 디바이스 중 적어도 하나는 상기 입력 이벤트를 유발시키는 입력 수단과 일체로 움직이는 방법.At least one of the first device and the second device moves integrally with the input means causing the input event.
  3. 제1항에 있어서,The method of claim 1,
    상기 (a) 단계에서,In the step (a),
    상기 제1 디바이스의 방향이 변화하는 양상과 상기 제2 디바이스의 방향이 변화하는 양상이 서로 반대이거나 대칭이면, 상기 입력 이벤트가 발생한 것으로 감지하는 방법.And changing the direction of the first device and the changing direction of the second device are opposite or symmetrical to each other.
  4. 제3항에 있어서,The method of claim 3,
    상기 (a) 단계에서,In the step (a),
    상기 입력 이벤트가 발생하기 전에 상기 제1 디바이스가 사용자 쪽을 바라보고 있었으면 상기 입력 이벤트가 발생한 이후에 상기 제2 디바이스가 상기 사용자 쪽을 바라보게 되고, 상기 입력 이벤트가 발생하기 전에 상기 제2 디바이스가 상기 사용자 쪽을 바라보고 있었으면 상기 입력 이벤트가 발생한 이후에 상기 제1 디바이스가 상기 사용자 쪽을 바라보게 되는 방법.If the first device was looking toward the user before the input event occurred, the second device is looking at the user after the input event occurred, and before the input event occurs, the second device is If the user is looking at the user, the first device is looking at the user after the input event occurs.
  5. 제1항에 있어서,The method of claim 1,
    상기 (b) 단계에서,In step (b),
    상기 입력 이벤트가 발생하는 것에 대응하여, 상기 제1 디바이스 상에서 제공되고 있던 컨텐츠 중 적어도 일부가 상기 제2 디바이스에게 전송되도록 하거나, 상기 제2 디바이스 상에서 제공되고 있던 컨텐츠 중 적어도 일부가 상기 제1 디바이스에게 전송되도록 하는 방법.In response to the input event occurring, at least some of the contents provided on the first device are transmitted to the second device, or at least some of the contents provided on the second device are transmitted to the first device. How to get it sent.
  6. 제1항에 있어서,The method of claim 1,
    상기 (b) 단계에서,In step (b),
    상기 입력 이벤트가 발생하는 것에 대응하여, 상기 제1 디바이스 상에서 실행되고 있던 프로세스가 제2 디바이스 상에서 실행되도록 하거나, 상기 제2 디바이스 상에서 실행되고 있던 프로세스가 제1 디바이스 상에서 실행되도록 하는 방법.In response to the input event occurring, causing a process that was running on the first device to run on a second device, or causing a process that was running on the second device to run on the first device.
  7. 제1항에 있어서,The method of claim 1,
    상기 (b) 단계에서,In step (b),
    상기 입력 이벤트가 발생하기 전에 상기 제1 디바이스 상에서 제공되고 있던 컨텐츠의 형식과 상기 입력 이벤트가 발생한 이후에 상기 제2 디바이스 상에서 제공되는 컨텐츠의 형식이 서로 다른 방법.And a format of content provided on the first device before the input event occurs and a format provided on the second device after the input event occurs.
  8. 제1항에 있어서,The method of claim 1,
    상기 입력 이벤트는, 상기 제1 디바이스 및 상기 제2 디바이스 중 적어도 하나에 대하여 입력되는 사용자 조작에 더 기초하여 특정되는 방법.And the input event is further specified based on a user operation input to at least one of the first device and the second device.
  9. 제8항에 있어서,The method of claim 8,
    상기 (b) 단계에서,In step (b),
    상기 입력 이벤트가 발생하는 것에 대응하여, 상기 제1 디바이스 상에서 제공되고 있던 컨텐츠 중 상기 사용자 조작과 연관된 부분이 상기 제2 디바이스 상에서 제공되도록 하거나, 상기 제2 디바이스 상에서 제공되고 있던 컨텐츠 중 상기 사용자 조작과 연관된 부분이 상기 제1 디바이스 상에서 제공되도록 하는 방법.In response to the occurrence of the input event, a portion associated with the user manipulation of content provided on the first device may be provided on the second device, or the content of content provided on the second device may be different from the user manipulation. Causing an associated portion to be provided on the first device.
  10. 제1항에 있어서,The method of claim 1,
    상기 (a) 단계에서,In the step (a),
    상기 제1 디바이스의 표시 화면의 방향과 상기 제2 디바이스의 표시 화면의 방향이 모두 기설정된 범위 내에 포함됨에 따라 상기 제1 디바이스의 표시 화면과 상기 제2 디바이스의 표시 화면이 모두 사용자 쪽을 바라보는 것으로 판단되면, 상기 입력 이벤트가 발생한 것으로 감지하는 방법.As both the direction of the display screen of the first device and the direction of the display screen of the second device are within a preset range, both the display screen of the first device and the display screen of the second device face the user. If it is determined that the input event has occurred.
  11. 제1항에 있어서,The method of claim 1,
    상기 입력 이벤트는, 제1 면을 기준으로 하는 상기 제1 디바이스의 자세 또는 움직임과 제2 면을 기준으로 하는 상기 제2 디바이스의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 방법.And the input event is specified based on a relative relationship between a posture or movement of the first device relative to a first face and a posture or movement of the second device relative to a second face.
  12. 제1항 내지 제11항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록한 비일시성의 컴퓨터 판독 가능한 기록 매체.A non-transitory computer readable recording medium having recorded thereon a computer program for executing the method according to any one of claims 1 to 11.
  13. 사용자 인터페이스를 제공하기 위한 디바이스로서,A device for providing a user interface,
    상기 디바이스 및 상기 디바이스와 연관된 다른 디바이스의 자세 또는 움직임에 관한 정보를 획득하고, 상기 디바이스의 자세 또는 움직임과 상기 다른 디바이스의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 입력 이벤트를 감지하는 기술 수단, 및Technical means for obtaining information about a posture or movement of the device and another device associated with the device and detecting a specified input event based on a relative relationship between the posture or movement of the device and the posture or movement of the other device , And
    상기 입력 이벤트가 발생하는 것에 대응하여, 상기 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 다른 디바이스 상에서 제공되도록 하거나, 상기 다른 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 디바이스 상에서 제공되도록 하는 프로그램 모듈A program for causing at least some of the content and functions provided on the device to be provided on the other device in response to the occurrence of the input event, or at least some of the content and functions provided on the other device to be provided on the device; module
    을 포함하는 디바이스.Device comprising a.
  14. 사용자 인터페이스를 제공하기 위한 시스템으로서,A system for providing a user interface,
    제1 디바이스 및 제2 디바이스의 자세 또는 움직임에 관한 정보를 획득하고, 상기 제1 디바이스의 자세 또는 움직임과 상기 제2 디바이스의 자세 또는 움직임 사이의 상대적인 관계에 기초하여 특정되는 입력 이벤트를 감지하고, 상기 입력 이벤트가 발생하는 것에 대응하여, 상기 제1 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 제2 디바이스 상에서 제공되도록 하거나, 상기 제2 디바이스 상에서 제공되는 컨텐츠 및 기능 중 적어도 일부가 상기 제1 디바이스 상에서 제공되도록 하는 제어부, 및Acquires information about a posture or movement of a first device and a second device, detects an input event specified based on a relative relationship between the posture or movement of the first device and the posture or movement of the second device, In response to the input event occurring, at least some of the contents and functions provided on the first device are provided on the second device, or at least some of the contents and functions provided on the second device are provided on the first device. A control unit to be provided on the device, and
    상기 제1 디바이스 및 상기 제2 디바이스 중 적어도 하나로부터 제공 받은 정보를 저장하는 저장소A storage storing information received from at least one of the first device and the second device
    를 포함하는 시스템.System comprising.
  15. 제14항에 있어서,The method of claim 14,
    상기 제어부는, 상기 제1 디바이스의 방향이 변화하는 양상과 상기 제2 디바이스의 방향이 변화하는 양상이 서로 반대이거나 대칭이면, 상기 입력 이벤트가 발생한 것으로 감지하는 시스템.And the controller is configured to detect that the input event has occurred when an aspect in which the direction of the first device changes and an aspect in which the direction of the second device changes are opposite or symmetric to each other.
  16. 제14항에 있어서,The method of claim 14,
    상기 제어부는, 상기 제1 디바이스의 표시 화면의 방향과 상기 제2 디바이스의 표시 화면의 방향이 모두 기설정된 범위 내에 포함됨에 따라 상기 제1 디바이스의 표시 화면과 상기 제2 디바이스의 표시 화면이 모두 사용자 쪽을 바라보는 것으로 판단되면, 상기 입력 이벤트가 발생한 것으로 감지하는 시스템.The controller may be configured to display both the display screen of the first device and the display screen of the second device as both the direction of the display screen of the first device and the direction of the display screen of the second device are within a preset range. And if it is determined that the user is looking to the side, the system detects that the input event has occurred.
PCT/KR2015/008747 2014-10-02 2015-08-21 Method, device, and system for providing user interface and non-transitory computer-readable recording medium WO2016052859A1 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2014-0132936 2014-10-02
KR20140132936 2014-10-02
KR10-2015-0051767 2015-04-13
KR1020150051767A KR101916700B1 (en) 2014-10-02 2015-04-13 Method, device, system and non-transitory computer-readable recording medium for providing user interface
US14/819,151 2015-08-05
US14/819,151 US9696815B2 (en) 2014-10-02 2015-08-05 Method, device, system and non-transitory computer-readable recording medium for providing user interface

Publications (1)

Publication Number Publication Date
WO2016052859A1 true WO2016052859A1 (en) 2016-04-07

Family

ID=55630851

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/008747 WO2016052859A1 (en) 2014-10-02 2015-08-21 Method, device, and system for providing user interface and non-transitory computer-readable recording medium

Country Status (1)

Country Link
WO (1) WO2016052859A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140045547A1 (en) * 2012-08-10 2014-02-13 Silverplus, Inc. Wearable Communication Device and User Interface
US20140135631A1 (en) * 2012-06-22 2014-05-15 Fitbit, Inc. Biometric monitoring device with heart rate measurement activated by a single user-gesture
US20140139454A1 (en) * 2012-11-20 2014-05-22 Samsung Electronics Company, Ltd. User Gesture Input to Wearable Electronic Device Involving Movement of Device
WO2014084634A1 (en) * 2012-11-29 2014-06-05 주식회사 매크론 Mouse apparatus for eye-glass type display device, and method for driving same
US20140181954A1 (en) * 2012-12-26 2014-06-26 Charles Cameron Robertson System for conveying an identity and method of doing the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140135631A1 (en) * 2012-06-22 2014-05-15 Fitbit, Inc. Biometric monitoring device with heart rate measurement activated by a single user-gesture
US20140045547A1 (en) * 2012-08-10 2014-02-13 Silverplus, Inc. Wearable Communication Device and User Interface
US20140139454A1 (en) * 2012-11-20 2014-05-22 Samsung Electronics Company, Ltd. User Gesture Input to Wearable Electronic Device Involving Movement of Device
WO2014084634A1 (en) * 2012-11-29 2014-06-05 주식회사 매크론 Mouse apparatus for eye-glass type display device, and method for driving same
US20140181954A1 (en) * 2012-12-26 2014-06-26 Charles Cameron Robertson System for conveying an identity and method of doing the same

Similar Documents

Publication Publication Date Title
WO2018074877A1 (en) Electronic device and method for acquiring fingerprint information
WO2018026202A1 (en) Touch sensing device for determining information related to pen, control method therefor, and pen
WO2018151449A1 (en) Electronic device and methods for determining orientation of the device
WO2017095123A1 (en) Method, device, and system for providing user interface, and non-temporary computer-readable recording medium
WO2014030902A1 (en) Input method and apparatus of portable device
WO2014003365A1 (en) Method and apparatus for processing multiple inputs
WO2016088981A1 (en) Method, device, and system for providing user interface, and non-transitory computer-readable recording medium
WO2018004140A1 (en) Electronic device and operating method therefor
WO2014178693A1 (en) Method for matching multiple devices, device for enabling matching thereof and server system
AU2015318901B2 (en) Device for handling touch input and method thereof
WO2014129787A1 (en) Electronic device having touch-sensitive user interface and related operating method
US20160098091A1 (en) Method, device, system and non-transitory computer-readable recording medium for providing user interface
WO2020130667A1 (en) Method and electronic device for controlling augmented reality device
WO2016080596A1 (en) Method and system for providing prototyping tool, and non-transitory computer-readable recording medium
EP3881167A1 (en) System and method for multipurpose input device for two-dimensional and three-dimensional environments
WO2014014240A1 (en) Contact type finger mouse and operating method thereof
WO2018105955A2 (en) Method for displaying object and electronic device thereof
WO2014185753A1 (en) Method for matching multiple devices, and device and server system for enabling matching
US10095309B2 (en) Input device, system and method for finger touch interface
CN103279189A (en) Interacting device and interacting method for portable electronic equipment
WO2015056886A1 (en) Method for controlling touch screen by detecting position of line of sight of user
WO2019203591A1 (en) High efficiency input apparatus and method for virtual reality and augmented reality
WO2015152487A1 (en) Method, device, system and non-transitory computer-readable recording medium for providing user interface
JPWO2014132965A1 (en) Portable electronic device, its control method and program
WO2016052859A1 (en) Method, device, and system for providing user interface and non-transitory computer-readable recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15847602

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15847602

Country of ref document: EP

Kind code of ref document: A1