WO2011037408A2 - 가상 공간 인터페이스를 가지는 단말기 및 가상 공간 인터페이스 제어 방법 - Google Patents

가상 공간 인터페이스를 가지는 단말기 및 가상 공간 인터페이스 제어 방법 Download PDF

Info

Publication number
WO2011037408A2
WO2011037408A2 PCT/KR2010/006503 KR2010006503W WO2011037408A2 WO 2011037408 A2 WO2011037408 A2 WO 2011037408A2 KR 2010006503 W KR2010006503 W KR 2010006503W WO 2011037408 A2 WO2011037408 A2 WO 2011037408A2
Authority
WO
WIPO (PCT)
Prior art keywords
virtual space
terminal
space
movement
distance
Prior art date
Application number
PCT/KR2010/006503
Other languages
English (en)
French (fr)
Other versions
WO2011037408A3 (ko
Inventor
천혜경
Original Assignee
Chun Hea-Kyung
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chun Hea-Kyung filed Critical Chun Hea-Kyung
Priority to US13/497,922 priority Critical patent/US8787931B2/en
Priority claimed from KR1020100092540A external-priority patent/KR20110033077A/ko
Publication of WO2011037408A2 publication Critical patent/WO2011037408A2/ko
Publication of WO2011037408A3 publication Critical patent/WO2011037408A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Definitions

  • the disclosed technology relates to a virtual space interface, and more particularly, to a terminal having a virtual space interface and a method of controlling a virtual space interface.
  • Cyber space is a virtual space created by a computer, which is not restricted by time and space in a place irrespective of a user's physical location and is interconnected through a computer and / or an information communication network. Include space. For example, all activities on the Internet (eg, conversations, shopping, searching, using content) can take place in cyberspace. Meanwhile, the user may access the cyber space and perform various activities by using the interface between the user and the computer. For example, the interface may provide the user with a virtual space to overcome the physical limitations of the display of the terminal in visually representing the cyber space.
  • the virtual space interface control method is executed in a terminal having a virtual space interface.
  • the terminal includes a movement sensor, a content storage unit, a control unit and a display unit.
  • the movement sensor provides a movement distance and a movement direction of the terminal when the movement of the terminal occurs.
  • the content storage unit stores content embodying at least a portion of the virtual space.
  • the virtual space may include continuous space and / or discrete space.
  • the controller determines at least a part of the virtual space based on the provided moving distance and the moving direction, and when the at least some virtual space is located in a discrete space, the determined at least some virtual space is an adjacent discrete virtual space. Corresponds to either.
  • the display unit displays at least a portion of the virtual space determined by the controller.
  • the terminal transmits the corresponding movement distance and / or movement direction to the controller, If the provided movement distance and / or the movement direction is smaller than the minimum recognition distance and / or the minimum recognition direction, the apparatus may further include a signal processor to delete the movement distance and / or the movement direction.
  • the virtual space may include an authentication space
  • the controller may further include an authentication unit configured to authenticate a user when at least a portion of the determined virtual space is an authentication space.
  • the terminal may further include a content execution input unit configured to receive execution of the content.
  • the terminal may further include a notification unit for visually, audibly and / or tactilely displaying whether the content is executed.
  • the terminal may further include a data communication unit configured to communicate with another terminal sharing the corresponding virtual space.
  • the method for controlling a virtual space interface may display at least a portion of the virtual space by executing content embodying the virtual space.
  • the virtual space may include a continuous space, a discrete space, and / or a confirmation space.
  • the movement distance and the movement direction of the terminal detected by the movement detection sensor may be checked and the validity may be determined.
  • the moving distance and / or the moving direction of the terminal is larger than the minimum recognition distance and / or the minimum recognition direction, it may be determined that the corresponding moving distance and / or the moving direction is valid.
  • At least another part of the virtual space moved from at least a part of the displayed virtual space may be displayed based on the identified moving distance and the moving direction.
  • the coordinates corrected according to the moving distance and the moving direction of the terminal may be calculated from the coordinates corresponding to at least a portion of the displayed virtual space, and the calculation At least another portion of the virtual space corresponding to the coordinates may be displayed.
  • a position corresponding to a moving distance and a moving direction of the terminal may be calculated based on at least a portion of the displayed virtual space, and from the calculated position At least another part of the nearest virtual space may be displayed.
  • FIG. 1 is a block diagram illustrating a system for providing a virtual space interface according to an embodiment of the disclosed technology.
  • FIG. 2 is a block diagram illustrating a terminal of FIG. 1.
  • FIG. 3 is a graph illustrating an operation of the signal processor of FIG. 1.
  • FIG. 4 is a flowchart illustrating a virtual space interface control method according to an embodiment of the disclosed technology.
  • FIG. 5 is a flowchart illustrating a specific embodiment of FIG. 4.
  • FIG. 6 is a flowchart for explaining another specific embodiment of FIG. 4.
  • FIG. 7 to 10 are diagrams illustrating an example in which a continuous space is displayed by FIG. 1.
  • 11 to 13 are diagrams illustrating an example in which discrete spaces are displayed by FIG. 1.
  • FIG. 14 is a diagram for describing a hierarchy of discrete spaces as an example of FIG. 11.
  • first and second are intended to distinguish one component from another component, and the scope of rights should not be limited by these terms.
  • first component may be named a second component, and similarly, the second component may also be named a first component.
  • first item, second item and / or third item means two or more of the first, second or third individual items as well as the first, second or third item. Refers to any combination of items that can be presented from
  • an identification code (e.g., a, b, c, ...) is used for convenience of description, and the identification code does not describe the order of the steps, and each step is clearly in a specific order. Unless stated otherwise, it may occur out of the stated order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
  • FIG. 1 is a block diagram illustrating a system for providing a virtual space interface according to an embodiment of the disclosed technology.
  • a system 100 for executing hardware that implements a virtual space and / or for executing content that implements a virtual space includes a content providing server 110 and / or a terminal 120.
  • the virtual space may include continuous space, discrete space and / or authentication space.
  • the virtual space may include a two-dimensional plane and a three-dimensional solid space, and the continuous space may be provided in the form as shown in FIG. 7, and the discrete space may be divided into spaces to select specific functions. It may be provided in the form as shown in FIG.
  • the virtual space may include a plurality of layers. For example, if the terminal 120 is moved to a position corresponding to the icon “1106” of FIG.
  • the authentication space may include a space for publishing information by authentication of a user.
  • the authentication space may include a private authentication space of an individual and an authentication space shared by a certain group.
  • the content providing server 110 may be connected to the terminal 120 through a wireless or wired communication network, and may store content that is an element constituting the virtual space or constituting the virtual space, that is, content implementing at least part of the virtual space. Can be.
  • the content providing server 110 and the terminal 120 may transmit specific content and / or data bidirectionally between the providing server 110 and the terminal 120 by mutual requests. For example, content and / or data with small data size can be transmitted with only one connection.
  • the content and / or data in which the size of the data is large or in need of updating in real time may continuously transmit the content and / or data by interworking with the content providing server 110 and the terminal 120.
  • the terminal 120 may be connected to the content providing server 110 through a wireless or wired communication network, and may be equipped with a hardware configuration and / or software module or program capable of processing a function related to a virtual space.
  • the terminal 120 may include any device capable of visual display such as a smart phone, a cellular phone, a digital camera, an MP3 player, a portable media player (PMP), a head mounted display (HMD), and the like.
  • the terminal 120 may transmit and / or receive data directly and / or directly through the content providing server 110 and another terminal 125 connected to the same virtual space.
  • FIG. 2 is a block diagram illustrating a terminal of FIG. 1.
  • the terminal 120 includes a content storage unit 210, a hardware / content execution input unit 220, a movement detection sensor 230, a signal processing unit 240, a control unit 250, and a display unit 260. , A notification unit 270, an authentication unit 280, and a data communication unit 290.
  • the content storage unit 210 stores a content that is an element constituting or configuring the virtual space.
  • the virtual space may include continuous space and / or discrete space.
  • the continuous space may be configured in the shape of a plane or a sphere centered on the terminal 120.
  • the continuous space may be composed of a three-dimensional space.
  • the three-dimensional space may include a space represented by three-dimensional coordinates.
  • the three-dimensional space may be repeatedly configured a layer having two-dimensional coordinates.
  • the virtual space may include an authentication space.
  • the authentication space may include information for protecting personal privacy.
  • the authentication space may include a shared space that only a specific group of users can share.
  • the content storage unit 210 may be connected to the controller 250, the display unit 260, and / or the signal processor 240 to process data.
  • the controller 250, the display unit 260, and / or the signal processor 240 may be organically associated with each other to process data. Can be.
  • the hardware / content execution input unit 220 receives the execution of hardware and / or execution of content which is an element constituting the virtual space or constituting the virtual space.
  • the hardware / content execution input unit 220 selects an execution button (not shown) configured in the terminal 120 and / or a specific movement of the terminal 120 (eg, repeats three times from side to side). Based on the execution of the hardware and / or whether the content can be input.
  • the hardware / content execution input unit 220 is for preventing the screen of the virtual space from being changed or the hardware and / or the contents being operated according to the movement of the terminal 120 even when the movement of the virtual space is not desired. In other words, the execution of hardware and / or the execution of content can be turned on or off.
  • the hardware / content execution input unit 220 may include a button having a mechanical or optical configuration or an icon implemented on a touch screen.
  • the button or icon may include a virtual space on / off function, a zoom in / out function of a screen, content selection and execution / execution of content, and selection / lock / release function of information.
  • various functions may be set based on an operation including a number of touches, a touch duration, and a drag by a user.
  • the movement sensor 230 provides a movement distance and a movement direction of the terminal 120 when the movement of the terminal 120 occurs.
  • the movement detection sensor 230 when the movement detection sensor 230 is a digital sensor, it may provide quantized digital data. In another embodiment, when the movement detection sensor 230 is an analog sensor, it may provide a continuous signal.
  • the movement detection sensor 230 may include an acceleration sensor, an angular velocity sensor (gyroscope), a geomagnetic sensor, and / or a pressure sensor.
  • the moving distance and the moving direction of the terminal 120 may be provided based on a signal sensed by the aforementioned sensor or sensors.
  • the signal sensed by the movement detecting sensor 230 may be processed and provided to the controller 250 according to the requirements of those skilled in the art.
  • processing of the sensed signal may include amplification, attenuation, filtering, extraction, mixing and / or approximation.
  • the signal processor 240 may filter the movement distance and the movement direction of the terminal 120 provided by the movement detection sensor 230, and further amplify, attenuate, extract, mix, and / or approximate the signal according to the needs of those skilled in the art. Can be done. In one embodiment, the signal processor 240 controls the movement distance and / or the movement direction when the movement distance and / or the movement direction provided by the movement detection sensor 230 is greater than the minimum recognition distance and / or the minimum recognition direction. If it is transmitted to 250 and the provided moving distance and / or the moving direction is smaller than the minimum recognition distance and / or the minimum recognition direction, the corresponding moving distance and / or the moving direction may be deleted.
  • the signal processor 240 of the disclosed technology may remove or correct a part of a detection signal detected by the movement detection sensor 230 in a specific external environment. For example, when a user who rides in a vehicle moves the terminal 120, the amount of change in acceleration is small but the change continuously occurs (for example, when driving at a stable speed on a highway) or when it is too large. You can filter the signal (for example, if you stop and drive repeatedly in downtown). As another example, when the user riding the train moves the terminal 120, the acceleration component for the direction corresponding to the traveling direction of the train may be filtered.
  • the user may move the virtual space by moving the terminal 120 up, down, left, and right while viewing the traveling direction of the train.
  • the detection signal processing method according to the surrounding environment can be variously modified according to the needs of those skilled in the art, and according to the surrounding environment, the user selects the contents recommended by the terminal 120 or the terminal 120 automatically reflects the surrounding environment. Can be handled with
  • the controller 250 determines at least a part of the virtual space based on the provided moving distance and the moving direction. In one embodiment, when at least some of the virtual space is located in the discrete space, the controller 250 may determine that the determined at least some virtual space corresponds to one of the adjacent discrete virtual spaces.
  • the display unit 260 may display at least a portion of the virtual space determined by the controller 250.
  • the display unit 260 may include an LCD panel (Liquid Crystal Display Panel), an LED panel (Light Emitting Diode Panel), a touch screen panel, a 3D panel (Three-Dimensional Panel), and / or a hologram ( Hologram) may include a visual representation in the display device, such as a display device.
  • the notification unit 270 may visually, audibly, and / or tactilely display whether hardware is executed and / or content is executed.
  • the notification unit 270 may be visually output to a portion of the display unit 260 and / or directly to a portion of the display unit 260 through the control unit 250.
  • the notification unit 270 may correspond to a display unit (e.g., a display unit) corresponding to a coordinate value, a moving distance, a moving direction (for example, an arrow), a color change, and / or a sharpness that distinguishes the virtual space.
  • 260 may be output.
  • the notification unit 270 may directly control the operation of the speaker or vibration generating device and / or control the operation of the speaker or vibration generating device through the control unit 250.
  • the terminal 120 may be vibrated by outputting a specific sound (audible function) and / or by operating a vibration generating element (tactile function) through a speaker.
  • the notification unit 270 changes the frequency and vibration of the output sound and / or vibration generating element to start, stop, running, moving speed, moving direction, re-execution and / or the like of the hardware and / or content Can be informed.
  • the authenticator 280 may perform authentication of a user. In one embodiment, when the authentication space is included in at least a portion of the virtual space, when the terminal 120 moves to the corresponding authentication space, the control unit 250 undergoes user authentication through the authentication unit 280, and then The authentication space can be displayed. The authenticator 280 may improve security of a specific area of the virtual space.
  • the data communication unit 290 may communicate with another terminal 125 that shares the virtual space.
  • the control unit 250 communicates with the terminal 125 through the data communication unit 290, and displays the information of the terminal 125 And display at 260.
  • the information of the terminal 125 may include a location in the virtual space and / or an activity state in the virtual space.
  • the actions performed through the virtual space may be transmitted to the content providing server 110 and / or the other terminal 125 through the data communication unit 290 to share data with each other.
  • FIG. 2 data transmission and control between the components are indicated by arrows, but the directionality is according to one embodiment, and various modifications may be made without departing from the basic concept according to the needs of those skilled in the art.
  • content that is an element constituting or constituting a virtual space stored in the content storage unit 210 is transmitted to the signal processor 240 and the movement of the terminal 120 processed by the signal processor 240. After the distance and the moving direction are applied to the controller 250 may be provided.
  • the controller 250 may transmit the data to be transmitted to the other terminal 125 to the data communication unit 290 so that the data communication unit 290 may transmit the corresponding data to the other terminal 125. Therefore, the disclosed technology is not limited to the configuration shown in Figure 2 and the connection between each configuration, of course.
  • FIG. 3 is a graph illustrating a filtering operation of the signal processor 240 of FIG. 1.
  • A1 and “A2” represent the size (distance) of the area adjacent to the "X” axis direction
  • "Sen_X” is a signal for detecting the distance that the terminal 120 is moved in the "X” direction.
  • A1 is the starting boundary position of the area “A1”
  • a2 is the starting boundary position of the area "A2”
  • m1" and “m2” are the minimum recognition distances at the boundary position.
  • the terminal 120 when the terminal 120 is located at the start boundary position of the area “A1,” when the micro movement due to the shaking of the user is detected (section “T1”), the corresponding signal is transmitted to the signal processor 240. Can be filtered by When the terminal 120 moves to the area "A1”, the virtual space of the area may be displayed (section "T2"). At this time, in the state where the terminal 120 is located at the start boundary position of the area "A2", even if the micro movement due to the shaking of the user is detected, the terminal 120 may display the virtual space of the area "A1".
  • the terminal 120 may move to the area "A2" due to a temporary mistake by the user (sections "T3" and "T4"). In this case, the virtual space of the "A2" area should not be displayed.
  • the signal processor 240 of the terminal 120 does not transmit information to the controller 250 so as not to move the virtual space when the time moved to another area is shorter than the set time (section “T3”). If it is longer than the set time (section "T4"), the information may be transmitted to the controller 250 to move the virtual space.
  • FIG. 4 is a flowchart illustrating a virtual space interface control method according to an embodiment of the disclosed technology.
  • the terminal 120 displays at least a portion of the virtual space by executing hardware that implements the virtual space and / or executing content that implements the virtual space (step S410).
  • the virtual space may include a continuous space, a discrete space, and / or a confirmation space.
  • the movement distance and the movement direction of the terminal 120 detected by the movement detection sensor 230 are checked and the validity is determined (step S420).
  • the validity corresponds to a criterion for whether data of the corresponding moving distance and the moving direction is applied.
  • the moving distance and / or the moving direction of the terminal 120 is larger than the minimum recognition distance and / or the minimum recognition direction, it may be determined that the corresponding moving distance and / or the moving direction is valid.
  • At least another part of the moved virtual space is displayed from at least a part of the displayed virtual space (step S430).
  • FIG. 5 is a flowchart illustrating a specific embodiment of FIG. 4.
  • the terminal 120 may execute hardware that implements the virtual space and / or execute content that implements the virtual space (step S501), and display the corresponding virtual space (step S502).
  • the execution of the hardware and / or the execution of the content can be confirmed by the input of the hardware / content execution input unit 220 (step S503).
  • step S509 If the execution of the hardware and / or the execution of the content is invalid, the currently displayed state can be maintained (step S509), and if the execution of the hardware and / or the execution of the content is valid, the user can execute the hardware and / or the content. It may be announced that execution is On (step S504). At this time, when the movement of the terminal 120 occurs (step S505), the movement distance and the movement direction of the terminal can be checked (step S506).
  • the virtual space is a continuous space
  • the calculated coordinates At least another part of the virtual space corresponding to the control panel may be displayed (step S508).
  • the calculation of the coordinates may be calculated based on the reference coordinates.
  • the reference coordinate may be set by the user.
  • the terminal 120 may repeat the above process until the corresponding content ends (step S510).
  • the spatial position value in the virtual space may be converted based on a relative reference coordinate, that is, a reference spatial coordinate, so that all content icons or a background image may be located in the relative spatial coordinate.
  • a relative reference coordinate that is, a reference spatial coordinate
  • the spatial coordinates can be represented in two or three-dimensional coordinates as required by those skilled in the art, and the two-dimensional and three-dimensional coordinate selection can be selected by the user.
  • spatial coordinates may be represented by positive and / or negative values, and may be represented by integers or real numbers.
  • FIG. 6 is a flowchart for explaining another specific embodiment of FIG. 4.
  • step S602 if the movement of the terminal 120 occurs (step S602) while the execution of the hardware implementing the virtual space and / or the content implementing the virtual space is executed (step S601), the moving distance and The moving direction can be confirmed (step S603).
  • step S604 if the area to be displayed is an authentication area (step S604), the terminal 120 performs an authentication process of the user (step S605), and if authentication is completed normally (step S606), the corresponding authentication area may be displayed. (Step S607). If the authentication is not made, only the empty space can be displayed or the display state before the movement can be maintained without the inside of the authentication area being visible (step S608). Therefore, the security of the specific area of the virtual space can be improved.
  • the terminal 120 may repeat the above process until the execution of the corresponding hardware and / or the content is terminated (step S609).
  • FIG. 7 to 10 are views for explaining the display of the continuous space by FIG.
  • the entire image 700 corresponding to the continuous space may be planar or spherical.
  • a part 710 of the entire image 700 may be displayed on the screen 810 of the terminal 800.
  • a continuous space may be displayed on the screen 810 in response to the movement of the terminal 800.
  • the screen 810 of the terminal 800 executes hardware that implements a virtual space and / or content that implements a virtual space, and executes the terminal 800 to move forward or backward.
  • the detailed information 1011 to 1015 may be displayed or the content may be displayed by moving to a location connected with arbitrary object information.
  • the screen of FIG. 10, which is a virtual space, may be enlarged or reduced.
  • the terminal 800 includes a move button (not shown) and an enlarge button (not shown), and the user moves the screen as shown in FIG. 9 while pressing the move button, and the desired part of the image (
  • the terminal 800 is moved forward or backward while pressing the zoom button while the 920 is displayed as shown in FIG. 10, the corresponding image 920 may be enlarged or reduced.
  • a cursor or a figure for recognition may be superimposed on a central axis of the screen to indicate a criterion of enlargement or reduction.
  • the cursor or cognitive figure by placing the cursor or cognitive figure on any object information represented by virtual space and / or augmented reality and moving the terminal 800 forward or backward, more detailed information or additional connection information may be obtained.
  • the corresponding image 920 may be enlarged or reduced by a touch method of a touch screen or an icon menu for a function to be displayed.
  • a zoom or reduction may be performed by displaying a cursor or a figure for recognition on a central axis of a screen or touching a screen as a central axis for zooming in or out.
  • the above contents for the enlargement or reduction may be equally applied even in a discrete space.
  • 11 to 13 are diagrams for describing the discrete space displayed by FIG. 4.
  • the entire image 1100 corresponding to the discrete space may include a plurality of icons 1101 to 1109.
  • each icon may correspond to at least one of the functions performed in the terminal 800.
  • the icon is displayed on the screen 810 of the terminal 800.
  • the icon 1101 closest to the movement position of the terminal 800 is shown. Can be selected.
  • the icon 1101 having the largest area among the areas B1, B2, B3, and B4 overlapping each icon and the screen 810 may be selected.
  • the distance between the center point of the screen 810 and the center point of each icon may be calculated to select an icon having the shortest distance.
  • a position corresponding to the moving distance and the moving direction of the terminal 800 may be calculated based on at least a portion of the displayed virtual space, and the nearest virtual space from the calculated position.
  • the calculation of the coordinates may be calculated based on the reference coordinates.
  • the reference coordinate may be set by the user.
  • icons 1101 to 1109 may be displayed on a screen based on a 2D plane or a 3D stereoscopic plane / spatial grid indicating discrete spatial resolution.
  • the screen display according to the movement of 800 may also be displayed based on the basic unit of the plane / space grid.
  • the unit and shape of the plane / spatial grid may be set by the user.
  • the icons 1101, 1102, 1104, and 1105 are located.
  • One of the icons 1105 may be selected.
  • the icons 1101 having the highest priority among icons of the same area may be selected.
  • the distance between the center point of the screen 810 and the center point of each icon may be calculated to select an icon having the highest priority among icons having the shortest distance and the same distance.
  • another part of the other parts having a relatively high priority can be selected.
  • at least another part of the other parts may be selected and displayed based on the other part having a relatively high number of executions and / or displays.
  • FIG. 14 is a diagram for explaining a hierarchy of discrete spaces of FIG. 11.
  • the discrete space layer includes at least one sub-layer (Layer 2 to Layer) sequentially configured based on a main layer (Layer 1) for selecting a main menu and a tree structure for each menu of the main layer. 5) may be included.
  • the terminal 800 is moved back to "Layer 2" which is a sub-layer of the "phone book”. ", To move the terminal 800 up, down, left, and right to select the" b "item.
  • the hierarchical structure may also have a hierarchical structure.
  • the virtual space may include a continuous space and a discrete space, each of which may constitute a separate authentication space, and may include content, You can organize collection spaces to collect icons, objects, and so on.
  • various spaces may be additionally configured according to the needs of those skilled in the art.
  • Each of these spaces can be placed on the entire virtual space in various combinations, which allows the virtual space to be implemented, differentiated, and / or distinguished, and can be changed and / or modified / complemented at various times according to user needs.
  • a screen rotation function can be added.
  • the user may rotate the terminal to 90 degrees (the angle at which the terminal changes width and length), 180 degrees, and 270 degrees, and the virtual space may be changed to correspond to the aspect ratio of the rotated screen.
  • At least some of the icons located in the virtual space may be included in the group, and the group may be moved or copied to another space.
  • the process performed in the virtual space for example, the movement of the icon
  • the result information can be stored. If necessary, the stored information can be restored to its previous state under the control of the user.
  • the objects displayed on the screen may be configured in a hierarchical structure, and the different layers may be displayed differently.
  • This hierarchical structure has an advantage of easy selection and management of information.
  • an icon displayed on the screen and an icon adjacent thereto may be managed in an execution state and an execution off state.
  • an image of a corresponding product for example, a dining table or a chair
  • a server or a manufacturer may be provided from another user or a server or a manufacturer through a communication network, or an image acquired by a terminal may be used. Therefore, a more realistic configuration of the virtual space may be possible.
  • the disclosed technique can have the following effects. However, since a specific embodiment does not mean to include all of the following effects or only the following effects, it should not be understood that the scope of the disclosed technology is limited by this.
  • a terminal for executing hardware that implements a virtual space and / or a method for displaying a virtual space and a method for displaying the virtual space may efficiently display the virtual space. This is because the virtual space that is changed according to the movement of the terminal can be displayed.
  • the execution of the hardware for implementing the virtual space and / or the terminal for executing the content implementing the virtual space and the display method of the virtual space may provide an anti-shake function. This is because the case where the movement of the terminal is minute does not reflect the movement of the virtual space.
  • the terminal and the display method of the virtual space and the execution of the hardware for implementing the virtual space and / or the content implementing the virtual space according to an embodiment is applied to augmented reality and / or 3D (Three-Dimensional) stereoscopic screen Can be.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

가상 공간 인터페이스 제어 방법은 가상 공간 인터페이스를 가지는 단말기에서 실행된다. 상기 단말기는 이동 감지 센서, 콘텐츠 저장부, 제어부 및 디스플레이부를 포함한다. 상기 이동 감지 센서는 단말기의 이동이 발생한 경우 상기 단말기의 이동 거리와 이동 방향을 제공한다. 상기 콘텐츠 저장부는 가상 공간을 구현한 콘텐츠를 저장한다. 상기 가상 공간은 연속적인 공간(Continuous Space) 및/또는 이산적인 공간(Discrete Space)을 포함할 수 있다. 상기 제어부는 상기 제공된 이동 거리와 이동 방향을 기초로 상기 가상 공간의 적어도 일부를 결정하고, 상기 적어도 일부의 가상 공간이 이산적인 공간에 위치한 경우에는 상기 결정된 적어도 일부의 가상 공간은 인접한 이산적인 가상 공간 중 하나에 상응한다. 상기 디스플레이부는 상기 제어부에서 결정된 가상 공간의 적어도 일부를 디스플레이한다. 일 실시예에서, 상기 단말기는 상기 이동 감지 센서에서 제공된 이동 거리가 최소인식거리보다 큰 경우, 해당 이동 거리를 상기 제어부로 전송하고, 상기 제공된 이동 거리가 최소인식거리보다 작은 경우, 해당 이동 거리를 삭제하는 신호처리부를 더 포함할 수 있다.

Description

가상 공간 인터페이스를 가지는 단말기 및 가상 공간 인터페이스 제어 방법
개시된 기술은 가상 공간 인터페이스에 관한 것으로, 특히 가상 공간 인터페이스를 가지는 단말기 및 가상 공간 인터페이스 제어 방법에 관한 것이다.
사이버 공간(Cyber Space)은 컴퓨터에 의하여 만들어진 허상의 공간을 의미하는 것으로, 사용자들의 물리적인 위치와는 상관없는 곳에서 시간과 공간의 제약을 받지 않으며 컴퓨터 및/또는 정보통신망을 통해 상호 연결되어 있는 공간을 포함한다. 예를 들어, 인터넷 상에서 이루어지는 모든 활동(예를 들어, 대화, 쇼핑, 검색, 콘텐츠 이용)이 사이버 공간에서 이루어질 수 있다. 한편, 사용자는 사용자와 컴퓨터 사이의 인터페이스를 이용하여 사이버 공간에 접근하고 다양한 활동을 수행할 수 있다. 예를 들어, 인터페이스는 사이버 공간을 시각적으로 표현하는데 있어서 단말기가 가지는 디스플레이의 물리적인 한계를 극복하기 위해 가상 공간(Virtual Space)을 사용자에게 제공할 수 있다.
실시예들 중에서, 가상 공간 인터페이스 제어 방법은 가상 공간 인터페이스를 가지는 단말기에서 실행된다. 상기 단말기는 이동 감지 센서, 콘텐츠 저장부, 제어부 및 디스플레이부를 포함한다. 상기 이동 감지 센서는 단말기의 이동이 발생한 경우 상기 단말기의 이동 거리와 이동 방향을 제공한다. 상기 콘텐츠 저장부는 가상 공간의 적어도 일부를 구현한 콘텐츠를 저장한다. 상기 가상 공간은 연속적인 공간(Continuous Space) 및/또는 이산적인 공간(Discrete Space)을 포함할 수 있다. 상기 제어부는 상기 제공된 이동 거리와 이동 방향을 기초로 상기 가상 공간의 적어도 일부를 결정하고, 상기 적어도 일부의 가상 공간이 이산적인 공간에 위치한 경우에는 상기 결정된 적어도 일부의 가상 공간은 인접한 이산적인 가상 공간 중 하나에 상응한다. 상기 디스플레이부는 상기 제어부에서 결정된 가상 공간의 적어도 일부를 디스플레이한다. 일 실시예에서, 상기 단말기는 상기 이동 감지 센서에서 제공된 이동 거리 및/또는 이동 방향이 최소인식거리 및/또는 최소인식방향보다 큰 경우, 해당 이동 거리 및/또는 이동 방향을 상기 제어부로 전송하고, 상기 제공된 이동 거리 및/또는 이동 방향이 최소인식거리 및/또는 최소인식방향보다 작은 경우, 해당 이동 거리 및/또는 이동 방향을 삭제하는 신호처리부를 더 포함할 수 있다. 상기 가상 공간은 인증 공간을 포함하고, 상기 제어부는 상기 결정된 가상 공간의 적어도 일부가 인증 공간인 경우 사용자의 인증을 수행하는 인증부를 더 포함할 수 있다. 상기 단말기는 상기 콘텐츠의 실행여부를 입력받는 콘텐츠 실행 입력부를 더 포함할 수 있다. 상기 단말기는 상기 콘텐츠의 실행 여부를 시각적, 청각적 및/또는 촉각적으로 표시하는 알림부를 더 포함할 수 있다. 상기 단말기는 해당 가상 공간을 공유하는 다른 단말기와 통신을 수행하는 데이터 통신부를 더 포함할 수 있다.
실시예들 중에서, 가상 공간 인터페이스 제어 방법은 가상 공간을 구현한 콘텐츠를 실행하여 상기 가상 공간의 적어도 일부를 디스플레이한다. 상기 가상 공간은 연속적인 공간(Continuous Space), 이산적인 공간(Discrete Space) 및/또는 인증 공간(Confirmation Space)을 포함할 수 있다. 단말기의 이동이 발생한 경우 이동 감지 센서에 의해 감지된 단말기의 이동 거리 및 이동 방향을 확인하고 유효성을 판단할 수 있다. 일 실시예에서, 상기 단말기의 이동 거리 및/또는 이동 방향이 최소인식거리 및/또는 최소인식방향보다 큰 경우, 해당 이동 거리 및/또는 이동 방향이 유효한 것으로 판단할 수 있다. 상기 확인된 이동 거리 및 이동 방향에 기초하여 상기 디스플레이된 가상 공간의 적어도 일부로부터 이동된 상기 가상 공간의 적어도 다른 일부를 디스플레이할 수 있다. 일 실시예에서, 상기 가상 공간이 연속적인 공간인 경우, 상기 디스플레이된 가상 공간의 적어도 일부에 상응하는 좌표로부터, 상기 단말기의 이동 거리 및 이동 방향에 상응하여 보정된 좌표를 계산할 수 있고, 상기 계산된 좌표에 상응하는 가상 공간의 적어도 다른 일부를 디스플레이할 수 있다. 다른 일 실시예에서, 상기 가상 공간이 이산적인 공간인 경우, 상기 디스플레이된 가상 공간의 적어도 일부를 기준으로, 상기 단말기의 이동 거리 및 이동 방향에 상응하는 위치를 계산할 수 있고, 상기 계산된 위치로부터 가장 인접한 가상 공간의 적어도 다른 일부를 디스플레이할 수 있다.
도 1은 개시된 기술의 일 실시예에 따른 가상 공간 인터페이스를 제공하는 시스템을 설명하는 구성도이다.
도 2는 도 1의 단말기를 설명하는 블록도이다.
도 3은 도 1의 신호처리부의 동작을 설명하는 그래프이다.
도 4는 개시된 기술의 일 실시예에 따른 가상 공간 인터페이스 제어 방법을 설명하는 흐름도이다.
도 5는 도 4의 구체적인 일 실시예를 설명하는 순서도이다.
도 6은 도 4의 구체적인 다른 일 실시예를 설명하는 순서도이다.
도 7 내지 도 10은 도 1에 의해 연속적인 공간이 디스플레이되는 일 예를 설명하는 도면이다.
도 11 내지 도 13은 도 1에 의해 이산적인 공간이 디스플레이되는 일 예를 설명하는 도면이다.
도 14는 도 11의 일 예로 이산적인 공간의 계층을 설명하는 도면이다.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
"및/또는"의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, "제1 항목, 제2 항목 및/또는 제3 항목"의 의미는 제1, 제2 또는 제3의 각 개별 항목뿐만 아니라 제1, 제2 또는 제3 항목들 중 2개 이상으로부터 제시될 수 있는 모든 항목의 조합을 의미한다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수 도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c, …)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 개시된 기술의 일 실시예에 따른 가상 공간 인터페이스를 제공하는 시스템을 설명하는 구성도이다.
도 1을 참조하면, 가상 공간을 구현하는 하드웨어의 실행 및/또는 가상 공간을 구현한 콘텐츠를 실행하는 시스템(100)은 콘텐츠 제공 서버(110) 및/또는 단말기(120)를 포함한다. 일 실시예에서, 가상 공간은 연속적인 공간(Continuous Space), 이산적인 공간(Discrete Space) 및/또는 인증 공간을 포함할 수 있다. 예를 들어, 가상 공간은 2차원 평면 및 3차원 입체 공간을 포함할 수 있고 연속적인 공간은 도 7과 같은 형태로 제공될 수 있으며, 이산적인 공간은 특정 기능을 선택할 수 있도록 공간을 구분할 수 있고 도 11과 같은 형태로 제공될 수 있다. 또한, 가상 공간은 다수의 계층별 레이어(Layer)를 포함할 수 있다. 예를 들어, 이산적인 공간인 도 11의 아이콘 "1106"에 해당하는 위치로 단말기(120)를 이동시킨 후, 해당 아이콘이 디스플레이된 상태에서 단말기(120)를 앞 또는 뒤로 이동시키면 해당 아이콘의 하부 레이어(예를 들어, 전화번호 목록 리스트)가 디스플레이 될 수 있고, 다시 단말기(120)를 이동시켜 특정 목록을 선택한 후 단말기(120)를 앞 또는 뒤로 이동시키면 해당 목록의 상세정보가 디스플레이 될 수 있다. 인증 공간은 사용자의 인증에 의해 정보를 공개하는 공간을 포함할 수 있다. 예를 들어, 인증 공간은 개인의 사적인 인증 공간과 일정한 그룹이 공유하는 인증공간을 포함할 수 있다.
콘텐츠 제공 서버(110)는 무선 또는 유선 통신망을 통해 단말기(120)와 연결될 수 있으며, 가상 공간을 구현하거나 가상 공간을 구성하고 있는 요소인 콘텐츠, 다시 말해 가상 공간의 적어도 일부를 구현한 콘텐츠를 저장할 수 있다. 일 실시예에서, 콘텐츠 제공 서버(110)와 단말기(120)는 상호 요청에 의해 특정 콘텐츠 및/또는 데이터를 제공 서버(110)와 단말기(120)간에 서로 양방향으로 전송할 수 있다. 예를 들어, 데이터의 크기가 작은 콘텐츠 및/또는 데이터는 한번의 연결만으로 전송할 수 있다. 다른 예로, 데이터의 크기가 크거나 실시간으로 업데이트(Update)가 필요한 콘텐츠 및/또는 데이터는 콘텐츠 제공 서버(110)와 단말기(120)가 상호 연동하여 지속적으로 콘텐츠 및/또는 데이터를 전송할 수 있다.
단말기(120)는 무선 또는 유선 통신망을 통해 콘텐츠 제공 서버(110)와 연결될 수 있으며, 가상 공간에 관련된 기능을 처리할 수 있는 하드웨어 구성 및/또는 소프트웨어 모듈 또는 프로그램을 탑재할 수 있다. 예를 들어, 단말기(120)는 스마트폰, 셀룰러폰, 디지털 카메라, MP3 플레이어, PMP(Portable Media Player), HMD(Head Mounted Display) 등 시각적 디스플레이가 가능한 휴대용 모든 기기를 포함할 수 있다. 일 실시예에서, 단말기(120)는 동일한 가상 공간에 접속된 다른 단말기(125)와 콘텐츠 제공 서버(110)를 통하여 송수신 및/또는 직접 데이터를 송수신할 수 있다.
도 2는 도 1의 단말기를 설명하는 블록도이다.
도 2를 참조하면, 단말기(120)는 콘텐츠 저장부(210), 하드웨어/콘텐츠 실행 입력부(220), 이동 감지 센서(230), 신호처리부(240), 제어부(250), 디스플레이부(260), 알림부(270), 인증부(280) 및 데이터 통신부(290)를 포함한다.
콘텐츠 저장부(210)는 가상 공간을 구현하거나 가상 공간을 구성하고 있는 요소인 콘텐츠를 저장한다. 일 실시예에서, 가상 공간은 연속적인 공간(Continuous Space) 및/또는 이산적인 공간(Discrete Space)을 포함할 수 있다. 예를 들어, 연속된 공간은 평면 또는 단말기(120)를 중심으로 하는 구형태로 구성될 수 있다. 다른 예로, 연속된 공간은 입체 공간으로 구성될 수 있다. 일 실시예에서, 입체 공간은 3차원 좌표로 표현되는 공간을 포함할 수 있다. 다른 일 실시예에서, 입체 공간은 2차원 좌표를 갖는 레이어(Layer)를 반복하여 구성할 수 있다. 일 실시예에서, 가상 공간은 인증 공간을 포함할 수 있다. 예를 들어, 인증 공간은 개인의 사생활 보호를 위한 정보를 포함할 수 있다. 다른 예로, 인증 공간은 특정 그룹의 사용자들만이 공유할 수 있는 공유 공간을 포함할 수 있다. 일 실시예에서, 콘텐츠 저장부(210)는 제어부(250), 디스플레이부(260) 및/또는 신호처리부(240)와 서로 연결되어 데이터를 처리할 수 있다. 예를 들어, 저장된 콘텐츠를 확대, 축소, 회전, 보완 및/또는 수정하여 디스플레이 할 경우 제어부(250), 디스플레이부(260) 및/또는 신호처리부(240)가 서로 유기적으로 연관되어 데이터를 처리 할 수 있다.
하드웨어/콘텐츠 실행 입력부(220)는 하드웨어의 실행 및/또는 가상 공간을 구현하거나 가상 공간을 구성하고 있는 요소인 콘텐츠의 실행여부를 입력받는다. 일 실시예에서, 하드웨어/콘텐츠 실행 입력부(220)는 단말기(120)에 구성된 실행 버튼(도시하지 않음)의 선택 및/또는 단말기(120)의 특정 움직임(예를 들어, 좌우로 3회 반복)에 기초하여 해당 하드웨어의 실행 및/또는 콘텐츠의 실행 여부를 입력 받을 수 있다. 이러한 하드웨어/콘텐츠 실행 입력부(220)는 가상 공간의 이동을 원하지 않는 경우에도 단말기(120)의 움직임에 따라 가상 공간의 화면이 변화되거나 하드웨어 및/또는 콘텐츠가 동작되는 것을 방지하기 위한 것이다. 다시 말해, 하드웨어의 실행 및/또는 콘텐츠의 실행을 온(On) 또는 오프(Off)할 수 있다. 예를 들어, 하드웨어/콘텐츠 실행 입력부(220)는 기계적 또는 광학적 구성을 가진 버튼이나 터치스크린에 구현된 아이콘을 포함할 수 있다. 일 실시예에서, 버튼이나 아이콘은 가상 공간의 온/오프 기능, 화면의 줌 인/아웃 기능, 콘텐츠 선택 및 콘텐츠의 실행/실행 오프 기능, 정보의 선택/잠금/해제 기능을 포함할 수 있다. 예를 들어, 터치스크린에 구현된 아이콘의 경우, 사용자에 의해 터치된 횟수이나 터치 지속 시간, 드래그를 포함하는 동작을 기초로 다양한 기능을 설정할 수 있다.
이동 감지 센서(230)는 단말기(120)의 이동이 발생한 경우 단말기(120)의 이동 거리와 이동 방향을 제공한다. 일 실시예에서, 이동 감지 센서(230)가 디지털 센서인 경우, 양자화된 디지털 데이터를 제공할 수 있다. 다른 일 실시예에서, 이동 감지 센서(230)가 아날로그 센서인 경우 연속적인 신호를 제공할 수 있다. 예를 들어, 이동 감지 센서(230)는 가속도센서, 각속도센서(자이로스코프), 지자기센서, 및/또는 압력센서를 포함할 수 있다. 일 실시예에서, 단말기(120)의 이동 거리와 이동 방향은 앞에서 언급된 센서 또는 센서들에서 감지되는 신호에 기초하여 제공될 수 있다.
한편, 센서의 감지 능력이 민감한 경우, 사용자의 손떨림에도 반응하여 단말기(120) 내부의 연산량이 증가하거나 시각적으로 불안정한 디스플레이를 제공할 수 있다. 따라서, 센서에서 전송되는 데이터 중 미세한 움직임에 상응하는 데이터는 제거할 수 있다. 다시 말해, 이동 감지 센서(230)에서 감지된 신호는 당업자의 요구에 따라 다양한 방법으로 가공되어 제어부(250)로 제공될 수 있다. 예를 들어, 감지된 신호의 가공은 증폭, 감쇄, 필터링, 추출, 혼합 및/또는 근사화를 포함할 수 있다.
신호처리부(240)는 이동 감지 센서(230)에서 제공된 단말기(120)의 이동 거리와 이동 방향을 필터링할 수 있으며, 당업자의 요구에 따라 신호의 증폭, 감쇄, 추출, 혼합 및/또는 근사화를 더 수행할 수 있다. 일 실시예에서, 신호처리부(240)는 이동 감지 센서(230)에서 제공된 이동 거리 및/또는 이동 방향이 최소인식거리 및/또는 최소인식방향보다 큰 경우, 해당 이동 거리 및/또는 이동 방향을 제어부(250)로 전송하고, 제공된 이동 거리 및/또는 이동 방향이 최소인식거리 및/또는 최소인식방향보다 작은 경우, 해당 이동 거리 및/또는 이동 방향을 삭제할 수 있다.
한편, 이동중인 사용자가 단말기(120)를 움직이게 되면, 현재의 이동 방향 및 속도로 인하여, 단말기(120)의 움직임을 정확하게 감지하지 못하는 경우가 발생할 수 있다.
개시된 기술의 신호처리부(240)는 특정한 외부 환경에서 이동 감지 센서(230)에서 감지되는 감지신호의 일부를 제거하거나 보정할 수 있다. 예를 들어, 자동차에 승차한 사용자가 단말기(120)를 움직이는 경우에는 가속도의 변화량이 작지만 지속적으로 변화가 발생하는 경우(예를 들어, 고속도로에서 안정적인 속도에서 주행하고 있는 경우) 또는 너무 큰 경우의 신호(예를 들어, 도심지에서 정차 및 주행이 반복되는 경우)를 필터링 할 수 있다. 다른 예로, 전철에 승차한 사용자가 단말기(120)를 움직이는 경우에는, 전철의 진행방향에 상응하는 방향에 대한 가속도 성분을 필터링 할 수 있다. 다시 말해, 전후방향에 대한 가속도 성분이 필터링 되어 제거되도록 설정되면 사용자는 전철의 진행방향을 바라본 상태에서 단말기(120)를 상하좌우로 이동하는 것으로 가상 공간을 이동할 수 있다. 이러한 주위 환경에 따른 감지신호의 처리 방법은 당업자의 요구에 따라 다양한 변형이 가능하며, 주위 환경에 따라서 단말기(120)가 추천하는 내용을 사용자가 선택하거나 단말기(120)가 주위 환경을 반영하여 자동으로 처리하도록 할 수 있다.
제어부(250)는 제공된 이동 거리와 이동 방향을 기초로 가상 공간의 적어도 일부를 결정한다. 일 실시예에서, 제어부(250)는 적어도 일부의 가상 공간이 이산적인 공간에 위치한 경우에는 결정된 적어도 일부의 가상 공간은 인접한 이산적인 가상 공간 중 하나에 상응하도록 결정할 수 있다.
디스플레이부(260)는 제어부(250)에서 결정된 가상 공간의 적어도 일부를 디스플레이할 수 있다. 예를 들어, 디스플레이부(260)는 LCD 패널(Liquid Crystal Display Panel), LED 패널(Light Emitting Diode Panel), 터치스크린 패널(Touch Screen Panel), 3D 패널(Three-Dimensional Panel) 및/또는 홀로그램(Hologram) 표시 장치 등 디스플레이하는 장치에서 시각적으로 표현하는 것을 포함할 수 있다.
알림부(270)는 하드웨어의 실행 및/또는 콘텐츠의 실행 여부를 시각적, 청각적 및/또는 촉각적으로 표시할 수 있다. 일 실시예에서, 알림부(270)는 제어부(250)를 통하여 디스플레이부(260)의 일부에 시각적으로 출력 및/또는 직접 디스플레이부(260)의 일부에 시각적으로 출력될 수 있다. 예를 들어, 알림부(270)는 현재 디스플레이되는 가상 공간의 좌표값, 이동거리, 이동방향(예를 들어, 화살표), 가상 공간을 구분하는 색의 변화 및/또는 선명도에 상응하여 디스플레이부(260)에 출력될 수 있다. 다른 일 실시예에서, 알림부(270)는 직접 스피커 또는 진동발생소자의 동작을 제어 및/또는 제어부(250)를 통하여 스피커 또는 진동발생소자의 동작을 제어할 수 있다. 예를 들어, 스피커를 통해 특정 소리를 출력(청각적 기능)하는 것 및/또는 진동발생소자를 동작(촉각적 기능) 시켜 단말기(120)를 진동시킬 수 있다. 이때, 알림부(270)는 출력되는 소리 및/또는 진동발생소자의 주파수 및 진동 방식을 변경하여 하드웨어 및/또는 콘텐츠의 시작, 중지, 실행중, 이동 속도, 이동 방향, 재실행 및/또는 종료 등을 알릴 수 있다.
인증부(280)는 사용자의 인증을 수행할 수 있다. 일 실시예에서, 가상 공간의 적어도 일부에 인증 공간이 포함된 경우, 단말기(120)가 해당 인증 공간으로 이동하게 되면, 제어부(250)는 인증부(280)를 통해 사용자 인증을 거친 후, 해당 인증 공간을 디스플레이할 수 있다. 이러한 인증부(280)는 가상 공간의 특정 영역에 대한 보안성을 향상시킬 수 있다.
데이터 통신부(290)는 해당 가상 공간을 공유하는 다른 단말기(125)와 통신을 수행할 수 있다. 일 실시예에서, 다른 단말기(125)와 가상 공간을 공유하기 위해 제어부(250)는 데이터 통신부(290)를 통해 해당 단말기(125)와 통신을 수행하고, 해당 단말기(125)의 정보를 디스플레이부(260)에 디스플레이할 수 있다. 예를 들어, 해당 단말기(125)의 정보는 가상 공간에서의 위치 및/또는 해당 가상 공간에서의 활동상태를 포함할 수 있다. 다시 말해, 가상 공간을 통해 이루어지는 행위는 데이터 통신부(290)를 통해 콘텐츠 제공 서버(110) 및/또는 다른 단말기(125)로 전송되어, 상호간에 데이터를 공유할 수 있다.
도 2에서, 각 구성간의 데이터 전송 및 제어는 화살표로 표시하였으나, 이러한 방향성은 일 실시예에 따른 것이며, 당업자의 요구에 따라 기본 개념이 변경되지 않는 한도에서 다양한 변형이 이루어질 수 있음은 당연하다. 예를 들어, 콘텐츠 저장부(210)에 저장된 가상 공간을 구현하거나 가상 공간을 구성하고 있는 요소인 콘텐츠는 신호처리부(240)로 전송되고, 신호처리부(240)에서 처리된 단말기(120)의 이동 거리와 이동 방향이 적용된 후 제어부(250)로 제공될 수 있다. 또한, 제어부(250)는 다른 단말기(125)로 전송하고자 하는 데이터를 데이터 통신부(290)로 전송하여, 데이터 통신부(290)가 다른 단말기(125)로 해당 데이터를 전송하도록 할 수 있다. 따라서, 개시된 기술은 도 2에 나타난 구성 및 각 구성간의 연결관계에 한정하지 않음은 물론이다.
도 3은 도 1의 신호처리부(240)의 필터링 동작을 설명하는 그래프이다.
도 3에서, "A1"과 "A2"는 "X"축 방향으로 인접된 영역의 크기(거리)를 나타내고, "Sen_X"는 단말기(120)가 "X"방향으로 이동된 거리를 감지한 신호이며, "a1"은 "A1"영역의 시작경계위치이고, "a2"은 "A2"영역의 시작경계위치이며, "m1"은 및 "m2"는 경계위치에서의 최소인식거리이다.
도 3을 참조하면, 단말기(120)가 "A1"영역의 시작경계위치에 위치한 상태에서, 사용자의 손떨림에 의한 미세이동이 감지(구간 "T1")되면, 해당 신호는 신호처리부(240)에 의해 필터링 될 수 있다. 단말기(120)가 "A1"영역으로 이동하면 해당 영역의 가상 공간이 디스플레이될 수 있다(구간 "T2"). 이때, 단말기(120)가 "A2"영역의 시작경계위치에 위치한 상태에서, 사용자의 손떨림에 의한 미세이동이 감지되더라도 단말기(120)는 "A1"영역의 가상 공간이 디스플레이 될 수 있다. 한편, "A1"영역의 가상 공간이 디스플레이되는 상태에서 사용자의 일시적인 실수에 의해 단말기(120)의 위치가 "A2"영역으로 이동한 경우(구간 "T3" 및 "T4")가 발생할 수 있다. 이러한 경우에는 "A2"영역의 가상 공간이 디스플레이되지 않아야 한다. 이를 위하여 단말기(120)의 신호처리부(240)는 다른 영역으로의 이동된 시간이 설정시간보다 짧은 경우(구간 "T3")에는 가상 공간을 이동시키지 않도록 제어부(250)에 정보를 전달하지 않고, 설정시간보다 긴 경우(구간 "T4")에는 가상 공간을 이동시키도록 제어부(250)에 정보를 전달할 수 있다.
도 4는 개시된 기술의 일 실시예에 따른 가상 공간 인터페이스 제어 방법을 설명하는 흐름도이다.
도 4를 참조하면, 단말기(120)는 가상 공간을 구현하는 하드웨어의 실행 및/또는 가상 공간을 구현한 콘텐츠를 실행하여 가상 공간의 적어도 일부를 디스플레이한다(단계 S410). 예를 들어, 가상 공간은 연속적인 공간(Continuous Space), 이산적인 공간(Discrete Space) 및/또는 인증 공간(Confirmation Space)을 포함할 수 있다.
단말기(120)의 이동이 발생한 경우 이동 감지 센서(230)에 의해 감지된 단말기(120)의 이동 거리 및 이동 방향을 확인하고 유효성을 판단한다(단계 S420). 예를 들어, 유효성은 해당 이동 거리 및 이동 방향의 데이터 적용 여부에 대한 판단기준에 상응한다. 일 실시예에서, 단말기(120)의 이동 거리 및/또는 이동 방향이 최소인식거리 및/또는 최소인식방향보다 큰 경우, 해당 이동 거리 및/또는 이동 방향이 유효한 것으로 판단할 수 있다.
확인된 이동 거리 및 이동 방향에 기초하여 디스플레이된 가상 공간의 적어도 일부로부터 이동된 가상 공간의 적어도 다른 일부를 디스플레이한다(단계 S430).
도 5는 도 4의 구체적인 일 실시예를 설명하는 순서도이다.
도 5에서, 사용자 제어 하에 단말기(120)가 가상 공간을 구현하는 하드웨어의 실행 및/또는 가상 공간을 구현한 콘텐츠를 실행할 수 있고(단계 S501), 해당 가상 공간을 디스플레이할 수 있으며(단계 S502), 하드웨어/콘텐츠 실행 입력부(220)의 입력에 의해 하드웨어의 실행 및/또는 콘텐츠의 실행에 대한 유효여부를 확인할 수 있다(단계 S503).
하드웨어의 실행 및/또는 콘텐츠의 실행이 유효하지 않은 경우에는 현재 디스플레이된 상태를 유지할 수 있고(단계 S509), 하드웨어의 실행 및/또는 콘텐츠의 실행이 유효한 경우에는 사용자에게 하드웨어의 실행 및/또는 콘텐츠 실행이 온(On)상태임을 알릴 수 있다(단계 S504). 이때, 단말기(120)의 이동이 발생되면(단계 S505), 단말기의 이동 거리 및 이동 방향을 확인할 수 있다(단계 S506).
가상 공간이 연속적인 공간인 경우, 디스플레이된 가상 공간의 적어도 일부에 상응하는 좌표로부터, 단말기(120)의 이동 거리 및 이동 방향에 상응하여 보정된 좌표를 계산할 수 있고(단계 S507), 계산된 좌표에 상응하는 가상 공간의 적어도 다른 일부를 디스플레이할 수 있다(단계 S508). 일 실시예에서, 좌표의 계산은 기준 좌표를 기준으로 계산될 수 있다. 다른 일 실시예에서, 기준 좌표는 사용자에 의해 설정될 수 있다.
단말기(120)는 해당 콘텐츠가 종료될 때까지, 상기 과정을 반복할 수 있다(단계 S510).
여기서, 가상 공간에서의 공간위치 값은 상대적인 레퍼런스(Reference)좌표, 다시 말해, 기준 공간 좌표를 기준으로 변환되어 모든 콘텐츠 아이콘 또는 배경 이미지 등이 상대적인 공간 좌표에 위치할 수 있다. 예를 들어, 공간 좌표는 당업자의 요구에 따라 2차원 또는 3차원 좌표로 표현될 수 있으며, 2차원과 3차원 좌표 선택은 사용자에 의해 선택될 수 있다. 일 실시예에서, 공간 좌표는 양의 값 및/또는 음의 값으로 표현될 수 있으며, 정수 또는 실수로 표현될 수 있다.
도 6은 도 4의 구체적인 다른 일 실시예를 설명하는 순서도이다.
도 6에서, 가상 공간을 구현하는 하드웨어의 실행 및/또는 가상 공간을 구현한 콘텐츠가 실행된 상태에서(단계 S601), 단말기(120)의 이동이 발생하면(단계 S602), 단말기의 이동 거리 및 이동 방향을 확인할 수 있다(단계 S603).
확인 결과, 디스플레이될 영역이 인증 영역인 경우(단계 S604), 단말기(120)는 사용자의 인증 과정을 수행하고(단계 S605), 인증이 정상적으로 완료되면(단계 S606), 해당 인증 영역을 디스플레이할 수 있다(단계 S607). 만약, 인증이 이루어지지 않은 경우에는 인증 영역 내부가 보이지 않은 상태로 빈 공간만 디스플레이 하거나 이동전 디스플레이상태를 유지할 수 있다(단계 S608). 따라서, 가상 공간의 특정 영역에 대하여 보안성을 향상시킬 수 있다.
단말기(120)는 해당 하드웨어의 실행 종료 및/또는 콘텐츠가 종료될 때까지, 상기 과정을 반복할 수 있다(단계 S609).
도 7 내지 도 10은 도 4에 의해 연속적인 공간이 디스플레이되는 것을 설명하는 도면이다.
도 7에서, 연속적인 공간에 상응하는 전체 이미지(700)는 평면 또는 구형으로 이루어질 수 있다.
도 8에서, 가상 공간을 구현하는 하드웨어의 실행 및/또는 가상 공간을 구현한 콘텐츠가 실행되면 전체 이미지(700)의 일부(710)가 단말기(800)의 화면(810)에 디스플레이 될 수 있으며, 단말기(800)의 이동에 상응하여 연속적인 공간이 화면에(810) 디스플레이 될 수 있다.
도 9에서, 전체 이미지(700)의 처음 일부(910)가 단말기(800)의 화면(810)에 디스플레이 된 상태에서 단말기(800)를 오른쪽으로 이동하게 되면, 단말기(800)의 화면(810)에는 단말기(800)의 이동에 상응하는 전체 이미지(700)의 다음 일부(920)가 디스플레이될 수 있다.
도 10에서, 단말기(800)의 화면(810)에는 가상 공간을 구현하는 하드웨어의 실행 및/또는 가상 공간을 구현한 콘텐츠가 실행되고 단말기(800)를 앞 또는 뒤로 이동시키면 최초로 보여준 임의의 객체 정보에 추가적으로 자세한 정보(1011 내지 1015)를 디스플레이하거나 또는 임의의 객체 정보와 연결된 위치로 이동하여 그 내용을 디스플레이할 수 있다.
일 실시예에서, 가상 공간인 도 10의 화면을 확대 또는 축소할 수 있다. 예를 들어, 단말기(800)에 이동버튼(도시하지 않음) 및 확대버튼(도시하지 않음)을 구비하고, 사용자가 이동버튼을 누른 상태에서 도 9와 같이 화면을 이동하고, 원하는 일부의 이미지(920)가 도 10과 같이 디스플레이된 상태에서 확대버튼을 누른 상태로 단말기(800)를 앞 또는 뒤로 이동시키면, 해당 이미지(920)가 확대 또는 축소될 수 있다. 다른 일 실시예에서, 확대 또는 축소의 기준을 나태내기 위해 화면의 중심축에 커서 또는 인지용 도형을 중첩하여 디스플레이할 수 있다. 또 다른 일 실시예에서, 가상 공간 및/또는 증강현실로 나타난 임의의 객체 정보에 커서 또는 인지용 도형을 올려놓고 단말기(800)를 앞 또는 뒤로 이동시키면 더 자세한 정보 또는 추가 연결 정보를 얻을 수 있다. 또 다른 일 실시예에서, 터치스크린의 터치 방법 또는 디스플레이되는 기능용 아이콘 메뉴에 의해 해당 이미지(920)를 확대 또는 축소할 수 있다. 또 다른 일 실시예에서, 확대 또는 축소를 위해 화면의 중심축에 커서 또는 인지용 도형을 디스플레이하거나 화면에 터치하는 위치가 중심축이 되어 확대 또는 축소를 수행할 수 있다. 또 다른 일 실시예에서, 이산적인 공간인 경우에도 확대 또는 축소를 위한 상기 내용이 동일하게 적용될 수 있다.
도 11 내지 도 13은 도 4에 의해 이산적인 공간이 디스플레이되는 것을 설명하는 도면이다.
도 11에서, 이산적인 공간에 상응하는 전체 이미지(1100)는 다수의 아이콘(1101 내지 1109)을 포함할 수 있다. 예를 들어, 각 아이콘은 단말기(800)에서 수행되는 기능 중 적어도 하나에 상응할 수 있다. 일 실시예에서, 단말기(800)의 화면(810) 위치가 해당 아이콘의 위치에 상응하면, 해당 아이콘은 단말기(800)의 화면(810)에 디스플레이된다.
도 12에서, 사용자가 도면부호 "1101"의 아이콘을 선택하기 위해 이동된 단말기(800)의 화면(810) 위치가 정확하지 않은 경우에는, 단말기(800)의 이동 위치에서 가장 근접한 아이콘(1101)이 선택될 수 있다. 일 실시예에서, 각 아이콘과 화면(810)이 겹쳐지는 면적(B1, B2, B3, B4) 중 가장 면적이 큰 아이콘(1101)을 선택할 수 있다. 다른 일 실시예에서, 화면(810)의 중심점과 각 아이콘의 중심점의 거리를 계산하여, 가장 짧은 거리의 아이콘을 선택할 수 있다. 다시 말해, 가상 공간이 이산적인 공간인 경우, 디스플레이된 가상 공간의 적어도 일부를 기준으로, 단말기(800)의 이동 거리 및 이동 방향에 상응하는 위치를 계산할 수 있고, 계산된 위치로부터 가장 인접한 가상 공간의 적어도 다른 일부를 디스플레이할 수 있다. 일 실시예에서, 좌표의 계산은 기준 좌표를 기준으로 계산될 수 있다. 다른 일 실시예에서, 기준 좌표는 사용자에 의해 설정될 수 있다. 또 다른 일 실시예에서, 이산적인 공간의 해상도를 나타내는 2차원 평면 또는 3차원 입체공간의 평면/공간 그리드(Grid)를 기준으로 하여 아이콘(1101 내지 1109)이 화면에 디스플레이될 수 있으며, 단말기(800)의 이동에 따른 화면 디스플레이도 평면/공간 그리드의 기본 단위를 기초로 하여 디스플레이될 수 있다. 또 다른 일 실시예에서, 평면/공간 그리드의 단위 및 형태는 사용자에 의해 설정될 수 있다.
도 13에서, 이동된 단말기(800)의 화면(810) 위치가 인접된 아이콘들(1101, 1102, 1104, 1105)로부터 동일한 거리에 위치할 경우, 해당 아이콘들(1101, 1102, 1104, 1105) 중 어느 하나의 아이콘(1105)을 선택할 수 있다. 일 실시예에서, 각 아이콘과 화면(810)이 겹쳐지는 면적(B1, B2, B3, B4)이 가장 크면서 동일한 경우, 동일한 면적의 아이콘들 중 우선순위가 높은 아이콘(1101)을 선택할 수 있다. 다른 일 실시예에서, 화면(810)의 중심점과 각 아이콘의 중심점의 거리를 계산하여 거리가 가장 짧으면서 동일한 거리의 아이콘들 중 우선순위가 높은 아이콘을 선택할 수 있다. 다시 말해, 가장 인접한 가상 공간의 적어도 다른 일부가 복수 개인 경우, 해당 다른 일부들 중 부여된 우선순위가 상대적으로 높은 다른 일부를 선택할 수 있다. 일 실시예에서, 가장 인접한 가상 공간의 적어도 다른 일부가 복수 개인 경우, 해당 다른 일부들 중 실행 및/또는 디스플레이 횟수가 상대적으로 높은 다른 일부를 선택하여 이를 기준으로 적어도 다른 일부를 디스플레이할 수 있다.
도 14는 도 11의 이산적인 공간의 계층을 설명하는 도면이다.
도 14를 참조하면, 이산적인 공간의 계층은 메인 메뉴를 선택하는 메인 계층(Layer 1)과 상기 메인 계층의 각 메뉴별 트리구조에 기초하여 순차적으로 구성되는 적어도 하나의 서브 계층(Layer 2 내지 Layer 5)을 포함할 수 있다. 일 실시예에서, 메인 계층인 "Layer 1"에서 도 12와 같은 단말기(800)의 움직임으로 "전화번호부"를 선택하고 단말기(800)를 뒤로 이동시키면 "전화번호부"의 서브 계층인 "Layer 2"로 이동할 수 있고, 단말기(800)를 상하좌우로 이동하여 "ㄱ"항목을 선택할 수 있다. 이러한 과정을 반복하여 사용자는 "전화번호부" 메뉴에서 "ㄱ" 항목을 선택하고 "구본승"의 전화번호인 "010-1234-5678"를 선택하여 "통화"를 할 수 있다. 다른 실시예에서, 연속적인 공간에서도 상기 계층적인 구조를 가질 수 있다.개시된 기술에서 가상 공간은 연속적인 공간 및 이산적인 공간을 포함할 수 있으며, 각각 별도의 인증공간을 구성할 수 있고, 콘텐츠, 아이콘, 오브젝트 등을 모을 수 있는 모음 공간을 구성할 수 있다. 또한, 당업자의 요구에 따라 다양한 공간들이 추가적으로 구성될 수 있다. 이러한 각 공간들은 다양한 조합으로 전체 가상 공간상에 배치할 수 있으며, 가상 공간은 사용자의 요구에 따라 가상 공간을 다양하게 구현, 구분 및/또는 구별하고 언제나 변경 및/또는 수정/보완할 수 있도록 하는 환경을 제공함은 물론, 전체 가상 공간상에서 각 공간들이 차지하는 영역 및 현재 디스플레이되는 영역을 쉽게 파악할 수 있는 미니맵을 제공할 수 있다.
개시된 기술에서 아래의 기능이 추가될 수 있다.
첫째, 화면 회전 기능이 추가될 수 있다. 사용자가 단말기의 90도(단말기의 가로와 세로가 바뀌는 각도), 180도, 270도 등으로 회전시킬 수 있으며, 해당 가상 공간은 회전된 화면의 가로 대 세로 비에 상응하도록 변경될 수 있다.
둘째, 가상 공간에 위치한 아이콘들 중 적어도 일부를 그룹에 포함시킬 수 있고, 해당 그룹을 다른 공간으로 이동 또는 복사할 수 있다.
셋째, 가상 공간에서 수행한 과정(예를 들어, 아이콘의 이동) 및 그 결과정보를 저장할 수 있다. 필요시 저장된 정보는 사용자의 제어 하에 이전 상태로 복구할 수 있다.
넷째, 화면에 디스플레이되는 객체들을 계층구조로 구성하고, 각 계층을 차별화하여 디스플레이할 수 있다. 이러한 계층 구조는 선택적 정보 획득 및 관리가 쉬워지는 장점이 있다.
다섯째, 화면에 디스플레이되는 아이콘과 이에 인접한 아이콘을 실행 상태와 실행 오프상태로 관리할 수 있다.
여섯째, 실내 공간을 꾸미기 위한 콘텐츠를 수행할 경우, 통신망을 통해 다른 사용자 또는 서버 또는 제조업체로부터 해당 제품(예를 들어, 식탁이나 의자)의 이미지를 제공받거나 단말기로 획득한 이미지를 사용할 수 있다. 따라서, 보다 현실적인 가상 공간의 구성이 가능할 수 있다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
일 실시예에 따른 가상 공간을 구현하는 하드웨어의 실행 및/또는 가상 공간을 구현한 콘텐츠를 실행하는 단말기 및 가상 공간의 디스플레이 방법은 효율적으로 가상 공간을 디스플레이할 수 있다. 단말기의 움직임에 상응하여 변화되는 가상 공간을 디스플레이할 수 있기 때문이다.
또한, 일 실시예에 따른 가상 공간을 구현하는 하드웨어의 실행 및/또는 가상 공간을 구현한 콘텐츠를 실행하는 단말기 및 가상 공간의 디스플레이 방법은 손떨림 방지기능을 제공할 수 있다. 단말기의 움직임이 미세한 경우에 대해서는 가상 공간의 이동을 반영하지 않기 때문이다.
또한, 일 실시예에 따른 가상 공간을 구현하는 하드웨어의 실행 및/또는 가상 공간을 구현한 콘텐츠를 실행하는 단말기 및 가상 공간의 디스플레이 방법은 증강현실 및/또는 3D(Three-Dimensional) 입체 화면에 적용될 수 있다.
상기에서는 본 출원의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 출원의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 출원을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (15)

  1. 단말기의 이동이 발생한 경우 상기 단말기의 이동 거리와 이동 방향을 제공하는 이동 감지 센서;
    가상 공간의 적어도 일부를 구현한 콘텐츠를 저장하는 콘텐츠 저장부 -상기 가상 공간은 연속적인 공간(Continuous Space) 및/또는 이산적인 공간(Discrete Space)을 포함함-;
    상기 제공된 이동 거리와 이동 방향을 기초로 상기 가상 공간의 적어도 일부를 결정하고, 상기 적어도 일부의 가상 공간이 이산적인 공간에 위치한 경우에는 상기 결정된 적어도 일부의 가상 공간은 인접한 이산적인 가상 공간 중 하나에 상응하는 제어부; 및
    상기 제어부에서 결정된 가상 공간의 적어도 일부를 디스플레이하는 디스플레이부를 포함하는 가상 공간 인터페이스를 가지는 단말기.
  2. 제1항에 있어서, 상기 가상 공간은
    적어도 하나의 계층별 레이어를 포함하는 것을 특징으로 하는 가상 공간 인터페이스를 가지는 단말기.
  3. 제2항에 있어서, 상기 계층별 레이어는
    메인 메뉴를 선택하는 메인 계층; 및
    상기 메인 계층의 각 메뉴별 트리구조에 기초하여 순차적으로 구성되는 적어도 하나의 서브 계층을 포함하는 것을 특징으로 하는 가상 공간 인터페이스를 가지는 단말기.
  4. 제1항에 있어서, 상기 단말기는
    상기 이동 감지 센서에서 제공된 이동 거리 및/또는 이동 방향이 최소인식거리 및/또는 최소인식방향보다 큰 경우, 해당 이동 거리 및/또는 이동 방향을 상기 제어부로 전송하고, 상기 제공된 이동 거리 및/또는 이동 방향이 최소인식거리 및/또는 최소인식방향보다 작은 경우, 해당 이동 거리를 삭제하는 신호처리부를 더 포함하는 것을 특징으로 하는 가상 공간 인터페이스를 가지는 단말기.
  5. 제1항에 있어서, 상기 가상 공간은 인증 공간을 포함하고,
    상기 제어부는 상기 결정된 가상 공간의 적어도 일부가 인증 공간인 경우 사용자의 인증을 수행하는 인증부를 더 포함하는 것을 특징으로 하는 가상 공간 인터페이스를 가지는 단말기.
  6. 제1항에 있어서, 상기 단말기는
    상기 콘텐츠의 실행여부를 입력받는 콘텐츠 실행 입력부를 더 포함하는 것을 특징으로 하는 가상 공간 인터페이스를 가지는 단말기.
  7. 제6항에 있어서, 상기 콘텐츠 실행 입력부는
    단말기에 구성된 실행 버튼의 선택 또는 상기 단말기의 특정 움직임에 기초하여 해당 콘텐츠의 실행 여부를 입력받는 것을 특징으로 하는 가상 공간 인터페이스를 가지는 단말기.
  8. 제1항에 있어서, 상기 단말기는
    상기 콘텐츠의 실행 여부를 시각적, 청각적 및/또는 촉각적으로 표시하는 알림부를 더 포함하는 것을 특징으로 하는 가상 공간 인터페이스를 가지는 단말기.
  9. 제1항에 있어서, 상기 단말기는
    해당 가상 공간을 공유하는 다른 단말기와 통신을 수행하는 데이터 통신부를 더 포함하는 것을 특징으로 하는 가상 공간 인터페이스를 가지는 단말기.
  10. (a) 가상 공간을 구현한 콘텐츠를 실행하여 상기 가상 공간의 적어도 일부를 디스플레이하는 단계 -상기 가상 공간은 연속적인 공간(Continuous Space), 이산적인 공간(Discrete Space) 및/또는 인증 공간(Confirmation Space)을 포함함-;
    (b) 단말기의 이동이 발생한 경우 이동 감지 센서에 의해 감지된 단말기의 이동 거리 및 이동 방향을 확인하고 유효성을 판단하는 단계; 및
    (c) 상기 확인된 이동 거리 및 이동 방향에 기초하여 상기 디스플레이된 가상 공간의 적어도 일부로부터 이동된 상기 가상 공간의 적어도 다른 일부를 디스플레이하는 단계를 포함하는 가상 공간 인터페이스 제어 방법.
  11. 제10항에 있어서, 상기 (b) 단계는
    상기 단말기의 이동 거리 및/또는 이동 방향이 최소인식거리 및/또는 최소인식방향보다 큰 경우, 해당 이동 거리 및/또는 이동 방향이 유효한 것으로 판단하는 단계를 포함하는 것을 특징으로 하는 가상 공간 인터페이스 제어 방법.
  12. 제10항에 있어서, 상기 (c) 단계는
    (c1) 상기 가상 공간이 연속적인 공간인 경우, 상기 디스플레이된 가상 공간의 적어도 일부에 상응하는 좌표로부터, 상기 단말기의 이동 거리 및 이동 방향에 상응하여 보정된 좌표를 계산하는 단계; 및
    (c2) 상기 계산된 좌표에 상응하는 가상 공간의 적어도 다른 일부를 디스플레이하는 단계를 포함하는 것을 특징으로 하는 가상 공간 인터페이스 제어 방법.
  13. 제10항에 있어서, 상기 (c) 단계는
    (c1) 상기 가상 공간이 이산적인 공간인 경우, 상기 디스플레이된 가상 공간의 적어도 일부를 기준으로, 상기 단말기의 이동 거리 및 이동 방향에 상응하는 위치를 계산하는 단계; 및
    (c2) 상기 계산된 위치로부터 가장 인접한 가상 공간의 적어도 다른 일부를 기준으로 하여 디스플레이하는 단계를 포함하는 것을 특징으로 하는 가상 공간 인터페이스 제어 방법.
  14. 제13항에 있어서, 상기 (c2) 단계는
    상기 가장 인접한 가상 공간의 적어도 다른 일부가 복수개인 경우, 해당 다른 일부들 중 부여된 우선순위가 상대적으로 다른 일부를 선택하여 선택한 일부를 기준으로 적어도 선택된 일부를 디스플레이하는 단계를 포함하는 것을 특징으로 하는 가상 공간 인터페이스 제어 방법.
  15. 제13항에 있어서, 상기 (c2) 단계는
    상기 가장 인접한 가상 공간의 적어도 다른 일부가 복수개인 경우, 해당 다른 일부들 중 실행 및/또는 디스플레이 횟수가 상대적으로 다른 일부를 선택하여 선택한 일부를 기준으로 적어도 선택된 일부를 디스플레이하는 단계를 포함하는 것을 특징으로 하는 가상 공간 인터페이스 제어 방법.
PCT/KR2010/006503 2009-09-24 2010-09-20 가상 공간 인터페이스를 가지는 단말기 및 가상 공간 인터페이스 제어 방법 WO2011037408A2 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/497,922 US8787931B2 (en) 2009-09-24 2010-09-20 Terminal with virtual space interface and method of controlling virtual space interface

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20090090611 2009-09-24
KR10-2009-0090611 2009-09-24
KR10-2009-0094777 2009-10-06
KR20090094777 2009-10-06
KR10-2010-0092540 2010-09-20
KR1020100092540A KR20110033077A (ko) 2009-09-24 2010-09-20 가상 공간 인터페이스를 가지는 단말기 및 가상 공간 인터페이스 제어 방법

Publications (2)

Publication Number Publication Date
WO2011037408A2 true WO2011037408A2 (ko) 2011-03-31
WO2011037408A3 WO2011037408A3 (ko) 2011-09-09

Family

ID=43796384

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/006503 WO2011037408A2 (ko) 2009-09-24 2010-09-20 가상 공간 인터페이스를 가지는 단말기 및 가상 공간 인터페이스 제어 방법

Country Status (1)

Country Link
WO (1) WO2011037408A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094936A1 (ko) * 2015-12-03 2017-06-08 엘지전자 주식회사 이동 단말기 및 그 제어방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050060923A (ko) * 2003-12-17 2005-06-22 엘지전자 주식회사 이동통신 단말기 입력 장치 및 방법
US20070240073A1 (en) * 2006-04-07 2007-10-11 Mccarthy Kevin Mobile communication terminal
KR20080043469A (ko) * 2006-11-14 2008-05-19 엘지전자 주식회사 비접촉 센서를 구비하는 이동 단말기 및 이를 이용한아이템 목록 탐색 방법
KR100912310B1 (ko) * 2008-04-17 2009-08-14 엘지전자 주식회사 사용자의 제스쳐를 검출하여 사용자 인터페이스를 제어하는방법
KR100917527B1 (ko) * 2008-04-28 2009-09-16 엘지전자 주식회사 사용자의 제스쳐를 검출하여 사용자 인터페이스를 제어하는방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050060923A (ko) * 2003-12-17 2005-06-22 엘지전자 주식회사 이동통신 단말기 입력 장치 및 방법
US20070240073A1 (en) * 2006-04-07 2007-10-11 Mccarthy Kevin Mobile communication terminal
KR20080043469A (ko) * 2006-11-14 2008-05-19 엘지전자 주식회사 비접촉 센서를 구비하는 이동 단말기 및 이를 이용한아이템 목록 탐색 방법
KR100912310B1 (ko) * 2008-04-17 2009-08-14 엘지전자 주식회사 사용자의 제스쳐를 검출하여 사용자 인터페이스를 제어하는방법
KR100917527B1 (ko) * 2008-04-28 2009-09-16 엘지전자 주식회사 사용자의 제스쳐를 검출하여 사용자 인터페이스를 제어하는방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094936A1 (ko) * 2015-12-03 2017-06-08 엘지전자 주식회사 이동 단말기 및 그 제어방법

Also Published As

Publication number Publication date
WO2011037408A3 (ko) 2011-09-09

Similar Documents

Publication Publication Date Title
WO2012077922A2 (en) 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system
WO2011048901A1 (ja) 会議支援システム
KR102184269B1 (ko) 디스플레이장치, 휴대장치 및 그 화면 표시방법
WO2014129862A1 (en) Method for controlling display of multiple objects depending on input related to operation of mobile terminal, and mobile terminal therefor
WO2011034307A2 (ko) 단말기의 각도에 따라 서로 다른 영상 정보를 제공하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체
WO2013125921A1 (en) Method and apparatus for controlling screen by tracking head of user through camera module, and computer-readable recording medium therefor
CN104081307A (zh) 图像处理装置、图像处理方法和程序
KR20140112920A (ko) 사용자 기기의 오브젝트 운용 방법 및 장치
CN103329061A (zh) 使用姿势查看堆栈化的屏幕显示的方法和系统
CN105453019A (zh) 用于控制锁定或解锁的方法和装置
CN104205857A (zh) 信息处理设备、信息处理方法和程序
WO2013085333A1 (en) Method and apparatus for providing three-dimensional user interface in an electronic device
WO2016080596A1 (ko) 프로토타이핑 툴을 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2013118987A1 (en) Control method and apparatus of electronic device using control device
WO2011040710A2 (ko) 단말기의 움직임 또는 자세에 기초하여 비주얼 서치를 수행하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체
WO2020238357A1 (zh) 图标显示方法及终端设备
CN109857876A (zh) 一种信息显示方法及终端设备
CN109977081A (zh) 一种内容共享方法及终端设备
JP6872193B2 (ja) サーバ装置、電子コンテンツ管理システム、及び制御方法
KR20110033077A (ko) 가상 공간 인터페이스를 가지는 단말기 및 가상 공간 인터페이스 제어 방법
WO2011037408A2 (ko) 가상 공간 인터페이스를 가지는 단말기 및 가상 공간 인터페이스 제어 방법
JP2009204460A (ja) 情報表示システム、端末装置及びサーバ
KR20240116856A (ko) 포그라운드 및 백그라운드 분리 시스템에 사용되는 모듈 처리 방법, 장치 및 저장매체
WO2021153961A1 (ko) 가상현실을 이용한 이미지입력시스템 및 이를 이용한 이미지데이터 생성방법
WO2019156263A1 (ko) 대화방을 3차원 형태로 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10819049

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase in:

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13497922

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10819049

Country of ref document: EP

Kind code of ref document: A2