WO2021133081A1 - Method, apparatus, and program for providing user interface for arrangement of virtual object - Google Patents

Method, apparatus, and program for providing user interface for arrangement of virtual object Download PDF

Info

Publication number
WO2021133081A1
WO2021133081A1 PCT/KR2020/019059 KR2020019059W WO2021133081A1 WO 2021133081 A1 WO2021133081 A1 WO 2021133081A1 KR 2020019059 W KR2020019059 W KR 2020019059W WO 2021133081 A1 WO2021133081 A1 WO 2021133081A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
client device
selection
screen
request
Prior art date
Application number
PCT/KR2020/019059
Other languages
French (fr)
Korean (ko)
Inventor
손범준
권영호
Original Assignee
손범준
권영호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 손범준, 권영호 filed Critical 손범준
Publication of WO2021133081A1 publication Critical patent/WO2021133081A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to a method of providing a user interface, and more particularly, to a method of providing a user interface for disposing a virtual object in a virtual space.
  • the conventional method of arranging an object in a virtual space is different from a method in which a user arranges an object in reality, such as inputting spatial coordinates with respect to an arrangement position.
  • the conventional user interface for placement of a virtual object in a virtual space has a problem in that the operation method is complicated and a separate device such as a keyboard is required.
  • An object of the present invention is to provide a user interface through which a user can easily arrange a virtual object based on a spherical coordinate system with a simple manipulation in a virtual space, similar to a method in which a user arranges a real object in a real space.
  • Another object of the present invention is to provide a client device capable of providing the user interface without requiring a separate device for a user to place a virtual object in a virtual space.
  • a method for providing a user interface according to an aspect of the present invention for solving the above-described problems includes providing a user space screen in a direction directed by a client device; outputting the selection object to be fixedly positioned on one area of the screen in response to a user's request for selection of a specific object; When the client device is moved by the user while the selection object is selected, the user space screen is provided according to the direction the client device is oriented, and the selection object is fixedly positioned on the one area of the screen. outputting; and arranging the selection object in the user space in response to a user's request for placement of the selection object, wherein the user space includes one or more virtual objects arranged by the user.
  • the location of the selection object on a sphere at a specific distance from the origin is changed according to the movement of the client device, and the origin is the arrangement position of the client device in a state in which the selection object is selected. or a user location calculated from the placement location of the client device.
  • the selection request includes the user touching a specific object on the screen or the user touching a second icon in a state where the first icon is located on the specific object, and the first icon is fixed to one area of the screen, and the second icon is located in another area of the screen spaced apart from the first icon.
  • the placement request includes the user touching the screen while the selection object is selected.
  • changing the distance between the origin and the selection object further includes.
  • the request for changing the distance includes a user tapping or dragging a third icon located in an area of the screen while the selection object is selected.
  • the step of outputting the selection object to the screen includes outputting the selection object to be fixedly positioned on an area of the screen, connecting the selection object and the third icon, and connecting the An object indicating a distance between the selection objects is further output.
  • changing the size of the selected object further includes.
  • the step of rotating the selected object further includes.
  • an apparatus for providing a user interface includes: an input unit for receiving a user's selection request for a specific object or a user's placement request for a selection object selected by the user; a detection unit for detecting the position, direction, or operation information of the client device; a control unit that moves the selection object in the user space according to the movement of the client device or a user's manipulation, and arranges the selection object in the user space according to the arrangement request; and an output unit for outputting, by the control unit, a user space screen in a direction the client device is oriented, and outputting the selection object to be fixedly positioned in an area of the screen according to the inputted user's selection request; and, the user space includes one or more objects arranged by a user.
  • a user interface providing program is combined with hardware to execute the above-mentioned user interface providing method, and is stored in a medium.
  • a user can select a virtual object with simple manipulations in virtual space, and move the selected selected object while maintaining a specific distance from the client device only by moving the client device without any other manipulations. and the distance from the client device can be changed with a simple operation, so that a specific object can be easily disposed at a desired location.
  • a user space can be easily formed by arranging one or more virtual objects in the virtual space without a separate device or complicated calculation.
  • 1 to 4 are diagrams for explaining an embodiment of a method of forming a virtual space by arranging a virtual object through a user interface according to an embodiment of the present invention.
  • FIG. 5 is a flowchart of a method for providing a user interface according to an embodiment of the present invention.
  • FIG. 6 is a block diagram of a client device providing a user interface according to an embodiment of the present invention.
  • FIGS. 7A and 7B are diagrams for explaining provision of a user space screen in a direction directed by a client device according to an embodiment of the present invention.
  • FIGS. 8A and 8B are diagrams for explaining a selection request by a user touching an object on a screen according to an embodiment of the present invention.
  • 9A and 9B are diagrams for explaining a selection request through a first icon and a second icon according to an embodiment of the present invention.
  • FIGS. 10A and 10B are diagrams for explaining a screen according to movement of a client device in a state in which a selection object is selected according to an embodiment of the present invention.
  • 11A and 11B are diagrams for explaining an arrangement request by a user's touch on the screen according to an embodiment of the present invention.
  • FIG. 12 is a flowchart of a method for providing a user interface further including a distance change step according to a user's distance change request according to an embodiment of the present invention.
  • FIGS. 13A and 13B are diagrams for explaining a distance change request and a distance display object through a third icon according to an embodiment of the present invention.
  • FIG. 14 is a flowchart of a method for providing a user interface further including a resizing step in response to a user's size change request according to an embodiment of the present invention.
  • 15A and 15B are diagrams for explaining a size change request by a user pinch-in/out according to an embodiment of the present invention.
  • 16 is a flowchart of a method for providing a user interface further comprising a rotation step according to a user's rotation request according to an embodiment of the present invention.
  • 17A and 17B are diagrams for explaining a roll rotation of a selection target according to an embodiment of the present invention.
  • 18A and 18B are diagrams for explaining yaw rotation of a selection target according to an embodiment of the present invention.
  • 19A and 19B are diagrams for explaining pitch rotation of a selection target according to an embodiment of the present invention.
  • spatially relative terms “below”, “beneath”, “lower”, “above”, “upper”, etc. It can be used to easily describe the correlation between a component and other components.
  • a spatially relative term should be understood as a term that includes different directions of components during use or operation in addition to the directions shown in the drawings. For example, when a component shown in the drawing is turned over, a component described as “beneath” or “beneath” of another component may be placed “above” of the other component. can Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.
  • the term 'object' refers to a virtual object disposed in a virtual space including virtual reality (VR) or augmented reality (AR).
  • the object includes a computer graphic (CG) image of a specific object or an image of a real object or person, but is not limited thereto, and includes all objects that can be placed in a virtual space.
  • CG computer graphic
  • 'user space' refers to a virtual space including one or more virtual objects arranged by a user.
  • the virtual space includes a VR virtual space in which an object or a background of the real world is provided only as a CG image, or an AR virtual space that is an image of a virtual object provided on an image of the real space.
  • a 'selection object' refers to an object selected by a user's selection request from among one or more objects existing in the user space.
  • the selection object may be moved in the user space according to the user's movement of the client device or the user's manipulation until it is placed at a location on the virtual space desired by the user after selection.
  • a 'client device' refers to any device including a communication function that users can use by installing a program (or application). That is, the client device may include one or more of a telecommunication device such as a smartphone, tablet, PDA, laptop, smart watch, smart camera, etc., a VR/AR device such as a remote controller, VR/AR glasses, VR/AR headset, etc.
  • a telecommunication device such as a smartphone, tablet, PDA, laptop, smart watch, smart camera, etc.
  • a VR/AR device such as a remote controller, VR/AR glasses, VR/AR headset, etc.
  • the present invention is not limited thereto.
  • computers include desktop PCs, notebooks (Note Books) as well as smart phones, tablet PCs, cellular phones, PCS phones (Personal Communication Service phones), synchronous/asynchronous A mobile terminal of International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable.
  • computers include desktop PCs, notebooks (Note Books) as well as smart phones, tablet PCs, cellular phones, PCS phones (Personal Communication Service phones), synchronous/asynchronous A mobile terminal of International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable.
  • IMT-2000 International Mobile Telecommunication-2000
  • PC Palm Personal Computer
  • PDA Personal Digital Assistant
  • 1 to 4 are diagrams for explaining an embodiment of a method of forming a virtual space by arranging a virtual object through a user interface according to an embodiment of the present invention.
  • the user client device 300 provides a user space ( 20) generating or executing (S210); performing a position change of the selection object 450 selected by the user 200 in response to the movement of the user client device or the user's manipulation (S310); and arranging the selection object in the user space according to the user's request for placement of the selection object (S410).
  • a user space 20
  • generating or executing S210
  • performing a position change of the selection object 450 selected by the user 200 in response to the movement of the user client device or the user's manipulation (S310); and arranging the selection object in the user space according to the user's request for placement of the selection object (S410).
  • the user client device 300 creates or executes the user space 20 (S210). That is, according to an embodiment, the user client device creates a user space that is a virtual space in which the user will place a virtual object or reconnects to the previously created user space in response to a user's request.
  • the user space 20 is a virtual space including one or more virtual objects arranged by the user, and is an AR virtual space generated to receive and correspond to image data of a real space as well as a VR virtual space.
  • the user client device changes the location of the selection object 450 selected by the user in response to the movement of the user client device or the manipulation of the user (S310).
  • the selection object 450 is a specific object in the user space selected by the user's selection request, and the selection request includes all inputs of the user's specific object that can be input to the user client device, which will be described in detail. It will be described later.
  • the movement of the client device may include not only a movement of changing the position (coordinate) of the client device, but also a change of direction, ie, a rotational movement of the client device.
  • the change of the selection object is a state in which the location of the selection object in the user space corresponding to the movement of the client device or the manipulation of the user, the distance of the selection object from the origin is changed, or the position in the user space is fixed includes changing the shape, size, or orientation of the selected object.
  • the change in the location of the selection object in the user space is changing the arrangement location of the selection object in the user space, which is a three-dimensional virtual space, wherein the selection object moves or moves the user client device while the selection object is selected.
  • the location is changed according to the user's manipulation.
  • the arrangement position includes not only position (coordinate) information, but also arrangement information regarding the direction of the selection target.
  • the selection object 450 responds to the movement of the user client device while maintaining a specific distance with respect to a specific direction of the user client device 300 in the user space 20 . can be moved
  • the selection object when the selection object is located at a distance of 1 m perpendicular to the center of the rear surface (opposite to the user) of the user client device, the selection object moves (rotation, position change, etc.) of the user client device by the user 200 . ), the position in the user space may be changed to correspond to this. That is, in this case, there is an effect that the user can change the position of the selection object only by moving (including rotation) the client device without a separate manipulation of the arrangement of the selection object. Also, as will be described later, the distance between the selection target and the user client device may be changed according to a user's manipulation.
  • the direction of the selection target may be fixed with respect to the client device.
  • the front of the selection target before moving faces the client device and the position of the selection target is moved according to the movement of the client device the front of the selection target after moving faces the client device after moving can be automatically rotated to
  • the direction of the selection object may be fixed in the user space and only the location change may be performed according to the movement of the client device.
  • the selection target is rotatable according to a user's manipulation, which will be described later in detail.
  • the location of the selection object 450 may be changed in the user space to move on a spherical surface at a specific distance from the origin 150 according to the movement of the user client device or the user's manipulation in the selected state. have.
  • the origin 150 includes the location of the user client device 300 in the state in which the selection object 450 is selected or the location of the user 200 calculated from the location of the user client device. .
  • FIG. 3 is a diagram for explaining a case where the origin 150 is the position of the user 200 calculated from the arrangement position of the user client device in a state in which the selection object is selected.
  • the origin which is the user's location in a state in which the selection object is selected, may be calculated in consideration of the user's arm length or the user's client direction from the location of the user client device.
  • the origin is a user's position in a state in which the selection object is selected
  • the user's position after the movement may be the origin.
  • the origin may include information about the direction as well as the coordinates of the user or the user's client device. That is, in FIG. 3 , the origin 150 may include the coordinates of the user 200 , the direction of the user client device 300 , or the direction of the user 200 .
  • the selection target may be moved in the user space while maintaining a specific direction or a specific distance with respect to the user client device. For example, when a user extends an arm and holds a client device (eg, a smartphone) in his hand, and the selection object is located at a distance of 1 m perpendicular to the center of the rear surface of the client device, the user When the client device is moved with the arm extended to place the . , the selected object may be moved on a sphere at a distance of '1 m + the first user's arm length' from the origin, which is the user's location.
  • a client device eg, a smartphone
  • the selection object may move on a specific sphere with a distance (r value) of '1m + first user's arm length' from the origin.
  • the r value may be changed by the user's arm movement or user manipulation while the selection object is selected.
  • FIG. 4 is a diagram for explaining a case where the origin 150 is the arrangement position of the user client device 300 in a state in which the selection object is selected.
  • the origin which is the location of the user client device in a state in which the selection object is selected, may include information about the direction as well as the coordinates of the first user client device.
  • the origin is the arrangement position of the user client device when the selection object is selected
  • the position (including the direction) of the user client device after movement could be the starting point.
  • the location of the selection object 450 may be changed in the user space to move on a spherical surface at a specific distance from the origin according to the movement of the user client device or the user's manipulation in the selected state. That is, as shown in FIG. 4 , not only when the location of the client device is changed, but also when the location is fixed and only the direction is changed, the location of the selection object can be changed in the user space in response to the direction of the client device. have.
  • the user when the user extends his arm and holds a client device (eg, a smart phone) in his hand, and the selected object is located at a distance of 1 m perpendicular to the center of the rear surface of the client device, the user If only the direction of the client device is rotated while the arm is extended to place the selection object at a desired location, the selection object may be moved on a spherical surface at a distance of '1 m' from the origin, which is the location of the client device.
  • a client device eg, a smart phone
  • the user when the user changes the location of the client device while extending his or her arm to place the selection object at a desired location, it is located at the center of the rear side of the client device on a spherical coordinate system with the location of the moved client device as the origin.
  • the selection object may be located at a distance of 1 m orthogonal to the object. Also, it goes without saying that the r value may be changed by a user manipulation while the selection object is selected.
  • the origin is the client device location (dire), of course.
  • the method may further include receiving and applying change information on the distance between the origin 150 and the selection object 450 from the user 200 . This is to allow the selection object to move on the spherical surface of the changed distance by changing the distance in the selection object moved on the spherical surface at a specific distance from the origin as described above.
  • the distance of the selection object from the client device is set to 2 m according to the user's request.
  • the position of the selected object may be changed in the user space to correspond to the movement including rotation and movement of the user client device by the user while maintaining it.
  • the distance change request includes all inputs for changing the distance of the user's selection target that can be input to the user's client device, which will be described in detail later.
  • the method may further include receiving and applying change information on the selection object 450 from the user 200 .
  • the change information of the selection object includes change information regarding the shape, size, or direction of the selection object in a state where the location of the selection object in the user space is fixed. That is, the user can freely change the shape, size, direction, etc. of the selected object by the user's manipulation while the specific object is selected, and it is also possible to change the shape by uploading a new object, which will be described later in detail.
  • the selection object is placed in the user space 20 in response to the user 200's request for placement of the selection object 450 (S410). That is, in the state in which the selection object is selected, when the selection object arrives at a location to be placed by the user (including movement of the client device or the user's manipulation), the selection of the selection object is released according to the user's placement request, , the selection object is arranged in the user space according to the position and direction of the selection object when the placement request is made.
  • the disposed object is no longer moved in the user space by the movement of the client device or by the user manipulation, but may be moved when selected again by the user.
  • the arrangement request includes all inputs for the user's selection target that can be input to the user's client device, which will be described in detail later.
  • the utilization of the method for providing a user interface according to an embodiment of the present invention is not limited to the embodiment of the method for forming a virtual space described above, and may be applied to all methods of forming a virtual space by arranging a virtual object. .
  • FIGS. 17A and 17B, 18A and 18B, and 19A and 19B are diagrams for explaining a method of providing a user interface according to an embodiment of the present invention. to display the screen of the client device provided according to the user's manipulation in the left layer.
  • a user interface for placing a virtual rabbit object in the AR user space using a smartphone a user interface for placing a virtual rabbit object in the AR user space using a smartphone
  • the present invention is not limited to the above embodiment, and can be applied to all the client devices, user spaces, and objects described above.
  • a method of providing a user interface according to an embodiment of the present invention includes providing a screen of the user space 20 in a direction in which the client device 300 is oriented ( S2100 ); outputting the selection object 450 to be fixedly positioned in one area of the screen in response to a selection request of the user 200 for a specific object (S2200); When the client device is moved by the user while the selection object is selected, the user space screen is provided according to the direction the client device is oriented, and the selection object is fixedly positioned on the one area of the screen. outputting (S2300); and arranging the selection object in the user space according to the user's request for placement of the selection object (S2400).
  • S2100 screen of the user space 20 in a direction in which the client device 300 is oriented
  • S2200 specific object
  • a screen of the user space 20 in the direction the client device 300 is oriented is provided (S2100). That is, the user space screen corresponding to the movement of the client device by the user is output to the output unit of the client device, and as described above, the user space includes a VR or AR user space.
  • FIGS. 7A and 7B are diagrams for explaining provision of a user space screen in a direction directed by a client device according to an embodiment of the present invention.
  • a screen 382 for the user space 20 in the direction the client device is oriented is provided to the output unit of the smartphone 300 as the client device.
  • the user space is an AR virtual space, a virtual space in which one or more virtual objects 400, which are rabbits, are disposed in an image of a real space.
  • the smartphone which is the client device 300
  • the screen for the user space is output to the output unit of the smartphone to correspond thereto.
  • the selection object 450 is output to be fixedly positioned in one area of the screen (S2200).
  • the object is selected in response to a user's request for selection of a specific object, and the selected selection object is fixed to an area of the screen of the client device and output to be positioned, and the selection request includes all inputs for selection of a specific object of the user that can be input to the user client device.
  • the object in the user space is selected by the user, so that the position, size, or direction of the object in the user space may be changed in response to the movement of the client device or the manipulation of the user.
  • the red rabbit which is the object 400 disposed in the user space 20 in FIG. 8A , selects the object 450 in FIG. 8B according to the user's selection request. It is output so that it is fixed in the center, which is one area of the smartphone screen 382 .
  • the method when the user touches an area of the screen 382 of the client device, the method further includes outputting, by the client device, information indicating the touched location. For example, referring to FIG. 8A , when the user touches a red rabbit on the smartphone screen in the right layer, a white circle 384 for the position touched by the user is output on the smartphone screen, which is the left layer, and the touch position can inform the user.
  • 'touch' is a user's manipulation input to the client device, and includes a tap, a double tap, a drag, a slide, a press, and a touch and may be input to the client device including, but not limited to, Touch and Hold, Swipe, Rotate, Press&Drag, Pinch in/out, or Spread. Includes all user gestures.
  • the selection request includes the user touching a specific object on the screen or the user touching the second icon while the first icon is located on the specific object.
  • FIGS. a and b are diagrams for explaining a selection request by a user touching an object on a screen according to an embodiment of the present invention.
  • FIGS. a and b in one embodiment, when a selection request is input in which the user touches 384 a red rabbit that is an object 400 output on the smartphone screen 382 in FIG. 8a, FIG. 8b The touched red rabbit becomes the selection object 450 and may be output to be fixed in the center of the screen.
  • FIGS. 9A and 9B are diagrams for explaining a selection request through a first icon and a second icon according to an embodiment of the present invention.
  • the first icon may be fixedly positioned on one region of the screen, and the second icon may be positioned on another region of the screen spaced apart from the first icon.
  • the first icon 610 may be fixedly located in the center of an area of the smartphone screen 382
  • the second icon 620 may be located at the bottom, which is another area of the screen.
  • the user touches the second icon 620 while moving the smartphone 300 so that the first icon 610 is located on the red rabbit that is the object 400 to be selected.
  • the red rabbit may be the selection target 450 .
  • the client device when the second icon is touched when the first icon is overlapped with the plurality of objects, the client device outputs an additional selection request for the plurality of objects to the user ; may be further included.
  • the additional selection request may include an additional selection request for one object among a plurality of objects or an additional selection request for all of the plurality of objects.
  • the selection object 450 may further include a separate output to distinguish it from other unselected objects 400 disposed in the user space. For example, as shown in FIG. 8B , a highlight mark may be included in the selected object to distinguish it from the unselected object.
  • the user space screen is provided according to the direction the client device is oriented, and the selection object is fixedly positioned on the one area of the screen. output (S2300).
  • the selection object is fixed to one area of the screen, and the direction in which the client device is moving is fixed to a screen other than the area where the selection object is output.
  • Userspace can be printed.
  • the selection object may be moved in the user space according to the movement of the client device while maintaining a specific direction or a specific distance with respect to the client device, and the screen of the client device is displayed by the user.
  • the movement of the selected object in space can be output.
  • FIGS. 10A and 10B are diagrams for explaining a screen according to movement of a client device in a state in which a selection object is selected according to an embodiment of the present invention.
  • a red rabbit 450 that is a selection target selected by the user in the user space 20 is fixedly positioned in the center of an area of the smartphone screen 382 . is output, and when there is a movement of the smartphone 300 from FIG. 10A to FIG. 10B , the selection object is fixed at the center of the screen, but the screen of the user space 20 is output to correspond to the movement of the smartphone.
  • the location of the red rabbit 450 as the selection object is changed in the user space according to the movement of the smartphone, but the position of the white rabbit 400 as the unselected object is changed according to the movement of the smartphone. No change.
  • the selection of the plurality of objects includes a plurality of objects located on a path in which the first icon 610 is moved as the user moves the client device 300 while the user touches the second icon 620 . of may be selected.
  • object A in which the first icon located in the center of the smartphone is disposed in the user space
  • the objects A, B, and C may be simultaneously selected.
  • selecting the plurality of objects includes moving the first icon 610 to surround a predetermined area as the user moves the client device 300 while the user touches the second icon 620 . In this case, a plurality of objects located within the corresponding area may be selected.
  • the smartphone 300 in a state where the user touches and holds the second icon
  • the first icon located in the center of the smartphone is moved to draw a circle, and then the user When the touch and hold of the second icon is stopped, the objects A, B, and C arranged in the circle may be simultaneously selected.
  • a plurality of objects when a plurality of objects are selected at the same time, they are output to be fixedly positioned on an area of the screen of the user client device while maintaining the arrangement shape between the selected objects, and are positioned in the user space according to the movement of the client device may be changed. For example, all of A, B, and C selected at the same time may be grouped while maintaining the arrangement of each other, moved as a whole in the user space, and may be arranged according to a user's arrangement request.
  • all of the selected objects may be fixedly positioned on one area of the screen of the user client device.
  • each of A, B, and C selected at the same time may be overlapped and moved to be located in the center of the smartphone, and may be arranged according to a user's arrangement request.
  • the selection object In response to a user's request for placement of the selection object, the selection object is placed in the user space (S2400). That is, when the selection object arrives at a location that the user wants to place, the selection can be released in the user space at the location by releasing the selection according to the user's placement request, and the placement request can be input to the user's client device. Includes all inputs for the arrangement of the user's selection object. That is, according to an embodiment, after the selection object is disposed, the location is not changed according to the movement of the client device unless it is selected again.
  • the red rabbit 450 when there is a user's placement request (eg, screen touch) for the red rabbit 450 that is the selection target in FIG. 11A , the selection target is placed on the selection target as shown in FIG. 11B .
  • the red rabbit becomes the object 400 rather than the selection object.
  • the placement request includes the user touching the screen while the selection object is selected.
  • 11A and 11B are diagrams for explaining an arrangement request by a user's touch on the screen according to an embodiment of the present invention. 11A and 11B , in one embodiment, when the user touches 384 an area of the screen 382 while the red rabbit 450 is selected as shown in FIG. 11A , as shown in FIG. 11B , the selection object 450 may be disposed at a location at the time of a request for placement in the user space, and thus may become an object 400 rather than a selection object.
  • the area touched for the placement request may be a screen other than the area where the selection object is located or the entire screen including the area where the selection object is located.
  • the method may further include, in response to a user's request for duplication of the selected object, copying the selected object in user space.
  • the duplication of the selection object is to place an object having the same type, shape, size or direction as the selection object in the user space while maintaining the selection of the selection object, unlike the arrangement of the selection object described above, In this case, the user can freely move a specific selected object and conveniently arrange a plurality of duplicated objects through a copy request at each desired location.
  • the red rabbit 450 when the user selects the red rabbit 450 and moves the smartphone 300 and touches the fourth icon (request icon) for each location where the red rabbit is to be placed, the red rabbit 450 is displayed. may be placed in the center of the screen and the duplicated red rabbit object 400 may be disposed at each corresponding location in the user space.
  • the method may further include, by the user client device, outputting information that can notify the user of this.
  • information including the aforementioned highlight display, voice information corresponding to selection/arrangement, or haptic (eg, vibration) information may be output.
  • the method further includes changing the distance between the origin and the selected object according to the user's request for changing the distance ( S2320 ).
  • the origin includes an arrangement position of the user client device in a state in which the selection object is selected or a user position calculated from the arrangement position of the client device.
  • the distance change request includes all inputs for changing the distance of the user's selection target that may be input to the user client device.
  • the distance between the origin and the selection object in the user space may be changed according to the distance change request.
  • 13A and 13B are diagrams for explaining a distance change request and a distance display object through a third icon according to an embodiment of the present invention.
  • the request for changing the distance includes a user tap or drag a third icon located in an area of the screen while the selection object is selected.
  • the third icon 630 when the user taps (384) the third icon 630 on the smartphone screen in FIG. 13A and drags it downward as shown in FIG. 13B (384), between the red rabbit as the selection target and the client (origin) distance can be narrowed. Similarly, the distance can be increased by dragging the third icon upward.
  • the third icon 630 may be a change of the second icon 620 when a specific object is selected. That is, in an embodiment, when the object is not selected, the second icon for selecting the object is changed to a third icon for changing the distance of the selected object when the object is selected, and when the selection of the object is deselected and placed, it is again It may be changed to a second icon.
  • the output size of the selection object may be differently output on the screen of the client device according to the change in the distance. This is due to the perspective method according to the distance change, which is different from the change in the size of the selection object, which will be described later. That is, in one embodiment, the 'output size' of the selection object means the size of the selection object output image output on the screen of the client device, and the 'size' of the selection object is the size of the selection object itself existing in the user space 20 . It could mean size.
  • an object connecting the third icon and the selection object and indicating the distance between the origin and the selection object may be further output.
  • the distance display object may represent the distance as a numerical value 640 (eg, 208.92 cm in FIG. 13A and 85.17 cm in FIG. 13B ) or may be displayed using a figure.
  • the figure includes a dotted line 650 connecting a third icon and a selection object.
  • the dotted line 650 is the third icon 630 and the first The icon 610 may be connected.
  • the dotted line 650 may indicate a distance between the origin and the selection object. For example, when each line segment constituting the dotted line has a constant distance value, since the number of line segments constituting the dotted line varies according to the distance between the origin and the selection target, the distance can be intuitively grasped.
  • the dotted line 650 of FIG. 13A and the dotted line 650 of FIG. 13B have the same length (the length between the first icon and the third icon), but the smartphone in the user space and the red rabbit 450 as a selection object ), since the number of line segments in FIG. 13A is large (dense) and the number of line segments is small in FIG. 13B, which is close in distance (because it is far), it is possible to determine the distance of the selection object from the smartphone.
  • the method further includes changing the size of the selected object according to the user's request for size change ( S2340 ).
  • the size change request includes all inputs for changing the size of the selection object of the user that can be input to the user client device, and the size of the selection object is in the user space 20, which is a virtual space. It may mean the size of the existing virtual selection object 450 .
  • the size of the red rabbit 450 as a selection target in FIG. 15B may be changed.
  • 15A and 15B are diagrams for explaining a size change request by a user pinch-in/out according to an embodiment of the present invention.
  • the size change request includes a user's pinch in/out gesture.
  • the pinch-in/out gesture includes input of all pinch-in/out gestures of the user on the screen 382 of the client device while the selection object is selected.
  • the pinch-in/out gesture for the size change request may mean a pinch-in/out gesture for an area adjacent to the selection object.
  • the size change request does not include a case in which the user inputs a pinch-in/out gesture to a screen area spaced apart from the selection object, but only a case in which the selection object is input around an output area.
  • the output size of the selection object may be differently output on the screen of the client device according to the change in the distance. For example, when there is a request to enlarge the size of the red rabbit 450 that is the selection object in FIG. 15A , the client device not only enlarges the size of the red rabbit existing in the user space 20 , but also the screen 382 of the client device ), the output size of the red rabbit can be enlarged as well.
  • an object indicating the size of the selection object may be further output.
  • the size display object may display the size of a red rabbit 450 as a selection target as a numerical value 660 .
  • the numerical value may indicate the size of the selected object in a specific unit (eg, 30 cm) or a magnification of the reference size (eg, 1.18x).
  • the reference size may mean a size when a specific object is initially uploaded to the user space or a preset size for each object.
  • the user may use the distance display objects 640 and 650 and the size display object 660 to determine the distance between the selection object and the origin and the selection object
  • the distance change and the size change can be distinguished. For example, when the output size is enlarged, the number of line segments or the distance value 640 of the dotted line 650 between the first icon and the third icon is maintained, and when the size value 660 is changed, the size is changed. In contrast to , when the size value is maintained but the number of line segments of the dotted line or the distance value is changed, it can be recognized as a distance change.
  • FIG. 16 is a flowchart of a method for providing a user interface further comprising a rotation step according to a user's rotation request according to an embodiment of the present invention.
  • rotating the selection object according to the user's rotation request (S2360); further includes.
  • the rotation request includes all inputs for rotation of the user's selection object that may be input to the user client device.
  • the rotation comprises a roll rotation, a yaw rotation or a pitch rotation.
  • 17A and 17B are diagrams for explaining a roll rotation of a selection target according to an embodiment of the present invention.
  • the user's roll rotation request includes a rotate gesture.
  • the user inputs a rotate gesture (384 in FIGS. 17A and 17B ) using two fingers as in FIGS. 17A and 17B , the direction of the rotation gesture (clockwise in FIGS. 17A and 17B ) direction), the selection object 450 may roll-rotate.
  • the rotation gesture for the roll rotation request may refer to a rotation gesture for an area adjacent to the selection object.
  • the roll rotation request does not include a case in which the user inputs a rotation gesture to a screen area spaced apart from the selection object, but may mean only a case in which the selection object is input around an output area.
  • 18A and 18B are diagrams for explaining yaw rotation of a selection target according to an embodiment of the present invention.
  • the user's yaw rotation request includes a pan or swipe gesture in a left and right direction.
  • the user inputs a pan or swipe gesture ( 384 in FIGS. 18A and 18B ) in the right direction as shown in FIGS. 18A and 19B , according to the direction of the rotation gesture, the The selection object 450 may rotate yaw.
  • the rotation gesture for requesting the yaw rotation may mean a pan or swipe gesture in a left and right direction for an area adjacent to the selection object.
  • the yaw rotation request does not include a case in which the user inputs a pan or swipe gesture in the left and right direction to the screen area at a location spaced apart from the selection object, but the selection object is output. It may mean only the case where input is made around the area.
  • 19A and 19B are diagrams for explaining pitch rotation of a selection target according to an embodiment of the present invention.
  • the user's request for pitch rotation includes a pan or swipe gesture in the vertical direction.
  • a Pan or Swipe gesture 384 in FIGS. 19A and 19B
  • the The selection object 450 may rotate in pitch.
  • the rotation gesture for the pitch rotation request may refer to a pan or swipe gesture in the vertical direction for an area adjacent to the selection object.
  • the yaw rotation request does not include a case in which the user inputs a pan or swipe gesture in the vertical direction to the screen area at a location spaced apart from the selection object, but the selection object is output. It may mean only the case where input is made around the area.
  • the method may further include outputting voice information or haptic (eg, vibration) information corresponding to the completion of each operation when the distance is changed, the size is changed, or the rotation is rotated.
  • voice information or haptic eg, vibration
  • haptic eg, vibration
  • the voice information or haptic information may be output whenever the distance between the origin and the selection object is changed by a preset value. For example, if the distance between the origin and the selection object is 1 m and the distance is set to output vibration whenever the distance is changed by 10 cm, and the distance is changed according to the user's request for changing the distance, the distance is 110 cm, 120 cm, 130 cm Vibration can be output whenever it stretches to reach 90 cm, 80 cm, or 70 cm. Of course, the set value (10 cm) can be freely changed by the user.
  • the method further includes: performing a change in the shape or color of the selection object in response to a user's request to change the shape or color of the selection object.
  • the method further includes; uploading a specific object to the user space or changing the selected object to another object by the user.
  • the object includes a computer graphic (CG) image of a specific object or an image of a real object or person, but is not limited thereto, and includes all objects that can be placed in a virtual space.
  • CG computer graphic
  • the user may upload a CG image of a lion other than a rabbit provided by the virtual space forming program in the user space, or upload an image taken by the user and arrange it through selection.
  • the selected object may be changed to an image captured by the user, but the user uploading or changing the object is not limited thereto.
  • the method further includes; transmitting the first generated data, which is information on the corresponding user space 20, to the server according to the storage request of the user 200 .
  • the first generation data includes object information or arrangement location information of one or more objects arranged in the first user space.
  • the first generated data includes a thumbnail image, and according to a user's request for taking a thumbnail image, obtaining a thumbnail image of the corresponding user space 20 and transmitting it to the server; further comprising .
  • the thumbnail image is an image representing the corresponding user space, and when the user reconnects to the stored user space, the thumbnail image is captured and reconnected at the location at the time of storage, so that the thumbnail image is viewed
  • the user space displayed in the thumbnail image can be implemented on the front side of the connected user (the front side of the user client device).
  • the user's request to store or take a thumbnail image includes all user inputs that may be input to the user's client device, including, but not limited to, touching a specific icon.
  • FIG. 6 is a block diagram of a client device providing a user interface according to an embodiment of the present invention.
  • the client device 300 providing the user interface according to an embodiment of the present invention described above includes a user's selection request for a specific object or arrangement of a user for a selection object selected by the user.
  • the apparatus for providing a user interface according to an embodiment of the present invention may further include a configuration or function suitable for executing the user interface providing method according to the embodiment of the present invention described above.
  • the input unit may further receive a size change request or a distance change request as well as a user's selection request or arrangement request. That is, the method for providing a user interface according to an embodiment of the present invention described above may be equally applied to the apparatus for providing a user interface according to an embodiment of the present invention.
  • the user interface providing method according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium.
  • a software module may contain random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable ROM
  • EEPROM electrically erasable programmable ROM
  • flash memory hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

Abstract

Provided are a method, apparatus, and program for providing, by a client device, a user interface for arrangement of a virtual object The method for providing a user interface comprises: a step (S2100) for providing a screen of a user space in a direction directed by the client device; a step (S2200) for outputting a selected object to be fixed and located at one region of the screen, according to a selection request of a user for a specific object; a step (S2300) for, when the client device is moved by the user while the selected object is selected, providing the screen of the user space according to the direction directed by the client device, wherein the selected object is output to be fixed and located at the one region of the screen; and a step (S2400) for arranging the selected object in the user space according to an arrangement request of the user for the selected object.

Description

가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램Method, apparatus and program for providing a user interface for virtual object placement
본 발명은 사용자 인터페이스 제공 방법에 관한 것으로, 보다 자세하게는 가상공간에 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법에 관한 것이다.The present invention relates to a method of providing a user interface, and more particularly, to a method of providing a user interface for disposing a virtual object in a virtual space.
최근 가상현실(VR, Virtual Reality) 및 증강현실(AR, Augmented Reality)을 포함하는 확장현실(XR, Extended Reality)을 적용한 다양한 서비스의 증가로 인해 가상의 대상체를 배치하여 가상공간을 생성하기 위한 노력들이 계속되고 있다.Efforts to create a virtual space by arranging virtual objects due to the recent increase in various services to which extended reality (XR) is applied, including virtual reality (VR) and augmented reality (AR, Augmented Reality) are continuing
종래의 가상공간 내의 대상체 배치 방법은 배치 위치에 대하여 공간좌표를 입력하는 등 현실에서 사용자가 대상체를 배치하는 방식과 괴리가 있었다.The conventional method of arranging an object in a virtual space is different from a method in which a user arranges an object in reality, such as inputting spatial coordinates with respect to an arrangement position.
또한, 전술한 복잡한 대상체 배치방법으로 인하여, 종래의 가상공간 내의 가상의 대상체 배치를 위한 사용자 인터페이스는, 그 조작방법이 복잡하고 키보드 등의 별도의 장치를 요하는 문제가 있었다.In addition, due to the above-described complicated object placement method, the conventional user interface for placement of a virtual object in a virtual space has a problem in that the operation method is complicated and a separate device such as a keyboard is required.
본 발명은 현실공간에서 사용자가 현실의 대상체를 배치하는 방식과 유사하게, 가상공간에서 사용자가 간단한 조작만으로 가상의 대상체를 구면좌표계를 기반으로 손쉽게 배치할 수 있는 사용자 인터페이스를 제공하는 것이다.An object of the present invention is to provide a user interface through which a user can easily arrange a virtual object based on a spherical coordinate system with a simple manipulation in a virtual space, similar to a method in which a user arranges a real object in a real space.
또한, 본 발명은 사용자가 가상공간에 가상의 대상체를 배치하기 위해 별도의 장치를 요하지 않고도 상기 사용자 인터페이스를 제공할 수 있는 클라이언트 장치를 제공하는 것이다.Another object of the present invention is to provide a client device capable of providing the user interface without requiring a separate device for a user to place a virtual object in a virtual space.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 사용자 인터페이스 제공 방법은, 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 제공하는 단계; 특정 대상체에 대한 사용자의 선택요청에 따라, 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 단계; 상기 선택대상체가 선택된 상태에서 사용자에 의해 상기 클라이언트 장치가 이동되는 경우, 상기 클라이언트 장치가 지향하는 방향에 따라 상기 사용자공간 화면을 제공하되, 상기 선택대상체를 상기 화면의 상기 일 영역에 고정되어 위치하도록 출력하는 단계; 및 상기 선택대상체에 대한 사용자의 배치요청에 따라, 상기 선택대상체를 상기 사용자공간에 배치하는 단계;를 포함하고, 상기 사용자공간은, 사용자에 의해 배치된 하나 이상의 가상의 대상체를 포함한다.A method for providing a user interface according to an aspect of the present invention for solving the above-described problems includes providing a user space screen in a direction directed by a client device; outputting the selection object to be fixedly positioned on one area of the screen in response to a user's request for selection of a specific object; When the client device is moved by the user while the selection object is selected, the user space screen is provided according to the direction the client device is oriented, and the selection object is fixedly positioned on the one area of the screen. outputting; and arranging the selection object in the user space in response to a user's request for placement of the selection object, wherein the user space includes one or more virtual objects arranged by the user.
또한, 다른 일 실시예에서, 상기 선택대상체는, 상기 클라이언트 장치의 이동에 따라 원점으로부터 특정한 거리의 구면상에서 위치가 변경되고, 상기 원점은, 상기 선택대상체가 선택된 상태에서의 상기 클라이언트 장치의 배치 위치 또는 상기 클라이언트 장치의 배치 위치로부터 산출된 사용자 위치인 것이다.Also, in another embodiment, the location of the selection object on a sphere at a specific distance from the origin is changed according to the movement of the client device, and the origin is the arrangement position of the client device in a state in which the selection object is selected. or a user location calculated from the placement location of the client device.
또한, 다른 일 실시예에서, 상기 선택요청은, 사용자가 상기 화면 상에서 특정 대상체를 터치 또는 제1아이콘이 특정 대상체 상에 위치한 상태에서 사용자가 제2아이콘을 터치하는 것을 포함하고, 상기 제1아이콘은, 상기 화면의 일 영역에 고정되어 위치하고, 상기 제2아이콘은, 상기 제1아이콘과 이격되어 상기 화면의 다른 일 영역에 위치하는 것이다.Also, in another embodiment, the selection request includes the user touching a specific object on the screen or the user touching a second icon in a state where the first icon is located on the specific object, and the first icon is fixed to one area of the screen, and the second icon is located in another area of the screen spaced apart from the first icon.
또한, 다른 일 실시예에서, 상기 배치요청은, 상기 선택대상체가 선택된 상태에서, 사용자가 상기 화면을 터치하는 것을 포함한다.Also, in another exemplary embodiment, the placement request includes the user touching the screen while the selection object is selected.
또한, 다른 일 실시예에서, 사용자의 거리변경요청에 따라, 상기 원점과 상기 선택대상체 간의 거리를 변경하는 단계;를 더 포함한다.Also, in another embodiment, according to the user's request for changing the distance, changing the distance between the origin and the selection object; further includes.
또한, 다른 일 실시예에서, 상기 거리변경요청은, 상기 선택대상체가 선택된 상태에서, 사용자가 상기 화면의 일 영역에 위치하는 제3아이콘을 탭 또는 드래그하는 것을 포함한다.Also, in another embodiment, the request for changing the distance includes a user tapping or dragging a third icon located in an area of the screen while the selection object is selected.
또한, 다른 일 실시예에서, 상기 선택대상체를 화면에 출력하는 단계는, 상기 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하되, 상기 선택대상체와 상기 제3아이콘을 연결하며 상기 원점과 상기 선택대상체 간의 거리를 표시하는 객체를 더 출력하는 것이다.Also, in another embodiment, the step of outputting the selection object to the screen includes outputting the selection object to be fixedly positioned on an area of the screen, connecting the selection object and the third icon, and connecting the An object indicating a distance between the selection objects is further output.
또한, 다른 일 실시예에서, 사용자의 크기변경요청에 따라, 상기 선택대상체의 크기를 변경하는 단계;를 더 포함한다.Also, in another embodiment, according to a user's request for size change, changing the size of the selected object; further includes.
또한, 다른 일 실시예에서, 사용자의 회전요청에 따라, 상기 선택대상체를 회전시키는 단계;를 더 포함한다.Further, in another embodiment, according to the user's rotation request, the step of rotating the selected object; further includes.
또한, 본 발명의 일 면에 따른 사용자 인터페이스 제공 장치는, 특정 대상체에 대한 사용자의 선택요청 또는 사용자에 의해 선택된 선택대상체에 대한 사용자의 배치요청을 입력받는 입력부; 상기 클라이언트 장치의 위치, 방향 또는 동작정보를 검출하는 검출부; 상기 선택대상체를 상기 클라이언트 장치의 이동 또는 사용자의 조작에 따라 사용자공간에서 이동시키고, 상기 배치요청에 따라 상기 선택대상체를 상기 사용자공간에 배치하는 제어부; 및 상기 제어부에 의해, 상기 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 출력하고, 입력된 사용자의 상기 선택요청에 따라 상기 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 출력부;를 포함하고, 상기 사용자공간은, 사용자에 의해 배치된 하나 이상의 대상체를 포함한다.In addition, an apparatus for providing a user interface according to an aspect of the present invention includes: an input unit for receiving a user's selection request for a specific object or a user's placement request for a selection object selected by the user; a detection unit for detecting the position, direction, or operation information of the client device; a control unit that moves the selection object in the user space according to the movement of the client device or a user's manipulation, and arranges the selection object in the user space according to the arrangement request; and an output unit for outputting, by the control unit, a user space screen in a direction the client device is oriented, and outputting the selection object to be fixedly positioned in an area of the screen according to the inputted user's selection request; and, the user space includes one or more objects arranged by a user.
본 발명의 다른 일 실시예에 따른 사용자 인터페이스 제공 프로그램은, 하드웨어와 결합되어 상기 언급된 사용자 인터페이스 제공 방법을 실행하며, 매체에 저장된다.A user interface providing program according to another embodiment of the present invention is combined with hardware to execute the above-mentioned user interface providing method, and is stored in a medium.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.
첫째, 사용자는 현실공간에서의 대상체 배치와 유사하게, 가상공간에서 간단한 조작만으로 가상의 대상체를 선택할 수 있고, 별다른 조작 없이 클라이언트 장치의 이동만으로 클라이언트 장치로부터 특정한 거리를 유지한 채 선택된 선택대상체를 이동시킬 수 있고, 상기 클라이언트 장치로부터의 거리를 간단한 조작만으로 변경할 수 있음으로써 특정 대상체를 배치하고자 하는 위치에 손쉽게 배치할 수 있다.First, similar to object placement in real space, a user can select a virtual object with simple manipulations in virtual space, and move the selected selected object while maintaining a specific distance from the client device only by moving the client device without any other manipulations. and the distance from the client device can be changed with a simple operation, so that a specific object can be easily disposed at a desired location.
둘째, 선택된 선택대상체의 크기 또는 방향을 간단한 조작만으로 변경할 수 있어, 별도의 장치나 복잡한 계산 없이 하나 이상의 가상의 대상체를 가상공간에 배치함으로써 간편하게 사용자공간을 형성할 수 있다.Second, since the size or direction of the selected selection object can be changed with a simple manipulation, a user space can be easily formed by arranging one or more virtual objects in the virtual space without a separate device or complicated calculation.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1 내지 도 4는 본 발명의 실시예에 따른 사용자 인터페이스를 통해 가상의 대상체를 배치하여 가상공간을 형성하는 방법에 대한 일 실시예를 설명하기 위한 도면이다.1 to 4 are diagrams for explaining an embodiment of a method of forming a virtual space by arranging a virtual object through a user interface according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법의 순서도이다.5 is a flowchart of a method for providing a user interface according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 사용자 인터페이스를 제공하는 클라이언트 장치의 구성도이다.6 is a block diagram of a client device providing a user interface according to an embodiment of the present invention.
도 7a 및 도 7b는 본 발명의 일 실시예에 따른 클라이언트 장치가 지향하는 방향의 사용자공간 화면 제공을 설명하기 위한 도면이다.7A and 7B are diagrams for explaining provision of a user space screen in a direction directed by a client device according to an embodiment of the present invention.
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 사용자의 화면 상의 대상체 터치에 의한 선택요청을 설명하기 위한 도면이다.8A and 8B are diagrams for explaining a selection request by a user touching an object on a screen according to an embodiment of the present invention.
도 9a 및 도 9b는 본 발명의 일 실시예에 따른 제1아이콘 및 제2아이콘을 통한 선택요청을 설명하기 위한 도면이다.9A and 9B are diagrams for explaining a selection request through a first icon and a second icon according to an embodiment of the present invention.
도 10a 및 도 10b는 본 발명의 일 실시예에 따른 선택대상체가 선택된 상태에서의 클라이언트 장치의 이동에 따른 화면을 설명하기 위한 도면이다.10A and 10B are diagrams for explaining a screen according to movement of a client device in a state in which a selection object is selected according to an embodiment of the present invention.
도 11a 및 도 11b는 본 발명의 일 실시예에 따른 사용자의 화면 터치에 의한 배치요청을 설명하기 위한 도면이다.11A and 11B are diagrams for explaining an arrangement request by a user's touch on the screen according to an embodiment of the present invention.
도 12는 본 발명의 일 실시예에 따른 사용자의 거리변경요청에 따른 거리변경 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다.12 is a flowchart of a method for providing a user interface further including a distance change step according to a user's distance change request according to an embodiment of the present invention.
도 13a 및 도 13b는 본 발명의 일 실시예에 따른 제3아이콘을 통한 거리변경요청 및 거리표시객체를 설명하기 위한 도면이다.13A and 13B are diagrams for explaining a distance change request and a distance display object through a third icon according to an embodiment of the present invention.
도 14는 본 발명의 일 실시예에 따른 사용자의 크기변경요청에 따른 크기변경 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다.14 is a flowchart of a method for providing a user interface further including a resizing step in response to a user's size change request according to an embodiment of the present invention.
도 15a 및 도 15b는 본 발명의 일 실시예에 따른 사용자의 핀치 인/아웃에 의한 크기변경요청을 설명하기 위한 도면이다.15A and 15B are diagrams for explaining a size change request by a user pinch-in/out according to an embodiment of the present invention.
도 16은 본 발명의 일 실시예에 따른 사용자의 회전요청에 따른 회전 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다16 is a flowchart of a method for providing a user interface further comprising a rotation step according to a user's rotation request according to an embodiment of the present invention.
도 17a 및 도 17b는 본 발명의 일 실시예에 따른 선택대상체의 롤(roll) 회전을 설명하기 위한 도면이다.17A and 17B are diagrams for explaining a roll rotation of a selection target according to an embodiment of the present invention.
도 18a 및 도 18b는 본 발명의 일 실시예에 따른 선택대상체의 요(yaw) 회전을 설명하기 위한 도면이다.18A and 18B are diagrams for explaining yaw rotation of a selection target according to an embodiment of the present invention.
도 19a 및 도 19b는 본 발명의 일 실시예에 따른 선택대상체의 피치(pitch) 회전을 설명하기 위한 도면이다.19A and 19B are diagrams for explaining pitch rotation of a selection target according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully understand the scope of the present invention to those skilled in the art, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. A spatially relative term should be understood as a term that includes different directions of components during use or operation in addition to the directions shown in the drawings. For example, when a component shown in the drawing is turned over, a component described as “beneath” or “beneath” of another component may be placed “above” of the other component. can Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.
본 명세서에서 '대상체'는 가상현실(Virtual Reality; VR) 또는 증강현실(Augmented Reality; AR)을 포함하는 가상공간에서 배치되는 가상의 대상체를 의미한다. 상기 대상체는 특정 객체의 CG(Computer Graphic) 영상 또는 실제 사물이나 인물의 영상을 포함하나, 이에 제한되지 않고 가상공간에서 배치할 수 있는 모든 대상체를 포함한다.In the present specification, the term 'object' refers to a virtual object disposed in a virtual space including virtual reality (VR) or augmented reality (AR). The object includes a computer graphic (CG) image of a specific object or an image of a real object or person, but is not limited thereto, and includes all objects that can be placed in a virtual space.
본 명세서에서 '사용자공간'은 사용자에 의해 배치되는 하나 이상의 가상의 대상체를 포함하는 가상공간을 의미한다. 상기 가상공간은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하는 VR 가상공간 또는 현실 공간의 영상 위에 제공되는 가상의 대상체 영상인 AR 가상공간을 포함한다.In this specification, 'user space' refers to a virtual space including one or more virtual objects arranged by a user. The virtual space includes a VR virtual space in which an object or a background of the real world is provided only as a CG image, or an AR virtual space that is an image of a virtual object provided on an image of the real space.
본 명세서에서 '선택대상체'는 사용자공간에 존재하는 하나 이상의 대상체 중 사용자의 선택요청에 의해 선택된 대상체를 의미한다. 예를 들어, 상기 선택대상체는 선택 후 사용자가 원하는 가상공간 상의 위치에 배치될 때까지 상기 사용자의 클라이언트 장치의 이동 또는 상기 사용자의 조작에 따라 사용자공간 내에서 이동되는 것일 수 있다.In the present specification, a 'selection object' refers to an object selected by a user's selection request from among one or more objects existing in the user space. For example, the selection object may be moved in the user space according to the user's movement of the client device or the user's manipulation until it is placed at a location on the virtual space desired by the user after selection.
본 명세서에서 '클라이언트 장치'는 사용자들이 프로그램(또는 어플리케이션)을 설치하여 사용할 수 있는 통신 기능을 포함한 모든 장치를 말한다. 즉, 클라이언트 장치는 스마트폰, 태블릿, PDA, 랩톱, 스마트워치, 스마트카메라 등과 같은 전기 통신 장치, 리모트 콘트롤러, VR/AR글라스, VR/AR헤드셋 등과 같은 VR/AR기기 중 하나 이상을 포함할 수 있으나, 이에 제한되는 것은 아니다.In this specification, a 'client device' refers to any device including a communication function that users can use by installing a program (or application). That is, the client device may include one or more of a telecommunication device such as a smartphone, tablet, PDA, laptop, smart watch, smart camera, etc., a VR/AR device such as a remote controller, VR/AR glasses, VR/AR headset, etc. However, the present invention is not limited thereto.
본 명세서에서 '컴퓨터'는 연산처리를 수행할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다.As used herein, the term 'computer' includes various devices capable of performing arithmetic processing. For example, computers include desktop PCs, notebooks (Note Books) as well as smart phones, tablet PCs, cellular phones, PCS phones (Personal Communication Service phones), synchronous/asynchronous A mobile terminal of International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하기에 앞서, 본 발명의 실시예에 따른 사용자 인터페이스를 통해 가상의 대상체를 배치하여 가상공간을 형성하는 방법에 대한 일 실시예를 설명한다.Hereinafter, before describing an embodiment of the present invention with reference to the accompanying drawings, an embodiment of a method of forming a virtual space by arranging a virtual object through a user interface according to an embodiment of the present invention will be described. .
도 1 내지 도 4는 본 발명의 실시예에 따른 사용자 인터페이스를 통해 가상의 대상체를 배치하여 가상공간을 형성하는 방법에 대한 일 실시예를 설명하기 위한 도면이다. 도 1 내지 도 4를 참조하면, 본 발명의 일 실시예에 따른 사용자 인터페이스를 통해 가상의 대상체를 배치하여 가상공간을 형성하는 방법에 대한 일 실시예는, 사용자 클라이언트 장치(300)가 사용자공간(20)을 생성 또는 실행하는 단계(S210); 상기 사용자 클라이언트 장치의 이동 또는 상기 사용자의 조작에 대응하여 상기 사용자(200)에 의해 선택된 선택대상체(450)의 위치 변경을 수행하는 단계(S310); 및 상기 선택대상체에 대한 사용자의 배치요청에 따라 상기 선택대상체를 상기 사용자공간에 배치하는 단계(S410);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.1 to 4 are diagrams for explaining an embodiment of a method of forming a virtual space by arranging a virtual object through a user interface according to an embodiment of the present invention. 1 to 4 , according to an embodiment of a method of forming a virtual space by arranging a virtual object through a user interface according to an embodiment of the present invention, the user client device 300 provides a user space ( 20) generating or executing (S210); performing a position change of the selection object 450 selected by the user 200 in response to the movement of the user client device or the user's manipulation (S310); and arranging the selection object in the user space according to the user's request for placement of the selection object (S410). Hereinafter, a detailed description of each step will be described.
사용자 클라이언트 장치(300)가 사용자공간(20)을 생성 또는 실행한다(S210). 즉, 일 실시예에서, 사용자의 요청에 의해 사용자 클라이언트 장치는 사용자가 가상의 대상체를 배치할 가상공간인 사용자공간을 생성 또는 기 생성된 사용자공간에 재접속하도록 실행한다. The user client device 300 creates or executes the user space 20 (S210). That is, according to an embodiment, the user client device creates a user space that is a virtual space in which the user will place a virtual object or reconnects to the previously created user space in response to a user's request.
일 실시예에서, 사용자공간(20)은 상기 사용자에 의해 배치되는 하나 이상의 가상의 대상체를 포함하는 가상공간으로, VR 가상공간뿐만 아니라 현실공간의 영상데이터를 수신하고 이에 대응하도록 생성된 AR 가상공간을 포함한다.In one embodiment, the user space 20 is a virtual space including one or more virtual objects arranged by the user, and is an AR virtual space generated to receive and correspond to image data of a real space as well as a VR virtual space. includes
사용자 클라이언트 장치가 상기 사용자 클라이언트 장치의 이동 또는 상기 사용자의 조작에 대응하여 상기 사용자에 의해 선택된 선택대상체(450)의 위치 변경을 수행한다(S310). 상기 선택대상체(450)는 상기 사용자의 선택요청에 의해 선택된 사용자공간 내의 특정 대상체로, 상기 선택요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 특정 대상체에 대한 모든 입력을 포함하며, 이에 대하여는 상세히 후술한다. The user client device changes the location of the selection object 450 selected by the user in response to the movement of the user client device or the manipulation of the user (S310). The selection object 450 is a specific object in the user space selected by the user's selection request, and the selection request includes all inputs of the user's specific object that can be input to the user client device, which will be described in detail. It will be described later.
일 실시예에서, 클라이언트 장치의 이동은 클라이언트 장치의 위치(좌표) 변경의 움직임뿐만 아니라, 클라이언트 장치의 방향 전환, 즉 회전 움직임도 포함할 수 있다.In one embodiment, the movement of the client device may include not only a movement of changing the position (coordinate) of the client device, but also a change of direction, ie, a rotational movement of the client device.
일 실시예에서, 상기 선택대상체의 변경은 클라이언트 장치의 이동 또는 사용자의 조작에 대응하는 사용자공간에서의 선택대상체 위치 변경, 원점으로부터의 상기 선택대상체의 거리 변경 또는 사용자공간에서의 위치가 고정된 상태에서 선택대상체의 모양, 크기 또는 방향의 변경을 포함한다. 이하, 상세히 후술한다.In an embodiment, the change of the selection object is a state in which the location of the selection object in the user space corresponding to the movement of the client device or the manipulation of the user, the distance of the selection object from the origin is changed, or the position in the user space is fixed includes changing the shape, size, or orientation of the selected object. Hereinafter, it will be described in detail.
일 실시예에서, 선택대상체의 사용자공간에서의 위치 변경은, 3차원 가상공간인 사용자공간에서의 상기 선택대상체의 배치 위치를 변경하는 것으로서, 상기 선택대상체는 선택된 상태에서 상기 사용자 클라이언트 장치의 이동 또는 상기 사용자의 조작에 따라 위치가 변경된다. 또한, 상기 배치 위치는 위치(좌표) 정보뿐만 아니라, 선택대상체의 방향에 관한 배치 정보를 포함한다.In an embodiment, the change in the location of the selection object in the user space is changing the arrangement location of the selection object in the user space, which is a three-dimensional virtual space, wherein the selection object moves or moves the user client device while the selection object is selected. The location is changed according to the user's manipulation. In addition, the arrangement position includes not only position (coordinate) information, but also arrangement information regarding the direction of the selection target.
일 실시예에서, 도 2를 참조하면, 상기 선택대상체(450)는 사용자공간(20) 내에서 사용자 클라이언트 장치(300)의 특정 방향에 대해 특정 거리를 유지하면서 상기 사용자 클라이언트 장치의 이동에 대응하여 이동될 수 있다. In one embodiment, referring to FIG. 2 , the selection object 450 responds to the movement of the user client device while maintaining a specific distance with respect to a specific direction of the user client device 300 in the user space 20 . can be moved
예를 들어, 선택대상체가 사용자 클라이언트 장치의 후면(사용자 반대편)의 중심에 대해 직교하여 1m 거리에 위치하는 경우, 상기 선택대상체는 사용자(200)에 의한 사용자 클라이언트 장치의 이동(회전, 위치 변경 포함)에 따라 이에 대응하도록 사용자공간 내에서의 위치가 변경될 수 있다. 즉, 이 경우 사용자는 선택대상체 배치에 대한 별도의 조작 없이 클라이언트 장치의 이동(회전 포함)만으로 선택대상체의 위치를 변경할 수 있는 효과가 있다. 또한, 후술하는 바와 같이 상기 선택대상체와 상기 사용자 클라이언트 장치 간의 거리는 사용자의 조작에 따라 변경 가능하다.For example, when the selection object is located at a distance of 1 m perpendicular to the center of the rear surface (opposite to the user) of the user client device, the selection object moves (rotation, position change, etc.) of the user client device by the user 200 . ), the position in the user space may be changed to correspond to this. That is, in this case, there is an effect that the user can change the position of the selection object only by moving (including rotation) the client device without a separate manipulation of the arrangement of the selection object. Also, as will be described later, the distance between the selection target and the user client device may be changed according to a user's manipulation.
또한, 일 실시예에서, 도 2를 참조하면, 상기 선택대상체의 방향은 클라이언트 장치에 대해 고정될 수 있다. 예를 들어, 이동 전 선택대상체의 정면이 클라이언트 장치를 향하고, 상기 클라이언트 장치의 이동에 따라 상기 선택대상체의 위치가 이동되는 경우에 있어서, 이동 후의 상기 선택대상체의 정면이 이동 후의 상기 클라이언트 장치를 향하도록 자동으로 회전될 수 있다. 또한, 다른 실시예에서, 선택대상체의 방향은 사용자공간에서 고정되고 클라이언트 장치의 이동에 따라 위치 변경만 수행될 수도 있다. 또한, 후술하는 바와 같이 상기 선택대상체는 사용자의 조작에 따라 회전 가능하며, 이에 대하여는 상세히 후술한다.Also, in one embodiment, referring to FIG. 2 , the direction of the selection target may be fixed with respect to the client device. For example, in the case where the front of the selection object before moving faces the client device and the position of the selection target is moved according to the movement of the client device, the front of the selection target after moving faces the client device after moving can be automatically rotated to Also, in another embodiment, the direction of the selection object may be fixed in the user space and only the location change may be performed according to the movement of the client device. In addition, as will be described later, the selection target is rotatable according to a user's manipulation, which will be described later in detail.
또한, 일 실시예에서, 선택대상체(450)는 선택된 상태에서 상기 사용자 클라이언트 장치의 이동 또는 상기 사용자의 조작에 따라 원점(150)으로부터 특정한 거리의 구면상에서 이동되도록 사용자공간 내에서 위치가 변경될 수 있다. In addition, in an embodiment, the location of the selection object 450 may be changed in the user space to move on a spherical surface at a specific distance from the origin 150 according to the movement of the user client device or the user's manipulation in the selected state. have.
일 실시예에서, 원점(150)은 상기 선택대상체(450)가 선택된 상태에서의 상기 사용자 클라이언트 장치(300)의 배치 위치 또는 상기 사용자 클라이언트 장치의 배치 위치로부터 산출된 사용자(200) 위치를 포함한다.In an embodiment, the origin 150 includes the location of the user client device 300 in the state in which the selection object 450 is selected or the location of the user 200 calculated from the location of the user client device. .
도 3은 상기 원점(150)이 상기 선택대상체가 선택된 상태에서의 상기 사용자 클라이언트 장치의 배치 위치로부터 산출된 상기 사용자(200) 위치인 경우를 설명하기 위한 도면이다. FIG. 3 is a diagram for explaining a case where the origin 150 is the position of the user 200 calculated from the arrangement position of the user client device in a state in which the selection object is selected.
도 3을 참조하면, 일 실시예에서, 선택대상체가 선택된 상태에서의 사용자 위치인 원점은, 상기 사용자 클라이언트 장치의 위치로부터 사용자의 팔길이 또는 사용자 클라이언트 방향 등을 고려하여 산출되는 것일 수 있다. Referring to FIG. 3 , according to an embodiment, the origin, which is the user's location in a state in which the selection object is selected, may be calculated in consideration of the user's arm length or the user's client direction from the location of the user client device.
또한, 일 실시예에서, 상기 원점은 상기 선택대상체가 선택된 상태에서의 사용자 위치이므로, 사용자가 선택대상체를 선택한 상태에서 이동하는 경우, 이동 후의 사용자의 위치가 원점이 될 수 있다. Also, in an embodiment, since the origin is a user's position in a state in which the selection object is selected, when the user moves in a state in which the selection object is selected, the user's position after the movement may be the origin.
또한, 일 실시예에서, 상기 원점은 사용자 또는 사용자 클라이언트 장치의 좌표뿐만 아니라, 방향에 대한 정보를 포함할 수 있다. 즉, 도 3에서, 상기 원점(150)은 상기 사용자(200)의 좌표, 상기 사용자 클라이언트 장치(300)의 방향, 또는 상기 사용자(200)의 방향을 포함할 수 있다.Also, in one embodiment, the origin may include information about the direction as well as the coordinates of the user or the user's client device. That is, in FIG. 3 , the origin 150 may include the coordinates of the user 200 , the direction of the user client device 300 , or the direction of the user 200 .
또한, 일 실시예에서, 도 3을 참조하면, 상기 선택대상체는 상기 사용자 클라이언트 장치에 대하여 특정 방향 또는 특정 거리를 유지한 상태로 사용자공간에서 이동될 수 있다. 예를 들어, 사용자가 팔을 뻗어 클라이언트 장치(예를 들어, 스마트폰)를 손에 들고, 선택대상체가 상기 클라이언트 장치의 후면의 중심에 대해 직교하여 1m 거리에 위치하는 경우, 사용자가 상기 선택대상체를 원하는 위치에 배치하기 위해 팔을 뻗은 채 클라이언트 장치를 이동시키면 상기 선택대상체는 사용자 위치인 원점으로부터 '1m+제1사용자 팔길이'의 거리의 구면 상에서 이동될 수 있다. 즉, 이 경우 원점으로부터의 '1m+제1사용자 팔길이' 거리(r값)의 특정 구면 상에서 선택대상체가 움직일 수 있다. 또한, 상기 선택대상체가 선택된 상태에서의 사용자의 팔 움직임 또는 사용자 조작에 의해 상기 r값이 변경될 수 있음은 물론이다.Also, in one embodiment, referring to FIG. 3 , the selection target may be moved in the user space while maintaining a specific direction or a specific distance with respect to the user client device. For example, when a user extends an arm and holds a client device (eg, a smartphone) in his hand, and the selection object is located at a distance of 1 m perpendicular to the center of the rear surface of the client device, the user When the client device is moved with the arm extended to place the . , the selected object may be moved on a sphere at a distance of '1 m + the first user's arm length' from the origin, which is the user's location. That is, in this case, the selection object may move on a specific sphere with a distance (r value) of '1m + first user's arm length' from the origin. In addition, it goes without saying that the r value may be changed by the user's arm movement or user manipulation while the selection object is selected.
도 4는 상기 원점(150)이 상기 선택대상체가 선택된 상태에서의 상기 사용자 클라이언트 장치(300)의 배치 위치인 경우를 설명하기 위한 도면이다. 도 4를 참조하면, 일 실시예에서, 선택대상체가 선택된 상태에서의 사용자 클라이언트 장치의 위치인 원점은, 제1사용자 클라이언트 장치의 좌표뿐만 아니라, 방향에 대한 정보를 포함할 수 있다.FIG. 4 is a diagram for explaining a case where the origin 150 is the arrangement position of the user client device 300 in a state in which the selection object is selected. Referring to FIG. 4 , according to an embodiment, the origin, which is the location of the user client device in a state in which the selection object is selected, may include information about the direction as well as the coordinates of the first user client device.
또한, 상기 원점은 상기 선택대상체가 선택된 상태에서의 상기 사용자 클라이언트 장치의 배치 위치이므로, 사용자가 선택대상체를 선택한 상태에서 사용자 클라이언트 장치를 이동시키는 경우, 이동후의 사용자 클라이언트 장치의 위치(방향 포함)가 원점이 될 수 있다.Also, since the origin is the arrangement position of the user client device when the selection object is selected, when the user moves the user client device while the selection object is selected, the position (including the direction) of the user client device after movement could be the starting point.
또한, 일 실시예에서, 선택대상체(450)는 선택된 상태에서 상기 사용자 클라이언트 장치의 이동 또는 상기 사용자의 조작에 따라 원점으로부터 특정한 거리의 구면상에서 이동되도록 사용자공간 내에서 위치가 변경될 수 있다. 즉, 도 4에서와 같이, 클라이언트 장치의 위치가 변경되는 경우뿐만 아니라, 위치가 고정되고 방향만 변경되는 경우에도, 선택대상체는 상기 클라이언트 장치의 방향에 대응하여 사용자공간 내에서 위치가 변경될 수 있다. Also, in an embodiment, the location of the selection object 450 may be changed in the user space to move on a spherical surface at a specific distance from the origin according to the movement of the user client device or the user's manipulation in the selected state. That is, as shown in FIG. 4 , not only when the location of the client device is changed, but also when the location is fixed and only the direction is changed, the location of the selection object can be changed in the user space in response to the direction of the client device. have.
예를 들어, 사용자가 팔을 뻗어 클라이언트 장치(예를 들어, 스마트폰)를 손에 들고, 선택대상체가 상기 클라이언트 장치의 후면의 중심에 대해 직교하여 1m 거리에 위치하는 경우에 있어서, 사용자가 상기 선택대상체를 원하는 위치에 배치하기 위해 팔을 뻗은 채 클라이언트 장치의 방향만 회전한다면, 상기 선택대상체는 클라이언트 장치의 배치 위치인 원점으로부터 '1m'의 거리의 구면 상에서 이동될 수 있다.For example, when the user extends his arm and holds a client device (eg, a smart phone) in his hand, and the selected object is located at a distance of 1 m perpendicular to the center of the rear surface of the client device, the user If only the direction of the client device is rotated while the arm is extended to place the selection object at a desired location, the selection object may be moved on a spherical surface at a distance of '1 m' from the origin, which is the location of the client device.
이와 달리, 사용자가 선택대상체를 원하는 위치에 배치하기 위해 팔을 뻗은 채 클라이언트 장치의 위치를 변경시키는 경우에는, 이동된 클라이언트 장치의 배치 위치를 원점으로 하는 구면좌표계 상에서 상기 클라이언트 장치의 후면의 중심에 대해 직교하여 1m 거리에 상기 선택대상체가 위치할 수 있다. 또한, 상기 선택대상체가 선택된 상태에서의 사용자 조작에 의해 상기 r값이 변경될 수 있음은 물론이다.On the other hand, when the user changes the location of the client device while extending his or her arm to place the selection object at a desired location, it is located at the center of the rear side of the client device on a spherical coordinate system with the location of the moved client device as the origin. The selection object may be located at a distance of 1 m orthogonal to the object. Also, it goes without saying that the r value may be changed by a user manipulation while the selection object is selected.
또한, 일 실시예에서, 사용자가 클라이언트 장치를 손에 들지 않고 머리에 착용하는 경우와 같이 클라이언트 장치와 사용자 위치 및 방향이 동일한 경우(예를 들어, VR헤드셋)에는, 상기 원점은 클라이언트 장치 위치(방향 포함)로 판단할 수 있음은 물론이다.Also, in one embodiment, when the location and orientation of the client device and the user are the same (eg, VR headset), such as when the user wears the client device on the head without holding the hand, the origin is the client device location ( direction), of course.
일 실시예에서, 도면에 도시되지는 않았으나, 상기 사용자(200)로부터 상기 원점(150)과 상기 선택대상체(450) 간의 거리에 대한 변경정보를 수신하고 적용하는 단계;를 더 포함할 수 있다. 이는, 전술한 바와 같이 원점으로부터 특정한 거리의 구면상에서 이동되는 선택대상체에 있어서, 상기 거리를 변경함으로써 변경된 거리의 구면상에서 선택대상체가 이동되도록 하는 것이다.In one embodiment, although not shown in the drawings, the method may further include receiving and applying change information on the distance between the origin 150 and the selection object 450 from the user 200 . This is to allow the selection object to move on the spherical surface of the changed distance by changing the distance in the selection object moved on the spherical surface at a specific distance from the origin as described above.
예를 들어, 도 4에서 선택대상체가 사용자 클라이언트 장치의 후면(사용자 반대편)의 중심에 대해 직교하여 1m 거리에 위치하는 경우, 상기 사용자의 요청에 따라 상기 선택대상체의 상기 클라이언트 장치로부터의 거리를 2m로 변경할 수 있으며, 상기 선택대상체는 이를 유지한 채 사용자에 의한 사용자 클라이언트 장치의 회전, 이동을 포함하는 움직임에 따라 이에 대응하도록 사용자공간 내에서 위치가 변경될 수 있다. For example, in FIG. 4 , if the selection object is located at a distance of 1 m perpendicular to the center of the rear surface (opposite to the user) of the user client device, the distance of the selection object from the client device is set to 2 m according to the user's request. , and the position of the selected object may be changed in the user space to correspond to the movement including rotation and movement of the user client device by the user while maintaining it.
즉, 사용자가 원점(예를 들어, 클라이언트 장치)으로부터의 선택대상체 거리인 r값을 변경할 수 있도록 함으로써, 사용자공간 내의 모든 위치에 대해 자유롭고 간편하게 배치 가능한 효과가 있다. 또한, 상기 거리변경요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 선택대상체의 거리 변경에 대한 모든 입력을 포함하며, 이에 대하여는 상세히 후술한다. That is, by allowing the user to change the r value, which is the distance of the selection object from the origin (eg, the client device), there is an effect that can be freely and conveniently arranged for all positions in the user space. In addition, the distance change request includes all inputs for changing the distance of the user's selection target that can be input to the user's client device, which will be described in detail later.
일 실시예에서, 도면에 도시되지는 않았으나, 상기 사용자(200)로부터 상기 선택대상체(450)에 대한 변경정보를 수신하고 적용하는 단계;를 더 포함할 수 있다. 또한 일 실시예에서, 상기 선택대상체의 변경정보는, 상기 선택대상체의 상기 사용자공간에서의 위치가 고정된 상태에서 상기 선택대상체의 모양, 크기 또는 방향에 관한 변경정보를 포함한다. 즉, 사용자는 특정 대상체를 선택한 상태에서, 사용자의 조작에 의해 선택된 선택대상체의 모양, 크기, 방향 등을 자유롭게 변경할 수 있고, 새로운 대상체를 업로드하여 변경하는 것도 가능하며, 이에 대하여는 상세히 후술한다.In one embodiment, although not shown in the drawings, the method may further include receiving and applying change information on the selection object 450 from the user 200 . Also, in an embodiment, the change information of the selection object includes change information regarding the shape, size, or direction of the selection object in a state where the location of the selection object in the user space is fixed. That is, the user can freely change the shape, size, direction, etc. of the selected object by the user's manipulation while the specific object is selected, and it is also possible to change the shape by uploading a new object, which will be described later in detail.
상기 선택대상체(450)에 대한 상기 사용자(200)의 배치요청에 따라 상기 선택대상체를 상기 사용자공간(20)에 배치한다(S410). 즉, 상기 선택대상체가 선택된 상태에서, 사용자에 의해(클라이언트 장치 이동 또는 사용자의 조작 포함) 선택대상체가 배치하고자 하는 위치에 도달한 경우, 사용자의 배치요청에 따라 상기 선택대상체에 대한 선택이 해제되며, 배치요청시의 상기 선택대상체의 위치 및 방향에 따라 상기 선택대상체가 사용자공간에 배치된다. The selection object is placed in the user space 20 in response to the user 200's request for placement of the selection object 450 (S410). That is, in the state in which the selection object is selected, when the selection object arrives at a location to be placed by the user (including movement of the client device or the user's manipulation), the selection of the selection object is released according to the user's placement request, , the selection object is arranged in the user space according to the position and direction of the selection object when the placement request is made.
즉, 일 실시예에서, 배치된 대상체는 더 이상 클라이언트 장치의 이동 또는 사용자 조작에 의해 사용자공간에서 이동되지 않고, 사용자에 의해 다시 선택되는 경우에 이동될 수 있다. 또한, 상기 배치요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 선택대상체에 대한 모든 입력을 포함하며, 이에 대하여는 상세히 후술한다.That is, according to an embodiment, the disposed object is no longer moved in the user space by the movement of the client device or by the user manipulation, but may be moved when selected again by the user. In addition, the arrangement request includes all inputs for the user's selection target that can be input to the user's client device, which will be described in detail later.
이상으로, 본 발명의 실시예에 따른 사용자 인터페이스를 통해 가상의 대상체를 배치하여 가상공간을 형성하는 방법에 대한 실시예를 설명하였다. 그러나, 본 발명의 실시예에 따른 사용자 인터페이스 제공 방법의 활용은, 전술한 가상공간 형성 방법의 실시예에 제한되지 않고, 가상의 대상체를 배치하여 가상공간을 형성하는 모든 방법에 대해 적용할 수 있다. As described above, an embodiment of a method of forming a virtual space by arranging a virtual object through a user interface according to an embodiment of the present invention has been described. However, the utilization of the method for providing a user interface according to an embodiment of the present invention is not limited to the embodiment of the method for forming a virtual space described above, and may be applied to all methods of forming a virtual space by arranging a virtual object. .
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 도 7a 및 도 7b와, 도 8a 및 도 8b와, 도 9a 및 도 9b와, 도 10a 및 도 10b와, 도 11a 및 도 11b와, 도 13a 및 도 13b와, 도 15a 및 도 15b와, 도 17a 및 도 17b와, 도 18a 및 도 18b와, 도 19a 및 도 19b는 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법을 설명하기 위한 도면으로, 각 도면의 우측 레이어는 사용자가 클라이언트 장치를 이용하여 조작하는 모습을, 좌측 레이어는 상기 사용자의 조작에 따라 제공되는 클라이언트 장치의 화면을 표시한 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. 7A and 7B, 8A and 8B, 9A and 9B, 10A and 10B, 11A and 11B, 13A and 13B, 15A and 15B, and FIGS. 17A and 17B, 18A and 18B, and 19A and 19B are diagrams for explaining a method of providing a user interface according to an embodiment of the present invention. to display the screen of the client device provided according to the user's manipulation in the left layer.
또한, 후술할 도 7a 및 도 7b와, 도 8a 및 도 8b와, 도 9a 및 도 9b와, 도 10a 및 도 10b와, 도 11a 및 도 11b와, 도 13a 및 도 13b와, 도 15a 및 도 15b와, 도 17a 및 도 17b와, 도 18a 및 도 18b와, 도 19a 및 도 19b에 따른 본 발명의 실시예는 사용자가 스마트폰을 사용하여 AR 사용자공간에 가상의 토끼 대상체를 배치하는 사용자 인터페이스 제공 방법이나, 본 발명은 상기 실시예에 한정되지 않으며, 전술한 모든 클라이언트 장치, 사용자공간 및 대상체에 대해 적용될 수 있음은 자명하다.7A and 7B, FIGS. 8A and 8B, FIGS. 9A and 9B, FIGS. 10A and 10B, FIGS. 11A and 11B, FIGS. 13A and 13B, and FIGS. 15A and 15A and FIGS. 15B, 17A and 17B, 18A and 18B, and 19A and 19B according to an embodiment of the present invention, a user interface for placing a virtual rabbit object in the AR user space using a smartphone However, it is obvious that the present invention is not limited to the above embodiment, and can be applied to all the client devices, user spaces, and objects described above.
도 5는 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법의 순서도이다. 도 5를 참조하면, 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법은, 클라이언트 장치(300)가 지향하는 방향의 사용자공간(20) 화면을 제공하는 단계(S2100); 특정 대상체에 대한 사용자(200)의 선택요청에 따라, 선택대상체(450)를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 단계(S2200); 상기 선택대상체가 선택된 상태에서 사용자에 의해 상기 클라이언트 장치가 이동되는 경우, 상기 클라이언트 장치가 지향하는 방향에 따라 상기 사용자공간 화면을 제공하되, 상기 선택대상체를 상기 화면의 상기 일 영역에 고정되어 위치하도록 출력하는 단계(S2300); 및 상기 선택대상체에 대한 사용자의 배치요청에 따라, 상기 선택대상체를 상기 사용자공간에 배치하는 단계(S2400);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.5 is a flowchart of a method for providing a user interface according to an embodiment of the present invention. Referring to FIG. 5 , a method of providing a user interface according to an embodiment of the present invention includes providing a screen of the user space 20 in a direction in which the client device 300 is oriented ( S2100 ); outputting the selection object 450 to be fixedly positioned in one area of the screen in response to a selection request of the user 200 for a specific object (S2200); When the client device is moved by the user while the selection object is selected, the user space screen is provided according to the direction the client device is oriented, and the selection object is fixedly positioned on the one area of the screen. outputting (S2300); and arranging the selection object in the user space according to the user's request for placement of the selection object (S2400). Hereinafter, a detailed description of each step will be described.
클라이언트 장치(300)가 지향하는 방향의 사용자공간(20) 화면을 제공한다(S2100). 즉, 사용자에 의한 클라이언트 장치의 이동에 대응되는 사용자공간 화면을 상기 클라이언트 장치의 출력부에 출력하며, 전술한바와 같이 상기 사용자공간은 VR 또는 AR 사용자공간을 포함한다.A screen of the user space 20 in the direction the client device 300 is oriented is provided (S2100). That is, the user space screen corresponding to the movement of the client device by the user is output to the output unit of the client device, and as described above, the user space includes a VR or AR user space.
도 7a 및 도 7b는 본 발명의 일 실시예에 따른 클라이언트 장치가 지향하는 방향의 사용자공간 화면 제공을 설명하기 위한 도면이다. 도 7a 및 도 7b를 참조하면, 일 실시예에서, 클라이언트 장치인 스마트폰(300)의 출력부에 상기 클라이언트 장치가 지향하는 방향의 사용자공간(20)에 대한 화면(382)을 제공한다. 일 실시예에서, 상기 사용자공간은 AR 가상공간으로, 현실공간의 영상에 하나 이상의 가상의 대상체(400)인 토끼가 배치되어 있는 가상공간이다. 7A and 7B are diagrams for explaining provision of a user space screen in a direction directed by a client device according to an embodiment of the present invention. Referring to FIGS. 7A and 7B , in one embodiment, a screen 382 for the user space 20 in the direction the client device is oriented is provided to the output unit of the smartphone 300 as the client device. In one embodiment, the user space is an AR virtual space, a virtual space in which one or more virtual objects 400, which are rabbits, are disposed in an image of a real space.
구체적으로, 사용자에 의해 클라이언트 장치(300)인 스마트폰이 도 7a의 위치에서 도 7b의 위치로 이동되면, 이에 대응되도록 상기 스마트폰의 출력부에 상기 사용자공간에 대한 화면을 출력한다.Specifically, when the smartphone, which is the client device 300, is moved from the position of FIG. 7A to the position of FIG. 7B by the user, the screen for the user space is output to the output unit of the smartphone to correspond thereto.
특정 대상체에 대한 사용자(200)의 선택요청에 따라, 선택대상체(450)를 상기 화면의 일 영역에 고정되어 위치하도록 출력한다(S2200). 일 실시예에서, 클라이언트 장치에 하나 이상의 대상체가 배치된 사용자공간 화면이 출력되는 경우, 특정 대상체에 대한 사용자의 선택요청에 따라 상기 대상체를 선택하고, 선택된 선택대상체를 클라이언트 장치 화면의 일 영역에 고정되어 위치하도록 출력하며, 상기 선택요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 특정 대상체의 선택에 대한 모든 입력을 포함한다. In response to a selection request of the user 200 for a specific object, the selection object 450 is output to be fixedly positioned in one area of the screen (S2200). In an embodiment, when a user space screen on which one or more objects are arranged is output on the client device, the object is selected in response to a user's request for selection of a specific object, and the selected selection object is fixed to an area of the screen of the client device and output to be positioned, and the selection request includes all inputs for selection of a specific object of the user that can be input to the user client device.
즉, 일 실시예에서, 사용자공간 내의 대상체는 사용자에 의해 선택됨으로써 클라이언트 장치의 이동 또는 사용자의 조작에 대응하여 사용자공간 내에서 위치, 크기 또는 방향이 변경될 수 있다. That is, according to an embodiment, the object in the user space is selected by the user, so that the position, size, or direction of the object in the user space may be changed in response to the movement of the client device or the manipulation of the user.
도 8a 및 도 8b를 참조하면, 일 실시예에서, 도 8a에서 사용자공간(20) 내에 배치되어 있는 대상체(400)인 빨간색 토끼는, 사용자의 선택요청에 따라 도 8b에서 선택대상체(450)가 되어 스마트폰 화면(382)의 일 영역인 중앙에 고정되어 위치하도록 출력된다.Referring to FIGS. 8A and 8B , in one embodiment, the red rabbit, which is the object 400 disposed in the user space 20 in FIG. 8A , selects the object 450 in FIG. 8B according to the user's selection request. It is output so that it is fixed in the center, which is one area of the smartphone screen 382 .
일 실시예에서, 사용자가 클라이언트 장치 화면(382)의 일 영역을 터치하는 경우, 상기 클라이언트 장치는 터치된 위치를 표시하는 정보를 출력하는 단계;를 더 포함한다. 예를 들어, 도 8a를 참조하면, 사용자가 우측레이어에서 스마트폰 화면 상의 빨간색 토끼를 터치하는 경우, 좌측레이어인 스마트폰 화면에 사용자가 터치한 위치에 대한 하얀색 원(384)을 출력하여 터치 위치를 사용자에게 알려줄 수 있다.In an embodiment, when the user touches an area of the screen 382 of the client device, the method further includes outputting, by the client device, information indicating the touched location. For example, referring to FIG. 8A , when the user touches a red rabbit on the smartphone screen in the right layer, a white circle 384 for the position touched by the user is output on the smartphone screen, which is the left layer, and the touch position can inform the user.
또한, 일 실시예에서, '터치'는 클라이언트 장치에 입력되는 사용자의 조작으로서, 탭(Tap), 더블탭(Double Tap), 드래그(Drag), 슬라이드(Slide), 프레스(Press), 터치 앤 홀드(Touch and Hold), 스와이프(Swipe), 회전(Rotate), Press&Drag, 핀치 인/아웃(Pinch in/out), 또는 스프레드(Spread)를 포함하나, 이에 한정되지 않고 클라이언트 장치에 입력될 수 있는 사용자의 모든 제스처를 포함한다.Further, in an embodiment, 'touch' is a user's manipulation input to the client device, and includes a tap, a double tap, a drag, a slide, a press, and a touch and may be input to the client device including, but not limited to, Touch and Hold, Swipe, Rotate, Press&Drag, Pinch in/out, or Spread. Includes all user gestures.
일 실시예에서, 상기 선택요청은 사용자가 상기 화면 상에서 특정 대상체를 터치 또는 제1아이콘이 특정 대상체 상에 위치한 상태에서 사용자가 제2아이콘을 터치하는 것을 포함한다.In an embodiment, the selection request includes the user touching a specific object on the screen or the user touching the second icon while the first icon is located on the specific object.
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 사용자의 화면 상의 대상체 터치에 의한 선택요청을 설명하기 위한 도면이다. 도 a 및 도 b를 참조하면, 일 실시예에서, 도 8a에서 사용자가 상기 스마트폰 화면(382)에 출력되는 대상체(400)인 빨간색 토끼를 터치(384)하는 선택요청이 입력되면, 도 8b와 같이 터치된 빨간색 토끼가 선택대상체(450)가 되어 화면의 중앙에 고정되도록 출력될 수 있다.8A and 8B are diagrams for explaining a selection request by a user touching an object on a screen according to an embodiment of the present invention. Referring to FIGS. a and b, in one embodiment, when a selection request is input in which the user touches 384 a red rabbit that is an object 400 output on the smartphone screen 382 in FIG. 8a, FIG. 8b The touched red rabbit becomes the selection object 450 and may be output to be fixed in the center of the screen.
도 9a 및 도 9b는 본 발명의 일 실시예에 따른 제1아이콘 및 제2아이콘을 통한 선택요청을 설명하기 위한 도면이다. 일 실시예에서, 상기 제1아이콘은 상기 화면의 일 영역에 고정되어 위치하고, 상기 제2아이콘은 상기 제1아이콘과 이격되어 상기 화면의 다른 일 영역에 위치할 수 있다. 예를 들어, 도 9a 및 도 9b를 참조하면, 일 실시예에서, 제1아이콘(610)은 스마트폰 화면(382)의 일 영역인 중앙에 고정되어 위치할 수 있고, 제2아이콘(620)은 화면의 다른 일 영역인 하단에 위치할 수 있다. 9A and 9B are diagrams for explaining a selection request through a first icon and a second icon according to an embodiment of the present invention. In an embodiment, the first icon may be fixedly positioned on one region of the screen, and the second icon may be positioned on another region of the screen spaced apart from the first icon. For example, referring to FIGS. 9A and 9B , in an embodiment, the first icon 610 may be fixedly located in the center of an area of the smartphone screen 382 , and the second icon 620 . may be located at the bottom, which is another area of the screen.
일 실시예에서, 도 9a와 같이 사용자가 제1아이콘(610)이 선택하고자 하는 대상체(400)인 빨간색 토끼에 위치하도록 스마트폰(300)을 이동시킨 상태에서 제2아이콘(620)을 터치하는 경우, 도 9b와 같이 빨간색 토끼가 선택대상체(450)가 될 수 있다.In one embodiment, as shown in FIG. 9A , the user touches the second icon 620 while moving the smartphone 300 so that the first icon 610 is located on the red rabbit that is the object 400 to be selected. In this case, as shown in FIG. 9B , the red rabbit may be the selection target 450 .
일 실시예에서, 도면에 도시되지는 않았으나, 제1아이콘이 복수의 대상체에 겹쳐서 위치할 때 제2아이콘을 터치하는 경우, 클라이언트 장치는 상기 복수의 대상체에 대한 추가선택요청을 사용자에게 출력하는 단계;를 더 포함할 수 있다. 일 실시예에서, 상기 추가선택요청은 복수의 대상체 중 일 대상체에 대한 추가선택요청 또는 복수의 대상체 모두에 대한 추가선택요청을 포함할 수 있다.In one embodiment, although not shown in the drawings, when the second icon is touched when the first icon is overlapped with the plurality of objects, the client device outputs an additional selection request for the plurality of objects to the user ; may be further included. In an embodiment, the additional selection request may include an additional selection request for one object among a plurality of objects or an additional selection request for all of the plurality of objects.
일 실시예에서, 선택대상체(450)는 사용자공간 내에 배치된 선택되지 않은 다른 대상체(400)와 구별할 수 있도록 별도의 출력을 더 포함할 수 있다. 예를 들어, 도 8b에서와 같이 선택대상체는 선택되지 않은 대상체와의 구별을 위해 하이라이트 표시가 포함될 수 있다.In an embodiment, the selection object 450 may further include a separate output to distinguish it from other unselected objects 400 disposed in the user space. For example, as shown in FIG. 8B , a highlight mark may be included in the selected object to distinguish it from the unselected object.
상기 선택대상체가 선택된 상태에서 사용자에 의해 상기 클라이언트 장치가 이동되는 경우, 상기 클라이언트 장치가 지향하는 방향에 따라 상기 사용자공간 화면을 제공하되, 상기 선택대상체를 상기 화면의 상기 일 영역에 고정되어 위치하도록 출력한다(S2300). 일 실시예에서, 특정 대상체가 선택된 상태에서 사용자가 클라이언트 장치를 이동시키더라도 선택대상체는 화면의 일 영역에 고정되고, 상기 선택대상체가 출력되는 영역 이외의 화면에 이동되는 클라이언트 장치가 지향하는 방향의 사용자공간을 출력할 수 있다. When the client device is moved by the user while the selection object is selected, the user space screen is provided according to the direction the client device is oriented, and the selection object is fixedly positioned on the one area of the screen. output (S2300). In an embodiment, even if the user moves the client device while a specific object is selected, the selection object is fixed to one area of the screen, and the direction in which the client device is moving is fixed to a screen other than the area where the selection object is output. Userspace can be printed.
즉, 일 실시예에서, 전술한 바와 같이 상기 선택대상체는 상기 클라이언트 장치에 대하여 특정 방향 또는 특정 거리를 유지한 상태로 상기 클라이언트 장치의 이동에 따라 사용자공간에서 이동될 수 있고, 클라이언트 장치 화면은 사용자공간에서의 선택대상체 이동을 출력할 수 있다.That is, in one embodiment, as described above, the selection object may be moved in the user space according to the movement of the client device while maintaining a specific direction or a specific distance with respect to the client device, and the screen of the client device is displayed by the user. The movement of the selected object in space can be output.
도 10a 및 도 10b는 본 발명의 일 실시예에 따른 선택대상체가 선택된 상태에서의 클라이언트 장치의 이동에 따른 화면을 설명하기 위한 도면이다. 도 10a 및 도 10b를 참조하면, 일 실시예에서, 사용자공간(20) 내에서 사용자에 의해 선택된 선택대상체인 빨간색 토끼(450)는 스마트폰 화면(382)의 일 영역인 중앙에 고정되어 위치하도록 출력되고, 도 10a에서 도 10b로의 스마트폰(300)의 이동이 있는 경우, 상기 선택대상체는 화면 중앙에 고정되나 사용자공간(20) 화면은 스마트폰의 이동에 대응하도록 출력된다. 10A and 10B are diagrams for explaining a screen according to movement of a client device in a state in which a selection object is selected according to an embodiment of the present invention. Referring to FIGS. 10A and 10B , in one embodiment, a red rabbit 450 that is a selection target selected by the user in the user space 20 is fixedly positioned in the center of an area of the smartphone screen 382 . is output, and when there is a movement of the smartphone 300 from FIG. 10A to FIG. 10B , the selection object is fixed at the center of the screen, but the screen of the user space 20 is output to correspond to the movement of the smartphone.
즉, 일 실시예에서, 선택대상체인 빨간색 토끼(450)는 스마트폰의 이동에 따라 사용자공간에서의 위치가 변경되나, 선택되지 않은 대상체인 흰색 토끼(400)는 스마트폰의 이동에 따라 위치가 변경되지 않는다.That is, in one embodiment, the location of the red rabbit 450 as the selection object is changed in the user space according to the movement of the smartphone, but the position of the white rabbit 400 as the unselected object is changed according to the movement of the smartphone. No change.
일 실시예에서, 사용자가 사용자공간 내의 복수의 대상체에 대해 한꺼번에 이동시키고자 하는 경우, 복수의 대상체를 동시에 선택하는 것도 가능하다.In an embodiment, when the user intends to move a plurality of objects in the user space at once, it is also possible to simultaneously select the plurality of objects.
일 실시예에서, 복수의 대상체를 선택하는 것은, 사용자가 제2아이콘(620)을 터치한 상태에서 사용자 클라이언트 장치(300)를 움직임에 따라, 제1아이콘(610)이 이동된 경로에 위치한 복수의 대상체가 선택되는 것일 수 있다. In an embodiment, the selection of the plurality of objects includes a plurality of objects located on a path in which the first icon 610 is moved as the user moves the client device 300 while the user touches the second icon 620 . of may be selected.
예를 들어, 사용자가 제2아이콘을 터치 앤 홀드(Touch and Hold)한 상태에서 스마트폰(300)을 움직임에 따라, 스마트폰의 중앙에 위치한 제1아이콘이 사용자공간에 배치되어 있던 대상체 A, B 및 C를 거쳐간 후 사용자가 제2아이콘의 터치 앤 홀드를 중지하는 경우, 대상체 A, B 및 C가 동시에 선택될 수 있다.For example, as the user moves the smartphone 300 in a state where the user touches and holds the second icon, object A, in which the first icon located in the center of the smartphone is disposed in the user space, When the user stops touching and holding the second icon after passing through B and C, the objects A, B, and C may be simultaneously selected.
다른 실시예에서, 복수의 대상체를 선택하는 것은, 사용자가 제2아이콘(620)을 터치한 상태에서 사용자 클라이언트 장치(300)를 움직임에 따라, 제1아이콘(610)이 일정 영역을 둘러싸도록 이동된 경우, 해당 영역 내에 위치한 복수의 대상체가 선택되는 것일 수 있다.In another embodiment, selecting the plurality of objects includes moving the first icon 610 to surround a predetermined area as the user moves the client device 300 while the user touches the second icon 620 . In this case, a plurality of objects located within the corresponding area may be selected.
예를 들어, 사용자가 제2아이콘을 터치 앤 홀드(Touch and Hold)한 상태에서 스마트폰(300)을 움직임에 따라, 스마트폰의 중앙에 위치한 제1아이콘이 원을 그리도록 이동시킨 후 사용자가 제2아이콘의 터치 앤 홀드를 중지하는 경우, 상기 원 내에 배치되어 있던 대상체 A, B 및 C가 동시에 선택될 수 있다.For example, as the user moves the smartphone 300 in a state where the user touches and holds the second icon, the first icon located in the center of the smartphone is moved to draw a circle, and then the user When the touch and hold of the second icon is stopped, the objects A, B, and C arranged in the circle may be simultaneously selected.
일 실시예에서, 복수의 대상체가 동시에 선택되는 경우, 각각의 선택대상체 간의 배치 형태를 유지한 채 사용자 클라이언트 장치 화면의 일 영역에 고정되어 위치하도록 출력되고, 클라이언트 장치의 움직임에 따라 사용자 공간에서 위치가 변경될 수 있다. 예를 들어, 동시에 선택된 A, B 및 C 전체가 서로 간의 배치 형태를 유지한채 그루핑(grouping)되어 전체로써 사용자공간에서 이동되고, 사용자의 배치요청에 따라 배치될 수 있다.In an embodiment, when a plurality of objects are selected at the same time, they are output to be fixedly positioned on an area of the screen of the user client device while maintaining the arrangement shape between the selected objects, and are positioned in the user space according to the movement of the client device may be changed. For example, all of A, B, and C selected at the same time may be grouped while maintaining the arrangement of each other, moved as a whole in the user space, and may be arranged according to a user's arrangement request.
다른 실시예에서, 복수의 대상체가 동시에 선택되는 경우, 각각의 선택대상체가 모두 사용자 클라이언트 장치 화면의 일 영역에 고정되어 위치할 수 있다. 예를 들어, 동시에 선택된 각각의 A, B 및 C가 모두 스마트폰 중앙에 위치하도록 겹쳐서 이동되고, 사용자의 배치요청에 따라 배치될 수 있다.In another embodiment, when a plurality of objects are simultaneously selected, all of the selected objects may be fixedly positioned on one area of the screen of the user client device. For example, each of A, B, and C selected at the same time may be overlapped and moved to be located in the center of the smartphone, and may be arranged according to a user's arrangement request.
상기 선택대상체에 대한 사용자의 배치요청에 따라, 상기 선택대상체를 상기 사용자공간에 배치한다(S2400). 즉, 선택대상체가 사용자가 배치하고자 하는 위치에 도달한 경우, 사용자의 배치요청에 따라 선택을 해제함으로써 해당 위치의 사용자공간에 배치할 수 있으며, 상기 배치요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 선택대상체의 배치에 대한 모든 입력을 포함한다. 즉, 일 실시예에서, 선택대상체가 배치된 이후에는 다시 선택되지 않는 이상 클라이언트 장치의 이동에 따라 위치가 변경되지 않는다.In response to a user's request for placement of the selection object, the selection object is placed in the user space (S2400). That is, when the selection object arrives at a location that the user wants to place, the selection can be released in the user space at the location by releasing the selection according to the user's placement request, and the placement request can be input to the user's client device. Includes all inputs for the arrangement of the user's selection object. That is, according to an embodiment, after the selection object is disposed, the location is not changed according to the movement of the client device unless it is selected again.
도 11a 및 도 11b를 참조하면, 일 실시예에서, 도 11a에서 선택대상체인 빨간색 토끼(450)에 대해 사용자의 배치요청(예를 들어, 화면 터치)이 있는 경우, 도 11b와 같이 선택대상체에 대한 선택을 해제하고 사용자공간(20)에 배치요청시의 위치에 따라 배치함으로써, 빨간색 토끼는 선택대상체가 아닌 대상체(400)가 된다.11A and 11B , in one embodiment, when there is a user's placement request (eg, screen touch) for the red rabbit 450 that is the selection target in FIG. 11A , the selection target is placed on the selection target as shown in FIG. 11B . By canceling the selection and arranging in the user space 20 according to the location at the time of the request for placement, the red rabbit becomes the object 400 rather than the selection object.
일 실시예에서, 상기 배치요청은 상기 선택대상체가 선택된 상태에서 사용자가 상기 화면을 터치하는 것을 포함한다. 도 11a 및 도 11b는 본 발명의 일 실시예에 따른 사용자의 화면 터치에 의한 배치요청을 설명하기 위한 도면이다. 도 11a 및 도 11b를 참조하면, 일 실시예에서, 도 11a와 같이 빨간색 토끼(450)가 선택된 상태에서 사용자가 화면(382)의 일 영역을 터치(384)하면, 도 11b와 같이 상기 선택대상체(450)가 사용자공간에서 배치요청 시의 위치에 배치되어 선택대상체가 아닌 대상체(400)가 될 수 있다. In an embodiment, the placement request includes the user touching the screen while the selection object is selected. 11A and 11B are diagrams for explaining an arrangement request by a user's touch on the screen according to an embodiment of the present invention. 11A and 11B , in one embodiment, when the user touches 384 an area of the screen 382 while the red rabbit 450 is selected as shown in FIG. 11A , as shown in FIG. 11B , the selection object 450 may be disposed at a location at the time of a request for placement in the user space, and thus may become an object 400 rather than a selection object.
일 실시예에서, 상기 배치요청을 위해 터치되는 영역은 선택대상체가 위치한 영역 이외의 화면이거나, 선택대상체가 위치한 영역을 포함하는 전체 화면일 수 있다.In an embodiment, the area touched for the placement request may be a screen other than the area where the selection object is located or the entire screen including the area where the selection object is located.
일 실시예에서, 도면에 도시되지는 않았으나, 선택대상체에 대한 사용자의 복제요청에 따라, 상기 선택대상체를 사용자 공간에 복제하는 단계;를 더 포함할 수 있다. 일 실시예에서, 선택대상체의 복제는, 전술한 선택대상체의 배치와 달리 선택대상체의 선택은 유지한 채 선택대상체와 동일한 종류, 모양, 크기 또는 방향을 갖는 대상체를 사용자공간에 배치하는 것으로, 이 경우 사용자는 특정 선택대상체를 자유롭게 이동시키며, 원하는 위치마다 복제요청을 통하여 복제된 복수의 대상체를 간편하게 배치시킬 수 있다.In one embodiment, although not shown in the drawings, the method may further include, in response to a user's request for duplication of the selected object, copying the selected object in user space. In one embodiment, the duplication of the selection object is to place an object having the same type, shape, size or direction as the selection object in the user space while maintaining the selection of the selection object, unlike the arrangement of the selection object described above, In this case, the user can freely move a specific selected object and conveniently arrange a plurality of duplicated objects through a copy request at each desired location.
예를 들어, 사용자가 빨간색 토끼(450)를 선택한 상태에서, 스마트폰(300)을 이동시키며 빨간색 토끼를 배치하고 싶은 위치마다 제4아이콘(복제요청 아이콘)을 터치하는 경우, 빨간색 토끼(450)는 화면 중앙에 그대로 위치한 채 복제된 빨간색 토끼 대상체(400)가 사용자공간의 해당 위치마다 배치될 수 있다.For example, when the user selects the red rabbit 450 and moves the smartphone 300 and touches the fourth icon (request icon) for each location where the red rabbit is to be placed, the red rabbit 450 is displayed. may be placed in the center of the screen and the duplicated red rabbit object 400 may be disposed at each corresponding location in the user space.
일 실시예에서, 상기 선택요청, 배치요청 또는 복제요청에 따라 특정 대상체가 선택, 배치 또는 복제되는 경우, 사용자 클라이언트 장치가 사용자에게 이를 알려줄 수 있는 정보를 출력하는 단계;를 더 포함할 수 있다. 예를 들어, 전술한 하이라이트 표시를 포함하는 영상정보, 선택/배치에 대응되는 음성정보 또는 햅틱(예를 들어, 진동)정보를 출력할 수 있다.In an embodiment, when a specific object is selected, placed, or copied according to the selection request, the placement request, or the copying request, the method may further include, by the user client device, outputting information that can notify the user of this. For example, image information including the aforementioned highlight display, voice information corresponding to selection/arrangement, or haptic (eg, vibration) information may be output.
이상으로, 사용자 조작에 따른 선택, 클라이언트 장치의 이동에 따른 선택대상체의 위치 변경, 사용자 조작에 따른 선택대상체의 배치에 관한 사용자 인터페이스 제공 방법을 상세히 기술하였다.As described above, a method of providing a user interface for selection according to a user operation, a change in a location of a selection object according to a movement of a client device, and an arrangement of a selection object according to a user operation have been described in detail.
이하, 선택대상체가 선택된 상태에서 클라이언트 장치의 이동이 아닌 사용자 조작에 의한 원점(예를 들어, 클라이언트 장치)으로부터의 상기 선택대상체의 거리 변경 또는 사용자공간에서의 선택대상체 위치가 고정된 상태에서 선택대상체의 모양, 크기 또는 방향의 변경에 대해 상세히 후술한다.Hereinafter, in a state in which the distance of the selection object is changed from the origin (eg, the client device) by a user manipulation, rather than movement of the client device in a state in which the selection object is selected, or the location of the selection object in the user space is fixed Changes in the shape, size or direction of the will be described later in detail.
도 12는 본 발명의 일 실시예에 따른 사용자의 거리변경요청에 따른 거리변경 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다. 도 12를 참조하면, 일 실시예에서, 사용자의 거리변경요청에 따라 원점과 선택대상체 간의 거리를 변경하는 단계(S2320);를 더 포함한다. 전술한 바와 같이, 상기 원점은 선택대상체가 선택된 상태에서의 사용자 클라이언트 장치의 배치 위치 또는 상기 클라이언트 장치의 배치 위치로부터 산출된 사용자 위치를 포함한다. 12 is a flowchart of a method for providing a user interface further including a distance change step according to a user's distance change request according to an embodiment of the present invention. Referring to FIG. 12 , in one embodiment, the method further includes changing the distance between the origin and the selected object according to the user's request for changing the distance ( S2320 ). As described above, the origin includes an arrangement position of the user client device in a state in which the selection object is selected or a user position calculated from the arrangement position of the client device.
일 실시예에서, 상기 거리변경요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 선택대상체의 거리변경에 대한 모든 입력을 포함한다. 상기 거리변경요청에 따라 사용자공간에서의 상기 원점과 선택대상체 간의 거리가 변경될 수 있다.In an embodiment, the distance change request includes all inputs for changing the distance of the user's selection target that may be input to the user client device. The distance between the origin and the selection object in the user space may be changed according to the distance change request.
도 13a 및 도 13b는 본 발명의 일 실시예에 따른 제3아이콘을 통한 거리변경요청 및 거리표시객체를 설명하기 위한 도면이다. 도 13a 및 도 13b를 참조하면, 일 실시예에서, 상기 거리변경요청은 선택대상체가 선택된 상태에서, 사용자가 화면의 일 영역에 위치하는 제3아이콘을 탭 또는 드래그하는 것을 포함한다. 13A and 13B are diagrams for explaining a distance change request and a distance display object through a third icon according to an embodiment of the present invention. 13A and 13B , in an embodiment, the request for changing the distance includes a user tap or drag a third icon located in an area of the screen while the selection object is selected.
구체적으로, 도 13a에서 사용자가 스마트폰 화면상의 제3아이콘(630)을 탭(384)한 상태에서 도 13b와 같이 아래로 드래그(384)하는 경우, 선택대상체인 빨간색 토끼와 클라이언트(원점)간의 거리를 좁힐 수 있다. 마찬가지로, 제3아이콘을 위로 드래그하면 상기 거리를 넓힐 수 있다.Specifically, when the user taps (384) the third icon 630 on the smartphone screen in FIG. 13A and drags it downward as shown in FIG. 13B (384), between the red rabbit as the selection target and the client (origin) distance can be narrowed. Similarly, the distance can be increased by dragging the third icon upward.
도 13a 및 도 13b를 참조하면, 일 실시예에서, 상기 제3아이콘(630)은 특정 대상체가 선택되는 경우 상기 제2아이콘(620)이 변경된 것일 수 있다. 즉, 일 실시예에서, 대상체가 선택되지 않은 경우 대상체 선택을 위한 제2아이콘이, 대상체의 선택시 선택대상체의 거리변경을 위한 제3아이콘으로 변경되고, 선택대상체의 선택을 해제하여 배치하면 다시 제2아이콘으로 변경될 수 있다.13A and 13B , according to an embodiment, the third icon 630 may be a change of the second icon 620 when a specific object is selected. That is, in an embodiment, when the object is not selected, the second icon for selecting the object is changed to a third icon for changing the distance of the selected object when the object is selected, and when the selection of the object is deselected and placed, it is again It may be changed to a second icon.
또한, 일 실시예에서, 상기 거리변경에 따라 클라이언트 장치 화면에 선택대상체의 출력크기가 다르게 출력될 수 있다. 이는 거리변경에 따른 원근법에 의한 것으로, 후술할 선택대상체의 크기변경과는 다른 것이다. 즉, 일 실시예에서, 선택대상체의 '출력크기'는 클라이언트 장치 화면에 출력되는 선택대상체 출력영상의 크기를 의미하고, 선택대상체의 '크기'는 사용자공간(20)에 존재하는 선택대상체 자체의 크기를 의미할 수 있다.Also, in an embodiment, the output size of the selection object may be differently output on the screen of the client device according to the change in the distance. This is due to the perspective method according to the distance change, which is different from the change in the size of the selection object, which will be described later. That is, in one embodiment, the 'output size' of the selection object means the size of the selection object output image output on the screen of the client device, and the 'size' of the selection object is the size of the selection object itself existing in the user space 20 . It could mean size.
또한, 일 실시예에서, 선택대상체가 선택된 경우 제3아이콘과 선택대상체를 연결하며 상기 원점과 상기 선택대상체 간의 거리를 표시하는 객체를 더 출력할 수 있다. 상기 거리표시객체는, 거리를 수치(640)로 표현(예를 들어, 도 13a에서 208.92cm 및 도 13b에서 85.17cm)하거나 도형을 이용하여 표시할 수 있다. Also, in an embodiment, when the selection object is selected, an object connecting the third icon and the selection object and indicating the distance between the origin and the selection object may be further output. The distance display object may represent the distance as a numerical value 640 (eg, 208.92 cm in FIG. 13A and 85.17 cm in FIG. 13B ) or may be displayed using a figure.
도 13a 및 도 13b를 참조하면, 일 실시예에서, 상기 도형은 제3아이콘과 선택대상체를 연결하는 점선(650)을 포함한다. 예를 들어, 제1아이콘(610)은 화면의 중앙에 위치하고, 선택대상체인 빨간색 토끼(450) 역시 화면의 중앙에 고정되어 위치하므로, 상기 점선(650)은 제3아이콘(630)과 제1아이콘(610)을 연결하는 것일 수 있다.13A and 13B , in an embodiment, the figure includes a dotted line 650 connecting a third icon and a selection object. For example, since the first icon 610 is located in the center of the screen, and the red rabbit 450, which is a selection target, is also fixedly located in the center of the screen, the dotted line 650 is the third icon 630 and the first The icon 610 may be connected.
또한, 일 실시예에서, 상기 점선(650)은 상기 원점과 선택대상체 간의 거리를 나타낼 수 있다. 예를 들어, 상기 점선을 구성하는 각 선분이 일정한 거리 값을 가지는 경우, 상기 원점과 선택대상체 간의 거리에 따라 점선을 구성하는 선분의 개수가 달라지므로, 상기 거리를 직관적으로 파악할 수 있다. Also, in an embodiment, the dotted line 650 may indicate a distance between the origin and the selection object. For example, when each line segment constituting the dotted line has a constant distance value, since the number of line segments constituting the dotted line varies according to the distance between the origin and the selection target, the distance can be intuitively grasped.
예를 들어, 도 13a의 점선(650)과 도 13b의 점선(650)은 길이가 동일하지만(제1아이콘과 제3아이콘 간의 길이), 사용자공간에서의 스마트폰과 선택대상체인 빨간색 토끼(450) 간의 거리가 먼 도 13a에서 선분의 개수가 많고(촘촘하고), 거리가 가까운 도 13b에서 선분의 개수가 적으므로(멀찍하므로) 이를 통해 스마트폰으로부터의 선택대상체의 거리를 파악할 수 있다.For example, the dotted line 650 of FIG. 13A and the dotted line 650 of FIG. 13B have the same length (the length between the first icon and the third icon), but the smartphone in the user space and the red rabbit 450 as a selection object ), since the number of line segments in FIG. 13A is large (dense) and the number of line segments is small in FIG. 13B, which is close in distance (because it is far), it is possible to determine the distance of the selection object from the smartphone.
도 14는 본 발명의 일 실시예에 따른 사용자의 크기변경요청에 따른 크기변경 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다. 도 14를 참조하면, 일 실시예에서, 사용자의 크기변경요청에 따라 선택대상체의 크기를 변경하는 단계(S2340);를 더 포함한다. 일 실시예에서, 상기 크기변경요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 선택대상체의 크기변경에 대한 모든 입력을 포함하고, 상기 선택대상체의 크기는, 가상공간인 사용자공간(20)에 존재하는 가상의 선택대상체(450)의 크기를 의미할 수 있다.14 is a flowchart of a method for providing a user interface further including a resizing step in response to a user's size change request according to an embodiment of the present invention. Referring to FIG. 14 , in one embodiment, the method further includes changing the size of the selected object according to the user's request for size change ( S2340 ). In one embodiment, the size change request includes all inputs for changing the size of the selection object of the user that can be input to the user client device, and the size of the selection object is in the user space 20, which is a virtual space. It may mean the size of the existing virtual selection object 450 .
예를 들어, 도 15a 및 도 15b를 참조하면, 일 실시예에서, 도 15a의 사용자의 크기변경요청에 따라, 도 15b에서 선택대상체인 빨간색 토끼(450)의 크기가 변경될 수 있다.For example, referring to FIGS. 15A and 15B , according to a size change request of the user of FIG. 15A , in one embodiment, the size of the red rabbit 450 as a selection target in FIG. 15B may be changed.
도 15a 및 도 15b는 본 발명의 일 실시예에 따른 사용자의 핀치 인/아웃에 의한 크기변경요청을 설명하기 위한 도면이다. 도 15a 및 도 15b를 참조하면, 일 실시예에서, 상기 크기변경요청은 사용자의 핀치 인/아웃(Pinch in/out) 제스처(Gesture)를 포함한다. 일 실시예에서, 상기 핀치 인/아웃 제스처는 선택대상체가 선택된 상태에서 사용자의 상기 클라이언트 장치 화면(382)에 대한 모든 핀치 인/아웃 제스처의 입력을 포함한다.15A and 15B are diagrams for explaining a size change request by a user pinch-in/out according to an embodiment of the present invention. 15A and 15B , in an embodiment, the size change request includes a user's pinch in/out gesture. In an embodiment, the pinch-in/out gesture includes input of all pinch-in/out gestures of the user on the screen 382 of the client device while the selection object is selected.
일 실시예에서, 상기 크기변경요청을 위한 핀치 인/아웃 제스처는, 선택대상체와 근접한 영역에 대한 핀치 인/아웃 제스처를 의미할 수 있다. 예를 들어, 상기 크기변경요청은, 사용자가 선택대상체와 이격된 위치의 화면 영역에 핀치 인/아웃 제스처를 입력하는 경우는 포함하지 않고, 선택대상체가 출력되는 영역 주변에 입력되는 경우만을 의미할 수 있다.In an embodiment, the pinch-in/out gesture for the size change request may mean a pinch-in/out gesture for an area adjacent to the selection object. For example, the size change request does not include a case in which the user inputs a pinch-in/out gesture to a screen area spaced apart from the selection object, but only a case in which the selection object is input around an output area. can
일 실시예에서, 상기 거리변경에 따라 클라이언트 장치 화면에 선택대상체의 출력크기가 다르게 출력될 수 있다. 예를 들어, 도 15a에서 선택대상체인 빨간색 토끼(450)에 대한 크기 확대 요청이 있는 경우, 클라이언트 장치가 사용자공간(20)에 존재하는 빨간색 토끼의 크기를 확대시킬뿐만 아니라, 클라이언트 장치 화면(382)에 출력되는 빨간색 토끼의 출력크기 역시 확대시킬 수 있다.In an embodiment, the output size of the selection object may be differently output on the screen of the client device according to the change in the distance. For example, when there is a request to enlarge the size of the red rabbit 450 that is the selection object in FIG. 15A , the client device not only enlarges the size of the red rabbit existing in the user space 20 , but also the screen 382 of the client device ), the output size of the red rabbit can be enlarged as well.
일 실시예에서, 선택대상체가 선택된 경우 선택대상체의 크기를 표시하는 객체를 더 출력할 수 있다. 예를 들어, 도 15a를 참조하면, 상기 크기 표시 객체는 선택대상체인 빨간색 토끼(450)의 크기를 수치(660)로 표시할 수 있다. In an embodiment, when the selection object is selected, an object indicating the size of the selection object may be further output. For example, referring to FIG. 15A , the size display object may display the size of a red rabbit 450 as a selection target as a numerical value 660 .
일 실시예에서, 상기 수치는 선택대상체의 크기를 특정 단위(예를 들어, 30cm)로 표시하거나, 기준 크기에 대한 배율(예를 들어, 1.18x)로 표시할 수 있다. 일 실시예에서, 상기 기준 크기는 특정 대상체를 사용자 공간에 최초 업로드시의 크기 또는 각 대상체마다 기 설정된 크기를 의미할 수 있다.In an embodiment, the numerical value may indicate the size of the selected object in a specific unit (eg, 30 cm) or a magnification of the reference size (eg, 1.18x). In an embodiment, the reference size may mean a size when a specific object is initially uploaded to the user space or a preset size for each object.
도 13a 및 도 13b와, 도 15a 및 도 15b를 참조하면, 일 실시예에서, 사용자는 상기 거리표시객체(640, 650) 및 크기표시객체(660)를 통해 선택대상체와 원점 간의 거리 및 선택대상체의 크기를 손쉽게 파악할 수 있을뿐만 아니라, 클라이언트 장치 화면에 상기 선택대상체의 출력크기가 변경되는 경우에 있어서, 상기 거리변경과 크기변경을 구분할 수 있는 효과가 있다. 예를 들어, 출력크기가 확대되는 경우에 있어서, 제1아이콘과 제3아이콘 간의 점선(650)의 선분 개수 또는 거리수치(640)가 유지되고 크기수치(660)가 변경되는 경우에는 크기변경으로, 이와 달리 크기수치는 유지되나 상기 점선의 선분 개수 또는 거리수치가 변경되는 경우에는 거리변경으로 파악할 수 있다.13A and 13B and 15A and 15B , in an embodiment, the user may use the distance display objects 640 and 650 and the size display object 660 to determine the distance between the selection object and the origin and the selection object In addition to being able to easily grasp the size of , when the output size of the selected object on the screen of the client device is changed, there is an effect that the distance change and the size change can be distinguished. For example, when the output size is enlarged, the number of line segments or the distance value 640 of the dotted line 650 between the first icon and the third icon is maintained, and when the size value 660 is changed, the size is changed. In contrast to , when the size value is maintained but the number of line segments of the dotted line or the distance value is changed, it can be recognized as a distance change.
도 16은 본 발명의 일 실시예에 따른 사용자의 회전요청에 따른 회전 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다. 도 16을 참조하면, 일 실시예에서, 사용자의 회전요청에 따라 선택대상체를 회전시키는 단계(S2360);를 더 포함한다. 일 실시예에서, 상기 회전요청은 사용자 클라이언트 장치에 입력될 수 있는 상기 사용자의 선택대상체의 회전에 대한 모든 입력을 포함한다.16 is a flowchart of a method for providing a user interface further comprising a rotation step according to a user's rotation request according to an embodiment of the present invention. Referring to FIG. 16 , in one embodiment, rotating the selection object according to the user's rotation request (S2360); further includes. In an embodiment, the rotation request includes all inputs for rotation of the user's selection object that may be input to the user client device.
일 실시예에서, 상기 회전은 롤(roll)회전, 요(yaw) 회전 또는 피치(pitch)회전을 포함한다.In one embodiment, the rotation comprises a roll rotation, a yaw rotation or a pitch rotation.
도 17a 및 도 17b는 본 발명의 일 실시예에 따른 선택대상체의 롤(roll) 회전을 설명하기 위한 도면이다. 도 17a 및 도 17b를 참조하면, 일 실시예에서, 사용자의 롤 회전요청은 회전(rotate) 제스처를 포함한다. 예를 들어, 사용자가 도 17a 및 도 17b에서와 같이 두손가락에 의한 회전(rotate) 제스처(도 17a 및 도 17b의 384)를 입력하는 경우, 상기 회전 제스처의 방향(도 17a 및 도 17b에서 시계방향)에 따라 상기 선택대상체(450)가 롤 회전할 수 있다.17A and 17B are diagrams for explaining a roll rotation of a selection target according to an embodiment of the present invention. 17A and 17B , in an embodiment, the user's roll rotation request includes a rotate gesture. For example, when the user inputs a rotate gesture (384 in FIGS. 17A and 17B ) using two fingers as in FIGS. 17A and 17B , the direction of the rotation gesture (clockwise in FIGS. 17A and 17B ) direction), the selection object 450 may roll-rotate.
일 실시예에서, 상기 롤 회전요청을 위한 회전 제스처는, 선택대상체와 근접한 영역에 대한 회전 제스처를 의미할 수 있다. 예를 들어, 상기 롤 회전요청은, 사용자가 선택대상체와 이격된 위치의 화면 영역에 회전 제스처를 입력하는 경우는 포함하지 않고, 선택대상체가 출력되는 영역 주변에 입력되는 경우만을 의미할 수 있다.In an embodiment, the rotation gesture for the roll rotation request may refer to a rotation gesture for an area adjacent to the selection object. For example, the roll rotation request does not include a case in which the user inputs a rotation gesture to a screen area spaced apart from the selection object, but may mean only a case in which the selection object is input around an output area.
도 18a 및 도 18b는 본 발명의 일 실시예에 따른 선택대상체의 요(yaw) 회전을 설명하기 위한 도면이다. 도 18a 및 도 18b를 참조하면, 일 실시예에서, 사용자의 요 회전요청은 좌우 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 포함한다. 예를 들어, 사용자가 도 18a 및 도 19b에서와 같이 우측 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처(도 18a 및 도 18b의 384)를 입력하는 경우, 상기 회전 제스처의 방향에 따라 상기 선택대상체(450)가 요 회전할 수 있다.18A and 18B are diagrams for explaining yaw rotation of a selection target according to an embodiment of the present invention. 18A and 18B , in an embodiment, the user's yaw rotation request includes a pan or swipe gesture in a left and right direction. For example, when the user inputs a pan or swipe gesture ( 384 in FIGS. 18A and 18B ) in the right direction as shown in FIGS. 18A and 19B , according to the direction of the rotation gesture, the The selection object 450 may rotate yaw.
일 실시예에서, 상기 요 회전요청을 위한 회전 제스처는, 선택대상체와 근접한 영역에 대한 좌우 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 의미할 수 있다. 예를 들어, 상기 요 회전요청은, 사용자가 선택대상체와 이격된 위치의 화면 영역에 좌우 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 입력하는 경우는 포함하지 않고, 선택대상체가 출력되는 영역 주변에 입력되는 경우만을 의미할 수 있다.In an embodiment, the rotation gesture for requesting the yaw rotation may mean a pan or swipe gesture in a left and right direction for an area adjacent to the selection object. For example, the yaw rotation request does not include a case in which the user inputs a pan or swipe gesture in the left and right direction to the screen area at a location spaced apart from the selection object, but the selection object is output. It may mean only the case where input is made around the area.
도 19a 및 도 19b는 본 발명의 일 실시예에 따른 선택대상체의 피치(pitch) 회전을 설명하기 위한 도면이다. 도 19a 및 도 19b를 참조하면, 일 실시예에서, 사용자의 피치 회전요청은 상하 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 포함한다. 예를 들어, 사용자가 도 19a 및 도 19b에서와 같이 상측 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처(도 19a 및 도 19b의 384)를 입력하는 경우, 상기 회전 제스처의 방향에 따라 상기 선택대상체(450)가 피치 회전할 수 있다.19A and 19B are diagrams for explaining pitch rotation of a selection target according to an embodiment of the present invention. 19A and 19B , in an embodiment, the user's request for pitch rotation includes a pan or swipe gesture in the vertical direction. For example, when the user inputs a Pan or Swipe gesture ( 384 in FIGS. 19A and 19B ) in the upward direction as in FIGS. 19A and 19B , according to the direction of the rotation gesture, the The selection object 450 may rotate in pitch.
일 실시예에서, 상기 피치 회전요청을 위한 회전 제스처는, 선택대상체와 근접한 영역에 대한 상하 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 의미할 수 있다. 예를 들어, 상기 요 회전요청은, 사용자가 선택대상체와 이격된 위치의 화면 영역에 상하 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 입력하는 경우는 포함하지 않고, 선택대상체가 출력되는 영역 주변에 입력되는 경우만을 의미할 수 있다.In an embodiment, the rotation gesture for the pitch rotation request may refer to a pan or swipe gesture in the vertical direction for an area adjacent to the selection object. For example, the yaw rotation request does not include a case in which the user inputs a pan or swipe gesture in the vertical direction to the screen area at a location spaced apart from the selection object, but the selection object is output. It may mean only the case where input is made around the area.
일 실시예에서, 상기 거리변경, 크기변경 또는 회전 시, 각 동작 완료에 대응되는 음성정보 또는 햅틱(예를 들어, 진동)정보를 출력하는 단계;를 더 포함할 수 있다. 예를 들어, 사용자가 핀치 인/아웃 제스처를 통해 크기변경을 요청함에 있어서, 선택대상체가 사용자가 원하는 크기에 도달하여 사용자가 핀치 인/아웃 제스처를 중단하는 경우(스마트폰 화면에서 손을 떼는 경우) 크기변경의 완료를 알리는 진동이 출력될 수 있다.In an embodiment, the method may further include outputting voice information or haptic (eg, vibration) information corresponding to the completion of each operation when the distance is changed, the size is changed, or the rotation is rotated. For example, when a user requests a size change through a pinch-in/out gesture, when the selected object reaches a size desired by the user and the user stops the pinch-in/out gesture (when releasing the hand from the smartphone screen) ), a vibration indicating the completion of size change may be output.
다른 실시예에서, 상기 거리변경의 경우, 원점과 선택대상체 간의 거리가 미리 설정된 값만큼 변경될 때 마다 상기 음성정보 또는 햅틱정보를 출력할 수 있다. 예를 들어, 원점과 선택대상체 간의 거리가 1m이고 상기 거리가 10cm씩 변경될 때마다 진동을 출력하도록 설정되고, 사용자의 거리변경요청에 따라 거리가 변경되는 경우, 상기 거리가 110cm, 120cm, 130cm에 도달하도록 늘어나거나, 90cm, 80cm, 70cm에 도달하도록 줄어들 때마다 진동이 출력될 수 있다. 상기 설정된 값(10cm)은 사용자에 의해 자유롭게 변경될 수 있음은 물론이다.In another embodiment, in the case of changing the distance, the voice information or haptic information may be output whenever the distance between the origin and the selection object is changed by a preset value. For example, if the distance between the origin and the selection object is 1 m and the distance is set to output vibration whenever the distance is changed by 10 cm, and the distance is changed according to the user's request for changing the distance, the distance is 110 cm, 120 cm, 130 cm Vibration can be output whenever it stretches to reach 90 cm, 80 cm, or 70 cm. Of course, the set value (10 cm) can be freely changed by the user.
일 실시예에서, 도면에 도시되지는 않았으나, 사용자의 선택대상체의 모양 또는 색깔에 대한 변경요청에 따라 선택대상체의 모양 또는 색깔의 변경을 수행하는 단계;를 더 포함한다.In one embodiment, although not shown in the drawings, the method further includes: performing a change in the shape or color of the selection object in response to a user's request to change the shape or color of the selection object.
일 실시예에서, 도면에 도시되지는 않았으나, 사용자가 특정 대상체를 사용자공간에 업로드하거나, 선택대상체를 다른 대상체로 변경하는 단계;를 더 포함한다. 상기 대상체는 특정 객체의 CG(Computer Graphic) 영상 또는 실제 사물이나 인물의 영상을 포함하나, 이에 제한되지 않고 가상공간에서 배치할 수 있는 모든 대상체를 포함한다.In one embodiment, although not shown in the drawings, the method further includes; uploading a specific object to the user space or changing the selected object to another object by the user. The object includes a computer graphic (CG) image of a specific object or an image of a real object or person, but is not limited thereto, and includes all objects that can be placed in a virtual space.
예를 들면, 일 실시예에서, 사용자는 사용자공간에 가상공간 형성 프로그램이 제공하는 토끼 이외의 사자에 대한 CG 영상을 업로드하거나, 본인이 촬영한 영상을 업로드하여 선택을 통해 배치할 수 있다. 또는, 빨간색 토끼를 선택한 상태에서 선택대상체를 본인이 촬영한 영상으로 변경할 수 있으나, 사용자의 대상체 업로드 또는 변경은 이에 제한되지 않는다.For example, in one embodiment, the user may upload a CG image of a lion other than a rabbit provided by the virtual space forming program in the user space, or upload an image taken by the user and arrange it through selection. Alternatively, while the red rabbit is selected, the selected object may be changed to an image captured by the user, but the user uploading or changing the object is not limited thereto.
일 실시예에서, 도면에 도시되지는 않았으나, 사용자(200)의 저장요청에 따라 해당 사용자공간(20)에 대한 정보인 제1생성데이터를 서버에 전송하는 단계;를 더 포함한다. 일 실시예에서, 상기 제1생성데이터는 상기 제1사용자공간에 배치된 하나 이상의 대상체의 대상체 정보 또는 배치 위치 정보를 포함한다.In one embodiment, although not shown in the drawing, the method further includes; transmitting the first generated data, which is information on the corresponding user space 20, to the server according to the storage request of the user 200 . In an embodiment, the first generation data includes object information or arrangement location information of one or more objects arranged in the first user space.
일 실시예에서, 상기 제1생성데이터는 썸네일(Thumbnail) 이미지를 포함하고, 사용자의 썸네일 이미지 촬영요청에 따라 해당 사용자공간(20)의 썸네일 이미지를 획득하여 서버에 전송하는 단계;를 더 포함한다.In an embodiment, the first generated data includes a thumbnail image, and according to a user's request for taking a thumbnail image, obtaining a thumbnail image of the corresponding user space 20 and transmitting it to the server; further comprising .
일 실시예에서, 상기 썸네일 이미지는 해당 사용자공간을 대표하는 이미지로써, 사용자가 저장된 사용자공간에 재접속시, 상기 썸네일 이미지를 촬영한 위치, 즉 저장 시 위치에서 재접속할 수 있도록 하여, 썸네일 이미지를 보고 접속한 사용자의 정면(사용자 클라이언트 장치의 정면)에 상기 썸네일 이미지에 표시된 사용자공간이 구현될 수 있도록 하는 것이다.In one embodiment, the thumbnail image is an image representing the corresponding user space, and when the user reconnects to the stored user space, the thumbnail image is captured and reconnected at the location at the time of storage, so that the thumbnail image is viewed The user space displayed in the thumbnail image can be implemented on the front side of the connected user (the front side of the user client device).
일 실시예에서, 사용자의 상기 저장요청 또는 썸네일 이미지 촬영요청은, 특정 아이콘을 터치하는 것을 포함하나, 이에 제한되지 않고 사용자 클라이언트 장치에 입력될 수 있는 사용자의 모든 입력을 포함한다.In an embodiment, the user's request to store or take a thumbnail image includes all user inputs that may be input to the user's client device, including, but not limited to, touching a specific icon.
도 6은 본 발명의 일 실시예에 따른 사용자 인터페이스를 제공하는 클라이언트 장치의 구성도이다. 도 6을 참조하면, 이상에서 전술한 본 발명의 일 실시예에 따른 사용자 인터페이스를 제공하는 클라이언트 장치(300)는, 특정 대상체에 대한 사용자의 선택요청 또는 사용자에 의해 선택된 선택대상체에 대한 사용자의 배치요청을 입력받는 입력부(350); 상기 클라이언트 장치의 위치, 방향 또는 동작정보를 검출하는 검출부(360); 상기 선택대상체를 상기 클라이언트 장치의 이동 또는 사용자의 조작에 따라 사용자공간에서 이동시키고, 상기 배치요청에 따라 상기 선택대상체를 상기 사용자공간에 배치하는 제어부(370); 및 상기 제어부에 의해, 상기 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 출력하고, 입력된 사용자의 상기 선택요청에 따라 상기 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 출력부(380);를 포함한다. 6 is a block diagram of a client device providing a user interface according to an embodiment of the present invention. Referring to FIG. 6 , the client device 300 providing the user interface according to an embodiment of the present invention described above includes a user's selection request for a specific object or arrangement of a user for a selection object selected by the user. an input unit 350 for receiving a request; a detection unit 360 for detecting the location, direction, or operation information of the client device; a control unit 370 for moving the selection object in the user space according to the movement of the client device or a user's manipulation, and arranging the selection object in the user space according to the arrangement request; and an output unit 380 for outputting, by the control unit, a user space screen in a direction the client device is oriented, and for outputting the selection object to be fixedly positioned in one area of the screen according to the inputted user's selection request. ); includes.
또한, 일 실시예에서, 상기 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 장치는, 전술한 본 발명의 실시예에 따른 사용자 인터페이스 제공 방법을 실행하기 위해 적합한 구성 또는 기능을 더 포함할 수 있다. 예를 들어, 일 실시예에서, 상기 입력부는 사용자의 선택요청 또는 배치요청뿐만 아니라, 크기변경요청 또는 거리변경요청을 더 입력받을 수 있다. 즉, 전술한 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법은 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 장치에 동일하게 적용될 수 있다.Also, in one embodiment, the apparatus for providing a user interface according to an embodiment of the present invention may further include a configuration or function suitable for executing the user interface providing method according to the embodiment of the present invention described above. For example, in an embodiment, the input unit may further receive a size change request or a distance change request as well as a user's selection request or arrangement request. That is, the method for providing a user interface according to an embodiment of the present invention described above may be equally applied to the apparatus for providing a user interface according to an embodiment of the present invention.
또한, 이상에서 전술한 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.In addition, the user interface providing method according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present invention may be implemented directly in hardware, as a software module executed by hardware, or by a combination thereof. A software module may contain random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (11)

  1. 클라이언트 장치가, 가상의 대상체 배치를 위한 사용자 인터페이스를 제공하는 방법에 있어서,A method for a client device to provide a user interface for virtual object placement, the method comprising:
    상기 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 제공하는 단계;providing a user space screen in a direction the client device is oriented;
    특정 대상체에 대한 사용자의 선택요청에 따라, 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 단계; outputting the selection object to be fixedly positioned on one area of the screen in response to a user's request for selection of a specific object;
    상기 선택대상체가 선택된 상태에서 사용자에 의해 상기 클라이언트 장치가 이동되는 경우, 상기 클라이언트 장치가 지향하는 방향에 따라 상기 사용자공간 화면을 제공하되, 상기 선택대상체를 상기 화면의 상기 일 영역에 고정되어 위치하도록 출력하는 단계; 및When the client device is moved by the user while the selection object is selected, the user space screen is provided according to the direction the client device is oriented, and the selection object is fixedly positioned on the one area of the screen. outputting; and
    상기 선택대상체에 대한 사용자의 배치요청에 따라, 상기 선택대상체를 상기 사용자공간에 배치하는 단계;를 포함하고,arranging the selection object in the user space in response to a user's request for placement of the selection object;
    상기 사용자공간은, 사용자에 의해 배치된 하나 이상의 가상의 대상체를 포함하는 가상공간인, 사용자 인터페이스 제공 방법.The user space is a virtual space including one or more virtual objects arranged by a user.
  2. 제1항에 있어서,According to claim 1,
    상기 선택대상체는, 상기 클라이언트 장치의 이동에 따라 원점으로부터 특정한 거리의 구면상에서 위치가 변경되고,The location of the selection target is changed on a sphere at a specific distance from the origin according to the movement of the client device,
    상기 원점은, 상기 선택대상체가 선택된 상태에서의 상기 클라이언트 장치의 배치 위치 또는 상기 클라이언트 장치의 배치 위치로부터 산출된 사용자 위치인, 사용자 인터페이스 제공 방법.The origin is a location of the client device in a state in which the selection object is selected or a user location calculated from the location of the client device.
  3. 제1항에 있어서,According to claim 1,
    상기 선택요청은, 사용자가 상기 화면 상에서 특정 대상체를 터치 또는 제1아이콘이 특정 대상체 상에 위치한 상태에서 사용자가 제2아이콘을 터치하는 것을 포함하고,The selection request includes the user touching a specific object on the screen or the user touching the second icon while the first icon is located on the specific object,
    상기 제1아이콘은, 상기 화면의 일 영역에 고정되어 위치하고,The first icon is fixed to one area of the screen,
    상기 제2아이콘은, 상기 제1아이콘과 이격되어 상기 화면의 다른 일 영역에 위치하는, 사용자 인터페이스 제공 방법.The second icon is spaced apart from the first icon and is located in another area of the screen.
  4. 제1항에 있어서,According to claim 1,
    상기 배치요청은, 상기 선택대상체가 선택된 상태에서, 사용자가 상기 화면을 터치하는 것을 포함하는, 사용자 인터페이스 제공 방법.The arrangement request includes, in a state in which the selection object is selected, a user touching the screen.
  5. 제2항에 있어서,3. The method of claim 2,
    사용자의 거리변경요청에 따라, 상기 원점과 상기 선택대상체 간의 거리를 변경하는 단계;를 더 포함하는, 사용자 인터페이스 제공 방법.Changing the distance between the origin and the selection object according to a user's request for changing the distance; further comprising, a user interface providing method.
  6. 제5항에 있어서,6. The method of claim 5,
    상기 거리변경요청은, 상기 선택대상체가 선택된 상태에서, 사용자가 상기 화면의 일 영역에 위치하는 제3아이콘을 탭 또는 드래그하는 것을 포함하는, 사용자 인터페이스 제공 방법.The method of providing a user interface, wherein the request for changing the distance includes a user tap or drag a third icon located in an area of the screen while the selected object is selected.
  7. 제6항에 있어서,7. The method of claim 6,
    상기 선택대상체를 화면에 출력하는 단계는,The step of outputting the selection object to the screen comprises:
    상기 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하되, 상기 선택대상체와 상기 제3아이콘을 연결하며 상기 원점과 상기 선택대상체 간의 거리를 표시하는 객체를 더 출력하는, 사용자 인터페이스 제공 방법.and outputting the selection object to be fixedly positioned on one area of the screen, further outputting an object connecting the selection object and the third icon and indicating a distance between the origin and the selection object.
  8. 제1항에 있어서,According to claim 1,
    사용자의 크기변경요청에 따라, 상기 선택대상체의 크기를 변경하는 단계;를 더 포함하는, 사용자 인터페이스 제공 방법.Changing the size of the selected object in response to a user's request for size change; further comprising, a method for providing a user interface.
  9. 제1항에 있어서,According to claim 1,
    사용자의 회전요청에 따라, 상기 선택대상체를 회전시키는 단계;를 더 포함하는, 사용자 인터페이스 제공 방법.In response to a user's rotation request, rotating the selection object; further comprising, a user interface providing method.
  10. 가상의 대상체 배치를 위한 사용자 인터페이스를 제공하는 클라이언트 장치에 있어서,A client device that provides a user interface for virtual object placement, the client device comprising:
    특정 대상체에 대한 사용자의 선택요청 또는 사용자에 의해 선택된 선택대상체에 대한 사용자의 배치요청을 입력받는 입력부;an input unit for receiving a user's selection request for a specific object or a user's placement request for a selection object selected by the user;
    상기 클라이언트 장치의 위치, 방향 또는 동작정보를 검출하는 검출부;a detection unit for detecting the position, direction, or operation information of the client device;
    상기 선택대상체를 상기 클라이언트 장치의 이동 또는 사용자의 조작에 따라 사용자공간에서 이동시키고, 상기 배치요청에 따라 상기 선택대상체를 상기 사용자공간에 배치하는 제어부; 및a control unit that moves the selection object in the user space according to the movement of the client device or a user's manipulation, and arranges the selection object in the user space according to the arrangement request; and
    상기 제어부에 의해, 상기 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 출력하고, 입력된 사용자의 상기 선택요청에 따라 상기 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 출력부;를 포함하고,an output unit for outputting, by the control unit, a user space screen in a direction that the client device is oriented to, and outputting the selection object to be fixed and positioned in one area of the screen according to the inputted user's selection request; and,
    상기 사용자공간은, 사용자에 의해 배치된 하나 이상의 대상체를 포함하는 가상공간인, 클라이언트 장치.The user space is a virtual space including one or more objects placed by a user, the client device.
  11. 하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 실행시키기 위하여 매체에 저장된, 대상체 배치를 위한 사용자 인터페이스 제공 프로그램.A program for providing a user interface for object placement, which is combined with a computer as hardware and stored in a medium to execute the method of claim 1 .
PCT/KR2020/019059 2019-12-27 2020-12-24 Method, apparatus, and program for providing user interface for arrangement of virtual object WO2021133081A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0177004 2019-12-27
KR1020190177004A KR102351900B1 (en) 2019-12-27 2019-12-27 Method, apparatus and program for providing user interface to arrange virtual objects

Publications (1)

Publication Number Publication Date
WO2021133081A1 true WO2021133081A1 (en) 2021-07-01

Family

ID=76575656

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/019059 WO2021133081A1 (en) 2019-12-27 2020-12-24 Method, apparatus, and program for providing user interface for arrangement of virtual object

Country Status (2)

Country Link
KR (1) KR102351900B1 (en)
WO (1) WO2021133081A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102376390B1 (en) * 2021-08-26 2022-03-21 이풍연 Method and apparatus for providing metaverse service

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120061197A (en) * 2010-12-03 2012-06-13 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20120086266A (en) * 2011-01-25 2012-08-02 광주과학기술원 Object manipulation method in augmented reality environment and Apparatus for augmented reality implementing the same
JP2013164697A (en) * 2012-02-10 2013-08-22 Sony Corp Image processing device, image processing method, program and image processing system
JP2013544381A (en) * 2010-08-12 2013-12-12 トムソン ライセンシング 3D menu control
KR20190105638A (en) * 2017-01-23 2019-09-17 스냅 인코포레이티드 3D interaction system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101212636B1 (en) 2010-08-20 2012-12-20 한국과학기술원 Method and apparatus for presenting location information on augmented reality

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013544381A (en) * 2010-08-12 2013-12-12 トムソン ライセンシング 3D menu control
KR20120061197A (en) * 2010-12-03 2012-06-13 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20120086266A (en) * 2011-01-25 2012-08-02 광주과학기술원 Object manipulation method in augmented reality environment and Apparatus for augmented reality implementing the same
JP2013164697A (en) * 2012-02-10 2013-08-22 Sony Corp Image processing device, image processing method, program and image processing system
KR20190105638A (en) * 2017-01-23 2019-09-17 스냅 인코포레이티드 3D interaction system

Also Published As

Publication number Publication date
KR20210084073A (en) 2021-07-07
KR102351900B1 (en) 2022-01-14

Similar Documents

Publication Publication Date Title
WO2014088310A1 (en) Display device and method of controlling the same
WO2016064137A1 (en) Apparatus and method of drawing and solving figure content
WO2016093506A1 (en) Mobile terminal and control method therefor
WO2014104472A1 (en) Method and apparatus for dual display
WO2016036137A1 (en) Electronic device with bent display and method for controlling thereof
WO2014030804A1 (en) Display device and method for controlling the same
WO2012108714A2 (en) Method and apparatus for providing graphic user interface in mobile terminal
WO2011078540A2 (en) Mobile device and related control method for external output depending on user interaction based on image sensing module
WO2014017790A1 (en) Display device and control method thereof
WO2013176472A1 (en) Method and apparatus of controlling user interface using touch screen
WO2012108620A2 (en) Operating method of terminal based on multiple inputs and portable terminal supporting the same
WO2014148771A1 (en) Portable terminal and method for providing haptic effect
WO2015005674A1 (en) Method for displaying and electronic device thereof
WO2014098416A1 (en) Augmented reality system and control method thereof
WO2012030194A1 (en) Method and apparatus for interfacing
WO2014189225A1 (en) User input using hovering input
WO2014098528A1 (en) Text-enlargement display method
WO2016085186A1 (en) Electronic apparatus and method for displaying graphical object thereof
WO2014104727A1 (en) Method for providing user interface using multi-point touch and apparatus for same
WO2015178661A1 (en) Method and apparatus for processing input using display
AU2012214993A1 (en) Method and apparatus for providing graphic user interface in mobile terminal
WO2018074821A1 (en) User terminal apparatus and computer-implemented method for synchronizing movement path and movement time of camera by using touch user interface
WO2016035940A1 (en) Display device and method of controlling therefor
EP3191927A1 (en) Method and device for executing applications through application selection screen
WO2021133081A1 (en) Method, apparatus, and program for providing user interface for arrangement of virtual object

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20908357

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20908357

Country of ref document: EP

Kind code of ref document: A1