KR102351900B1 - 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램 - Google Patents

가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램 Download PDF

Info

Publication number
KR102351900B1
KR102351900B1 KR1020190177004A KR20190177004A KR102351900B1 KR 102351900 B1 KR102351900 B1 KR 102351900B1 KR 1020190177004 A KR1020190177004 A KR 1020190177004A KR 20190177004 A KR20190177004 A KR 20190177004A KR 102351900 B1 KR102351900 B1 KR 102351900B1
Authority
KR
South Korea
Prior art keywords
user
selection
client device
screen
request
Prior art date
Application number
KR1020190177004A
Other languages
English (en)
Other versions
KR20210084073A (ko
Inventor
손범준
권영호
Original Assignee
손범준
권영호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 손범준, 권영호 filed Critical 손범준
Priority to KR1020190177004A priority Critical patent/KR102351900B1/ko
Priority to PCT/KR2020/019059 priority patent/WO2021133081A1/ko
Publication of KR20210084073A publication Critical patent/KR20210084073A/ko
Application granted granted Critical
Publication of KR102351900B1 publication Critical patent/KR102351900B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

클라이언트 장치가 가상의 대상체 배치를 위한 사용자 인터페이스를 제공하는 방법, 장치 및 프로그램이 제공된다. 상기 사용자 인터페이스 제공 방법은, 상기 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 제공하는 단계(S2100); 특정 대상체에 대한 사용자의 선택요청에 따라, 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 단계(S2200); 상기 선택대상체가 선택된 상태에서 사용자에 의해 상기 클라이언트 장치가 이동되는 경우, 상기 클라이언트 장치가 지향하는 방향에 따라 상기 사용자공간 화면을 제공하되, 상기 선택대상체를 상기 화면의 상기 일 영역에 고정되어 위치하도록 출력하는 단계(S2300); 및 상기 선택대상체에 대한 사용자의 배치요청에 따라, 상기 선택대상체를 상기 사용자공간에 배치하는 단계(S2400);를 포함한다.

Description

가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램{METHOD, APPARATUS AND PROGRAM FOR PROVIDING USER INTERFACE TO ARRANGE VIRTUAL OBJECTS}
본 발명은 사용자 인터페이스 제공 방법에 관한 것으로, 보다 자세하게는 가상공간에 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법에 관한 것이다.
최근 가상현실(VR, Virtual Reality) 및 증강현실(AR, Augmented Reality)을 포함하는 확장현실(XR, Extended Reality)을 적용한 다양한 서비스의 증가로 인해 가상의 대상체를 배치하여 가상공간을 생성하기 위한 노력들이 계속되고 있다.
종래의 가상공간 내의 대상체 배치 방법은 배치 위치에 대하여 공간좌표를 입력하는 등 현실에서 사용자가 대상체를 배치하는 방식과 괴리가 있었다.
또한, 전술한 복잡한 대상체 배치방법으로 인하여, 종래의 가상공간 내의 가상의 대상체 배치를 위한 사용자 인터페이스는, 그 조작방법이 복잡하고 키보드 등의 별도의 장치를 요하는 문제가 있었다.
공개특허공보 제10-2012-0017783호, 2012.02.29
본 발명은 현실공간에서 사용자가 현실의 대상체를 배치하는 방식과 유사하게, 가상공간에서 사용자가 간단한 조작만으로 가상의 대상체를 구면좌표계를 기반으로 손쉽게 배치할 수 있는 사용자 인터페이스를 제공하는 것이다.
또한, 본 발명은 사용자가 가상공간에 가상의 대상체를 배치하기 위해 별도의 장치를 요하지 않고도 상기 사용자 인터페이스를 제공할 수 있는 클라이언트 장치를 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 사용자 인터페이스 제공 방법은, 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 제공하는 단계; 특정 대상체에 대한 사용자의 선택요청에 따라, 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 단계; 상기 선택대상체가 선택된 상태에서 사용자에 의해 상기 클라이언트 장치가 이동되는 경우, 상기 클라이언트 장치가 지향하는 방향에 따라 상기 사용자공간 화면을 제공하되, 상기 선택대상체를 상기 화면의 상기 일 영역에 고정되어 위치하도록 출력하는 단계; 및 상기 선택대상체에 대한 사용자의 배치요청에 따라, 상기 선택대상체를 상기 사용자공간에 배치하는 단계;를 포함하고, 상기 사용자공간은, 사용자에 의해 배치된 하나 이상의 가상의 대상체를 포함한다.
또한, 다른 일 실시예에서, 상기 선택대상체는, 상기 클라이언트 장치의 이동에 따라 원점으로부터 특정한 거리의 구면상에서 위치가 변경되고, 상기 원점은, 상기 선택대상체가 선택된 상태에서의 상기 클라이언트 장치의 배치 위치 또는 상기 클라이언트 장치의 배치 위치로부터 산출된 사용자 위치인 것이다.
또한, 다른 일 실시예에서, 상기 선택요청은, 사용자가 상기 화면 상에서 특정 대상체를 터치 또는 제1아이콘이 특정 대상체 상에 위치한 상태에서 사용자가 제2아이콘을 터치하는 것을 포함하고, 상기 제1아이콘은, 상기 화면의 일 영역에 고정되어 위치하고, 상기 제2아이콘은, 상기 제1아이콘과 이격되어 상기 화면의 다른 일 영역에 위치하는 것이다.
또한, 다른 일 실시예에서, 상기 배치요청은, 상기 선택대상체가 선택된 상태에서, 사용자가 상기 화면을 터치하는 것을 포함한다.
또한, 다른 일 실시예에서, 사용자의 거리변경요청에 따라, 상기 원점과 상기 선택대상체 간의 거리를 변경하는 단계;를 더 포함한다.
또한, 다른 일 실시예에서, 상기 거리변경요청은, 상기 선택대상체가 선택된 상태에서, 사용자가 상기 화면의 일 영역에 위치하는 제3아이콘을 탭 또는 드래그하는 것을 포함한다.
또한, 다른 일 실시예에서, 상기 선택대상체를 화면에 출력하는 단계는, 상기 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하되, 상기 선택대상체와 상기 제3아이콘을 연결하며 상기 원점과 상기 선택대상체 간의 거리를 표시하는 객체를 더 출력하는 것이다.
또한, 다른 일 실시예에서, 사용자의 크기변경요청에 따라, 상기 선택대상체의 크기를 변경하는 단계;를 더 포함한다.
또한, 다른 일 실시예에서, 사용자의 회전요청에 따라, 상기 선택대상체를 회전시키는 단계;를 더 포함한다.
또한, 본 발명의 일 면에 따른 사용자 인터페이스 제공 장치는, 특정 대상체에 대한 사용자의 선택요청 또는 사용자에 의해 선택된 선택대상체에 대한 사용자의 배치요청을 입력받는 입력부; 상기 클라이언트 장치의 위치, 방향 또는 동작정보를 검출하는 검출부; 상기 선택대상체를 상기 클라이언트 장치의 이동 또는 사용자의 조작에 따라 사용자공간에서 이동시키고, 상기 배치요청에 따라 상기 선택대상체를 상기 사용자공간에 배치하는 제어부; 및 상기 제어부에 의해, 상기 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 출력하고, 입력된 사용자의 상기 선택요청에 따라 상기 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 출력부;를 포함하고, 상기 사용자공간은, 사용자에 의해 배치된 하나 이상의 대상체를 포함한다.
본 발명의 다른 일 실시예에 따른 사용자 인터페이스 제공 프로그램은, 하드웨어와 결합되어 상기 언급된 사용자 인터페이스 제공 방법을 실행하며, 매체에 저장된다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.
첫째, 사용자는 현실공간에서의 대상체 배치와 유사하게, 가상공간에서 간단한 조작만으로 가상의 대상체를 선택할 수 있고, 별다른 조작 없이 클라이언트 장치의 이동만으로 클라이언트 장치로부터 특정한 거리를 유지한 채 선택된 선택대상체를 이동시킬 수 있고, 상기 클라이언트 장치로부터의 거리를 간단한 조작만으로 변경할 수 있음으로써 특정 대상체를 배치하고자 하는 위치에 손쉽게 배치할 수 있다.
둘째, 선택된 선택대상체의 크기 또는 방향을 간단한 조작만으로 변경할 수 있어, 별도의 장치나 복잡한 계산 없이 하나 이상의 가상의 대상체를 가상공간에 배치함으로써 간편하게 사용자공간을 형성할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1내지 4는 본 발명의 실시예에 따른 사용자 인터페이스를 통해 가상의 대상체를 배치하여 가상공간을 형성하는 방법에 대한 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법의 순서도이다.
도 6은 본 발명의 일 실시예에 따른 사용자 인터페이스를 제공하는 클라이언트 장치의 구성도이다.
도 7은 본 발명의 일 실시예에 따른 클라이언트 장치가 지향하는 방향의 사용자공간 화면 제공을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 사용자의 화면 상의 대상체 터치에 의한 선택요청을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 제1아이콘 및 제2아이콘을 통한 선택요청을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 선택대상체가 선택된 상태에서의 클라이언트 장치의 이동에 따른 화면을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따른 사용자의 화면 터치에 의한 배치요청을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시예에 따른 사용자의 거리변경요청에 따른 거리변경 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다.
도 13은 본 발명의 일 실시예에 따른 제3아이콘을 통한 거리변경요청 및 거리표시객체를 설명하기 위한 도면이다.
도 14는 본 발명의 일 실시예에 따른 사용자의 크기변경요청에 따른 크기변경 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다.
도 15는 본 발명의 일 실시예에 따른 사용자의 핀치 인/아웃에 의한 크기변경요청을 설명하기 위한 도면이다.
도 16은 본 발명의 일 실시예에 따른 사용자의 회전요청에 따른 회전 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다
도 17은 본 발명의 일 실시예에 따른 선택대상체의 롤(roll) 회전을 설명하기 위한 도면이다.
도 18은 본 발명의 일 실시예에 따른 선택대상체의 요(yaw) 회전을 설명하기 위한 도면이다.
도 19는 본 발명의 일 실시예에 따른 선택대상체의 피치(pitch) 회전을 설명하기 위한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서 '대상체'는 가상현실(Virtual Reality; VR) 또는 증강현실(Augmented Reality; AR)을 포함하는 가상공간에서 배치되는 가상의 대상체를 의미한다. 상기 대상체는 특정 객체의 CG(Computer Graphic) 영상 또는 실제 사물이나 인물의 영상을 포함하나, 이에 제한되지 않고 가상공간에서 배치할 수 있는 모든 대상체를 포함한다.
본 명세서에서 '사용자공간'은 사용자에 의해 배치되는 하나 이상의 가상의 대상체를 포함하는 가상공간을 의미한다. 상기 가상공간은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하는 VR 가상공간 또는 현실 공간의 영상 위에 제공되는 가상의 대상체 영상인 AR 가상공간을 포함한다.
본 명세서에서 '선택대상체'는 사용자공간에 존재하는 하나 이상의 대상체 중 사용자의 선택요청에 의해 선택된 대상체를 의미한다. 예를 들어, 상기 선택대상체는 선택 후 사용자가 원하는 가상공간 상의 위치에 배치될 때까지 상기 사용자의 클라이언트 장치의 이동 또는 상기 사용자의 조작에 따라 사용자공간 내에서 이동되는 것일 수 있다.
본 명세서에서 '클라이언트 장치'는 사용자들이 프로그램(또는 어플리케이션)을 설치하여 사용할 수 있는 통신 기능을 포함한 모든 장치를 말한다. 즉, 클라이언트 장치는 스마트폰, 태블릿, PDA, 랩톱, 스마트워치, 스마트카메라 등과 같은 전기 통신 장치, 리모트 콘트롤러, VR/AR글라스, VR/AR헤드셋 등과 같은 VR/AR기기 중 하나 이상을 포함할 수 있으나, 이에 제한되는 것은 아니다.
본 명세서에서 '컴퓨터'는 연산처리를 수행할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하기에 앞서, 본 발명의 실시예에 따른 사용자 인터페이스를 통해 가상의 대상체를 배치하여 가상공간을 형성하는 방법에 대한 일 실시예를 설명한다.
도 1내지 4는 본 발명의 실시예에 따른 사용자 인터페이스를 통해 가상의 대상체를 배치하여 가상공간을 형성하는 방법에 대한 일 실시예를 설명하기 위한 도면이다. 도 1 내지 4를 참조하면, 본 발명의 일 실시예에 따른 사용자 인터페이스를 통해 가상의 대상체를 배치하여 가상공간을 형성하는 방법에 대한 일 실시예는, 사용자 클라이언트 장치(300)가 사용자공간(20)을 생성 또는 실행하는 단계(S210); 상기 사용자 클라이언트 장치의 이동 또는 상기 사용자의 조작에 대응하여 상기 사용자(200)에 의해 선택된 선택대상체(450)의 위치 변경을 수행하는 단계(S310); 및 상기 선택대상체에 대한 사용자의 배치요청에 따라 상기 선택대상체를 상기 사용자공간에 배치하는 단계(S410);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.
사용자 클라이언트 장치(300)가 사용자공간(20)을 생성 또는 실행한다(S210). 즉, 일 실시예에서, 사용자의 요청에 의해 사용자 클라이언트 장치는 사용자가 가상의 대상체를 배치할 가상공간인 사용자공간을 생성 또는 기 생성된 사용자공간에 재접속하도록 실행한다.
일 실시예에서, 사용자공간(20)은 상기 사용자에 의해 배치되는 하나 이상의 가상의 대상체를 포함하는 가상공간으로, VR 가상공간뿐만 아니라 현실공간의 영상데이터를 수신하고 이에 대응하도록 생성된 AR 가상공간을 포함한다.
사용자 클라이언트 장치가 상기 사용자 클라이언트 장치의 이동 또는 상기 사용자의 조작에 대응하여 상기 사용자에 의해 선택된 선택대상체(450)의 위치 변경을 수행한다(S310). 상기 선택대상체(450)는 상기 사용자의 선택요청에 의해 선택된 사용자공간 내의 특정 대상체로, 상기 선택요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 특정 대상체에 대한 모든 입력을 포함하며, 이에 대하여는 상세히 후술한다.
일 실시예에서, 클라이언트 장치의 이동은 클라이언트 장치의 위치(좌표) 변경의 움직임뿐만 아니라, 클라이언트 장치의 방향 전환, 즉 회전 움직임도 포함할 수 있다.
일 실시예에서, 상기 선택대상체의 변경은 클라이언트 장치의 이동 또는 사용자의 조작에 대응하는 사용자공간에서의 선택대상체 위치 변경, 원점으로부터의 상기 선택대상체의 거리 변경 또는 사용자공간에서의 위치가 고정된 상태에서 선택대상체의 모양, 크기 또는 방향의 변경을 포함한다. 이하, 상세히 후술한다.
일 실시예에서, 선택대상체의 사용자공간에서의 위치 변경은, 3차원 가상공간인 사용자공간에서의 상기 선택대상체의 배치 위치를 변경하는 것으로서, 상기 선택대상체는 선택된 상태에서 상기 사용자 클라이언트 장치의 이동 또는 상기 사용자의 조작에 따라 위치가 변경된다. 또한, 상기 배치 위치는 위치(좌표) 정보뿐만 아니라, 선택대상체의 방향에 관한 배치 정보를 포함한다.
일 실시예에서, 도 2를 참조하면, 상기 선택대상체(450)는 사용자공간(20) 내에서 사용자 클라이언트 장치(300)의 특정 방향에 대해 특정 거리를 유지하면서 상기 사용자 클라이언트 장치의 이동에 대응하여 이동될 수 있다.
예를 들어, 선택대상체가 사용자 클라이언트 장치의 후면(사용자 반대편)의 중심에 대해 직교하여 1m 거리에 위치하는 경우, 상기 선택대상체는 사용자(200)에 의한 사용자 클라이언트 장치의 이동(회전, 위치 변경 포함)에 따라 이에 대응하도록 사용자공간 내에서의 위치가 변경될 수 있다. 즉, 이 경우 사용자는 선택대상체 배치에 대한 별도의 조작 없이 클라이언트 장치의 이동(회전 포함)만으로 선택대상체의 위치를 변경할 수 있는 효과가 있다. 또한, 후술하는 바와 같이 상기 선택대상체와 상기 사용자 클라이언트 장치 간의 거리는 사용자의 조작에 따라 변경 가능하다.
또한, 일 실시예에서, 도 2를 참조하면, 상기 선택대상체의 방향은 클라이언트 장치에 대해 고정될 수 있다. 예를 들어, 이동 전 선택대상체의 정면이 클라이언트 장치를 향하고, 상기 클라이언트 장치의 이동에 따라 상기 선택대상체의 위치가 이동되는 경우에 있어서, 이동 후의 상기 선택대상체의 정면이 이동 후의 상기 클라이언트 장치를 향하도록 자동으로 회전될 수 있다. 또한, 다른 실시예에서, 선택대상체의 방향은 사용자공간에서 고정되고 클라이언트 장치의 이동에 따라 위치 변경만 수행될 수도 있다. 또한, 후술하는 바와 같이 상기 선택대상체는 사용자의 조작에 따라 회전 가능하며, 이에 대하여는 상세히 후술한다.
또한, 일 실시예에서, 선택대상체(450)는 선택된 상태에서 상기 사용자 클라이언트 장치의 이동 또는 상기 사용자의 조작에 따라 원점(150)으로부터 특정한 거리의 구면상에서 이동되도록 사용자공간 내에서 위치가 변경될 수 있다.
일 실시예에서, 원점(150)은 상기 선택대상체(450)가 선택된 상태에서의 상기 사용자 클라이언트 장치(300)의 배치 위치 또는 상기 사용자 클라이언트 장치의 배치 위치로부터 산출된 사용자(200) 위치를 포함한다.
도 3은 상기 원점(150)이 상기 선택대상체가 선택된 상태에서의 상기 사용자 클라이언트 장치의 배치 위치로부터 산출된 상기 사용자(200) 위치인 경우를 설명하기 위한 도면이다.
도 3을 참조하면, 일 실시예에서, 선택대상체가 선택된 상태에서의 사용자 위치인 원점은, 상기 사용자 클라이언트 장치의 위치로부터 사용자의 팔길이 또는 사용자 클라이언트 방향 등을 고려하여 산출되는 것일 수 있다.
또한, 일 실시예에서, 상기 원점은 상기 선택대상체가 선택된 상태에서의 사용자 위치이므로, 사용자가 선택대상체를 선택한 상태에서 이동하는 경우, 이동 후의 사용자의 위치가 원점이 될 수 있다.
또한, 일 실시예에서, 상기 원점은 사용자 또는 사용자 클라이언트 장치의 좌표뿐만 아니라, 방향에 대한 정보를 포함할 수 있다. 즉, 도 3에서, 상기 원점(150)은 상기 사용자(200)의 좌표, 상기 사용자 클라이언트 장치(300)의 방향, 또는 상기 사용자(200)의 방향을 포함할 수 있다.
또한, 일 실시예에서, 도 3을 참조하면, 상기 선택대상체는 상기 사용자 클라이언트 장치에 대하여 특정 방향 또는 특정 거리를 유지한 상태로 사용자공간에서 이동될 수 있다. 예를 들어, 사용자가 팔을 뻗어 클라이언트 장치(예를 들어, 스마트폰)를 손에 들고, 선택대상체가 상기 클라이언트 장치의 후면의 중심에 대해 직교하여 1m 거리에 위치하는 경우, 사용자가 상기 선택대상체를 원하는 위치에 배치하기 위해 팔을 뻗은 채 클라이언트 장치를 이동시키면 상기 선택대상체는 사용자 위치인 원점으로부터 '1m+제1사용자 팔길이'의 거리의 구면 상에서 이동될 수 있다. 즉, 이 경우 원점으로부터의 '1m+제1사용자 팔길이' 거리(r값)의 특정 구면 상에서 선택대상체가 움직일 수 있다. 또한, 상기 선택대상체가 선택된 상태에서의 사용자의 팔 움직임 또는 사용자 조작에 의해 상기 r값이 변경될 수 있음은 물론이다.
도 4는 상기 원점(150)이 상기 선택대상체가 선택된 상태에서의 상기 사용자 클라이언트 장치(300)의 배치 위치인 경우를 설명하기 위한 도면이다. 도 4를 참조하면, 일 실시예에서, 선택대상체가 선택된 상태에서의 사용자 클라이언트 장치의 위치인 원점은, 제1사용자 클라이언트 장치의 좌표뿐만 아니라, 방향에 대한 정보를 포함할 수 있다.
또한, 상기 원점은 상기 선택대상체가 선택된 상태에서의 상기 사용자 클라이언트 장치의 배치 위치이므로, 사용자가 선택대상체를 선택한 상태에서 사용자 클라이언트 장치를 이동시키는 경우, 이동후의 사용자 클라이언트 장치의 위치(방향 포함)가 원점이 될 수 있다.
또한, 일 실시예에서, 선택대상체(450)는 선택된 상태에서 상기 사용자 클라이언트 장치의 이동 또는 상기 사용자의 조작에 따라 원점으로부터 특정한 거리의 구면상에서 이동되도록 사용자공간 내에서 위치가 변경될 수 있다. 즉, 도 4에서와 같이, 클라이언트 장치의 위치가 변경되는 경우뿐만 아니라, 위치가 고정되고 방향만 변경되는 경우에도, 선택대상체는 상기 클라이언트 장치의 방향에 대응하여 사용자공간 내에서 위치가 변경될 수 있다.
예를 들어, 사용자가 팔을 뻗어 클라이언트 장치(예를 들어, 스마트폰)를 손에 들고, 선택대상체가 상기 클라이언트 장치의 후면의 중심에 대해 직교하여 1m 거리에 위치하는 경우에 있어서, 사용자가 상기 선택대상체를 원하는 위치에 배치하기 위해 팔을 뻗은 채 클라이언트 장치의 방향만 회전한다면, 상기 선택대상체는 클라이언트 장치의 배치 위치인 원점으로부터 '1m'의 거리의 구면 상에서 이동될 수 있다.
이와 달리, 사용자가 선택대상체를 원하는 위치에 배치하기 위해 팔을 뻗은 채 클라이언트 장치의 위치를 변경시키는 경우에는, 이동된 클라이언트 장치의 배치 위치를 원점으로 하는 구면좌표계 상에서 상기 클라이언트 장치의 후면의 중심에 대해 직교하여 1m 거리에 상기 선택대상체가 위치할 수 있다. 또한, 상기 선택대상체가 선택된 상태에서의 사용자 조작에 의해 상기 r값이 변경될 수 있음은 물론이다.
또한, 일 실시예에서, 사용자가 클라이언트 장치를 손에 들지 않고 머리에 착용하는 경우와 같이 클라이언트 장치와 사용자 위치 및 방향이 동일한 경우(예를 들어, VR헤드셋)에는, 상기 원점은 클라이언트 장치 위치(방향 포함)로 판단할 수 있음은 물론이다.
일 실시예에서, 도면에 도시되지는 않았으나, 상기 사용자(200)로부터 상기 원점(150)과 상기 선택대상체(450) 간의 거리에 대한 변경정보를 수신하고 적용하는 단계;를 더 포함할 수 있다. 이는, 전술한 바와 같이 원점으로부터 특정한 거리의 구면상에서 이동되는 선택대상체에 있어서, 상기 거리를 변경함으로써 변경된 거리의 구면상에서 선택대상체가 이동되도록 하는 것이다.
예를 들어, 도 4에서 선택대상체가 사용자 클라이언트 장치의 후면(사용자 반대편)의 중심에 대해 직교하여 1m 거리에 위치하는 경우, 상기 사용자의 요청에 따라 상기 선택대상체의 상기 클라이언트 장치로부터의 거리를 2m로 변경할 수 있으며, 상기 선택대상체는 이를 유지한 채 사용자에 의한 사용자 클라이언트 장치의 회전, 이동을 포함하는 움직임에 따라 이에 대응하도록 사용자공간 내에서 위치가 변경될 수 있다.
즉, 사용자가 원점(예를 들어, 클라이언트 장치)으로부터의 선택대상체 거리인 r값을 변경할 수 있도록 함으로써, 사용자공간 내의 모든 위치에 대해 자유롭고 간편하게 배치 가능한 효과가 있다. 또한, 상기 거리변경요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 선택대상체의 거리 변경에 대한 모든 입력을 포함하며, 이에 대하여는 상세히 후술한다.
일 실시예에서, 도면에 도시되지는 않았으나, 상기 사용자(200)로부터 상기 선택대상체(450)에 대한 변경정보를 수신하고 적용하는 단계;를 더 포함할 수 있다. 또한 일 실시예에서, 상기 선택대상체의 변경정보는, 상기 선택대상체의 상기 사용자공간에서의 위치가 고정된 상태에서 상기 선택대상체의 모양, 크기 또는 방향에 관한 변경정보를 포함한다. 즉, 사용자는 특정 대상체를 선택한 상태에서, 사용자의 조작에 의해 선택된 선택대상체의 모양, 크기, 방향 등을 자유롭게 변경할 수 있고, 새로운 대상체를 업로드하여 변경하는 것도 가능하며, 이에 대하여는 상세히 후술한다.
상기 선택대상체(450)에 대한 상기 사용자(200)의 배치요청에 따라 상기 선택대상체를 상기 사용자공간(20)에 배치한다(S410). 즉, 상기 선택대상체가 선택된 상태에서, 사용자에 의해(클라이언트 장치 이동 또는 사용자의 조작 포함) 선택대상체가 배치하고자 하는 위치에 도달한 경우, 사용자의 배치요청에 따라 상기 선택대상체에 대한 선택이 해제되며, 배치요청시의 상기 선택대상체의 위치 및 방향에 따라 상기 선택대상체가 사용자공간에 배치된다.
즉, 일 실시예에서, 배치된 대상체는 더 이상 클라이언트 장치의 이동 또는 사용자 조작에 의해 사용자공간에서 이동되지 않고, 사용자에 의해 다시 선택되는 경우에 이동될 수 있다. 또한, 상기 배치요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 선택대상체에 대한 모든 입력을 포함하며, 이에 대하여는 상세히 후술한다.
이상으로, 본 발명의 실시예에 따른 사용자 인터페이스를 통해 가상의 대상체를 배치하여 가상공간을 형성하는 방법에 대한 실시예를 설명하였다. 그러나, 본 발명의 실시예에 따른 사용자 인터페이스 제공 방법의 활용은, 전술한 가상공간 형성 방법의 실시예에 제한되지 않고, 가상의 대상체를 배치하여 가상공간을 형성하는 모든 방법에 대해 적용할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 도 7 내지 11, 13, 15, 17 내지 19는 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법을 설명하기 위한 도면으로, 각 도면의 우측 레이어는 사용자가 클라이언트 장치를 이용하여 조작하는 모습을, 좌측 레이어는 상기 사용자의 조작에 따라 제공되는 클라이언트 장치의 화면을 표시한 것이다.
또한, 후술할 도 7 내지 11, 13, 15, 17 내지 19에 따른 본 발명의 실시예는 사용자가 스마트폰을 사용하여 AR 사용자공간에 가상의 토끼 대상체를 배치하는 사용자 인터페이스 제공 방법이나, 본 발명은 상기 실시예에 한정되지 않으며, 전술한 모든 클라이언트 장치, 사용자공간 및 대상체에 대해 적용될 수 있음은 자명하다.
도 5는 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법의 순서도이다. 도 5를 참조하면, 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법은, 클라이언트 장치(300)가 지향하는 방향의 사용자공간(20) 화면을 제공하는 단계(S2100); 특정 대상체에 대한 사용자(200)의 선택요청에 따라, 선택대상체(450)를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 단계(S2200); 상기 선택대상체가 선택된 상태에서 사용자에 의해 상기 클라이언트 장치가 이동되는 경우, 상기 클라이언트 장치가 지향하는 방향에 따라 상기 사용자공간 화면을 제공하되, 상기 선택대상체를 상기 화면의 상기 일 영역에 고정되어 위치하도록 출력하는 단계(S2300); 및 상기 선택대상체에 대한 사용자의 배치요청에 따라, 상기 선택대상체를 상기 사용자공간에 배치하는 단계(S2400);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기술한다.
클라이언트 장치(300)가 지향하는 방향의 사용자공간(20) 화면을 제공한다(S2100). 즉, 사용자에 의한 클라이언트 장치의 이동에 대응되는 사용자공간 화면을 상기 클라이언트 장치의 출력부에 출력하며, 전술한바와 같이 상기 사용자공간은 VR 또는 AR 사용자공간을 포함한다.
도 7은 본 발명의 일 실시예에 따른 클라이언트 장치가 지향하는 방향의 사용자공간 화면 제공을 설명하기 위한 도면이다. 도 7을 참조하면, 일 실시예에서, 클라이언트 장치인 스마트폰(300)의 출력부에 상기 클라이언트 장치가 지향하는 방향의 사용자공간(20)에 대한 화면(382)을 제공한다. 일 실시예에서, 상기 사용자공간은 AR 가상공간으로, 현실공간의 영상에 하나 이상의 가상의 대상체(400)인 토끼가 배치되어 있는 가상공간이다.
구체적으로, 도 7을 참조하면, 사용자에 의해 클라이언트 장치(300)인 스마트폰이 도 7a의 위치에서 도7b의 위치로 이동되면, 이에 대응되도록 상기 스마트폰의 출력부에 상기 사용자공간에 대한 화면을 출력한다.
특정 대상체에 대한 사용자(200)의 선택요청에 따라, 선택대상체(450)를 상기 화면의 일 영역에 고정되어 위치하도록 출력한다(S2200). 일 실시예에서, 클라이언트 장치에 하나 이상의 대상체가 배치된 사용자공간 화면이 출력되는 경우, 특정 대상체에 대한 사용자의 선택요청에 따라 상기 대상체를 선택하고, 선택된 선택대상체를 클라이언트 장치 화면의 일 영역에 고정되어 위치하도록 출력하며, 상기 선택요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 특정 대상체의 선택에 대한 모든 입력을 포함한다.
즉, 일 실시예에서, 사용자공간 내의 대상체는 사용자에 의해 선택됨으로써 클라이언트 장치의 이동 또는 사용자의 조작에 대응하여 사용자공간 내에서 위치, 크기 또는 방향이 변경될 수 있다.
도 8을 참조하면, 일 실시예에서, 도 8a에서 사용자공간(20) 내에 배치되어 있는 대상체(400)인 빨간색 토끼는, 사용자의 선택요청에 따라 도 8b에서 선택대상체(450)가 되어 스마트폰 화면(382)의 일 영역인 중앙에 고정되어 위치하도록 출력된다.
일 실시예에서, 사용자가 클라이언트 장치 화면(382)의 일 영역을 터치하는 경우, 상기 클라이언트 장치는 터치된 위치를 표시하는 정보를 출력하는 단계;를 더 포함한다. 예를 들어, 도 8a를 참조하면, 사용자가 우측레이어에서 스마트폰 화면 상의 빨간색 토끼를 터치하는 경우, 좌측레이어인 스마트폰 화면에 사용자가 터치한 위치에 대한 하얀색 원(384)을 출력하여 터치 위치를 사용자에게 알려줄 수 있다.
또한, 일 실시예에서, '터치'는 클라이언트 장치에 입력되는 사용자의 조작으로서, 탭(Tap), 더블탭(Double Tap), 드래그(Drag), 슬라이드(Slide), 프레스(Press), 터치 앤 홀드(Touch and Hold), 스와이프(Swipe), 회전(Rotate), Press&Drag, 핀치 인/아웃(Pinch in/out), 또는 스프레드(Spread)를 포함하나, 이에 한정되지 않고 클라이언트 장치에 입력될 수 있는 사용자의 모든 제스처를 포함한다.
일 실시예에서, 상기 선택요청은 사용자가 상기 화면 상에서 특정 대상체를 터치 또는 제1아이콘이 특정 대상체 상에 위치한 상태에서 사용자가 제2아이콘을 터치하는 것을 포함한다.
도 8은 본 발명의 일 실시예에 따른 사용자의 화면 상의 대상체 터치에 의한 선택요청을 설명하기 위한 도면이다. 도 8을 참조하면, 일 실시예에서, 도 8a에서 사용자가 상기 스마트폰 화면(382)에 출력되는 대상체(400)인 빨간색 토끼를 터치(384)하는 선택요청이 입력되면, 도 8b와 같이 터치된 빨간색 토끼가 선택대상체(450)가 되어 화면의 중앙에 고정되도록 출력될 수 있다.
도 9는 본 발명의 일 실시예에 따른 제1아이콘 및 제2아이콘을 통한 선택요청을 설명하기 위한 도면이다. 일 실시예에서, 상기 제1아이콘은 상기 화면의 일 영역에 고정되어 위치하고, 상기 제2아이콘은 상기 제1아이콘과 이격되어 상기 화면의 다른 일 영역에 위치할 수 있다. 예를 들어, 도 9를 참조하면, 일 실시예에서, 제1아이콘(610)은 스마트폰 화면(382)의 일 영역인 중앙에 고정되어 위치할 수 있고, 제2아이콘(620)은 화면의 다른 일 영역인 하단에 위치할 수 있다.
일 실시예에서, 도 9a와 같이 사용자가 제1아이콘(610)이 선택하고자 하는 대상체(400)인 빨간색 토끼에 위치하도록 스마트폰(300)을 이동시킨 상태에서 제2아이콘(620)을 터치하는 경우, 도 9b와 같이 빨간색 토끼가 선택대상체(450)가 될 수 있다.
일 실시예에서, 도면에 도시되지는 않았으나, 제1아이콘이 복수의 대상체에 겹쳐서 위치할 때 제2아이콘을 터치하는 경우, 클라이언트 장치는 상기 복수의 대상체에 대한 추가선택요청을 사용자에게 출력하는 단계;를 더 포함할 수 있다. 일 실시예에서, 상기 추가선택요청은 복수의 대상체 중 일 대상체에 대한 추가선택요청 또는 복수의 대상체 모두에 대한 추가선택요청을 포함할 수 있다.
일 실시예에서, 선택대상체(450)는 사용자공간 내에 배치된 선택되지 않은 다른 대상체(400)와 구별할 수 있도록 별도의 출력을 더 포함할 수 있다. 예를 들어, 도 8b에서와 같이 선택대상체는 선택되지 않은 대상체와의 구별을 위해 하이라이트 표시가 포함될 수 있다.
상기 선택대상체가 선택된 상태에서 사용자에 의해 상기 클라이언트 장치가 이동되는 경우, 상기 클라이언트 장치가 지향하는 방향에 따라 상기 사용자공간 화면을 제공하되, 상기 선택대상체를 상기 화면의 상기 일 영역에 고정되어 위치하도록 출력한다(S2300). 일 실시예에서, 특정 대상체가 선택된 상태에서 사용자가 클라이언트 장치를 이동시키더라도 선택대상체는 화면의 일 영역에 고정되고, 상기 선택대상체가 출력되는 영역 이외의 화면에 이동되는 클라이언트 장치가 지향하는 방향의 사용자공간을 출력할 수 있다.
즉, 일 실시예에서, 전술한 바와 같이 상기 선택대상체는 상기 클라이언트 장치에 대하여 특정 방향 또는 특정 거리를 유지한 상태로 상기 클라이언트 장치의 이동에 따라 사용자공간에서 이동될 수 있고, 클라이언트 장치 화면은 사용자공간에서의 선택대상체 이동을 출력할 수 있다.
도 10은 본 발명의 일 실시예에 따른 선택대상체가 선택된 상태에서의 클라이언트 장치의 이동에 따른 화면을 설명하기 위한 도면이다. 도 10을 참조하면, 일 실시예에서, 사용자공간(20) 내에서 사용자에 의해 선택된 선택대상체인 빨간색 토끼(450)는 스마트폰 화면(382)의 일 영역인 중앙에 고정되어 위치하도록 출력되고, 도 10a에서 도 10b로의 스마트폰(300)의 이동이 있는 경우, 상기 선택대상체는 화면 중앙에 고정되나 사용자공간(20) 화면은 스마트폰의 이동에 대응하도록 출력된다.
즉, 일 실시예에서, 선택대상체인 빨간색 토끼(450)는 스마트폰의 이동에 따라 사용자공간에서의 위치가 변경되나, 선택되지 않은 대상체인 흰색 토끼(400)는 스마트폰의 이동에 따라 위치가 변경되지 않는다.
일 실시예에서, 사용자가 사용자공간 내의 복수의 대상체에 대해 한꺼번에 이동시키고자 하는 경우, 복수의 대상체를 동시에 선택하는 것도 가능하다.
일 실시예에서, 복수의 대상체를 선택하는 것은, 사용자가 제2아이콘(620)을 터치한 상태에서 사용자 클라이언트 장치(300)를 움직임에 따라, 제1아이콘(610)이 이동된 경로에 위치한 복수의 대상체가 선택되는 것일 수 있다.
예를 들어, 사용자가 제2아이콘을 터치 앤 홀드(Touch and Hold)한 상태에서 스마트폰(300)을 움직임에 따라, 스마트폰의 중앙에 위치한 제1아이콘이 사용자공간에 배치되어 있던 대상체 A, B 및 C를 거쳐간 후 사용자가 제2아이콘의 터치 앤 홀드를 중지하는 경우, 대상체 A, B 및 C가 동시에 선택될 수 있다.
다른 실시예에서, 복수의 대상체를 선택하는 것은, 사용자가 제2아이콘(620)을 터치한 상태에서 사용자 클라이언트 장치(300)를 움직임에 따라, 제1아이콘(610)이 일정 영역을 둘러싸도록 이동된 경우, 해당 영역 내에 위치한 복수의 대상체가 선택되는 것일 수 있다.
예를 들어, 사용자가 제2아이콘을 터치 앤 홀드(Touch and Hold)한 상태에서 스마트폰(300)을 움직임에 따라, 스마트폰의 중앙에 위치한 제1아이콘이 원을 그리도록 이동시킨 후 사용자가 제2아이콘의 터치 앤 홀드를 중지하는 경우, 상기 원 내에 배치되어 있던 대상체 A, B 및 C가 동시에 선택될 수 있다.
일 실시예에서, 복수의 대상체가 동시에 선택되는 경우, 각각의 선택대상체 간의 배치 형태를 유지한 채 사용자 클라이언트 장치 화면의 일 영역에 고정되어 위치하도록 출력되고, 클라이언트 장치의 움직임에 따라 사용자 공간에서 위치가 변경될 수 있다. 예를 들어, 동시에 선택된 A, B 및 C 전체가 서로 간의 배치 형태를 유지한채 그루핑(grouping)되어 전체로써 사용자공간에서 이동되고, 사용자의 배치요청에 따라 배치될 수 있다.
다른 실시예에서, 복수의 대상체가 동시에 선택되는 경우, 각각의 선택대상체가 모두 사용자 클라이언트 장치 화면의 일 영역에 고정되어 위치할 수 있다. 예를 들어, 동시에 선택된 각각의 A, B 및 C가 모두 스마트폰 중앙에 위치하도록 겹쳐서 이동되고, 사용자의 배치요청에 따라 배치될 수 있다.
상기 선택대상체에 대한 사용자의 배치요청에 따라, 상기 선택대상체를 상기 사용자공간에 배치한다(S2400). 즉, 선택대상체가 사용자가 배치하고자 하는 위치에 도달한 경우, 사용자의 배치요청에 따라 선택을 해제함으로써 해당 위치의 사용자공간에 배치할 수 있으며, 상기 배치요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 선택대상체의 배치에 대한 모든 입력을 포함한다. 즉, 일 실시예에서, 선택대상체가 배치된 이후에는 다시 선택되지 않는 이상 클라이언트 장치의 이동에 따라 위치가 변경되지 않는다.
도 11을 참조하면, 일 실시예에서, 도 11a에서 선택대상체인 빨간색 토끼(450)에 대해 사용자의 배치요청(예를 들어, 화면 터치)이 있는 경우, 도 11b와 같이 선택대상체에 대한 선택을 해제하고 사용자공간(20)에 배치요청시의 위치에 따라 배치함으로써, 빨간색 토끼는 선택대상체가 아닌 대상체(400)가 된다.
일 실시예에서, 상기 배치요청은 상기 선택대상체가 선택된 상태에서 사용자가 상기 화면을 터치하는 것을 포함한다. 도 11은 본 발명의 일 실시예에 따른 사용자의 화면 터치에 의한 배치요청을 설명하기 위한 도면이다. 도 11을 참조하면, 일 실시예에서, 도 11a와 같이 빨간색 토끼(450)가 선택된 상태에서 사용자가 화면(382)의 일 영역을 터치(384)하면, 도 11b와 같이 상기 선택대상체(450)가 사용자공간에서 배치요청 시의 위치에 배치되어 선택대상체가 아닌 대상체(400)가 될 수 있다.
일 실시예에서, 상기 배치요청을 위해 터치되는 영역은 선택대상체가 위치한 영역 이외의 화면이거나, 선택대상체가 위치한 영역을 포함하는 전체 화면일 수 있다.
일 실시예에서, 도면에 도시되지는 않았으나, 선택대상체에 대한 사용자의 복제요청에 따라, 상기 선택대상체를 사용자 공간에 복제하는 단계;를 더 포함할 수 있다. 일 실시예에서, 선택대상체의 복제는, 전술한 선택대상체의 배치와 달리 선택대상체의 선택은 유지한 채 선택대상체와 동일한 종류, 모양, 크기 또는 방향을 갖는 대상체를 사용자공간에 배치하는 것으로, 이 경우 사용자는 특정 선택대상체를 자유롭게 이동시키며, 원하는 위치마다 복제요청을 통하여 복제된 복수의 대상체를 간편하게 배치시킬 수 있다.
예를 들어, 사용자가 빨간색 토끼(450)를 선택한 상태에서, 스마트폰(300)을 이동시키며 빨간색 토끼를 배치하고 싶은 위치마다 제4아이콘(복제요청 아이콘)을 터치하는 경우, 빨간색 토끼(450)는 화면 중앙에 그대로 위치한 채 복제된 빨간색 토끼 대상체(400)가 사용자공간의 해당 위치마다 배치될 수 있다.
일 실시예에서, 상기 선택요청, 배치요청 또는 복제요청에 따라 특정 대상체가 선택, 배치 또는 복제되는 경우, 사용자 클라이언트 장치가 사용자에게 이를 알려줄 수 있는 정보를 출력하는 단계;를 더 포함할 수 있다. 예를 들어, 전술한 하이라이트 표시를 포함하는 영상정보, 선택/배치에 대응되는 음성정보 또는 햅틱(예를 들어, 진동)정보를 출력할 수 있다.
이상으로, 사용자 조작에 따른 선택, 클라이언트 장치의 이동에 따른 선택대상체의 위치 변경, 사용자 조작에 따른 선택대상체의 배치에 관한 사용자 인터페이스 제공 방법을 상세히 기술하였다.
이하, 선택대상체가 선택된 상태에서 클라이언트 장치의 이동이 아닌 사용자 조작에 의한 원점(예를 들어, 클라이언트 장치)으로부터의 상기 선택대상체의 거리 변경 또는 사용자공간에서의 선택대상체 위치가 고정된 상태에서 선택대상체의 모양, 크기 또는 방향의 변경에 대해 상세히 후술한다.
도 12는 본 발명의 일 실시예에 따른 사용자의 거리변경요청에 따른 거리변경 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다. 도 12를 참조하면, 일 실시예에서, 사용자의 거리변경요청에 따라 원점과 선택대상체 간의 거리를 변경하는 단계(S2320);를 더 포함한다. 전술한 바와 같이, 상기 원점은 선택대상체가 선택된 상태에서의 사용자 클라이언트 장치의 배치 위치 또는 상기 클라이언트 장치의 배치 위치로부터 산출된 사용자 위치를 포함한다.
일 실시예에서, 상기 거리변경요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 선택대상체의 거리변경에 대한 모든 입력을 포함한다. 상기 거리변경요청에 따라 사용자공간에서의 상기 원점과 선택대상체 간의 거리가 변경될 수 있다.
도 13은 본 발명의 일 실시예에 따른 제3아이콘을 통한 거리변경요청 및 거리표시객체를 설명하기 위한 도면이다. 도 13을 참조하면, 일 실시예에서, 상기 거리변경요청은 선택대상체가 선택된 상태에서, 사용자가 화면의 일 영역에 위치하는 제3아이콘을 탭 또는 드래그하는 것을 포함한다.
구체적으로, 도 13a에서 사용자가 스마트폰 화면상의 제3아이콘(630)을 탭(384)한 상태에서 도13b와같이 아래로 드래그(384)하는 경우, 선택대상체인 빨간색 토끼와 클라이언트(원점)간의 거리를 좁힐 수 있다. 마찬가지로, 제3아이콘을 위로 드래그하면 상기 거리를 넓힐 수 있다.
도 13을 참조하면, 일 실시예에서, 상기 제3아이콘(630)은 특정 대상체가 선택되는 경우 상기 제2아이콘(620)이 변경된 것일 수 있다. 즉, 일 실시예에서, 대상체가 선택되지 않은 경우 대상체 선택을 위한 제2아이콘이, 대상체의 선택시 선택대상체의 거리변경을 위한 제3아이콘으로 변경되고, 선택대상체의 선택을 해제하여 배치하면 다시 제2아이콘으로 변경될 수 있다.
또한, 일 실시예에서, 상기 거리변경에 따라 클라이언트 장치 화면에 선택대상체의 출력크기가 다르게 출력될 수 있다. 이는 거리변경에 따른 원근법에 의한 것으로, 후술할 선택대상체의 크기변경과는 다른 것이다. 즉, 일 실시예에서, 선택대상체의 '출력크기'는 클라이언트 장치 화면에 출력되는 선택대상체 출력영상의 크기를 의미하고, 선택대상체의 '크기'는 사용자공간(20)에 존재하는 선택대상체 자체의 크기를 의미할 수 있다.
또한, 일 실시예에서, 선택대상체가 선택된 경우 제3아이콘과 선택대상체를 연결하며 상기 원점과 상기 선택대상체 간의 거리를 표시하는 객체를 더 출력할 수 있다. 상기 거리표시객체는, 거리를 수치(640)로 표현(예를 들어, 도 13a에서 208.92츠 및 도 13b에서 85.17cm)하거나 도형을 이용하여 표시할 수 있다.
도 13을 참조하면, 일 실시예에서, 상기 도형은 제3아이콘과 선택대상체를 연결하는 점선(650)을 포함한다. 예를 들어, 제1아이콘(610)은 화면의 중앙에 위치하고, 선택대상체인 빨간색 토끼(450) 역시 화면의 중앙에 고정되어 위치하므로, 상기 점선(650)은 제3아이콘(630)과 제1아이콘(610)을 연결하는 것일 수 있다.
또한, 일 실시예에서, 상기 점선(650)은 상기 원점과 선택대상체 간의 거리를 나타낼 수 있다. 예를 들어, 상기 점선을 구성하는 각 선분이 일정한 거리 값을 가지는 경우, 상기 원점과 선택대상체 간의 거리에 따라 점선을 구성하는 선분의 개수가 달라지므로, 상기 거리를 직관적으로 파악할 수 있다.
예를 들어, 도 13a의 점선(650)과 도13b의 점선(650)은 길이가 동일하지만(제1아이콘과 제3아이콘 간의 길이), 사용자공간에서의 스마트폰과 선택대상체인 빨간색 토끼(450) 간의 거리가 먼 도13a에서 선분의 개수가 많고(촘촘하고), 거리가 가까운 도13b에서 선분의 개수가 적으므로(멀찍하므로) 이를 통해 스마트폰으로부터의 선택대상체의 거리를 파악할 수 있다.
도 14는 본 발명의 일 실시예에 따른 사용자의 크기변경요청에 따른 크기변경 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다. 도 14를 참조하면, 일 실시예에서, 사용자의 크기변경요청에 따라 선택대상체의 크기를 변경하는 단계(S2340);를 더 포함한다. 일 실시예에서, 상기 크기변경요청은 사용자 클라이언트장치에 입력될 수 있는 상기 사용자의 선택대상체의 크기변경에 대한 모든 입력을 포함하고, 상기 선택대상체의 크기는, 가상공간인 사용자공간(20)에 존재하는 가상의 선택대상체(450)의 크기를 의미할 수 있다.
예를 들어, 도 15를 참조하면, 일 실시예에서, 도 15a의 사용자의 크기변경요청에 따라, 도 15b에서 선택대상체인 빨간색 토끼(450)의 크기가 변경될 수 있다.
도 15는 본 발명의 일 실시예에 따른 사용자의 핀치 인/아웃에 의한 크기변경요청을 설명하기 위한 도면이다. 도 15를 참조하면, 일 실시예에서, 상기 크기변경요청은 사용자의 핀치 인/아웃(Pinch in/out) 제스처(Gesture)를 포함한다. 일 실시예에서, 상기 핀치 인/아웃 제스처는 선택대상체가 선택된 상태에서 사용자의 상기 클라이언트 장치 화면(382)에 대한 모든 핀치 인/아웃 제스처의 입력을 포함한다.
일 실시예에서, 상기 크기변경요청을 위한 핀치 인/아웃 제스처는, 선택대상체와 근접한 영역에 대한 핀치 인/아웃 제스처를 의미할 수 있다. 예를 들어, 상기 크기변경요청은, 사용자가 선택대상체와 이격된 위치의 화면 영역에 핀치 인/아웃 제스처를 입력하는 경우는 포함하지 않고, 선택대상체가 출력되는 영역 주변에 입력되는 경우만을 의미할 수 있다.
일 실시예에서, 상기 거리변경에 따라 클라이언트 장치 화면에 선택대상체의 출력크기가 다르게 출력될 수 있다. 예를 들어, 도 15a에서 선택대상체인 빨간색 토끼(450)에 대한 크기 확대 요청이 있는 경우, 클라이언트 장치가 사용자공간(20)에 존재하는 빨간색 토끼의 크기를 확대시킬뿐만 아니라, 클라이언트 장치 화면(382)에 출력되는 빨간색 토끼의 출력크기 역시 확대시킬 수 있다.
일 실시예에서, 선택대상체가 선택된 경우 선택대상체의 크기를 표시하는 객체를 더 출력할 수 있다. 예를 들어, 도 15a를 참조하면, 상기 크기 표시 객체는 선택대상체인 빨간색 토끼(450)의 크기를 수치(660)로 표시할 수 있다.
일 실시예에서, 상기 수치는 선택대상체의 크기를 특정 단위(예를 들어, 30cm)로 표시하거나, 기준 크기에 대한 배율(예를 들어, 1.18x)로 표시할 수 있다. 일 실시예에서, 상기 기준 크기는 특정 대상체를 사용자 공간에 최초 업로드시의 크기 또는 각 대상체마다 기 설정된 크기를 의미할 수 있다.
도 13 및 15를 참조하면, 일 실시예에서, 사용자는 상기 거리표시객체(640, 650) 및 크기표시객체(660)를 통해 선택대상체와 원점 간의 거리 및 선택대상체의 크기를 손쉽게 파악할 수 있을뿐만 아니라, 클라이언트 장치 화면에 상기 선택대상체의 출력크기가 변경되는 경우에 있어서, 상기 거리변경과 크기변경을 구분할 수 있는 효과가 있다. 예를 들어, 출력크기가 확대되는 경우에 있어서, 제1아이콘과 제3아이콘 간의 점선(650)의 선분 개수 또는 거리수치(640)가 유지되고 크기수치(660)가 변경되는 경우에는 크기변경으로, 이와 달리 크기수치는 유지되나 상기 점선의 선분 개수 또는 거리수치가 변경되는 경우에는 거리변경으로 파악할 수 있다.
도 16은 본 발명의 일 실시예에 따른 사용자의 회전요청에 따른 회전 단계를 더 포함하는 사용자 인터페이스 제공 방법의 순서도이다. 도 16을 참조하면, 일 실시예에서, 사용자의 회전요청에 따라 선택대상체를 회전시키는 단계(S2360);를 더 포함한다. 일 실시예에서, 상기 회전요청은 사용자 클라이언트 장치에 입력될 수 있는 상기 사용자의 선택대상체의 회전에 대한 모든 입력을 포함한다.
일 실시예에서, 상기 회전은 롤(roll)회전, 요(yaw) 회전 또는 피치(pitch)회전을 포함한다.
도 17은 본 발명의 일 실시예에 따른 선택대상체의 롤(roll) 회전을 설명하기 위한 도면이다. 도 17을 참조하면, 일 실시예에서, 사용자의 롤 회전요청은 회전(rotate) 제스처를 포함한다. 예를 들어, 사용자가 도17에서와 같이 두손가락에 의한 회전(rotate) 제스처(도 17 a 및 17b의 384)를 입력하는 경우, 상기 회전 제스처의 방향(도 17에서 시계방향)에 따라 상기 선택대상체(450)가 롤 회전할 수 있다.
일 실시예에서, 상기 롤 회전요청을 위한 회전 제스처는, 선택대상체와 근접한 영역에 대한 회전 제스처를 의미할 수 있다. 예를 들어, 상기 롤 회전요청은, 사용자가 선택대상체와 이격된 위치의 화면 영역에 회전 제스처를 입력하는 경우는 포함하지 않고, 선택대상체가 출력되는 영역 주변에 입력되는 경우만을 의미할 수 있다.
도 18은 본 발명의 일 실시예에 따른 선택대상체의 요(yaw) 회전을 설명하기 위한 도면이다. 도 18을 참조하면, 일 실시예에서, 사용자의 요 회전요청은 좌우 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 포함한다. 예를 들어, 사용자가 도18에서와 같이 우측 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처(도 18 a 및 18b의 384)를 입력하는 경우, 상기 회전 제스처의 방향에 따라 상기 선택대상체(450)가 요 회전할 수 있다.
일 실시예에서, 상기 요 회전요청을 위한 회전 제스처는, 선택대상체와 근접한 영역에 대한 좌우 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 의미할 수 있다. 예를 들어, 상기 요 회전요청은, 사용자가 선택대상체와 이격된 위치의 화면 영역에 좌우 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 입력하는 경우는 포함하지 않고, 선택대상체가 출력되는 영역 주변에 입력되는 경우만을 의미할 수 있다.
도 19는 본 발명의 일 실시예에 따른 선택대상체의 피치(pitch) 회전을 설명하기 위한 도면이다. 도 19를 참조하면, 일 실시예에서, 사용자의 피치 회전요청은 상하 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 포함한다. 예를 들어, 사용자가 도19에서와 같이 상측 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처(도 19 a 및 19b의 384)를 입력하는 경우, 상기 회전 제스처의 방향에 따라 상기 선택대상체(450)가 피치 회전할 수 있다.
일 실시예에서, 상기 피치 회전요청을 위한 회전 제스처는, 선택대상체와 근접한 영역에 대한 상하 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 의미할 수 있다. 예를 들어, 상기 요 회전요청은, 사용자가 선택대상체와 이격된 위치의 화면 영역에 상하 방향의 팬(Pan) 또는 스와이프(Swipe) 제스처를 입력하는 경우는 포함하지 않고, 선택대상체가 출력되는 영역 주변에 입력되는 경우만을 의미할 수 있다.
일 실시예에서, 상기 거리변경, 크기변경 또는 회전 시, 각 동작 완료에 대응되는 음성정보 또는 햅틱(예를 들어, 진동)정보를 출력하는 단계;를 더 포함할 수 있다. 예를 들어, 사용자가 핀치 인/아웃 제스처를 통해 크기변경을 요청함에 있어서, 선택대상체가 사용자가 원하는 크기에 도달하여 사용자가 핀치 인/아웃 제스처를 중단하는 경우(스마트폰 화면에서 손을 떼는 경우) 크기변경의 완료를 알리는 진동이 출력될 수 있다.
다른 실시예에서, 상기 거리변경의 경우, 원점과 선택대상체 간의 거리가 미리 설정된 값만큼 변경될 때 마다 상기 음성정보 또는 햅틱정보를 출력할 수 있다. 예를 들어, 원점과 선택대상체 간의 거리가 1m이고 상기 거리가 10cm씩 변경될 때마다 진동을 출력하도록 설정되고, 사용자의 거리변경요청에 따라 거리가 변경되는 경우, 상기 거리가 110cm, 120cm, 130cm에 도달하도록 늘어나거나, 90cm, 80cm, 70cm에 도달하도록 줄어들 때마다 진동이 출력될 수 있다. 상기 설정된 값(10cm)은 사용자에 의해 자유롭게 변경될 수 있음은 물론이다.
일 실시예에서, 도면에 도시되지는 않았으나, 사용자의 선택대상체의 모양 또는 색깔에 대한 변경요청에 따라 선택대상체의 모양 또는 색깔의 변경을 수행하는 단계;를 더 포함한다.
일 실시예에서, 도면에 도시되지는 않았으나, 사용자가 특정 대상체를 사용자공간에 업로드하거나, 선택대상체를 다른 대상체로 변경하는 단계;를 더 포함한다. 상기 대상체는 특정 객체의 CG(Computer Graphic) 영상 또는 실제 사물이나 인물의 영상을 포함하나, 이에 제한되지 않고 가상공간에서 배치할 수 있는 모든 대상체를 포함한다.
예를 들면, 일 실시예에서, 사용자는 사용자공간에 가상공간 형성 프로그램이 제공하는 토끼 이외의 사자에 대한 CG 영상을 업로드하거나, 본인이 촬영한 영상을 업로드하여 선택을 통해 배치할 수 있다. 또는, 빨간색 토끼를 선택한 상태에서 선택대상체를 본인이 촬영한 영상으로 변경할 수 있으나, 사용자의 대상체 업로드 또는 변경은 이에 제한되지 않는다.
일 실시예에서, 도면에 도시되지는 않았으나, 사용자(200)의 저장요청에 따라 해당 사용자공간(20)에 대한 정보인 제1생성데이터를 서버에 전송하는 단계;를 더 포함한다. 일 실시예에서, 상기 제1생성데이터는 상기 제1사용자공간에 배치된 하나 이상의 대상체의 대상체 정보 또는 배치 위치 정보를 포함한다.
일 실시예에서, 상기 제1생성데이터는 썸네일(Thumbnail) 이미지를 포함하고, 사용자의 썸네일 이미지 촬영요청에 따라 해당 사용자공간(20)의 썸네일 이미지를 획득하여 서버에 전송하는 단계;를 더 포함한다.
일 실시예에서, 상기 썸네일 이미지는 해당 사용자공간을 대표하는 이미지로써, 사용자가 저장된 사용자공간에 재접속시, 상기 썸네일 이미지를 촬영한 위치, 즉 저장 시 위치에서 재접속할 수 있도록 하여, 썸네일 이미지를 보고 접속한 사용자의 정면(사용자 클라이언트 장치의 정면)에 상기 썸네일 이미지에 표시된 사용자공간이 구현될 수 있도록 하는 것이다.
일 실시예에서, 사용자의 상기 저장요청 또는 썸네일 이미지 촬영요청은, 특정 아이콘을 터치하는 것을 포함하나, 이에 제한되지 않고 사용자 클라이언트 장치에 입력될 수 있는 사용자의 모든 입력을 포함한다.
도 6은 본 발명의 일 실시예에 따른 사용자 인터페이스를 제공하는 클라이언트 장치의 구성도이다. 도 6을 참조하면, 이상에서 전술한 본 발명의 일 실시예에 따른 사용자 인터페이스를 제공하는 클라이언트 장치(300)는, 특정 대상체에 대한 사용자의 선택요청 또는 사용자에 의해 선택된 선택대상체에 대한 사용자의 배치요청을 입력받는 입력부(350); 상기 클라이언트 장치의 위치, 방향 또는 동작정보를 검출하는 검출부(360); 상기 선택대상체를 상기 클라이언트 장치의 이동 또는 사용자의 조작에 따라 사용자공간에서 이동시키고, 상기 배치요청에 따라 상기 선택대상체를 상기 사용자공간에 배치하는 제어부(370); 및 상기 제어부에 의해, 상기 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 출력하고, 입력된 사용자의 상기 선택요청에 따라 상기 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 출력부(380);를 포함한다.
또한, 일 실시예에서, 상기 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 장치는, 전술한 본 발명의 실시예에 따른 사용자 인터페이스 제공 방법을 실행하기 위해 적합한 구성 또는 기능을 더 포함할 수 있다. 예를 들어, 일 실시예에서, 상기 입력부는 사용자의 선택요청 또는 배치요청뿐만 아니라, 크기변경요청 또는 거리변경요청을 더 입력받을 수 있다. 즉, 전술한 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법은 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 장치에 동일하게 적용될 수 있다.
또한, 이상에서 전술한 본 발명의 일 실시예에 따른 사용자 인터페이스 제공 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
20 : 사용자공간
150 : 원점
200 : 사용자
300 : 사용자 클라이언트 장치
350 : 입력부
360 : 검출부
370 : 제어부
380 : 출력부
382 : 클라이언트 장치 화면
384 : 사용자 터치 영역
400 : 대상체
450 : 선택대상체
610 : 제1아이콘
620 : 제2아이콘
630 : 제3아이콘
640, 650 : 거리표시객체
660 : 크기표시객체

Claims (11)

  1. 클라이언트 장치가, 가상의 대상체 배치를 위한 사용자 인터페이스를 제공하는 방법에 있어서,
    상기 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 제공하는 단계;
    특정 대상체에 대한 사용자의 선택요청에 따라, 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 단계;
    상기 선택대상체가 선택된 상태에서 사용자에 의해 상기 클라이언트 장치가 이동되는 경우, 상기 클라이언트 장치가 지향하는 방향에 따라 상기 사용자공간 화면을 제공하되, 상기 선택대상체를 상기 화면의 상기 일 영역에 고정되어 위치하도록 출력하는 단계; 및
    상기 선택대상체에 대한 사용자의 배치요청에 따라, 상기 선택대상체를 상기 사용자공간에 배치하는 단계;를 포함하고,
    상기 사용자공간은, 사용자에 의해 배치된 하나 이상의 가상의 대상체를 포함하는 가상공간이고,
    상기 선택요청은, 사용자가 상기 화면 상에서 특정 대상체를 터치 또는 상기 화면의 일 영역에 고정되어 위치하는 제1아이콘이 특정 대상체 상에 위치한 상태에서 상기 사용자가 상기 제1아이콘과 이격되어 상기 화면의 다른 일 영역에 위치하는 제2아이콘을 터치하는 것인, 사용자 인터페이스 제공 방법.
  2. 제1항에 있어서,
    상기 선택대상체는, 상기 클라이언트 장치의 이동에 따라 원점으로부터 특정한 거리의 구면상에서 위치가 변경되고,
    상기 원점은, 상기 선택대상체가 선택된 상태에서의 상기 클라이언트 장치의 배치 위치 또는 상기 클라이언트 장치의 배치 위치로부터 산출된 사용자 위치인, 사용자 인터페이스 제공 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 배치요청은, 상기 선택대상체가 선택된 상태에서, 사용자가 상기 화면을 터치하는 것을 포함하는, 사용자 인터페이스 제공 방법.
  5. 제2항에 있어서,
    사용자의 거리변경요청에 따라, 상기 원점과 상기 선택대상체 간의 거리를 변경하는 단계;를 더 포함하는, 사용자 인터페이스 제공 방법.
  6. 제5항에 있어서,
    상기 거리변경요청은, 상기 선택대상체가 선택된 상태에서, 사용자가 상기 화면의 일 영역에 위치하는 제3아이콘을 탭 또는 드래그하는 것을 포함하는, 사용자 인터페이스 제공 방법.
  7. 제6항에 있어서,
    상기 선택대상체를 화면에 출력하는 단계는,
    상기 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하되, 상기 선택대상체와 상기 제3아이콘을 연결하며 상기 원점과 상기 선택대상체 간의 거리를 표시하는 객체를 더 출력하는, 사용자 인터페이스 제공 방법.
  8. 제1항에 있어서,
    사용자의 크기변경요청에 따라, 상기 선택대상체의 크기를 변경하는 단계;를 더 포함하는, 사용자 인터페이스 제공 방법.
  9. 제1항에 있어서,
    사용자의 회전요청에 따라, 상기 선택대상체를 회전시키는 단계;를 더 포함하는, 사용자 인터페이스 제공 방법.
  10. 가상의 대상체 배치를 위한 사용자 인터페이스를 제공하는 클라이언트 장치에 있어서,
    특정 대상체에 대한 사용자의 선택요청 또는 사용자에 의해 선택된 선택대상체에 대한 사용자의 배치요청을 입력받는 입력부;
    상기 클라이언트 장치의 위치, 방향 또는 동작정보를 검출하는 검출부;
    상기 선택대상체를 상기 클라이언트 장치의 이동 또는 사용자의 조작에 따라 사용자공간에서 이동시키고, 상기 배치요청에 따라 상기 선택대상체를 상기 사용자공간에 배치하는 제어부; 및
    상기 제어부에 의해, 상기 클라이언트 장치가 지향하는 방향의 사용자공간 화면을 출력하고, 입력된 사용자의 상기 선택요청에 따라 상기 선택대상체를 상기 화면의 일 영역에 고정되어 위치하도록 출력하는 출력부;를 포함하고,
    상기 사용자공간은, 사용자에 의해 배치된 하나 이상의 대상체를 포함하는 가상공간이고,
    상기 선택요청은, 사용자가 상기 화면 상에서 특정 대상체를 터치 또는 상기 화면의 일 영역에 고정되어 위치하는 제1아이콘이 특정 대상체 상에 위치한 상태에서 상기 사용자가 상기 제1아이콘과 이격되어 상기 화면의 다른 일 영역에 위치하는 제2아이콘을 터치하는 것인, 클라이언트 장치.
  11. 하드웨어인 컴퓨터와 결합되어, 제1항, 제2항, 제4항 내지 제9항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 대상체 배치를 위한 사용자 인터페이스 제공 프로그램.
KR1020190177004A 2019-12-27 2019-12-27 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램 KR102351900B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190177004A KR102351900B1 (ko) 2019-12-27 2019-12-27 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램
PCT/KR2020/019059 WO2021133081A1 (ko) 2019-12-27 2020-12-24 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190177004A KR102351900B1 (ko) 2019-12-27 2019-12-27 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램

Publications (2)

Publication Number Publication Date
KR20210084073A KR20210084073A (ko) 2021-07-07
KR102351900B1 true KR102351900B1 (ko) 2022-01-14

Family

ID=76575656

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190177004A KR102351900B1 (ko) 2019-12-27 2019-12-27 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램

Country Status (2)

Country Link
KR (1) KR102351900B1 (ko)
WO (1) WO2021133081A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102376390B1 (ko) * 2021-08-26 2022-03-21 이풍연 메타버스 서비스를 제공하는 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164697A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法、プログラム及び画像処理システム
JP2013544381A (ja) * 2010-08-12 2013-12-12 トムソン ライセンシング 立体メニュー制御

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101212636B1 (ko) 2010-08-20 2012-12-20 한국과학기술원 증강 현실에서 위치 정보를 표시하는 방법 및 장치
KR20120061197A (ko) * 2010-12-03 2012-06-13 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101833253B1 (ko) * 2011-01-25 2018-02-28 광주과학기술원 증강현실 환경에서의 가상객체 조작방법 및 이를 구현하는 증강현실 장치
US20180210628A1 (en) * 2017-01-23 2018-07-26 Snap Inc. Three-dimensional interaction system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013544381A (ja) * 2010-08-12 2013-12-12 トムソン ライセンシング 立体メニュー制御
JP2013164697A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法、プログラム及び画像処理システム

Also Published As

Publication number Publication date
KR20210084073A (ko) 2021-07-07
WO2021133081A1 (ko) 2021-07-01

Similar Documents

Publication Publication Date Title
US20220129060A1 (en) Three-dimensional object tracking to augment display area
US10275145B2 (en) Drawing support tool
US10394346B2 (en) Using a hardware mouse to operate a local application running on a mobile device
US9696882B2 (en) Operation processing method, operation processing device, and control method
US11385761B2 (en) Device, method, and graphical user interface for composing CGR files
US11250604B2 (en) Device, method, and graphical user interface for presenting CGR files
US9678574B2 (en) Computing system utilizing three-dimensional manipulation command gestures
AU2014312481B2 (en) Display apparatus, portable device and screen display methods thereof
JP2015507783A (ja) ディスプレイ装置及びそれを用いた画面モード変更方法
US10180714B1 (en) Two-handed multi-stroke marking menus for multi-touch devices
Telkenaroglu et al. Dual-finger 3d interaction techniques for mobile devices
US10649615B2 (en) Control interface for a three-dimensional graphical object
WO2016099563A1 (en) Collaboration with 3d data visualizations
JP2019087284A (ja) ユーザインタフェースのための対話方法
KR20150072729A (ko) 휴대장치 및 그 컨텐츠 공유 방법
JP5974685B2 (ja) 表示装置およびプログラム
KR102351900B1 (ko) 가상의 대상체 배치를 위한 사용자 인터페이스 제공 방법, 장치 및 프로그램
US10289293B2 (en) Method and apparatus for adjusting a graphical object according to operator preference
EP2791773B1 (en) Remote display area including input lenses each depicting a region of a graphical user interface
US20120327109A1 (en) Method For Displaying Contacts In Instant Messenger And Instant Messaging Client
KR102318698B1 (ko) 구면좌표계 기반 가상의 대상체가 배치된 가상공간 형성 방법 및 프로그램
KR20160010993A (ko) 객체 편집 방법 및 이를 이용한 화상 표시 장치
CN110502130A (zh) 输入装置及用输入装置控制演示系统及其所示标记的方法
KR102664782B1 (ko) 가상 현실 공간에 대한 제어를 수행하는 전자 시스템, 전자 장치 및 그 동작 방법
Naito et al. Interaction techniques using a spherical cursor for 3d targets acquisition and indicating in volumetric displays

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant