KR20230022201A - 오브젝트배치장치 및 오브젝트배치방법 - Google Patents

오브젝트배치장치 및 오브젝트배치방법 Download PDF

Info

Publication number
KR20230022201A
KR20230022201A KR1020230015121A KR20230015121A KR20230022201A KR 20230022201 A KR20230022201 A KR 20230022201A KR 1020230015121 A KR1020230015121 A KR 1020230015121A KR 20230015121 A KR20230015121 A KR 20230015121A KR 20230022201 A KR20230022201 A KR 20230022201A
Authority
KR
South Korea
Prior art keywords
point
arranging
virtual space
control unit
user
Prior art date
Application number
KR1020230015121A
Other languages
English (en)
Other versions
KR102668453B1 (ko
Inventor
곽경수
Original Assignee
주식회사 넥슨코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥슨코리아 filed Critical 주식회사 넥슨코리아
Priority to KR1020230015121A priority Critical patent/KR102668453B1/ko
Priority claimed from KR1020230015121A external-priority patent/KR102668453B1/ko
Publication of KR20230022201A publication Critical patent/KR20230022201A/ko
Application granted granted Critical
Publication of KR102668453B1 publication Critical patent/KR102668453B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 명세서에서 개시되는 실시예들은 오브젝트배치장치 및 오브젝트배치방법에 관한 것으로, 일 측면에 따르면, 오브젝트를 하나 이상 저장하는 메모리, 및 가상공간에 대한 유저 입력에 관한 제1지점 및 제2지점을 식별하고, 상기 제1지점 및 상기 제2지점에 기초하여 상기 가상공간에 오브젝트를 배치하는 제어부를 포함하는 오브젝트배치장치일 수 있다.

Description

오브젝트배치장치 및 오브젝트배치방법{APPARATUS AND METHOD FOR PLACING OBJECT}
본 명세서에서 개시되는 실시예들은 오브젝트배치장치 및 오브젝트배치방법에 관한 것으로, 보다 상세하게는 가상공간 내에 오브젝트를 배치하는 장치 및 방법에 관한 것이다.
최근 들어 게임 제작 툴, 디자인 툴에서는 화면을 통해 표시되는 가상공간에 유저가 오브젝트를 배치할 수 있도록 하는 인터페이스를 제안한다.
이러한 인터페이스는 예를 들어, 오브젝트를 가상공간에 배치할 때, 위치를 지정하여 오브젝트를 먼저 배치하고 그 이후 오브젝트의 크기를 설정하며, 그 후 오브젝트를 회전함으로써 총 3번의 단계를 거쳐야지만 배치가 가능한 등 여러 번의 단계를 거쳐야지만 유저가 의도한 크기와 방향을 갖는 오브젝트를 가상공간에 배치할 수 있다.
한편, VR(Virtual Reality)이나 AR(Augmented Reality)과 같이 현실감을 배가시키는 다양한 기술이 보편화되고 있고, 다양한 장르의 게임이 나오면서 유저는 현실감있는 게임공간에서 게임을 플레이할 수 있다.
다만, 대부분의 게임공간에서 배치된 오브젝트들은 게임 개발사에 의해 배치된 것으로서 유저 취향에 맞게 커스터마이징이 어려우며, 설령 유저가 커스터마이징하게 한다고 하더라도 적합한 유저 인터페이스가 없다는 문제점이 있다.
관련하여 선행기술 문헌인 한국공개특허 제 10-2013-0093808 호에는 게임 내 가상공간 상에 기 설정된 복수의 객체 중 어느 하나에 대한 선택 정보를 수신하고, 상기 수신한 선택 정보에 따라 선택된 객체가 사용자 정보와 연계된 객체인지를 분석하고, 상기 분석 결과에 따라, 게임 내 비밀번호 입력을 허용하거나 사용자의 게임 행위를 제한하도록 제어하는 게임 내 사용자 인증 기능을 제공하는 기술에 대해 개시하고 있다.
이러한 선행기술은 가상공간에 위치한 오브젝트의 사용을 위해 인증 기능을 부여하는 기술에 관한 것이어서 여전히 게임 개발사에 의해 설정된 오브젝트만을 제어하도록 하는바 게임이 단조롭고 지루하다는 문제점이 있다.
따라서 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 명세서에서 개시되는 실시예들은, 오브젝트배치장치 및 오브젝트배치방법에 관한 것이다.
또한, 본 명세서에서 개시되는 실시예들은, 유저가 가상공간 내에 오브젝트를 배치할 수 있도록 하는 오브젝트배치장치 및 오브젝트배치방법에 관한 것이다.
또한, 본 명세서에서 개시되는 실시예들은, 유저로 하여금 한번의 클릭 또는 터치만으로 간편하게 오브젝트를 배치할 수 있도록 하는 오브젝트배치장치 및 오브젝트배치방법에 관한 것이다.
또한, 본 명세서에서 개시되는 실시예들은, 가상공간에 배치된 오브젝트에 대해 이펙트를 부여하는 오브젝트배치장치 및 오브젝트배치방법에 관한 것이다.
또한, 본 명세서에서 개시되는 실시예들은, 유저가 배치한 오브젝트를 평가할 수 있는 오브젝트배치장치 및 오브젝트배치방법에 관한 것이다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 가상공간에 오브젝트를 배치하는 장치로서, 오브젝트를 하나 이상 저장하는 메모리, 및 상기 가상공간에 대한 유저 입력에 관한 제1지점 및 제2지점을 식별하고, 상기 제1지점 및 상기 제2지점에 기초하여 상기 가상공간에 오브젝트를 배치하는 제어부를 포함할 수 있다.
또 다른 실시예에 따르면, 오브젝트배치장치가 가상공간에 오브젝트를 배치하는 방법으로서, 상기 가상공간에 대한 유저 입력에 관한 제1지점 및 제2지점을 식별하는 단계, 및 상기 제1지점 및 상기 제2지점에 기초하여 상기 가상공간에 오브젝트를 배치하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, 오브젝트배치방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체가 개시된다. 상기 오브젝트배치방법은 가상공간에 대한 유저 입력에 관한 제1지점 및 제2지점을 식별하는 단계, 및 상기 제1지점 및 상기 제2지점에 기초하여 상기 가상공간에 오브젝트를 배치하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, 오브젝트배치방법을 수행하기 위해 기록매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 오브젝트배치방법은 가상공간에 대한 유저 입력에 관한 제1지점 및 제2지점을 식별하는 단계, 및 상기 제1지점 및 상기 제2지점에 기초하여 상기 가상공간에 오브젝트를 배치하는 단계를 포함할 수 있다.
전술한 과제 해결 수단 중 어느 하나에 의하면, 오브젝트배치장치 및 오브젝트배치방법을 제시할 수 있다.
전술한 과제 해결 수단 중 어느 하나에 의하면, 유저가 가상공간 내에 오브젝트를 배치할 수 있도록 하는 오브젝트배치장치 및 오브젝트배치방법을 제시할 수 있다.
전술한 과제 해결 수단 중 어느 하나에 의하면, 유저로 하여금 한번의 클릭 또는 터치만으로 간편하게 오브젝트를 배치할 수 있도록 하는 오브젝트배치장치 및 오브젝트배치방법을 제시할 수 있다. 따라서 예를 들어 일정한 형태를 갖고 있어 회전되거나 스케일링되더라도 그 형태가 일정하게 유지되는 오브젝트를 용이하게 배치할 수 있다.
전술한 과제 해결 수단 중 어느 하나에 의하면, 가상공간에 배치된 오브젝트에 대해 이펙트를 부여하는 오브젝트배치장치 및 오브젝트배치방법을 제시할 수 있다. 그에 따라 유저가 배치한 오브젝트에 다양한 이펙트와 기능을 부여할 수 있으며, 유저가 배치한 오브젝트를 아이템이나 스킬 등의 인게임 콘텐츠로 활용할 수 있다.
전술한 과제 해결 수단 중 어느 하나에 의하면, 유저가 배치한 오브젝트를 평가할 수 있는 오브젝트배치장치 및 오브젝트배치방법을 제시할 수 있다. 그에 따라 유저는 자신의 배치에 따라 완성된 콘텐츠를 뽐내면서 자신의 실력을 자랑할 수 있고 이는 게임에 대한 유저의 몰입감을 증진시킨다.
개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 오브젝트배치장치를 설명하기 위한 블록도이다.
도 2 내지 도 5은 일 실시예에 따른 오브젝트배치장치를 설명하기 위한 예시도이다.
도 6은 일 실시예에 따른 오브젝트배치방법을 설명하기 위한 순서도이다.
아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.
이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.
다만 이를 설명하기에 앞서, 아래에서 사용되는 용어들의 의미를 먼저 정의한다.
이하에서 '가상공간'은 2 차원 그래픽 또는 3 차원 그래픽으로 표현되고 후술할 오브젝트들이 위치하거나 이동할 수 있는 일정한 범위의 영역을 지칭한다.
가상공간으로서 예를 들어 게임 제작 툴이나 디자인 툴에서 오브젝트의 배치를 위해 제공되는 영역을 지칭할 수 있다.
또는 가상공간으로서 예를 들어 '게임공간'이 있을 수 있으며, 게임공간은 게임이 이루어지는 가상의 공간으로서, 유저가 제어하는 캐릭터가 게임을 진행할 수 있다. 예를 들어, 하나의 게임에서는 서로 달리 설계된 복수의 게임공간이 선택적으로 제공될 수 있고, 각각의 유저가 이 중 하나를 선택하도록 하거나 각 유저의 게임 수준에 따라 일부의 게임공간으로만 접근 가능하게 할 수 있다.
‘오브젝트’는 상술된 가상공간에 배치되는 그래픽 객체를 지칭한다. 따라서 유저의 제어에 의해 선택되거나 이동되거나 상태가 변경할 수 있으며, 예를 들어 게임공간 내에 배치되어 게임 결과에 영향을 줄 수 있다. 이러한 오브젝트는 예를 들어, 모양이나 형태로서 점, 선, 면, 체 또는 그것들의 집합이 될 수 있다.
위에 정의한 용어 이외에 설명이 필요한 용어는 아래에서 각각 따로 설명한다.
도 1 은 일 실시예에 따른 오브젝트배치장치를 도시한 블록도이다. 그리고 도 2 내지 도 5는 오브젝트배치장치를 설명하기 위한 예시도로서, 특히 도 3 내지 도 5는 오브젝트배치장치가 구현되는 전자단말의 화면(D)의 모습을 나타낸 예시도로서 가상공간이 표시된다.
오브젝트배치장치(100)는 유저로부터 수신된 입력에 기초하여 가상공간에 오브젝트를 배치할 수 있다.
이러한 오브젝트배치장치(100)는 게임제공장치(미도시)에 포함되거나 게임제공장치(미도시)를 포함할 수 있으며, 또는 게임제공장치(미도시)와 별개로 구현되어 게임제공장치(미도시)와 통신할 수 있다.
이때 게임제공장치(미도시)는 가상공간으로 구현된 게임공간에 관한 정보, 가상공간 내에 위치하는 캐릭터 정보, 게임 시나리오 정보, 게임 퀘스트 정보, 아이템 정보든 게임 진행과 관련된 각종 정보를 저장하며 게임 내에서 발생되는 다양한 이벤트를 감지하고 기록하여 게임의 시계열적 진행을 가능하게 한다. 게임제공장치(미도시)는 게임제공장치(미도시)에 대한 유저의 입력을 수신하고, 게임정보에 따라 게임제공장치(미도시)에서 게임 진행과 관련된 각종 정보를 저장할 수 있다.
이러한 게임제공장치(100)와 연결된 오브젝트배치장치(100)는 가상공간으로서 게임공간을 제공할 수 있다.
한편 오브젝트배치장치(100)는 전자단말로 구현되거나 또는 서버-클라이언트 시스템으로 구현될 수 있으며, 상기 시스템은 유저와의 인터랙션을 위한 온라인 서비스용 애플리케이션이 설치된 전자단말을 포함할 수 있다.
이때 전자단말은 네트워크를 통해 원격지의 서버에 접속하거나, 타 단말 및 서버와 연결 가능한 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 유저 단말과 연결될 수 있다.
그리고 서버는 유저와의 인터랙션을 위한 애플리케이션이나 웹브라우저가 설치된 전자단말과 네트워크를 통해 통신이 가능한 컴퓨터로 구현되거나 클라우드 컴퓨팅 서버로 구현될 수 있다. 또한, 서버는 데이터를 저장할 수 있는 저장장치를 포함하거나 제 3의 서버를 통해 데이터를 저장할 수 있다. 또한, 서버는 타 유저 단말과 통신할 수 있다.
상술된 바와 같이 오브젝트배치장치(100)는 전자단말 또는 서버-클라이언트 시스템 중 어느 하나의 형태로 구현될 수 있으며, 서버로 구현될 경우, 오브젝트배치장치(100)를 구성하는 구성부는 물리적으로 분리된 복수의 서버에서 수행되거나 하나의 서버에서 수행될 수 있다.
실시예에 따른 오브젝트배치장치(100)는 입출력부(110), 통신부(120), 메모리(130) 및 제어부(140)를 포함할 수 있다.
입출력부(110)는 유저로부터 입력을 수신하기 위한 입력부와 작업의 수행 결과 또는 오브젝트배치장치(100)의 상태, 가상공간에서의 오브젝트 배치 결과 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어 입출력부(110)는 유저의 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.
구체적으로 입력부는 키보드, 물리 버튼, 터치 스크린, 카메라 또는 마이크 등과 같이 다양한 형태의 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(110)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.
실시예에 따르면, 입력부는 유저로부터 게임 진행 시 게임 조작에 관한 입력을 수신할 수 있으며, 또는 오브젝트 배치의 요청을 입력 받을 수도 있고, 또는 오브젝트 배치를 위한 지점을 입력받을 수 있다. 예를 들어 입력부가 소정의 지점 또는 드래그를 입력받을 때 해당 지점에 관한 좌표를 제어부(140)로 제공할 수 있다. 또한, 출력부는 유저의 조작에 따른 연산의 결과를 출력하여 제공할 수 있다.
한편 통신부(120)는 다른 단말 또는 네트워크와 유무선 통신을 수행할 수 있다. 가령 통신부(120)는 제3의 서버와 통신하여 오브젝트배치방법을 수행하기 위한 각종 정보를 송수신할 수 있다. 이를 위해, 통신부(120)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다.
반면 메모리(130)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 후술될 제어부(140)는 메모리(130)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(130)에 저장할 수도 있다. 또한, 제어부(140)는 메모리(130)에 설치된 프로그램을 실행할 수도 있다. 예를 들어, 메모리(130)는 오브젝트배치방법을 수행하기 위한 프로그램이 설치될 수 있다.
또한 실시예에 따르면 메모리(130)에는 하나 이상의 오브젝트에 관한 정보가 저장되어 있을 수 있다.
오브젝트 정보로서, 오브젝트 식별정보, 오브젝트의 그래픽이미지, 오브젝트 중심점 및 방향점 중 적어도 하나를 포함할 수 있다.
그리고 오브젝트의 중심점 및 방향점의 좌표는, 가상공간을 구성하는 차원과 동일한 차원을 가지며, 따라서 예를 들어 3차원으로 구성된 가상공간 내에서 오브젝트의 중심점 및 방향점의 좌표는 3차원의 좌표를 가질 수 있다.
이때 '중심점'은 오브젝트의 공간적 중심이 되는 지점을 지칭한다.
그리고‘방향점’은 오브젝트의 크기 및 회전각을 설정하기 위한 지점을 지칭한다.
방향점은 다양한 실시예에 따라 설정될 수 있는데, 예를 들어, 오브젝트가 배치되었을 때 중심점의 좌표값 중 일부가 같은 값이면서 상기 오브젝트의 최외곽에 위치한 좌표값 중 일부가 같은 값일 수 있다.
또는 방향점은 오브젝트를 에워싸는 바운딩박스를 그릴 때, 바운딩박스를 구성하는 변이나 면의 일 좌표일 수 있으며, 에를 들어, 2차원의 오브젝트에 대해서는 바운딩박스 한 변의 중점 또는 꼭지점을 지칭하거나, 3차원의 오브젝트에 대해서는 바운딩박스 한 면의 중심점 또는 꼭지점을 지칭할 수 있다.
예를 들어 도 2의 (a), (b) 및 (c)에서 도시된 바와 같이 2차원의 오브젝트(200)가 존재할 때 오브젝트(200)의 공간적 중심이 되는 중심점(201)이 존재할 수 있으며 예를 들어 해당 중심점(201)의 좌표가 가상공간 상에서 (0,0)일 수 있다.
그리고 방향점은 도 2의 (a)에서 도시된 바와 같이 중심점(201)의 좌표값(0,0) 중 일부, 즉, x축의 값과 같을 수 있으며, 상기 오브젝트(200)의 최외곽에 위치한 지점(211)의 좌표값(2,6) 중 일부, 즉, y축의 값과 같을 수 있고, 따라서 방향점(210)의 좌표값이 (0, 6)일 수 있다.
반면, 방향점은 도 2의 (b)에서 도시된 바와 같이 중심점(201)의 좌표값 중 일부, 즉, y축의 값과 같을 수 있으며 상기 오브젝트(200)의 최외곽에 위치한 지점(221)의 좌표값(4,3) 중 일부, 즉, x축의 값과 같을 수 있고, 따라서 방향점(220)의 좌표값이 (4, 0)일 수 있다.
또한 예를 들어 도 2의 (c)에서 도시된 바와 같이 오브젝트(200)를 에워싸는 바운딩박스(231)에서의 상단변의 중점을 방향점(230)으로 설정할 수 있다.
이와 같이 오브젝트의 중심점, 방향점은 후술될 제어부(140)에 의해 연산되어 메모리(130)에 저장될 수 있다.
한편 제어부(140)는 단말의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. 제어부(140)는 유저의 입력에 대응되는 동작을 수행하도록 오브젝트배치장치(100)에 포함된 다른 구성들을 제어할 수 있다. 예를 들어, 제어부(140)는 후술할 메모리(130)에 저장된 프로그램을 실행시키거나, 메모리(130)에 저장된 파일을 읽어오거나, 새로운 파일을 메모리(130)에 저장할 수도 있다.
실시예에 따르면, 제어부(140)는 유저의 입력에 기초하여 가상공간에 오브젝트를 배치한다.
이를 위해 제어부(140)는 오브젝트가 배치될 가상공간에서의 위치를 입력받을 수 있다.
또한 제어부(140)는 오브젝트의 배치를 위해 유저가 입력할 때 상기 입력에 매칭된 오브젝트 정보를 식별할 수 있다. 예를 들어 오브젝트의 배치를 위한 유저 입력을 수신하기 이전에, 하나 이상의 오브젝트가 유저에 의해 선택되도록 상기 유저에게 제공함으로써 유저에 의해 선택된 오브젝트를 식별하거나, 또는 기설정된 오브젝트를 식별할 수 있다.
이때 제어부(140)는 오브젝트 배치를 위한 인터페이스를 제공할 수 있으며 유저는 상기 인터페이스를 통해 오브젝트가 배치될 위치를 입력할 수 있다. 이러한 인터페이스는 가상공간 내에 소정의 영역이나 오브젝트로서 위치할 수 있으며 또는 별도의 창으로서 제공될 수 있다.
제어부(140)는 유저의 입력이 발생하는 가상공간에서의 지점을 식별할 수 있다.
예를 들어 유저는 가상공간에 대한 클릭, 터치 등을 통해 가상공간에서의 지점을 선택할 수 있으며 이러한 선택 입력된 지점을 제어부(140)가 식별할 수 있다. 그리고 제어부(140)는 클릭이나 터치 등이 이루어진 제1지점에서부터 드래그가 이루어지고 상기 드래그가 종료되는 제2지점을 식별할 수 있다.
또한 제어부(140)는 드래그가 발생됨을 감지하면 드래그의 시작점으로서 유저의 입력이 발생한 제1지점과 드래그 입력이 종료하는 제2지점을 식별할 수 있다.
예를 들어 도 3에서 도시된 바와 같이, 유저는 화면에 대해 제1지점(310)에서부터 제2지점(320)까지의 드래그 입력을 할 수 있으며 예를 들어 터치입력을 통해 드래그 입력을 수행하거나, 마우스 클릭을 통해 드래그 입력을 수행할 수 있다. 이와 같은 드래그 입력을 입출력부(110)를 통해 획득함에 따라 제어부(140)는 제1지점(310) 및 제2지점(320)을 식별할 수 있다. 도 3에서는 설명의 편의상 식별된 제1지점(310) 및 제2지점(320)을 표시하였으나, 제어부(140)는 식별된 제1지점(310) 및 제2지점(320)을 표시하지 않을 수 있다.
또한 제어부(140)는 오브젝트의 선택이 이루어지고 난 이후 가상공간에 대한 드래그가 발생됨을 감지하면 드래그의 시작점으로서 유저의 입력이 발생한 제1지점과 드래그 입력이 종료하는 제2지점을 식별할 수 있다.
상술된 바에 따라 식별된 제1지점 및 제2지점에 기초하여 제어부(140)는 가상공간에 오브젝트를 배치할 수 있다.
즉 제어부(140)는 제1지점 및 제2지점에 기초하여, 오브젝트의 위치, 오브젝트의 크기, 및 오브젝트의 방향 중 적어도 하나를 결정할 수 있다.
이때 오브젝트의 방향은, 가상공간에 배치되기 이전 오브젝트의 중심점에서 방향점을 연결한 선을 기준으로, 가상공간에 배치되고 난 이후 오브젝트의 중심점에서 방향점을 연결한 선이 이루는 회전각을 의미한다.
또한 오브젝트의 크기는, 가상공간에 배치되기 이전 오브젝트의 중심점에서 방향점까지의 거리에 대해, 가상공간에 배치되고 난 이후 오브젝트의 중심점에서 방향점까지의 거리의 배수를 의미하며, 상기 배수에 따라 오브젝트가 스케일링(scaling)될 수 있다. 따라서 예를 들어 제1지점 및 제2지점에 기초하여 오브젝트의 크기가 커짐이 결정되면, 오브젝트가 스케일링되어 오브젝트의 중심점에서부터 방향점까지의 거리가 증가하고, 상기 거리의 증가율에 비례하여 오브젝트를 이루는 좌표들이 중심점으로부터 비례하여 멀어진다. 이때 제어부(140)는 오브젝트의 크기를 조정하게 될 때 가상공간에 오브젝트가 자연스럽게 배치될 수 있도록 오브젝트의 해상도를 조정할 수 있다.
일 실시예에 따르면 제어부(140)는 제1지점에서 제2지점으로 이어지는 벡터를 산출할 수 있고 상기 벡터에 따라 오브젝트의 위치, 오브젝트의 크기 및 오브젝트의 방향을 결정할 수 있다.
예를 들어 제어부(140)는 제1지점에 오브젝트의 중심점을 배치함으로써 오브젝트의 위치를 결정하고, 제1지점을 시작점으로 하였을 때의 벡터의 크기 및 벡터의 방향에 따라 오브젝트의 크기 및 오브젝트의 방향을 결정할 수 있다.
또는 예를 들어 제어부(140)는 오브젝트를 구성하는 임의의 좌표를 제1지점에 배치함으로써 가상공간에서의 오브젝트 위치를 결정하고, 제1지점을 시작점으로 하였을 때의 벡터의 크기 및 방향에 따라 오브젝트의 크기 및 오브젝트의 방향을 결정할 수 있다.
관련하여 도 4를 참조하면, 도 4의 (a)에서는 부채꼴 모양의 오브젝트(400)를 가상공간 내에 임의의 위치에 배치하였을 때, 오브젝트(400)가 본래 갖는 크기 및 방향을 나타낸 것이다. 이때 도 4의 (a)에서 도시된 바와 같이, 오브젝트(400)가 부채꼴 모양이어어서 부채꼴의 중심이 오브젝트(400)의 방향점(420)으로 설정될 수 있으며, 오브젝트(400) 내부의 중심점(410)도 설정되어 있을 수 있다.
이때 도 3에서 도시된 바와 같이 제어부(140)가 제1지점(310) 및 제2지점(320)을 식별함에 따라 제1지점(310)에서부터 제2지점(320)을 연결하는 벡터(450)를 산출할 수 있고, 벡터(450)의 시작점에 오브젝트(400)의 중심점(410)을 위치시키고, 벡터(450)의 크기 및 방향에 따라 오브젝트(400)의 크기 및 오브젝트(400)의 방향을 결정할 수 있다. 그에 따라 오브젝트(400)를 회전시키고 결정된 크기에 따라 오브젝트를 스케일링하여 도 4의 (b)에서 도시된 바와 같이 생성된 오브젝트(401)가 가상공간에 배치될 수 있다.
또 다른 실시예에 따르면 제어부(140)는 제1지점에 오브젝트의 중심점을 배치하고, 제2지점에 상기 오브젝트의 방향점을 배치함으로써 오브젝트의 위치, 오브젝트의 크기 및 오브젝트의 방향을 결정할 수 있다.
그에 따라 제어부(140)는 제1지점에서부터 제2지점까지의 거리에 기초하여 오브젝트의 크기를 설정할 수 있으며, 예를 들어 상기 거리에 비례하여 오브젝트의 크기를 변형할 수 있다. 또한 제어부(140)는 제1지점에서부터 제2지점까지의 방향을 오브젝트의 방향으로 결정할 수 있다.
관련하여 도 5를 참조하면, 도 5의 (a)에서는 하트 모양의 오브젝트(500)를 가상공간 내에 임의의 위치에 배치하였을 때, 오브젝트(500)가 본래 갖는 크기 및 방향을 나타낸 것이다. 이때 도 5의 (a)에서 도시된 바와 같이, 오브젝트(500)의 중심점(510) 및 방향점(520)이 설정될 수 있다.
이때 도 3에서 도시된 바와 같이 제1지점(310) 및 제2지점(320)을 식별함에 따라, 제어부(140)는 제1지점(310)에 오브젝트의 중심점(510)을 배치하고, 제2지점(320)에 상기 오브젝트의 방향점(520)을 배치함으로써 오브젝트(500)의 위치, 크기 및 방향을 결정할 수 있다. 그에 따라 오브젝트(500)가 회전하고 크기가 스케일링되어 도 5의 (b)에서 도시된 바와 같이 변형된 오브젝트(501)가 가상공간에 배치될 수 있다.
이와 같이 제어부(140)는 유저의 입력에 기초하여 오브젝트의 위치, 크기 및 방향 중 적어도 하나가 결정되면, 결정된 정보에 따라 오브젝트를 변형하여 가상공간 내에 위치시킬 수 있다.
아울러 하나의 오브젝트를 가상공간 내에 배치함은 물론 복수개의 오브젝트를 가상공간 내에 배치할 수 있으며, 예를 들어 복수 개의 오브젝트 간에 중첩되는 부분이 발생할 때 제어부(140)는 오브젝트를 중첩시켜 모두 표시하거나, 중첩된 범위 내에서 아래에 위치한 오브젝트의 일부를 삭제하는 등의 방식으로 표시할 수 있다.
이와 같이 오브젝트가 가상공간에 배치되면, 가상공간에 배치된 오브젝트는 가상공간에서의 일 콘텐츠로 기능할 수 있다.
따라서 하나의 오브젝트가 배치되었을 때 해당 오브젝트가 콘텐츠가 될 수 있으며, 또는 복수개의 오브젝트가 중첩되었을 때 하나의 콘텐츠가 될 수 있다.
따라서 콘텐츠로서의 오브젝트는, 예를 들어 게임 콘텐츠인 경우 게임의 진행에 영향을 줄 수 있다. 예를 들어 복수 개의 오브젝트가 중첩되어 가상공간 내에서 마법진의 이미지를 형성할 수 있고 상기 마법진은 게임 콘텐츠인 아이템으로서 유저가 이용할 수 있다.
일 실시예에 따르면 제어부(140)는 가상공간에 배치된 오브젝트 또는 콘텐츠에 이펙트를 매칭시킬 수 있다.
이때 '이펙트'는 오브젝트 또는 콘텐츠가 유저의 입력에 따라 사용될 때 가상공간 상에 나타나는 그래픽 표현으로서, 오브젝트나 콘텐츠를 기설정된 패턴으로 변경시킴으로써 오브젝트의 외관이 변화되는 모습을 나타낸다. 예를 들어, 마법진으로서 오브젝트에 따른 이펙트가 나타나면 마법진의 위치, 형태, 사이즈, 컬러, 강조선, 그림자, 반짝임, 투명도 등이 기설정된 패턴으로 적용되어 유저의 이목을 끌 수 있다.
제어부(140)는 기설정된 이펙트를 오브젝트 또는 콘텐츠에 매칭시킬 수 있고 또는 유저의 입력에 따른 이펙트를 오브젝트 또는 콘텐츠에 매칭시킬 수 있다.
따라서 제어부(140)는 가상공간 내에 오브젝트가 배치되면, 오브젝트 또는 오브젝트로 이루어진 콘텐츠에 대응되는 이펙트를 제공할 수 있다.
예를 들어, 제어부(140)는 가상공간에 오브젝트가 배치됨과 동시에, 또는 오브젝트가 배치되고 난 이후, 또는 오브젝트가 유저에 의해 이용이 요청된 경우, 오브젝트에 대응되는 이펙트를 제공할 수 있다.
또 다른 실시예에 따르면 제어부(140)는 가상공간에 배치된 오브젝트 또는 오브젝트로 이루어진 콘텐츠를 아이템으로 구현할 수 있다. 따라서 유저가 오브젝트 또는 오브젝트로 이루어진 콘텐츠를 아이템으로서 게임 진행에 이용함에 따라 유저의 게임 수행 결과를 향상시키는 게임요소로서 이용할 수 있다. 아이템으로 구현된 오브젝트 또는 콘텐츠는, 예를 들어 유저가 제어하는 제어대상의 게임 수행 능력을 적어도 일시적으로 향상시키거나, 또는 유저의 게임 수행을 저지하는 게임 상의 객체들이나 상대방 유저가 제어하는 게임 오브젝트의 게임 수행 능력을 적어도 일시적으로 퇴보시키거나, 또는 유저에게 주어진 게임 수행 기회나 게임 내에서의 특정 동작의 실행 또는 특수능력의 발휘 기회를 추가적으로 부여할 수 있다.
한편 실시예에 따르면 제어부(140)는 오브젝트에 대응되는 보상을, 상기 오브젝트를 배치한 유저에게 제공할 수 있다.
즉 제어부(140)는 유저의 계정에, 오브젝트 배치에 따른 보상을 저장할 수 있다.
보상은 예를 들어, 현금 등과 같이 유저가 직접 수령할 수 있는 재화일 수 있으며 또는 오브젝트 배치가 이루어지는 가상공간이 게임공간인 경우 게임 상에서 이용될 수 있는 캐쉬나 포인트 등과 같은 재화일 수 있다. 또는 예를 들어, 추가경험치 등이 될 수 있으며, 또는 소정의 배지나 아이템 등이 될 수 있다. 또는 예를 들어 오브젝트에 대응되는 이펙트의 지속시간, 종류 등을 늘리는 등의 보상일 수 있다. 이와 같은 보상에 관한 예시는 상술된 예시에 제한되지 않으며, 오브젝트를 가상공간에 배치함에 따라 제어부(140)가 유저에게 제공하는 임의의 것일 수 있다.
이와 같이 제어부(140)는 오브젝트에 대한 보상을 결정할 때, 오브젝트 또는 오브젝트로 이루어진 콘텐츠에 대한 평가정보를 획득하고 상기 평가정보에 기초하여 결정할 수 있다.
일 실시예에 따르면 배치된 오브젝트 또는 오브젝트로 이루어진 콘텐츠에 대한 타유저의 평가정보를 획득하면 상기 평가정보에 기초하여 보상을 제공할 수 있다.
예를 들어, 오브젝트를 배치한 유저 이외의 타유저가, 오브젝트에 대해 점수를 부여할 수 있고 상기 점수의 총합 또는 평균값 등으로 오브젝트에 대한 평가점수를 생성할 수 있다.
또 다른 실시예에 따르면 배치된 오브젝트 또는 오브젝트로 이루어진 콘텐츠에 대해 제어부(140)가 평가함으로써 평가정보를 생성할 수 있고 생성된 평가정보에 기초하여 보상을 제공할 수 있다.
예를 들어, 제어부(140)는 배치된 콘텐츠의 대칭성에 기초하여 평가정보를 생성할 수 있다. 예를 들어 콘텐츠를 구성하는 일 오브젝트의 중심점 및 방향점을 연결하는 선분을 기초로 콘텐츠의 좌우, 상하, 또는 대각선의 대칭여부를 판단할 수 있으며 그에 따라 제어부(140)는 대칭성이 높을수록 더 높은 평가점수를 부여할 수 있다.
또는 예를 들어 제어부(140)는 가상공간에 배치된 오브젝트의 개수, 또는, 일 콘텐츠를 이루는 오브젝트의 개수에 기초하여 평가정보를 생성할 수 있다. 따라서 예를 들어 오브젝트를 많이 배치할수록 제어부(140)는 더 높은 평가점수를 부여할 수 있다.
이와 같이 평가점수가 결정되면, 제어부(140)는 예를 들어 평가점수에 비례하여 이펙트의 지속시간을 더 오래 유지시키거나 이펙트의 종류를 늘려주거나, 오브젝트를 배치한 유저에게 점수별 배지를 부여하는 등의 보상을 제공할 수 있다. 그에 따라 유저는 오브젝트 변형 및 배치에 따른 자신의 실력을 뽐낼 수 있으며, 오브젝트 제어에 따른 평판을 높여 게임에 대한 재미를 느낄 수 있다.
한편, 도 6은 일 실시예에 따른 오브젝트배치방법을 설명하기 위한 순서도이다. 도 6에 도시된 오브젝트배치방법은 도 1 내지 도 5를 통해 설명된 오브젝트배치장치(100)에서 시계열적으로 처리하는 단계들을 포함한다. 따라서 이하에서 생략된 내용이라고 하더라도 도 1 내지 도 5에 도시된 오브젝트배치장치(100)에 관하여 이상에서 기술한 내용은 도 6에 도시된 실시예에 따른 오브젝트배치방법에도 이용될 수 있다.
도 6에서 도시된 바와 같이, 오브젝트배치장치(100)는 가상공간에 대한 유저 입력에 관한 제1지점 및 지2지점을 식별할 수 있다 (S610).
이를 위해 오브젝트배치장치(100)는 유저 입력에 매칭된 오브젝트를 식별할 수 있다.
예를 들어 오브젝트배치장치(100)는 하나 이상의 오브젝트를 유저에 의해 선택되도록 상기 유저에게 제공함으로써 유저에 의해 선택된 오브젝트를 식별하거나, 또는 기설정된 오브젝트를 식별할 수 있다.
그리고 오브젝트배치장치(100)는 드래그가 발생됨을 감지하면 드래그의 시작점으로서 유저의 입력이 발생한 제1지점과 드래그 입력이 종료하는 제2지점을 식별할 수 있다.
또는 오브젝트배치장치(100)는 유저 입력이 시작되는 지점을 제1지점으로 식별하고, 제1지점에서부터의 드래그 입력이 종료하는 지점을 제2지점으로 식별할 수 있다.
오브젝트배치장치(100)는 제1지점 및 제2지점에 기초하여 가상공간에 오브젝트를 배치할 수 있다 (S620).
즉 오브젝트배치장치(100)는 제1지점 및 제2지점에 기초하여, 오브젝트의 위치, 오브젝트의 크기, 및 오브젝트의 방향 중 적어도 하나를 결정할 수 있다.
일 실시예에 따르면 오브젝트배치장치(100)는 제1지점에서 제2지점으로 이어지는 벡터를 산출할 수 있고 상기 벡터에 따라 오브젝트의 위치, 오브젝트의 크기 및 오브젝트의 방향을 결정할 수 있다.
예를 들어 오브젝트배치장치(100)는 벡터의 시작점인 제1지점에 오브젝트의 중심점을 배치함으로써 오브젝트의 위치를 결정하고, 제1지점을 시작점으로 하였을 때의 벡터의 크기 및 벡터의 방향에 따라 오브젝트의 크기 및 오브젝트의 방향을 결정할 수 있다.
또 다른 실시예에 따르면 오브젝트배치장치(100)는 제1지점에 오브젝트의 중심점을 배치하고, 제2지점에 상기 오브젝트의 방향점을 배치함으로써 오브젝트의 위치, 오브젝트의 크기 및 오브젝트의 방향을 결정할 수 있다.
그에 따라 오브젝트배치장치(100)는 제1지점에서부터 제2지점까지의 거리에 기초하여 오브젝트의 크기로 설정할 수 있다. 또한 오브젝트배치장치(100)는 제1지점에서부터 제2지점까지의 방향을 오브젝트의 방향으로 결정할 수 있다.
이와 같이 오브젝트배치장치(100)는 유저의 입력에 기초하여 오브젝트의 위치, 크기 및 방향 중 적어도 하나가 결정되면, 결정된 정보에 따라 오브젝트를 변형하여 가상공간 내에 위치시킬 수 있다.
아울러 오브젝트배치장치(100)는 하나의 오브젝트를 가상공간 내에 배치함은 물론 복수개의 오브젝트를 가상공간 내에 배치할 수 있다.
즉, 도 6에서 도시된 바와 같이, 오브젝트배치장치(100)는 하나의 오브젝트를 가상공간 내에 배치한 이후 또 다른 오브젝트의 배치 요청이 있는 경우, 예를 들어 드래그 입력이 발생하는 경우(S630), 상기 드래그 입력에 기초하여 오브젝트를 추가로 배치할 수 있다.
이와 같이 오브젝트가 가상공간에 배치되면, 오브젝트는 예를 들어 게임 콘텐츠인 경우 게임의 진행에 영향을 줄 수 있다.
일 실시예에 따르면 오브젝트배치장치(100)는 가상공간에 배치된 오브젝트에 이펙트를 매칭시킬 수 있다. 따라서 오브젝트배치장치(100)는 가상공간 내에 오브젝트가 배치되면 오브젝트에 대응되는 이펙트를 제공할 수 있다.
또한 오브젝트배치장치(100)는 가상공간에 배치된 오브젝트를 아이템으로 구현하여, 아이템을 이용한 유저의 게임 수행 결과를 향상시킬 수 있다.
또한 오브젝트배치장치(100)는 오브젝트에 대응되는 보상을, 상기 오브젝트를 배치한 유저에게 제공할 수 있다.
이와 같이 제어부(140)는 오브젝트에 대한 보상을 결정할 때, 오브젝트 또는 오브젝트로 이루어진 콘텐츠에 대한 평가정보를 획득하고 상기 평가정보에 기초하여 결정할 수 있다.
일 실시예에 따르면 오브젝트배치장치(100)는 배치된 오브젝트 또는 오브젝트로 이루어진 콘텐츠에 대한 타유저의 평가정보를 획득하면 상기 평가정보에 기초하여 보상을 제공할 수 있다.
또 다른 실시예에 따르면 배치된 오브젝트 또는 오브젝트로 이루어진 콘텐츠에 대해 오브젝트배치장치(100)가 평가함으로써 평가정보를 생성할 수 있고 생성된 평가정보에 기초하여 보상을 제공할 수 있다.
이와 같이 평가점수가 결정되면, 오브젝트배치장치(100)는 예를 들어 평가점수에 비례하여 이펙트의 지속시간을 더 오래 유지시키는 등의 보상을 제공할 수 있다.
종래에는, 오브젝트를 가상공간에 배치할 때, 위치를 지정하여 오브젝트를 먼저 배치하고 그 이후 오브젝트의 크기를 설정하고, 그 후 오브젝트를 회전하는 3단계를 거치거나, 또는 위치를 지정하여 오브젝트를 배치하면서 오브젝트의 크기를 드래그 등을 통해 정하고, 그후 배치된 오브젝트를 회전시키면서 오브젝트를 조정하는 2단계를 거치는데, 본 명세서에 개시된 일실시예에 따른 오브젝트배치방법에 따르면 오브젝트 배치를 한번의 클릭과 드래그만으로 가능하도록 한다. 그에 따라 유저는 간편하게 오브젝트를 배치할 수 있다.
상기와 같이 설명된 오브젝트배치방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다.예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.
상기와 같이 설명된 오브젝트배치방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
상기와 같이 설명된 오브젝트배치방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
이상의 실시 예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.
뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다. 상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 명세서를 통해 보호받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.
100: 게임제공장치
110: 입출력부 120: 통신부
130: 메모리 140: 제어부

Claims (22)

  1. 가상공간에 오브젝트를 배치하는 장치로서,
    오브젝트를 하나 이상 저장하는 메모리; 및
    상기 가상공간에 대한 유저 입력에 관한 제1지점 및 제2지점을 식별하고, 상기 제1지점 및 상기 제2지점에 기초하여 상기 가상공간에 오브젝트를 배치하는 제어부를 포함하는 오브젝트배치장치.
  2. 제1항에 있어서,
    상기 제어부는,
    드래그를 감지하면 상기 드래그가 시작되는 지점을 상기 제1지점으로 식별하고, 상기 드래그가 종료되는 지점을 상기 제2지점으로 식별하는, 오브젝트배치장치.
  3. 제1항에 있어서,
    상기 제어부는,
    상기 유저 입력이 시작되는 지점을 상기 제1지점으로 식별하고, 상기 제1지점에서부터의 드래그 입력이 종료하는 지점을 상기 제2지점으로 식별하는, 오브젝트배치장치.
  4. 제1항에 있어서,
    상기 제어부는,
    상기 유저 입력에 매칭된 오브젝트를 식별하는, 오브젝트배치장치.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 제1지점 및 상기 제2지점에 기초하여 상기 오브젝트의 위치, 상기 오브젝트의 크기 및 상기 오브젝트의 방향 중 적어도 하나를 결정하는, 오브젝트배치장치.
  6. 제1항에 있어서,
    상기 제어부는,
    상기 제1지점에서 상기 제2지점으로의 벡터에 기초하여 상기 오브젝트를 배치하는, 오브젝트배치장치.
  7. 제1항에 있어서,
    상기 제어부는,
    상기 제1지점에 상기 오브젝트의 중심점을 배치하고, 상기 제2지점에 상기 오브젝트의 방향점을 배치함으로써 상기 오브젝트를 배치하는, 오브젝트배치장치.
  8. 제1항에 있어서,
    상기 제어부는,
    상기 제1지점에서 상기 제2지점까지의 거리에 기초하여 상기 오브젝트의 크기를 설정함으로써 상기 오브젝트를 배치하는, 오브젝트배치장치.
  9. 제1항에 있어서,
    상기 제어부는,
    상기 제1지점에서 상기 제2지점까지의 방향을 상기 오브젝트의 방향으로 설정함으로써 상기 오브젝트를 배치하는, 오브젝트배치장치.
  10. 제1항에 있어서,
    상기 제어부는,
    상기 가상공간에 상기 오브젝트를 배치하되, 상기 가상공간에 기배치된 타오브젝트 상에 상기 오브젝트를 배치하는, 오브젝트배치장치.
  11. 제1항에 있어서,
    상기 제어부는,
    상기 가상공간 내에서의 상기 오브젝트가 배치되면 상기 오브젝트에 대응되는 이펙트를 제공하는, 오브젝트배치장치.
  12. 제1항에 있어서,
    상기 제어부는,
    배치된 오브젝트에 대한 평가정보를 획득하면 상기 평가정보에 기초하여 상기 유저에게 보상을 제공하는, 오브젝트배치장치.
  13. 제1항에 있어서,
    상기 가상공간은 상기 유저가 제어하는 캐릭터가 게임을 진행하는 게임공간인, 오브젝트배치장치.
  14. 오브젝트배치장치가 가상공간에 오브젝트를 배치하는 방법으로서,
    상기 가상공간에 대한 유저 입력에 관한 제1지점 및 제2지점을 식별하는 단계; 및
    상기 제1지점 및 상기 제2지점에 기초하여 상기 가상공간에 오브젝트를 배치하는 단계를 포함하는, 오브젝트배치방법.
  15. 제14항에 있어서,
    상기 제1지점 및 제2지점을 식별하는 단계는,
    드래그를 감지하면 상기 드래그가 시작되는 지점을 상기 제1지점으로 식별하고, 상기 드래그가 종료되는 지점을 상기 제2지점으로 식별하는 단계를 포함하는, 오브젝트배치방법.
  16. 제14항에 있어서,
    상기 제1지점 및 제2지점을 식별하는 단계는,
    상기 유저 입력이 시작되는 지점을 상기 제1지점으로 식별하고, 상기 제1지점에서부터의 드래그 입력이 종료하는 지점을 상기 제2지점으로 식별하는 단계를 포함하는, 오브젝트배치방법.
  17. 제14항에 있어서,
    상기 오브젝트배치방법은,
    상기 유저 입력에 매칭된 오브젝트를 식별하는 단계를 더 포함하는, 오브젝트배치방법.
  18. 제14항에 있어서,
    상기 오브젝트를 배치하는 단계는,
    상기 제1지점 및 상기 제2지점에 기초하여 상기 오브젝트의 위치, 상기 오브젝트의 크기 및 상기 오브젝트의 방향 중 적어도 하나를 결정하는 단계를 포함하는, 오브젝트배치방법.
  19. 제14항에 있어서,
    상기 오브젝트를 배치하는 단계는,
    상기 제1지점에 상기 오브젝트의 중심점을 배치하고, 상기 제2지점에 상기 오브젝트의 방향점을 배치함으로써 상기 오브젝트를 배치하는 단계를 포함하는, 오브젝트배치방법.
  20. 제14항에 있어서,
    상기 오브젝트배치방법은,
    상기 가상공간 내에서의 상기 오브젝트가 배치되면 상기 오브젝트에 대응되는 이펙트를 제공하는 단계를 더 포함하는, 오브젝트배치방법.
  21. 제14항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
  22. 오브젝트배치장치에 의해 수행되며, 제14항에 기재된 방법을 수행하기 위해 기록매체에 저장된 컴퓨터 프로그램.
KR1020230015121A 2023-02-03 오브젝트배치장치 및 오브젝트배치방법 KR102668453B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230015121A KR102668453B1 (ko) 2023-02-03 오브젝트배치장치 및 오브젝트배치방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200091295A KR20220012140A (ko) 2020-07-22 2020-07-22 오브젝트배치장치 및 오브젝트배치방법
KR1020230015121A KR102668453B1 (ko) 2023-02-03 오브젝트배치장치 및 오브젝트배치방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200091295A Division KR20220012140A (ko) 2020-07-22 2020-07-22 오브젝트배치장치 및 오브젝트배치방법

Publications (2)

Publication Number Publication Date
KR20230022201A true KR20230022201A (ko) 2023-02-14
KR102668453B1 KR102668453B1 (ko) 2024-05-22

Family

ID=

Also Published As

Publication number Publication date
KR20220012140A (ko) 2022-02-03

Similar Documents

Publication Publication Date Title
US10423303B1 (en) Progressive information panels in a graphical user interface
JP6464618B2 (ja) プログラム及び情報処理装置
WO2019128528A1 (zh) 信息展示方法、装置和电子设备
KR102640804B1 (ko) 복수의 단말을 이용한 게임 유저인터페이스를 확장하는 방법 및 장치
KR102107179B1 (ko) 게임 제공 장치 및 게임 제공 방법
KR102459093B1 (ko) 게임제공장치 및 게임제공방법
KR102668453B1 (ko) 오브젝트배치장치 및 오브젝트배치방법
KR20230022201A (ko) 오브젝트배치장치 및 오브젝트배치방법
KR102037179B1 (ko) 이미지 콘텐츠 생성 방법 및 장치
KR102249190B1 (ko) 인터페이스 제공 방법 및 장치
KR101958817B1 (ko) 시점에 기초하여 적응적으로 기준점이 변하는 가상 패드 제공 방법 및 장치
KR101984305B1 (ko) 인터페이스 제공 방법 및 장치
KR101398087B1 (ko) 터치 스크린 상에서의 사용자 입력을 보정하는 방법 및 장치, 온라인 게임에서의 사용자 입력을 보정하는 방법
KR102527071B1 (ko) 게임 정보 제공 방법과 그를 수행하는 게임 제공 장치
KR102474006B1 (ko) 게임 제공 방법 및 장치
KR101872466B1 (ko) 아이템을 제공하는 방법 및 장치
KR102307394B1 (ko) 게임 제공 방법 및 장치
KR102504920B1 (ko) 캐릭터가 소유한 지역에 기초하여 아이템을 제공하는 장치 및 방법
KR102639050B1 (ko) Vr 이미지 콘텐츠 제공 시스템
KR102026865B1 (ko) 게임 제공 방법 및 장치
KR20230081171A (ko) 보상 제공 장치 및 보상 제공 방법
KR20190090654A (ko) 게임 제공 방법 및 장치
KR102060533B1 (ko) 게임봇 판별 방법과 그를 수행하는 게임 제공 장치
KR20180127260A (ko) 아이템을 제공하는 방법 및 장치
KR20220058502A (ko) 인터페이스 제공 방법 및 장치

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant