KR101429341B1 - Method for gun shotting game using augmentation reality and mobile device and system usning the same - Google Patents

Method for gun shotting game using augmentation reality and mobile device and system usning the same Download PDF

Info

Publication number
KR101429341B1
KR101429341B1 KR1020120078343A KR20120078343A KR101429341B1 KR 101429341 B1 KR101429341 B1 KR 101429341B1 KR 1020120078343 A KR1020120078343 A KR 1020120078343A KR 20120078343 A KR20120078343 A KR 20120078343A KR 101429341 B1 KR101429341 B1 KR 101429341B1
Authority
KR
South Korea
Prior art keywords
user
virtual target
mobile device
game
camera
Prior art date
Application number
KR1020120078343A
Other languages
Korean (ko)
Other versions
KR20140011674A (en
Inventor
송준화
이상정
송석영
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020120078343A priority Critical patent/KR101429341B1/en
Publication of KR20140011674A publication Critical patent/KR20140011674A/en
Application granted granted Critical
Publication of KR101429341B1 publication Critical patent/KR101429341B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/40

Abstract

본 발명은 증강 현실 기술을 기반으로 게임 화면을 구성하고 사용자에게 제공할 수 있는 증강 현실을 이용한 사격 게임 방법에 관한 것으로,
상기 방법은 모바일 기기가 카메라 영상을 획득하는 단계; 상기 모바일 기기가 가상 목표물에 대한 정보를 획득한 후, 상기 카메라 영상 위에 상기 가상 목표물을 증강시켜 게임 화면을 구성 및 표시하는 단계; 상기 모바일 기기가 조준점을 생성하여 상기 게임 화면에 추가 표시하는 단계; 상기 모바일 기기가 사용자 움직임을 반영하여 상기 게임 화면을 재구성하는 단계; 상기 장난감 총의 방아쇠가 발사되면, 방아쇠 발사 이벤트를 발생하는 단계; 및 상기 조준점이 상기 가상 목표물에 위치된 상태에서 상기 방아쇠 발사 이벤트가 발생하였으면, 상기 모바일 기기가 목표물 제거 이벤트를 발생하고, 그렇지 않으면 목표물 제거 실패 이벤트를 발생하는 단계를 포함할 수 있다.
The present invention relates to a shooting game method using an augmented reality capable of constructing a game screen based on an augmented reality technology and providing it to a user,
The method includes: obtaining a camera image by a mobile device; Constructing and displaying a game screen by augmenting the virtual target on the camera image after the mobile device acquires information about the virtual target; Generating a sight point by the mobile device and displaying the sight point on the game screen; Reconfiguring the game screen to reflect the movement of the user; When the trigger of the toy gun is fired, generating a trigger fire event; And generating the target removal event if the triggering event occurs while the aiming point is located at the virtual target, and otherwise generating a target removal failure event.

Description

증강 현실을 이용한 사격 게임 방법 및 이를 이용하는 모바일 기기와 시스템{METHOD FOR GUN SHOTTING GAME USING AUGMENTATION REALITY AND MOBILE DEVICE AND SYSTEM USNING THE SAME}TECHNICAL FIELD [0001] The present invention relates to a shooting game method using an augmented reality, a mobile device and a system using the same,

본 발명은 사격 게임 방법에 관한 것으로, 특히 증강 현실 기술을 이용하여 게임 화면을 구성함으로써, 사용자가 흥미를 극대화할 수 있는 증강 현실을 이용한 사격 게임 방법 및 이를 이용하는 모바일 기기와 시스템에 관한 것이다. The present invention relates to a shooting game method, and more particularly, to a shooting game method using an augmented reality capable of maximizing a user's interest by constructing a game screen using an augmented reality technique, and a mobile device and a system using the same.

증강 현실(Augmentation Reality)이란 사용자가 눈으로 보는 현실 세계에 가상의 물체를 겹쳐 보여주는 기술로, 현실 세계에 실시간으로 부가 정보를 갖는 가상 세계를 합쳐 하나의 영상으로 보여주므로 혼합 현실(Mixed Reality, MR)이라고도 한다. Augmentation Reality is a technology that superimposes a virtual object on the real world that the user sees. It shows a virtual world combined with additional information in real time on the real world as a single image, so Mixed Reality (MR) ).

현실 환경과 가상 환경을 융합하는 복합형 가상 현실 시스템으로 1990년 후반부터 미국 일본을 중심으로 연구 개발이 진행되고 있다. A hybrid virtual reality system that fuses real and virtual environments has been undergoing research and development centered on the United States and Japan since late 1990.

현실 세계를 가상 세계로 보완해주는 개념인 증강 현실은 컴퓨터 그래픽으로 만들어진 가상 환경을 사용하지만, 주역은 현실 환경이다. 컴퓨터 그래픽은 현실 환경에 필요한 정보를 추가 제공하는 역할을 한다. 사용자가 보고 있는 실사 영상에 3차원 가상 영상을 오버랩(overlap)하여 현실 환경과 가상 화면과의 구분이 모호해지도록 한다는 뜻이다. Augmented reality, a concept that complements the real world with a virtual world, uses a virtual environment created by computer graphics, but the protagonist is a real environment. Computer graphics serve to provide additional information needed for the real world. This means that the 3D virtual image is overlapped with the real image that the user is viewing, so that the distinction between the real environment and the virtual screen becomes ambiguous.

가상 현실 기술에서는 가상 환경에 사용자를 몰입하게 하여 사용자가 실제 환경을 볼 수 없다. 하지만 실제 환경과 가상의 객체가 혼합된 증강 현실 기술은 사용자가 실제 환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다. 예를 들어, 모바일 기기 카메라로 주변을 비추면 인근에 있는 상점의 위치 및 전화 번호 등의 정보가 입체 영상을 표기되도록 하는 서비스를 제공한다. In the virtual reality technology, the user is immersed in the virtual environment so that the user can not see the actual environment. However, augmented reality technology, which is a mixture of real environment and virtual objects, allows the user to see the real environment and provides better realism and additional information. For example, when a mobile device camera illuminates the surroundings, a service for displaying information such as a location of a nearby shop and a telephone number is displayed.

한편, 현재의 게임은 앞서 설명된 가상 현실 기술을 기반으로 게임 화면을 구성하고 사용자에게 제공함으로써, 사용자가 가상의 게임 환경에 몰입할 수 있도록 하는 데 초점을 맞추고 있다. 이에 게임 개발에 막대한 비용이 인력이 소요되는 단점이 있다.
On the other hand, the present game focuses on making a game screen based on the virtual reality technology described above and providing it to a user so that the user can immerse himself in a virtual game environment. Therefore, there is a drawback that manpower is required for game development.

이에 본 발명에서는 증강 현실 기술을 기반으로 게임 화면을 구성하고 사용자에게 제공함으로써, 게임 개발에 필요한 비용과 인력을 획기적으로 낮춰주며 사용자에게 보다 향상된 현실감을 제공할 수 있도록 하는 증강 현실을 이용한 사격 게임 방법 및 이를 이용하는 모바일 기기와 시스템을 제공하고자 한다. Accordingly, in the present invention, a game screen based on the augmented reality technology is constructed and provided to a user, thereby dramatically reducing the cost and manpower required for game development, and providing a more realistic feeling to the user, And a mobile device and a system using the same.

상기 과제를 해결하기 위한 수단으로서, 본 발명의 일 실시 형태에 따르면, 장난감 총과 결합되며 상기 장난감 총의 방아쇠 상태를 감지할 수 있는 모바일 기기의 증강 현실을 이용한 사격 게임 방법에 있어서, 상기 모바일 기기가 카메라 영상을 획득하는 단계; 상기 모바일 기기가 가상 목표물에 대한 정보를 획득한 후, 상기 카메라 영상 위에 상기 가상 목표물을 증강시켜 게임 화면을 구성 및 표시하는 단계; 상기 모바일 기기가 조준점을 생성하여 상기 게임 화면에 추가 표시하는 단계; 상기 모바일 기기가 사용자 움직임을 반영하여 상기 게임 화면을 재구성하는 단계; 상기 장난감 총의 방아쇠가 발사되면, 방아쇠 발사 이벤트를 발생하는 단계; 및 상기 조준점이 상기 가상 목표물에 위치된 상태에서 상기 방아쇠 발사 이벤트가 발생하였으면, 상기 모바일 기기가 목표물 제거 이벤트를 발생하고, 그렇지 않으면 목표물 제거 실패 이벤트를 발생하는 단계를 포함하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법을 제공한다. According to one aspect of the present invention, there is provided a shooting game method using an augmented reality of a mobile device, which is combined with a toy gun and capable of detecting a trigger state of the toy gun, Acquiring a camera image; Constructing and displaying a game screen by augmenting the virtual target on the camera image after the mobile device acquires information about the virtual target; Generating a sight point by the mobile device and displaying the sight point on the game screen; Reconfiguring the game screen to reflect the movement of the user; When the trigger of the toy gun is fired, generating a trigger fire event; And generating a target removal event if the triggering event has occurred in a state where the aiming point is located at the virtual target, and otherwise generating a target removal failure event. And provides a used shooting game method.

상기 게임 화면을 구성 및 표시하는 단계는 가상 목표물에 대한 정보를 획득하는 단계; 상기 사용자 위치와 카메라 시점 중 적어도 하나를 고려하여 화면 표시될 가상 목표물의 종류와 위치를 결정하는 단계; 및 상기 결정된 종류 및 위치에 따라 가상 목표물을 상기 카메라 영상위에 증강시켜 게임 화면을 구성 및 표시하는 단계를 단계를 포함할 수 있다.Wherein configuring and displaying the game screen comprises: obtaining information about a virtual target; Determining a type and position of a virtual target to be displayed on the screen in consideration of at least one of the user position and the camera viewpoint; And constructing and displaying a game screen by augmenting a virtual target on the camera image according to the determined type and position.

상기 가상 목표물에 대한 정보를 획득하는 단계는 증강 현실 서버로부터 사용자 위치와 카메라 시점 중 적어도 하나에 대응되는 가상 목표물을 제공받거나, 기 저장된 가상 목표물 정보에서 사용자 위치와 카메라 시점 중 적어도 하나에 대응되는 가상 목표물만을 선택하거나, 또는 가상 목표물의 종류 및 위치를 랜덤 생성할 수 있다.The step of acquiring information about the virtual target may include receiving a virtual target corresponding to at least one of a user location and a camera view from the augmented reality server or receiving a virtual target corresponding to at least one of a user location and a camera view from previously stored virtual target information, Only the target may be selected, or the type and position of the virtual target may be randomly generated.

상기 게임 화면을 재구성하는 단계는 카메라 영상, 사용자 위치와 카메라 시점 중 적어도 하나를 재획득하는 단계; 상기 사용자가 기 설정된 거리 이상 이동하여 이전에 획득된 가상 목표물 정보가 현재의 사용자 위치를 커버할 수 없으면, 새로운 가상 목표물 정보를 획득하는 단계; 상기 사용자 위치와 카메라 시점 중 적어도 하나를 고려하여 화면 표시될 가상 목표물의 종류와 위치를 조정하는 단계; 및 상기 새로이 획득된 카메라 영상 위에 상기 종류 및 위치가 조정된 가상 목표물을 증강시켜 게임 화면을 재구성 및 표시하는 단계를 포함할 수 있다.Wherein reconstructing the game screen comprises: reacquiring at least one of a camera image, a user location and a camera viewpoint; Acquiring new virtual target information if the user moves beyond a predetermined distance and the previously obtained virtual target information can not cover the current user position; Adjusting a type and position of a virtual target to be displayed on the screen in consideration of at least one of the user position and the camera viewpoint; And reconstructing and displaying the game screen by augmenting the virtual target whose type and position are adjusted on the newly acquired camera image.

상기 사용자 위치는 GPS 정보를 이용하여 획득하거나, 상기 모바일 기기에 인접한 중계기들의 위치를 이용한 삼각 측량법을 통해 획득할 수 있다.The user location may be obtained using GPS information, or may be acquired through triangulation using location of repeaters adjacent to the mobile device.

상기 카메라 시점은 상기 모바일 기기에 내장된 다수의 센서를 통해 파악된 카메라 촬영 방향과 카메라 촬영 각도에 의해 결정될 수 있다.The camera viewpoint may be determined by a camera photographing direction and a camera photographing angle, which are determined through a plurality of sensors built in the mobile device.

상기 방법은 상기 모바일 기기가 상기 조준점이 상기 가상 목표물에 위치될 수 있도록 하는 사용자의 움직임을 안내하는 안내 정보를 생성 및 표시하는 단계를 더 포함할 수 있다.The method may further comprise generating and displaying guidance information that guides the movement of the user such that the mobile device allows the aiming point to be located at the virtual target.

상기 안내 정보는 사용자의 움직임 방향 및 각도를 화살표로 구현될 수 있다.The guide information may be embodied by arrows in the direction and angle of the user.

상기 안내 정보는 상기 조준점과 상기 사용자 위치에 상응하는 모든 가상 목표물를 동시에 표시하며, 상기 모바일 기기의 카메라 시점도 추가 표시할 수 있는 미니창 형태로 구현될 수 있다.The guide information may be displayed in the form of a mini window that simultaneously displays the target point and all the virtual targets corresponding to the user location, and further displays the camera viewpoint of the mobile device.

상기 조준점은 기 설정된 규칙에 따라 자동 설정된 화면 지점이거나, 사용자의 터치 제스처에 의해 수동 선택된 화면 지점일 수 있다.The aiming point may be a screen point automatically set according to a predetermined rule, or a manually selected screen point by the user's touch gesture.

상기 방아쇠 발사 이벤트를 발생하는 단계는 방아쇠 발사를 알리기 위한 총알 발사 이미지, 총성 및 진동 중 적어도 하나를 발생할 수 있다.The step of generating the trigger firing event may generate at least one of a bullet firing image, gun firing, and vibration to signal trigger firing.

상기 목표물 제거 이벤트를 발생하는 단계는 가상 목표물을 파괴시킨 후 사용자에게 성공 인센티브를 주는 것을 특징으로 한다.
The step of generating the target elimination event is characterized by destroying the virtual target and giving a success incentive to the user.

상기 과제를 해결하기 위한 수단으로서, 본 발명의 다른 실시 형태에 따르면, 방아쇠 발사 상태를 감지 및 통보하는 장난감 총; 및 상기 장난감 총에 고정 장착되어 상기 장난감 총의 방아쇠 발사 상태를 통보받으며, 카메라 영상 위에 가상의 사격 목표물을 증강시켜 표시하는 게임 화면을 제공한 후, 상기 방아쇠 발사 상태에 따라 상기 가상의 사격 목표물을 제거하는 모바일 기기를 포함하는 사격 시스템을 제공한다.
As a means for solving the above-mentioned problem, according to another embodiment of the present invention, there is provided a toy gun for detecting and reporting a trigger firing state; And a game screen which is fixedly mounted on the toy gun and is informed of a trigger emission state of the toy gun, provides a game screen for displaying a virtual shot target on a camera image, and displays the virtual shot target according to the trigger shooting state And a mobile device for removing the mobile device.

상기 과제를 해결하기 위한 수단으로서, 본 발명의 또 다른 실시 형태에 따르면, 장난감 총과 결합되며 상기 장난감 총의 방아쇠 상태를 감지할 수 있는 모바일 기기에 있어서, 카메라 영상을 획득 및 제공하는 카메라; 상기 장난감 총이 제공하는 방아쇠 발사 정보를 획득하는 장치 인터페이스; 사격 게임에 관련된 각종 화면을 표시하며, 사용자의 터치 동작을 감지 및 통보하는 터치 스크린; 상기 사격 게임에 관련된 음향과 진동을 발생하는 스피커 및 진동 발생부; 및 상기 카메라 영상 위에 가상의 사격 목표물을 증강시켜 표시하는 게임 화면을 통해 사격 게임 서비스를 제공하는 게임 제어부를 포함하는 모바일 기기를 제공한다.
According to still another aspect of the present invention, there is provided a mobile device coupled to a toy gun and capable of detecting a trigger state of the toy gun, comprising: a camera for acquiring and providing a camera image; A device interface for obtaining trigger fire information provided by said toy gun; A touch screen that displays various screens related to the shooting game and detects and notifies a user's touch operation; A speaker and a vibration generator for generating sound and vibration related to the shooting game; And a game controller for providing a shooting game service through a game screen displaying a virtual shooting target on the camera image.

상기 게임 제어부는 GPS 정보 또는 인접 중계기들의 위치 정보를 이용하여 사용자 위치를 파악하는 사용자 위치 획득부; 상기 센서를 통해 획득된 카메라 촬영 방향 및 각도로부터 카메라 시점을 계산하는 카메라 시점 계산부; 상기 사용자 위치에 대응되는 가상 목표물 정보를 획득하는 가상 목표물 정보 획득부; 기 설정된 규칙에 따라 조준점을 설정하거나, 사용자가 임의 선택한 화면 지점을 조준점으로 설정하는 조준점 획득부; 상기 카메라를 통해 획득된 카메라 영상 위에 상기 가상 목표물 정보 획득부를 통해 획득된 가상 목표물을 증강시켜 게임 화면을 구성하되, 사용자의 위치 및 카메라 시점에 따라 게임 화면을 계속하여 업데이트하는 게임 화면 구성부; 및 상기 게임 화면 구성부를 통해 획득된 게임 화면을 상기 터치 스크린상에 표시하되, 상기 가상의 사격 목표물이 조준점에 위치한 상태에서 상기 장난감 총이 발사되면 목표물 제거 이벤트를 발생하고, 그렇지 않으면 목표물 제거 실패 이벤트를 발생하는 게임 운영부를 포함할 수 있다.
Wherein the game controller comprises: a user location acquiring unit for acquiring a user location using GPS information or location information of adjacent repeaters; A camera viewpoint calculation unit for calculating a camera viewpoint from a camera photographing direction and an angle obtained through the sensor; A virtual target information acquiring unit for acquiring virtual target information corresponding to the user position; An aiming point acquiring unit for setting an aiming point according to a predetermined rule or setting a screen point arbitrarily selected by a user as an aiming point; A game screen constructing unit for constructing a game screen by augmenting a virtual target acquired through the virtual target information acquiring unit on the camera image acquired through the camera, and continuously updating the game screen according to the location of the user and the camera viewpoint; And displaying a game screen obtained through the game screen construction unit on the touch screen, wherein when the toy gun is fired while the virtual shooting target is located at the aiming point, a target removal event is generated, And a game operation unit for generating a game result.

본 발명에서는 증강 현실 기술을 기반으로 게임 화면을 구성하고 사용자에게 제공하는 새로운 방식의 사격 게임을 제공하므로, 게임 개발에 필요한 비용과 인력을 획기적으로 낮춰 줄 뿐 만 아니라, 사용자가 자신에 익숙한 실제 세계에서 게임을 하는 듯한 느낌을 받을 수 있도록 하여 사용자의 흥미가 극대화될 수 있도록 한다. The present invention provides a shooting game of a new method for constructing a game screen based on the Augmented Reality technology and providing the game screen to a user, thereby remarkably lowering the cost and manpower required for game development, So that the user's interest can be maximized.

도1은 본 발명의 일 실시예에 따른 증강 현실을 이용한 사격 게임 방법을 수행하기 위한 모바일 기기와 장난감 총을 도시한 도면이다.
도2는 본 발명의 일 실시예에 따른 증강 현실을 이용한 사격 게임 방법을 설명하기 위한 동작 흐름도이다.
도3은 본 발명의 일 실시예에 따른 가상 목표물 정보를 설명하기 위한 도면이다.
도4는 본 발명의 일 실시예에 따른 사격 게임 화면 구성 방법을 설명하기 위한 도면이다.
도5는 본 발명의 다른 실시예에 따른 증강 현실을 이용한 사격 게임 방법을 설명하기 위한 동작 흐름도이다.
도6은 도5의 증강 현실을 이용한 사격 게임 방법에 사용되는 안내 정보를 설명하기 위한 도면이다.
도7은 본 발명의 일 실시예에 따른 가상 목표물 정보 획득 단계를 보다 상세히 설명하기 위한 동작 흐름도이다.
도8은 본 발명의 다른 실시예에 따른 가상 목표물 정보 획득 단계를 보다 상세히 설명하기 위한 동작 흐름도이다.
도9은 본 발명의 일 실시예에 따른 화면 구성 단계를 보다 상세히 설명하기 위한 동작 흐름도이다.
도10은 본 발명의 일 실시예에 따른 화면 재구성 단계를 보다 상세히 설명하기 위한 동작 흐름도이다.
도11은 본 발명의 일 실시예에 따른 사격 게임 방법이 적용되는 모바일 기기를 도시한 도면이다.
1 is a view showing a mobile device and a toy gun for performing a shooting game method using an augmented reality according to an embodiment of the present invention.
2 is a flowchart illustrating a shooting game method using an augmented reality according to an embodiment of the present invention.
3 is a view for explaining virtual target information according to an embodiment of the present invention.
4 is a view for explaining a shooting game screen construction method according to an embodiment of the present invention.
FIG. 5 is a flowchart illustrating a shooting game method using an augmented reality according to another embodiment of the present invention.
FIG. 6 is a diagram for explaining guide information used in the shooting game method using the augmented reality of FIG. 5; FIG.
FIG. 7 is a flowchart illustrating an operation of acquiring virtual target information according to an exemplary embodiment of the present invention.
FIG. 8 is a flowchart illustrating an operation of acquiring virtual target information according to another embodiment of the present invention.
FIG. 9 is a flowchart illustrating a screen configuration step according to an exemplary embodiment of the present invention.
FIG. 10 is an operational flowchart for explaining a screen reconstruction step according to an embodiment of the present invention in more detail.
11 is a view illustrating a mobile device to which a shooting game method according to an embodiment of the present invention is applied.

이하 첨부된 도면을 참조하여 본 발명에 대해 구체적으로 살펴보기로 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

다만, 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 용어가 동일하더라도 표시하는 부분이 상이하면 도면 부호가 일치하지 않음을 미리 말해두는 바이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. Even if the terms are the same, it is to be noted that when the portions to be displayed differ, the reference signs do not coincide.

그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 설정된 용어들로서 이는 실험자 및 측정자와 같은 사용자의 의도 또는 관례에 따라 달라질 수 있으므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed.

본 명세서에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, etc. in this specification may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise.

다르게 정의되지 않는 하, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. All terms used herein, including but not limited to technical, technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하 첨부된 도면을 참조하여 본 발명에 대해 구체적으로 설명하기로 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

본 발명에서는 모바일 기기에 장난감 총을 물리적, 전기적으로 결합한 후, 모바일 기기를 통해 사용자에게 사격 게임 화면을 제공하고, 사용자가 장난감 총과 모바일 기기를 다양하게 움직여 사격 게임 화면에 표시된 목표물을 맞춰 제거하도록 하는 게임을 제공하고자 한다. In the present invention, after a toy gun is physically and electrically coupled to a mobile device, a shooting game screen is provided to the user through the mobile device, and a user moves the toy gun and the mobile device variously to match and remove the target displayed on the shooting game screen Game.

특히, 본 발명에서는 사격 게임 화면을 모바일 기기가 촬영한 영상 위에 가상의 목표물을 증강시켜 표시하는 방식으로 구성함으로써, 사용자에게 극대화된 실제감을 제공할 수 있도록 한다.
Particularly, in the present invention, the shooting game screen is configured in such a manner that a virtual target is displayed on the image taken by the mobile device, thereby providing a maximized sense of reality to the user.

도1은 본 발명의 일 실시예에 따른 증강 현실을 이용한 사격 게임 방법을 수행하기 위한 모바일 기기(100)과 장난감 총(200)을 도시한 도면이다. FIG. 1 is a view showing a mobile device 100 and a toy gun 200 for performing a shooting game method using an augmented reality according to an embodiment of the present invention.

도1에 도시된 바와 같이, 모바일 기기(100)은 장난감 총(200)의 특정 위치(예를 들어, 총열 위에)에 설치된 지지대(210)에 장착, 고정되어, 모바일 기기(100)과 장난감 총(200)이 동시에 동일하게 움직여질 수 있도록 한다. 즉, 나침반 센서, 가속도 센서, 자이로 센서 등 모바일 기기(100)에 내장된 센서를 통해 장난감 총(200)의 움직임을 파악할 수 있도록 한다. 1, a mobile device 100 is mounted and secured to a support 210 installed at a specific location (e.g., above a gun row) of the toy gun 200 such that the mobile device 100 and the toy gun 200, (200) can be simultaneously moved at the same time. That is, the movement of the toy gun 200 can be grasped through a sensor built in the mobile device 100 such as a compass sensor, an acceleration sensor, and a gyro sensor.

그리고 장난감 총(200)은 장난감 총(200)의 방아쇠 발사 상태를 실시간으로 감지할 수 있는 센서(220)를 내장하고, 유선 또는 무선 방식으로 해당 센서(200)와 모바일 기기(100)을 연결시켜, 사용자가 장난감 총(200)의 방아쇠를 발사하는 경우, 해당 상태를 모바일 기기(100)에서도 실시간 인식할 수 있도록 한다. The toy gun 200 has a built-in sensor 220 that can detect the fire trigger state of the toy gun 200 in real time and connects the sensor 200 and the mobile device 100 in a wired or wireless manner When the user fires the trigger of the toy gun 200, the mobile device 100 can recognize the corresponding state in real time.

이때, 장난감 총(200)에 내장된 센서는 블루투스 모듈과 같은 무선 통신 모듈을 내장하거나, 모바일 기기(100)의 통신 커넥터와 연결되는 신호라인을 구비하여, 모바일 기기(100)과 유선 또는 무선 방식으로 연결(또는 통신)할 수 있도록 한다. 물론, 센서의 통신 방식은 상기의 실시예 외에도 모바일 기기(100)과 센서(220)가 통신할 수 있는 범위 내에서 다양하게 변경, 적용될 수 있을 것이다. The sensor built in the toy gun 200 may include a wireless communication module such as a Bluetooth module or a signal line connected to the communication connector of the mobile device 100 so as to be connected to the mobile device 100 in a wired or wireless manner (Or communication) to the user. Of course, the communication method of the sensor may be variously changed and applied within the range in which the mobile device 100 and the sensor 220 can communicate with each other, in addition to the above embodiments.

또한, 모바일 기기(100)는 스마트 폰, 태블릿 PC 등과 같이 사용자에 의해 휴대되는 각종 전자 기기 또는 본 발명의 장치를 구비한 임베디드 시스템 등으로 구현될 수 있을 것이다.
In addition, the mobile device 100 may be implemented in various electronic devices carried by a user such as a smart phone, a tablet PC, or the like, or an embedded system having the device of the present invention.

도2는 본 발명의 일 실시예에 따른 증강 현실을 이용한 사격 게임 방법을 설명하기 위한 동작 흐름도이다. 2 is a flowchart illustrating a shooting game method using an augmented reality according to an embodiment of the present invention.

만약, 모바일 기기(100)이 장난감 총(200)에 장착 고정되고, 모바일 기기(100)과 장난감 총(200)이 전기적으로 결합된 상태에서, 사용자가 모바일 기기(100)의 특정 메뉴 또는 버튼을 눌러 사격 게임 실행을 요청하면, 모바일 기기(100)은 이에 응답하여 사격 게임을 실행한다(S10). When the mobile device 100 is mounted and fixed to the toy gun 200 and the mobile device 100 and the toy gun 200 are electrically coupled to each other, When the user requests to execute the shooting game, the mobile device 100 executes the shooting game in response thereto (S10).

그리고, 모바일 기기(100)이 사격 게임 화면을 구성하기 위한 카메라 영상을 획득한다. 즉, 자신에 구비된 카메라(특히, 후방 카메라)를 통해 모바일 기기(100)의 전방을 촬영한 카메라 영상을 획득한다(S20). Then, the mobile device 100 acquires the camera image for constituting the shooting game screen. That is, a camera image of the front of the mobile device 100 is acquired through a camera (particularly, a rear camera) installed in the mobile device 100 (S20).

그리고, 모바일 기기(100)은 사격 게임 화면 구성에 필요한 가상 목표물 정보를 획득한다(S30). 본 발명에서 가상 목표물 정보란 도3과 같이, 카메라 영상에 증강 표시될 가상의 저격 목표물로 설정하기 위한 정보로, 사용자 위치에서 기 설정된 거리 이내에 존재하는 객체를 가상(예를 들어, 건물, 상점, 간판)의 저격 목표물로 지시할 수 있도록 한다. Then, the mobile device 100 acquires the virtual target information necessary for the construction of the shooting game screen (S30). In the present invention, the virtual target information is information for setting a virtual snare target to be displayed as an enhancement target on a camera image, as shown in FIG. 3. It is assumed that an object existing within a predetermined distance from a user location is virtual (e.g., Signboard) sniping targets.

단계 S20 및 S30을 통해 카메라 영상과 가상 목표물에 대한 정보가 모두 획득되었으면, 모바일 기기(100)은 사용자 위치와 카메라 시점 중 적어도 하나를 고려하여 카메라 영상 위에 가상 목표물을 증강시켜 사격 게임 화면을 구성한 후 화면에 표시한다(S40). 이때, 사용자 위치는 모바일 기기(100)에 내장된 GPS 장치를 통해 획득된 GPS 정보를 이용하거나, 모바일 기기(100)에 인접한 중계기들의 위치를 이용한 삼각 측량법을 통해 획득할 수 있을 것이다. 그리고 카메라 시점은 나침반 센서, 가속도 센서, 자이로 센서 등 모바일 기기(100)에 내장된 다수의 센서를 통해 파악된 카메라 촬영 방향과 카메라 촬영 각도에 의해 결정될 수 있을 것이다. 즉, 본 발명에서는 모바일 기기(100)의 화면에 어떤 장소의 어떤 객체가 표시되고 있는 지 파악하고, 이를 기반으로 화면에 표시될 가상 목표물의 종류와 위치를 결정할 수 있도록 한다. If both the camera image and the virtual target information are obtained through steps S20 and S30, the mobile device 100 constructs a shooting game screen by augmenting the virtual target on the camera image in consideration of at least one of the user position and the camera viewpoint On the screen (S40). At this time, the user location may be acquired by using the GPS information acquired through the GPS device built in the mobile device 100, or by triangulation using the location of the repeaters adjacent to the mobile device 100. The camera viewpoint may be determined by a camera photographing direction and a camera photographing angle determined through a plurality of sensors built in the mobile device 100 such as a compass sensor, an acceleration sensor, and a gyro sensor. That is, according to the present invention, it is possible to determine which object in a certain place is displayed on the screen of the mobile device 100, and to determine the type and position of the virtual target to be displayed on the screen based on the object.

그리고, 모바일 기기(100)은 화면의 일 지점을 조준점으로 설정한 후, 화면에 추가 표시한다(S50). 이때, 조준점은 기 설정된 규칙에 따라 자동 설정되거나(예를 들어, 화면 중앙 지점), 사용자가 터치 제스처 등을 통해 임의 선택한 화면 지점이 될 수 있을 것이다. 물론, 상기의 예 이외에 또 다른 조준점 설정 방법이 있다면, 이 또한 적용할 수 있도록 한다. Then, the mobile device 100 sets one point of the screen as an aiming point, and displays it on the screen (S50). At this time, the aim point may be automatically set according to a predetermined rule (for example, the center point of the screen) or may be a screen point arbitrarily selected by a user through a touch gesture or the like. Of course, if there is another way to set the aim point in addition to the above example, this can also be applied.

이러한 상태에서 사용자가 모바일 기기 화면에 표시된 조준점과 가상 목표물을 참고하여 장난감 총(200)(또는 장난감 총(200)에 고정 장착된 모바일 기기(100))을 움직이면, 모바일 기기(100)은 새로운 카메라 영상을 획득하고, 새로운 카메라 시점에 계산하여 카메라 영상에 표시될 가상 목표물의 종류 및 표시 위치를 가변한 후, 새로운 카메라 영상에 변화된 가상 목표물을 증강 표시하여 새로운 게임 화면을 구성한다. 즉, 사용자 움직임을 반영하여 게임 화면을 재구성하여 표시한다(S60). In this state, when the user moves the toy gun 200 (or the mobile device 100 fixedly mounted on the toy gun 200) with reference to the aiming point and the virtual target displayed on the screen of the mobile device, After the image is acquired and calculated at a new camera viewpoint, the type and display position of the virtual target to be displayed on the camera image are varied, and the changed virtual target is displayed on the new camera image to display a new game screen. That is, the game screen is reconstructed by reflecting the movement of the user (S60).

이러한 상태에서, 사용자가 장난감 총(200)의 방아쇠를 당기면, 모바일 기기(100)은 장난감 총 발사 이벤트에 상응하는 총알 발사 이미지, 총성 및 진동 등을 발생하고(S70), 조준점이 가상 목표물 위에 위치하는 지를 판단한다(S80).In this state, when the user pulls the trigger of the toy gun 200, the mobile device 100 generates a bullet shooting image, gunshot and vibration corresponding to the toy gun shooting event (S70), and the aiming point is located on the virtual target (S80).

만약, 조준점이 가상 목표물 위에 위치하면 가상 목표물을 파괴시킨 후 사용자에게 성공 인센티브를 주는 목표물 제거 이벤트를 발생한 후 다시 단계 S60로 진입하고(S90), 그렇지 않으면 목표물 제거 실패를 통보한 후 단계 S60로 진입하도록 한다(S95).
If the aiming point is located on the virtual target, the virtual elimination event is generated after destroying the virtual target and giving the user a success incentive (S90). Otherwise, the target elimination failure is notified and then the process goes to step S60 (S95).

도4는 본 발명의 일 실시예에 따른 사격 게임 화면 구성 방법을 설명하기 위한 도면이다. 4 is a view for explaining a shooting game screen construction method according to an embodiment of the present invention.

먼저, 모바일 기기(100)은 (a)에 도시된 바와 같이 자신에 내장된 카메라를 통해 모바일 기기(100)의 전방 영역을 촬영한 카메라 영상을 획득한다. First, the mobile device 100 acquires a camera image of the front area of the mobile device 100 through a camera built in the mobile device 100, as shown in (a).

그리고 (b)에 도시된 바와 같이 가상 목표물 정보를 기반으로 카메라 영상 위에 가상 목표물의 위치를 알려주는 시각 정보(빨간색 동그라미)를 증강시켜 표시함으로써, 사용자가 가상 목표물의 위치가 어디인지를 시각적으로 인식할 수 있도록 한다.As shown in (b), the visual information (red circle) indicating the position of the virtual target is displayed on the camera image based on the virtual target information, thereby visually recognizing the position of the virtual target .

그리고 (c)에 도시된 바와 같이 화면의 일 지점을 조준점(노란색 동그라미)으로 표시함으로써, 조준점 상에 가상 목표물을 위치시키기 위해서는 사용자가 장난감 총(200)(또는 장난감 총(200)에 장착된 모바일 기기(100))을 어느 방향, 어느 각도로 얼마큼 움직여야 하는 지를 직관적으로 파악할 수 있도록 한다. In order to position a virtual target on the aiming point by marking one point on the screen with an aiming point (yellow circle), as shown in (c), the user can move the toy gun 200 (or the mobile The device 100 can be intuitively grasped in which direction or at which angle the device should be moved.

이에 (d) 및 (e) 에 도시된 바와 같이 사용자가 장난감 총(200)(또는 장난감 총(200)에 장착된 모바일 기기(100))을 움직이면, 모바일 기기(100)은 사용자의 움직임을 반영하여 게임 화면을 업데이트함으로써, 사용자가 게임 화면을 통해 자신의 움직임 결과를 모니터링할 수 있도록 한다. If the user moves the toy gun 200 (or the mobile device 100 mounted on the toy gun 200) as shown in FIGS. 4D and 5E, the mobile device 100 reflects the movement of the user And updates the game screen so that the user can monitor his / her movement result through the game screen.

(e)에 도시된 바와 같이 사용자의 움직임에 의해 조준점 상에 가상목표물이 위치되고, 이러한 상태에서 사용자가 장난감 총(200)의 방아쇠를 당겨 발사 이벤트를 발생하면, 모바일 기기(100)은 이에 응답하여 조준점 상에 위치한 가상 목표물에 대응되는 시각 정보를 제거하여, 사용자가 해당 가상 목표물이 파괴되었음을 알 수 있도록 한다. if the virtual target is located on the aiming point by the movement of the user as shown in (e), and the user pulls the trigger of the toy gun 200 and generates a firing event in this state, And removes the time information corresponding to the virtual target located on the aiming point so that the user can recognize that the virtual target has been destroyed.

이와 같이, 본 발명의 사격 게임 방법은 모바일 기기를 통해 촬영된 카메라 영상 위에 가상 목표물을 증강시켜 게임 화면을 구성함으로써, 사용자가 가상 세계가 아닌 현실 세계에서 게임을 하는 듯한 느낌을 제공받을 수 있도록 한다. As described above, the shooting game method of the present invention allows a user to receive a feeling of playing a game in a real world rather than a virtual world by constructing a game screen by augmenting a virtual target on a camera image photographed through a mobile device .

또한, 상기의 실시예에서는 가상 목표물을 단순 동그라미로 표시하였지만, 실제 적용시에는 가상 목표물을 사람 이미지, 전차 이미지, 무기 이미지 등으로 다양하게 가변함으로써, 사용자 흥미를 더욱 높여 줄 수 있을 것이다.
In the above embodiment, the virtual target is displayed as a simple circle. However, when the virtual target is actually applied, the virtual target can be variously changed to a human image, a train image, an inorganic image, etc., thereby further enhancing user's interest.

더하여, 본 발명의 사격 게임 방법은 도5에 도시된 바와 같이, 조준점과 가상 목표물의 위치를 비교 분석하여 해당 가상 목표물이 조준점에 위치하기 위해 사용자가 어느 방향, 어느 각도로 더 움직여야 하는 지 계산한 후, 이를 알려주는 안내 정보를 생성하여 화면에 추가 표시하는 단계(S100)를 더 포함하여, 사용자가 보다 손쉽게 자신의 움직임을 컨트롤 할 수 있도록 한다. In addition, as shown in FIG. 5, the shooting game method of the present invention compares and analyzes the position of an aiming point and a virtual target to calculate a direction in which the user moves the target and a further angle (S100) of generating and displaying guidance information for informing the user of the movement of the user, so that the user can more easily control his / her movement.

이때의 안내 정보는 도6의 (a)에 도시된 바와 같이, 사용자의 움직임 방향 및 각도를 화살표와 같은 이미지로 구현할 수도 있을 것이다. 이러한 경우, 모바일 기기(100)은 다수의 가상 목표물 중 조준점에 가장 인접된 하나의 가상 목표물을 선택하고, 이를 기준으로 사용자의 움직임 방향 및 각도를 계산하는 것이 바람직할 것이다. 그리고, 조준점에 가장 인접된 가상 목표물이 카메라 영상 내에 존재하는 못하는 경우가 발생할 수 있는 데, 이러한 경우에도 모바일 기기(100)은 상기와 동일한 방식으로 다수의 가상 목표물 중 조준점에 가장 인접된 하나의 가상 목표물을 선택하고, 이를 기준으로 사용자의 움직임 방향 및 각도를 계산할 수 있도록 한다. 즉, 카메라 영상에 가상 목표물이 표시되지 않는 경우에도 안내 정보를 계산 및 표시할 수 있도록 한다. As shown in FIG. 6 (a), the guide information at this time may be implemented as an image such as an arrow, along the direction and angle of the user. In this case, it is preferable that the mobile device 100 selects one virtual target that is closest to the aim point among a plurality of virtual targets, and calculates the direction and angle of the user based on the selected virtual target. In this case, in the same manner as described above, one of the virtual targets, which is the closest to the aiming point, is used as the virtual target that is closest to the aiming point The target is selected, and the direction and angle of the user's motion are calculated based on the selected target. That is, the guidance information can be calculated and displayed even when the virtual target is not displayed on the camera image.

한편, 안내 정보는 도6의 (b)에 도시된 바와 같이, 조준점과 모든 가상 목표물을 동시에 표시하며, 모바일 기기의 카메라 시점도 추가 표시할 수 있는 미니창 형태로 구현될 수도 있다. 이때, 미니창에 표시되는 가상 목표물은 카메라 영상 내에 존재하는 가상 목표물뿐 만 아니라, 카메라 영상 내에 존재하지 못하는 가상 목표물까지도 포함할 수 있을 것이다.
Meanwhile, as shown in FIG. 6 (b), the guide information may be displayed in the form of a mini window that simultaneously displays the aim point and all the virtual targets and further displays the camera viewpoint of the mobile device. At this time, the virtual target displayed in the mini window may include not only the virtual target existing in the camera image but also the virtual target that is not present in the camera image.

도7은 본 발명의 일 실시예에 따른 가상 목표물 정보 획득 단계를 보다 상세히 설명하기 위한 동작 흐름도로, 이는 모바일 기기(100)이 외부에 존재하는 증강 현실 서버와 연동하여 가상 목표물 정보를 획득하고자 하는 경우에 관한 것이다. 7 is an operation flowchart for explaining the virtual target information acquiring step according to an embodiment of the present invention in more detail. This is an operation flowchart for acquiring virtual target information in cooperation with an augmented reality server existing outside the mobile device 100 Lt; / RTI >

먼저, 모바일 기기(100)은 사용자 위치를 획득한다(S31). 본 발명의 모바일 기기(100)은 사용자 위치를 GPS 장치가 제공하는 GPS 정보를 이용하여 획득하거나, 자신에 인접한 중계기들의 위치를 이용한 삼각 측량법을 통해 획득할 수 있다. 다만, 위치 판단의 정확도를 위해, 중계기 설치 밀도가 설정치 이상인 지역에서는 삼각 측량법을 이용하도록 하되, 그렇지 못한 지역에서는 GPS 정보를 이용하도록 한다. First, the mobile device 100 acquires a user location (S31). The mobile device 100 of the present invention may acquire the user location using GPS information provided by the GPS device or may acquire the location of the user through triangulation using the location of the repeaters adjacent to the user. However, for accuracy of location judgment, triangulation method should be used in the area where the installation density of the repeater is over the set value, but GPS information should be used in the area where it is not.

그리고, 사용자 위치를 증강 현실 서버에 통보하여, 증강 현실 서버가 사용자 위치를 통해 사용자가 어떤 장소에서 어떤 객체들을 촬영하고 있는지를 파악하고, 해당 장소에 설정된 가상 목표물들에 대한 정보를 수집하여 제공할 수 있도록 한다(S32). 예를 들어, 증강 현실 서버는 전 지역에 대한 가상 목표물 정보를 모두 저장하고 있으며, 모바일 기기(100)이 특정 위치에 대한 가상 목표물 정보를 요청하면, 해당 위치에서 기설정된 거리 이내에 존재하는 장소를 정보 제공 범위로 결정한 후, 해당 정보 제공 범위에 속하는 가상 목표물 정보만을 선택하여 모바일 기기(100)에게 제공할 수 있을 것이다. Then, the augmenting reality server is notified of the user location, and the augmenting reality server grasps which objects the user is photographing in which place through the user location, and collects and provides information about the virtual targets set in the place (S32). For example, the augmented reality server stores all of the virtual target information for the entire area. When the mobile device 100 requests virtual target information for a specific location, It is possible to select only the virtual target information belonging to the information providing range and to provide the virtual target information to the mobile device 100.

그러면, 모바일 기기(100)은 증강 현실 서버로부터 사용자 위치에 가상 목표물 정보를 제공받고, 이를 이용하여 게임 화면을 구성하게 된다(S33).
Then, the mobile device 100 receives the virtual target information from the augmented reality server at the user location, and forms the game screen using the virtual target information at step S33.

도8은 본 발명의 다른 실시예에 따른 가상 목표물 정보 획득 단계를 보다 상세히 설명하기 위한 동작 흐름도로, 이는 모바일 기기(100)이 가상 목표물에 대한 정보가 내장한 경우에 관한 것이다. FIG. 8 is an operation flowchart for explaining the virtual target information acquisition step according to another embodiment of the present invention in more detail, when the mobile device 100 has embedded information about a virtual target.

먼저, 모바일 기기(100)은 사용자 위치를 획득한 후(S34), 사용자 위치에서 기 설정된 거리 이내의 장소를 정보 제공 범위로 결정한다(S34). First, the mobile device 100 acquires a user location (S34), and determines a location within a predetermined distance from the user location as an information providing area (S34).

그리고 정보 제공 범위에 속하는 가상 목표물 정보를 사용자 위치와 카메라 시점 중 적어도 하나에 상응하는 가상 목표물 정보로 선택하도록 한다(S36). Then, the virtual target information belonging to the information providing range is selected as the virtual target information corresponding to at least one of the user position and the camera view (S36).

도8의 방법은 모바일 기기(100)이 가상 목표물에 대한 정보를 모두 저장하고 있어야 하므로 상대적으로 큰 메모리 저장 용량을 필요로 하는 단점이 있으나, 증강 현실 서버에 접속하지 않고도 가상 목표물 정보를 획득할 수 있어 빠른 응답 속도와 동작의 안정적으로 보장하는 장점을 가진다.
Although the method of FIG. 8 has a disadvantage of requiring a relatively large memory storage capacity because the mobile device 100 must store all information about the virtual target, it is possible to acquire virtual target information without accessing the augmented reality server And has the advantage of ensuring a fast response speed and stable operation.

또한, 상기의 방법들 이외에 사용자 위치에 상관없이 모바일 기기(100가 가상 목표물의 종류와 증강 위치(즉, 상대적인 위치)를 랜덤 생성하도록 할 수도 있을 것이다. 이러한 경우, 가상 목표물에 대한 정보를 모두 저장하기 위한 별도의 메모리를 필요로 하지 않으며, 증강 현실 서버에 접속하지 않고도 가상 목표물 정보를 획득할 수 있도록 할 수도 있다.
In addition, in addition to the above methods, the mobile device 100 may randomly generate a type of virtual target and an augmentation position (i.e., a relative position) irrespective of the user's location. In this case, And it is also possible to acquire virtual target information without accessing the augmented reality server.

도9은 본 발명의 일 실시예에 따른 화면 구성 단계를 보다 상세히 설명하기 위한 동작 흐름도이다. FIG. 9 is a flowchart illustrating a screen configuration step according to an exemplary embodiment of the present invention.

모바일 기기(100)은 사용자 위치와 카메라 시점을 기반으로 현재 카메라 영상에 포함된 객체를 파악한다(S41). The mobile device 100 recognizes the object included in the current camera image based on the user position and the camera view (S41).

그리고 S41를 통해 파악된 객체를 기반으로 카메라 영상에 증강 표시될 가상 목표물들을 선택하고(S42), 사용자 위치와 카메라 시점을 기반으로 단계 S42를 통해 선택된 가상 목표물의 표시 위치를 결정한다. 즉 해당 객체에 가상 목표물이 오버레이될 수 있도록 하는 표시 위치를 결정한다(S43). In step S42, virtual targets to be displayed on the camera image are selected based on the objects identified in step S41. In step S42, the display positions of the virtual targets selected in step S42 are determined based on the user position and the camera view. I.e., a display position that allows the virtual object to be overlaid on the object (S43).

그리고 단계S20를 통해 획득된 카메라 영상 위에 단계 S42를 통해 선택된 가상 목표물을 단계 S43를 통해 선택된 표시 위치에 증강시켜 표시한다(S44). In step S44, the virtual target selected in step S42 is displayed on the camera image acquired in step S20, and displayed on the display position selected in step S43.

즉, 본 발명에서는 사용자 위치와 카메라 시점을 고려하여 현재 화면 표시될 가상 목표물의 종류와 위치를 결정하고, 이를 기반으로 가상 목표물을 카메라 영상위에 증강시켜 줌을 알 수 있다.
That is, in the present invention, it is possible to determine the type and position of the virtual target to be displayed on the current screen in consideration of the user position and the camera view point, and to enhance the virtual target on the camera image based thereon.

도10은 본 발명의 일 실시예에 따른 화면 재구성 단계를 보다 상세히 설명하기 위한 동작 흐름도이다. FIG. 10 is an operational flowchart for explaining a screen reconstruction step according to an embodiment of the present invention in more detail.

모바일 기기(100)은 반복적으로 카메라 영상을 재획득하고(S51), 사용자 위치 및 카메라 시점을 재획득한다(S52). The mobile device 100 repeatedly acquires the camera image (S51), and reacquires the user position and the camera view (S52).

만약, 사용자가 기 설정된 거리 이상 이동하여 이전에 획득된 가상 목표물 정보가 현재의 사용자 위치를 커버할 수 없으면(S53), 모바일 기기(100)은 현재의 사용자 위치를 기반으로 새로운 가상 목표물 정보를 획득한다(S54). If the user moves beyond the predetermined distance and the previously obtained virtual target information can not cover the current user position (S53), the mobile device 100 obtains new virtual target information based on the current user position (S54).

그리고, 모바일 기기(100)은 사용자 위치 및 카메라 시점을 고려하여 화면 표시될 가상 목표물의 종류와 위치를 조정한다(S55). 이는 앞서 설명된 단계 S41 내지 S43와 동일하게 수행될 수 있을 것이다.Then, the mobile device 100 adjusts the type and position of the virtual target to be displayed on the screen in consideration of the user location and the camera view (S55). This may be performed in the same manner as steps S41 to S43 described above.

그리고 단계 S51를 통해 새로이 획득된 카메라 영상 위에 단계 S55를 통해 표시 종류 및 위치가 조정된 가상 목표물을 증강시켜 게임 화면을 재구성하고 모바일 기기(100)의 화면에 표시한다(S56). In step S56, the virtual object having the display type and position adjusted through the step S55 is augmented on the newly obtained camera image through the step S51, and the game screen is reconstructed and displayed on the screen of the mobile device 100 (S56).

즉, 본 발명에서는 사용자 움직임에 따라 카메라 영상과 가상 목표물이 계속하여 변경되도록 함으로써, 사용자가 모바일 기기(100)에 표시되는 영상을 통해 자신의 움직임을 모니터링할 수 있도록 한다.
That is, according to the present invention, the camera image and the virtual target are continuously changed according to the user's motion, so that the user can monitor his / her movement through the image displayed on the mobile device 100.

도11은 본 발명의 일 실시예에 따른 사격 게임 방법이 적용되는 모바일 기기를 도시한 도면이다. 11 is a view illustrating a mobile device to which a shooting game method according to an embodiment of the present invention is applied.

도11을 참고하면, 본 발명의 모바일 기기(100)은 카메라 영상을 획득 및 제공하는 카메라(110), GPS 정보를 획득 및 제공하는 GPS 장치(120), 카메라 시점에 대한 정보를 획득하는 센서(130), 통신 커넥터를 통해 장난감 총(200)과 유선 또는 무선 통신하여 장난감 총(200)에 내장된 센서가 제공하는 방아쇠 발사 정보를 획득하는 장치 인터페이스(140), 사격 게임에 관련된 각종 화면을 표시하며, 사용자의 터치 동작을 감지 및 통보하는 터치 스크린(150), 사격 게임에 관련된 각종 음향을 출력하는 스피커(160), 사격 게임에 관련된 각종 진동을 발생하는 진동 발생부(170), 증강 현실 서버(180)와 통신하여 가상 목표물 정보를 획득하거나, 모바일 기기 주변에 설치된 중계기와 통신하여 중계기 위치 정보를 획득하는 통신부(180), 그리고 상기 구성 요소들(110~180)을 전반적으로 제어하면서 사격 게임 서비스를 제공하는 게임 제어부(190)를 포함하여 구성될 수 있다. 11, the mobile device 100 of the present invention includes a camera 110 for acquiring and providing camera images, a GPS device 120 for acquiring and providing GPS information, a sensor for acquiring information about camera viewpoints 130), a device interface (140) for wired or wireless communication with the toy gun (200) through a communication connector to acquire trigger emission information provided by a sensor built in the toy gun (200), various screens related to the shooting game A touch screen 150 for sensing and notifying the user's touching operation, a speaker 160 for outputting sounds related to the shooting game, a vibration generator 170 for generating various vibrations related to the shooting game, A communication unit 180 communicating with the mobile terminal 180 to acquire virtual target information or communicate with a repeater installed in the vicinity of the mobile device to obtain repeater location information, It can comprise a game controller 190 to provide a shooting game while controlling service.

더하여, 게임 제어부(190)는 GPS 장치(120)를 통해 획득되는 GPS 정보 또는 통신부(180)를 통해 획득되는 모바일 기기 주변에 설치된 중계기들의 위치 정보를 이용하여 사용자 위치를 파악하는 사용자 위치 획득부(191), 센서(130)를 통해 획득된 카메라 촬영 방향 및 각도로부터 카메라 시점을 계산하는 카메라 시점 계산부(192), 통신부(180)를 통해 증강 현실 서버에 접속하여 사용자 위치에 대응되는 가상 목표물 정보를 획득하거나, 내장된 메모리에 저장된 가상 목표물 정보를 이용하여 사용자 위치에 대응되는 가상 목표물 정보를 획득하는 가상 목표물 정보 획득부(193), 기 설정된 규칙에 따라 조준점을 설정하거나, 사용자가 터치 제스처 등을 통해 임의 선택한 화면 지점을 조준점으로 설정하는 조준점 획득부(194), 카메라(110)를 통해 획득된 카메라 영상 위에 가상 목표물 정보 획득부(193)를 통해 획득된 가상 목표물을 증강시켜 게임 화면을 구성하되, 사용자의 위치 및 카메라 시점(즉, 사용자의 움직임)에 따라 게임 화면을 계속하여 업데이트하는 게임 화면 구성부(195), 게임 화면 구성부(195)를 통해 획득된 게임 화면을 터치 스크린(150) 상에 표시하며 사용자가 장난감 총(200)을 발사하면 이에 응답하여 총성 및 진동을 발생하되, 가상 목표물이 조준점에 위치한 상태에서 사용자가 장난감 총(200)을 발사하면 가상 목표물을 파괴하고 사용자에게 성공 인센티브(예를 들어, 게임 점수를 높여 줌, 게임 아이템을 줌)을 제공하는 목표물 제거 이벤트를 발생하고, 그렇지 않으면 가상 목표물을 그대로 유지하고 사용자에게 각종 패널티를 주는 등 목표물 제거 실패 이벤트를 발생하는 하는 게임 운영부(196) 등을 포함하여 구성될 수 있다.
In addition, the game controller 190 may include a user position acquiring unit (e.g., a GPS receiver) that acquires GPS information obtained through the GPS device 120 or position information of repeaters installed in the vicinity of the mobile device obtained through the communication unit 180 191), a camera view calculating unit 192 for calculating a camera view from the camera photographing direction and an angle obtained through the sensor 130, a virtual reality information server 183 connected to the augmented reality server through the communication unit 180, A virtual target information acquiring unit 193 for acquiring virtual target information corresponding to the user position using the virtual target information stored in the built-in memory, an aiming point setting unit 193 for setting the aiming point in accordance with the preset rule, An aim point acquiring unit 194 for setting a screen point arbitrarily selected through the camera 110 as an aim point, A game screen configuring unit for continuously updating the game screen in accordance with the position of the user and the camera viewpoint (i.e., the movement of the user) by enhancing the virtual target acquired through the virtual target information acquiring unit 193, And displays a game screen obtained through the game screen construction unit 195 on the touch screen 150. When the user fires the toy gun 200, the game system generates gun and vibration in response to the shot, When the user fires the toy gun 200, it generates a target elimination event that destroys the virtual target and provides the user with a success incentive (for example, raises the game score and gives the game item), and A game operation unit 196 for generating a target removal failure event such as maintaining the virtual target as it is and giving the user various penalties .

이상에서 전술한 본 발명의 실시예에 따른 사격 게임 방법은, 단말에 기본적으로 설치된 애플리케이션(이는 단말에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 단말에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 실시예에 따른 사격 게임 방법은 단말에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The above-described shooting game method according to the embodiment of the present invention can be executed by an application installed in the terminal (which may include a program included in a platform or an operating system basically installed in the terminal) May be executed by an application (i.e., a program) installed directly on the terminal via an application providing server such as an application store server, an application, or a web server associated with the service. In this sense, the shooting game method according to the above-described embodiment of the present invention is implemented as an application (i.e., a program) installed basically in a terminal or directly installed by a user and recorded in a computer-readable recording medium such as a terminal .

이러한 프로그램은 컴퓨터에 의해 읽힐 수 있는 기록매체에 기록되고 컴퓨터에 의해 실행됨으로써 전술한 기능들이 실행될 수 있다. Such a program may be recorded on a recording medium that can be read by a computer and executed by a computer so that the above-described functions can be executed.

이와 같이, 본 발명의 각 실시예에 따른 사격 게임 방법을 실행시키기 위하여, 전술한 프로그램은 컴퓨터의 프로세서(CPU)가 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. In order to execute the shooting game method according to each embodiment of the present invention, the above-described program may be stored in a computer-readable storage medium such as a computer-readable code such as C, C ++, JAVA, ).

이러한 코드는 전술한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Function Code)를 포함할 수 있고, 전술한 기능들을 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수도 있다. The code may include a function code related to a function or the like that defines the functions described above and may include an execution procedure related control code necessary for the processor of the computer to execute the functions described above according to a predetermined procedure.

또한, 이러한 코드는 전술한 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조 되어야 하는지에 대한 메모리 참조 관련 코드를 더 포함할 수 있다. In addition, such code may further include memory reference related code as to what additional information or media needed to cause the processor of the computer to execute the aforementioned functions should be referenced at any location (address) of the internal or external memory of the computer .

또한, 컴퓨터의 프로세서가 전술한 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 컴퓨터의 프로세서가 컴퓨터의 통신 모듈(예: 유선 및/또는 무선 통신 모듈)을 이용하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야만 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수도 있다. In addition, when a processor of a computer needs to communicate with any other computer or server, etc., to perform the above-described functions, the code may be stored in a computer's communication module (e.g., a wired and / ) May be used to further include communication related codes such as how to communicate with any other computer or server in the remote, and what information or media should be transmitted or received during communication.

그리고, 본 발명을 구현하기 위한 기능적인(Functional) 프로그램과 이와 관련된 코드 및 코드 세그먼트 등은, 기록매체를 읽어서 프로그램을 실행시키는 컴퓨터의 장치 환경 등을 고려하여, 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론되거나 변경될 수도 있다.The functional program for implementing the present invention and the related code and code segment may be implemented by programmers in the technical field of the present invention in consideration of the device environment of the computer that reads the recording medium and executes the program, Or may be easily modified or modified by the user.

이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일 예로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있다. Examples of the computer-readable recording medium on which the above-described program is recorded include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical media storage, and the like.

또한 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는 네트워크로 커넥션된 컴퓨터 장치에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 이 경우, 다수의 분산된 컴퓨터 중 어느 하나 이상의 컴퓨터는 상기에 제시된 기능들 중 일부를 실행하고, 그 결과를 다른 분산된 컴퓨터들 중 하나 이상에 그 실행 결과를 전송할 수 있으며, 그 결과를 전송받은 컴퓨터 역시 상기에 제시된 기능들 중 일부를 실행하여, 그 결과를 역시 다른 분산된 컴퓨터들에 제공할 수 있다.The computer-readable recording medium on which the above-described program is recorded may be distributed to a computer apparatus connected via a network so that computer-readable codes can be stored and executed in a distributed manner. In this case, one or more of the plurality of distributed computers may execute some of the functions presented above and send the results of the execution to one or more of the other distributed computers, The computer may also perform some of the functions described above and provide the results to other distributed computers as well.

특히, 본 발명의 각 실시예에 따른 사격 게임 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 컴퓨터로 읽을 수 있는 기록매체는, 애플리케이션 스토어 서버(Application Store Server), 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버(Application Provider Server)에 포함된 저장매체(예: 하드디스크 등)이거나, 애플리케이션 제공 서버 그 자체일 수도 있다.In particular, a computer-readable recording medium storing an application that is a program for executing the shooting game method according to each embodiment of the present invention includes an application store server, an application or a web server related to the service A storage medium (e.g., a hard disk, etc.) included in the application provider server, or an application providing server itself.

본 발명의 각 실시예에 따른 사격 게임 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터는, 일반적인 데스크 탑이나 노트북 등의 일반 PC 뿐만 아니라, 모바일 기기, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말 등의 모바일 단말을 포함할 수 있으며, 이뿐만 아니라, 컴퓨팅(Computing) 가능한 모든 기기로 해석되어야 할 것이다. A computer capable of reading a recording medium on which an application, which is a program for executing a shooting game method according to each embodiment of the present invention, is read may be a general PC such as a general desktop or a notebook computer, Digital assistants, and mobile communication terminals. In addition, the present invention should be interpreted as all devices capable of computing.

또한, 본 발명의 실시예에 따른 사격 게임 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터가 모바일 기기, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말 등의 모바일 단말인 경우, 애플리케이션은 애플리케이션 제공 서버에서 일반 PC로 다운로드 되어 동기화 프로그램을 통해 모바일 단말에 설치될 수도 있다.In addition, a computer capable of reading a recording medium on which an application, which is a program for executing a shooting game method according to an embodiment of the present invention, is read is a mobile terminal such as a mobile device, a tablet PC, a PDA (Personal Digital Assistants) In this case, the application may be downloaded from the application providing server to the general PC and installed in the mobile terminal through the synchronization program.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiments, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. The codes and code segments constituting the computer program may be easily deduced by those skilled in the art. Such a computer program can be stored in a computer-readable storage medium, readable and executed by a computer, thereby realizing an embodiment of the present invention. As a storage medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.It is also to be understood that the terms such as " comprises, "" comprising," or "having ", as used herein, mean that a component can be implanted unless specifically stated to the contrary. But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.

Claims (16)

장난감 총과 결합되며 상기 장난감 총의 방아쇠 상태를 감지할 수 있는 모바일 기기의 증강 현실을 이용한 사격 게임 방법에 있어서,
상기 모바일 기기가 카메라 영상을 획득하는 단계;
상기 모바일 기기가 가상 목표물에 대한 정보를 획득한 후, 상기 카메라 영상 위에 상기 가상 목표물을 증강시켜 게임 화면을 구성 및 표시하는 단계;
상기 모바일 기기가 조준점을 생성하여 상기 게임 화면에 추가 표시하는 단계;
상기 모바일 기기가 사용자 움직임을 반영하여 상기 게임 화면을 재구성하는 단계;
상기 장난감 총의 방아쇠가 발사되면, 방아쇠 발사 이벤트를 발생하는 단계; 및
상기 조준점이 상기 가상 목표물에 위치된 상태에서 상기 방아쇠 발사 이벤트가 발생하였으면, 상기 모바일 기기가 목표물 제거 이벤트를 발생하고, 그렇지 않으면 목표물 제거 실패 이벤트를 발생하는 단계를 포함하며,
상기 게임 화면을 구성 및 표시하는 단계는
가상 목표물에 대한 정보를 획득하는 단계; 및
상기 사용자 위치와 카메라 시점 중 적어도 하나를 고려하여 화면 표시될 가상 목표물의 종류와 위치를 결정하는 단계; 및
상기 결정된 종류 및 위치에 따라 가상 목표물을 상기 카메라 영상위에 증강시켜 게임 화면을 구성 및 표시하는 단계를 포함하는 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
A shooting game method using an augmented reality of a mobile device coupled with a toy gun and capable of detecting a trigger state of the toy gun,
The mobile device acquiring a camera image;
Constructing and displaying a game screen by augmenting the virtual target on the camera image after the mobile device acquires information about the virtual target;
Generating a sight point by the mobile device and displaying the sight point on the game screen;
Reconfiguring the game screen to reflect the movement of the user;
When the trigger of the toy gun is fired, generating a trigger fire event; And
If the trigger firing event occurs with the aim point being located at the virtual target, the mobile device generates a target removal event and otherwise generates a target removal failure event,
The step of constructing and displaying the game screen
Acquiring information about a virtual target; And
Determining a type and position of a virtual target to be displayed on the screen in consideration of at least one of the user position and the camera viewpoint; And
And constructing and displaying a game screen by augmenting a virtual target on the camera image according to the determined type and position.
삭제delete 제1항에 있어서, 상기 가상 목표물에 대한 정보를 획득하는 단계는
증강 현실 서버로부터 사용자 위치에 대응되는 가상 목표물을 제공받거나, 기 저장된 가상 목표물 정보에서 사용자 위치에 대응되는 가상 목표물만을 선택하거나, 또는 가상 목표물의 종류 및 위치를 랜덤 생성하는 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
The method of claim 1, wherein obtaining information about the virtual target
Wherein the mobile terminal receives the virtual target corresponding to the user location from the augmented reality server or selects only the virtual target corresponding to the user location from the previously stored virtual target information or randomly generates the type and position of the virtual target Shooting Game Method Using Augmented Reality.
제1항에 있어서, 상기 게임 화면을 재구성하는 단계는
카메라 영상, 사용자 위치, 및 카메라 시점 중 적어도 하나를 재획득하는 단계;
상기 사용자가 기 설정된 거리 이상 이동하여 이전에 획득된 가상 목표물 정보가 현재의 사용자 위치를 커버할 수 없으면, 새로운 가상 목표물 정보를 획득하는 단계;
상기 사용자 위치와 카메라 시점 중 적어도 하나를 고려하여 화면 표시될 가상 목표물의 종류와 위치를 조정하는 단계; 및
상기 새로이 획득된 카메라 영상 위에 상기 종류 및 위치가 조정된 가상 목표물을 증강시켜 게임 화면을 재구성 및 표시하는 단계를 포함하는 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
The method of claim 1, wherein reconstructing the game screen comprises:
Reacquiring at least one of a camera image, a user location, and a camera viewpoint;
Acquiring new virtual target information if the user moves beyond a predetermined distance and the previously obtained virtual target information can not cover the current user position;
Adjusting a type and position of a virtual target to be displayed on the screen in consideration of at least one of the user position and the camera viewpoint; And
And reconstructing and displaying the game screen by augmenting the virtual target whose type and position are adjusted on the newly acquired camera image, thereby displaying the game screen.
제1항에 있어서, 상기 사용자 위치는
GPS 정보를 이용하여 획득하거나, 상기 모바일 기기에 인접한 중계기들의 위치를 이용한 삼각 측량법을 통해 획득하는 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
The method of claim 1,
Wherein the mobile terminal is acquired using GPS information or acquired through a triangulation method using positions of repeaters adjacent to the mobile device.
제1항에 있어서, 상기 카메라 시점은
상기 모바일 기기에 내장된 다수의 센서를 통해 파악된 카메라 촬영 방향과 카메라 촬영 각도에 의해 결정되는 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
2. The method of claim 1,
And determining a camera shooting direction and a camera shooting angle determined through a plurality of sensors built in the mobile device.
제1항에 있어서,
상기 모바일 기기가 상기 조준점이 상기 가상 목표물에 위치될 수 있도록 하는 사용자의 움직임을 안내하는 안내 정보를 생성 및 표시하는 단계를 더 포함하는 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
The method according to claim 1,
Further comprising generating and displaying guide information for guiding a movement of a user to allow the mobile device to position the aiming point on the virtual target.
제7항에 있어서, 상기 안내 정보는
사용자의 움직임 방향 및 각도를 화살표로 구현되는 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
The method according to claim 7, wherein the guide information
Wherein the direction and angle of the user's movement are implemented by arrows.
제7항에 있어서, 상기 안내 정보는
상기 조준점과 상기 사용자 위치에 상응하는 모든 가상 목표물를 동시에 표시하며, 상기 모바일 기기의 카메라 시점도 추가 표시할 수 있는 미니창 형태로 구현되는 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
The method according to claim 7, wherein the guide information
The method according to any one of claims 1 to 3, wherein the virtual game is performed in the form of a mini window that simultaneously displays the target point and all virtual targets corresponding to the user position and further displays a camera viewpoint of the mobile device.
제1항에 있어서, 상기 조준점은
기 설정된 규칙에 따라 자동 설정된 화면 지점이거나, 사용자의 터치 제스처에 의해 수동 선택된 화면 지점인 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
2. The method according to claim 1,
Wherein the game screen is a screen point automatically set according to a preset rule or a screen point manually selected by a user's touch gesture.
제1항에 있어서, 상기 방아쇠 발사 이벤트를 발생하는 단계는
방아쇠 발사를 알리기 위한 총알 발사 이미지, 총성 및 진동 중 적어도 하나를 발생하는 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
2. The method of claim 1, wherein generating the trigger firing event comprises:
Wherein at least one of a bullet shot image, a gunshot, and a vibration is generated to inform a trigger fire.
제1항에 있어서, 상기 목표물 제거 이벤트를 발생하는 단계는
가상 목표물을 파괴시킨 후 사용자에게 성공 인센티브를 주는 것을 특징으로 하는 모바일 기기의 증강 현실을 이용한 사격 게임 방법.
2. The method of claim 1, wherein generating the target removal event comprises:
Wherein the virtual target is destroyed and a user is given incentive to success.
제1항, 제3항 내지 제12항 중 어느 한 항에 기재된 모바일 기기의 증강 현실을 이용한 사격 게임 방법을 실행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing a shooting game method using an augmented reality of a mobile device according to any one of claims 1 to 12. 삭제delete 장난감 총과 결합되며 상기 장난감 총의 방아쇠 상태를 감지할 수 있는 모바일 기기에 있어서,
카메라 영상을 획득 및 제공하는 카메라;
상기 장난감 총이 제공하는 방아쇠 발사 정보를 획득하는 장치 인터페이스;
사격 게임에 관련된 각종 화면을 표시하며, 사용자의 터치 동작을 감지 및 통보하는 터치 스크린;
상기 사격 게임에 관련된 음향과 진동을 발생하는 스피커 및 진동 발생부; 및
상기 카메라 영상 위에 가상의 사격 목표물을 증강시켜 표시하는 게임 화면을 통해 사격 게임 서비스를 제공하는 게임 제어부를 포함하며,
상기 게임 제어부는,
GPS 정보 또는 인접 중계기들의 위치 정보를 이용하여 사용자 위치를 파악하는 사용자 위치 획득부;
센서를 통해 획득된 카메라 촬영 방향 및 각도로부터 카메라 시점을 계산하는 카메라 시점 계산부;
상기 사용자 위치에 대응되는 가상 목표물 정보를 획득하는 가상 목표물 정보 획득부;
기 설정된 규칙에 따라 조준점을 설정하거나, 사용자가 임의 선택한 화면 지점을 조준점으로 설정하는 조준점 획득부;
상기 카메라를 통해 획득된 카메라 영상 위에 상기 가상 목표물 정보 획득부를 통해 획득된 가상 목표물을 증강시켜 게임 화면을 구성하되, 사용자의 위치 및 카메라 시점에 따라 게임 화면을 계속하여 업데이트하는 게임 화면 구성부;
상기 게임 화면 구성부를 통해 획득된 게임 화면을 상기 터치 스크린상에 표시하되, 상기 가상의 사격 목표물이 조준점에 위치한 상태에서 상기 장난감 총이 발사되면 목표물 제거 이벤트를 발생하고, 그렇지 않으면 목표물 제거 실패 이벤트를 발생하는 게임 운영부를 포함하며,
상기 게임 화면 구성부는 상기 사용자 위치와 카메라 시점 중 적어도 하나를 고려하여 화면 표시될 가상 목표물의 종류와 위치를 결정하며, 상기 결정된 종류 및 위치에 따라 가상 목표물을 상기 카메라 영상위에 증강시켜 게임 화면을 구성하는 것을 특징으로 하는 모바일 기기.
A mobile device coupled to a toy gun and capable of sensing a trigger state of the toy gun,
A camera for acquiring and providing camera images;
A device interface for obtaining trigger fire information provided by said toy gun;
A touch screen that displays various screens related to the shooting game and detects and notifies a user's touch operation;
A speaker and a vibration generator for generating sound and vibration related to the shooting game; And
And a game controller for providing a shooting game service through a game screen for displaying a virtual shooting target on the camera image,
The game control unit,
A user location acquiring unit for acquiring a user location using GPS information or location information of adjacent repeaters;
A camera viewpoint calculator for calculating a camera viewpoint from a camera photographing direction and an angle obtained through a sensor;
A virtual target information acquiring unit for acquiring virtual target information corresponding to the user position;
An aiming point acquiring unit for setting an aiming point according to a predetermined rule or setting a screen point arbitrarily selected by a user as an aiming point;
A game screen constructing unit for constructing a game screen by augmenting a virtual target acquired through the virtual target information acquiring unit on the camera image acquired through the camera, and continuously updating the game screen according to the location of the user and the camera viewpoint;
Wherein the controller displays the game screen acquired through the game screen construction unit on the touch screen, generates a target removal event when the toy gun is fired while the virtual shooting target is located at the aiming point, Includes a gaming operation that occurs,
The game screen constructing unit may determine a type and position of a virtual target to be displayed on the screen in consideration of at least one of the user position and the camera view point and may enhance a virtual target on the camera image according to the determined type and position, And the mobile device.
삭제delete
KR1020120078343A 2012-07-18 2012-07-18 Method for gun shotting game using augmentation reality and mobile device and system usning the same KR101429341B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120078343A KR101429341B1 (en) 2012-07-18 2012-07-18 Method for gun shotting game using augmentation reality and mobile device and system usning the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120078343A KR101429341B1 (en) 2012-07-18 2012-07-18 Method for gun shotting game using augmentation reality and mobile device and system usning the same

Publications (2)

Publication Number Publication Date
KR20140011674A KR20140011674A (en) 2014-01-29
KR101429341B1 true KR101429341B1 (en) 2014-08-13

Family

ID=50143784

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120078343A KR101429341B1 (en) 2012-07-18 2012-07-18 Method for gun shotting game using augmentation reality and mobile device and system usning the same

Country Status (1)

Country Link
KR (1) KR101429341B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190036614A (en) 2017-09-28 2019-04-05 주식회사 토즈 Augmented reality image display system and method using depth map
US20190342140A1 (en) * 2017-09-12 2019-11-07 Pacific Import Manufacturing, Inc. Augmented reality gaming system
KR20190142584A (en) 2018-06-18 2019-12-27 이해명 Shooting game apparatus using the drone

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101706170B1 (en) * 2016-08-31 2017-02-14 주식회사 건파워 Survival smart archery game system
KR102011305B1 (en) * 2017-11-30 2019-08-16 주식회사 한화 Apparatus and method for managing training simulation forward observation
CN113421343A (en) * 2021-05-27 2021-09-21 深圳市晨北科技有限公司 Method for observing internal structure of equipment based on augmented reality

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090001667A (en) * 2007-05-09 2009-01-09 삼성전자주식회사 Apparatus and method for embodying contents using augmented reality
KR20110056019A (en) * 2009-11-20 2011-05-26 이지프로젝터서비스(주) Screen shooting simulation system and method thereof
KR20110060498A (en) * 2009-11-30 2011-06-08 삼성전자주식회사 Apparatus and method for realization a game function

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090001667A (en) * 2007-05-09 2009-01-09 삼성전자주식회사 Apparatus and method for embodying contents using augmented reality
KR20110056019A (en) * 2009-11-20 2011-05-26 이지프로젝터서비스(주) Screen shooting simulation system and method thereof
KR20110060498A (en) * 2009-11-30 2011-06-08 삼성전자주식회사 Apparatus and method for realization a game function

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
'아이폰 증강현실 게임 "Look up"(AR invaders) GUI+리뷰', 티스토리 블로그 *
'아이폰 증강현실 게임 "Look up"(AR invaders) GUI+리뷰', 티스토리 블로그*

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190342140A1 (en) * 2017-09-12 2019-11-07 Pacific Import Manufacturing, Inc. Augmented reality gaming system
KR20190036614A (en) 2017-09-28 2019-04-05 주식회사 토즈 Augmented reality image display system and method using depth map
KR20190142584A (en) 2018-06-18 2019-12-27 이해명 Shooting game apparatus using the drone

Also Published As

Publication number Publication date
KR20140011674A (en) 2014-01-29

Similar Documents

Publication Publication Date Title
CN110115838B (en) Method, device, equipment and storage medium for generating mark information in virtual environment
KR101429341B1 (en) Method for gun shotting game using augmentation reality and mobile device and system usning the same
CN109091869B (en) Method and device for controlling action of virtual object, computer equipment and storage medium
CN109529319B (en) Display method and device of interface control and storage medium
CN108815851B (en) Interface display method, equipment and storage medium for shooting in virtual environment
CN110755841B (en) Method, device and equipment for switching props in virtual environment and readable storage medium
CN111282275B (en) Method, device, equipment and storage medium for displaying collision traces in virtual scene
CN110917616B (en) Orientation prompting method, device, equipment and storage medium in virtual scene
CN111921197B (en) Method, device, terminal and storage medium for displaying game playback picture
CN112044069B (en) Object prompting method, device, equipment and storage medium in virtual scene
CN111035918A (en) Reconnaissance interface display method and device based on virtual environment and readable storage medium
CN109634413B (en) Method, device and storage medium for observing virtual environment
CN108786110B (en) Method, device and storage medium for displaying sighting telescope in virtual environment
CN112245912B (en) Sound prompting method, device, equipment and storage medium in virtual scene
CN111330278B (en) Animation playing method, device, equipment and medium based on virtual environment
CN112245921A (en) Virtual object control method, device, equipment and storage medium
BR112019009494A2 (en) computing device to support an augmented reality application, augmented reality application support method, and computer readable storage
CN111273780B (en) Animation playing method, device and equipment based on virtual environment and storage medium
CN112569596A (en) Video picture display method and device, computer equipment and storage medium
KR20140127934A (en) Method for gun shotting game using augmentation reality and mobile device and system usning the same
CN111389005A (en) Virtual object control method, device, equipment and storage medium
CN112870699A (en) Information display method, device, equipment and medium in virtual environment
CN112451969A (en) Virtual object control method and device, computer equipment and storage medium
KR20140014903A (en) Shooting gun provided with mobile device
CN111035929B (en) Elimination information feedback method, device, equipment and medium based on virtual environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170725

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180725

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200122

Year of fee payment: 6