KR20210078342A - Method for managing virtual object using augment reality, method for managing festival using augment reality and mobile terminal - Google Patents

Method for managing virtual object using augment reality, method for managing festival using augment reality and mobile terminal Download PDF

Info

Publication number
KR20210078342A
KR20210078342A KR1020190170231A KR20190170231A KR20210078342A KR 20210078342 A KR20210078342 A KR 20210078342A KR 1020190170231 A KR1020190170231 A KR 1020190170231A KR 20190170231 A KR20190170231 A KR 20190170231A KR 20210078342 A KR20210078342 A KR 20210078342A
Authority
KR
South Korea
Prior art keywords
image
growth
virtual
point
real
Prior art date
Application number
KR1020190170231A
Other languages
Korean (ko)
Other versions
KR102314894B1 (en
Inventor
조용만
Original Assignee
주식회사 인터포
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인터포 filed Critical 주식회사 인터포
Priority to KR1020190170231A priority Critical patent/KR102314894B1/en
Publication of KR20210078342A publication Critical patent/KR20210078342A/en
Application granted granted Critical
Publication of KR102314894B1 publication Critical patent/KR102314894B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration

Abstract

An object of the present invention is to manage events held in each region using augmented reality technology. The present invention relates to a method for managing a virtual object using augmented reality. More specifically, the method for managing a virtual object using augmented reality according to an embodiment of the present invention includes: a first augmented image display step; a transformation matching step; and a second augmented image display step.

Description

증강현실을 이용한 가상객체 관리 방법, 증강현실을 이용한 행사 관리 방법 및 모바일 단말{METHOD FOR MANAGING VIRTUAL OBJECT USING AUGMENT REALITY, METHOD FOR MANAGING FESTIVAL USING AUGMENT REALITY AND MOBILE TERMINAL}Virtual object management method using augmented reality, event management method using augmented reality, and mobile terminal

본 발명은 증강현실을 이용한 가상객체 관리 방법, 증강현실을 이용한 행사 관리 방법 및 모바일 단말에 관한 것이다.The present invention relates to a virtual object management method using augmented reality, an event management method using augmented reality, and a mobile terminal.

증강 현실(Augmented Reality: AR)은 가상 현실(VR)의 하나의 분야에서 파생된 기술로서, 현실 세계와 가상의 체험을 결합한 것을 의미한다. 즉, 실제 환경에 가상 사물을 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이다. 가상 현실은 모든 환경을 컴퓨터를 통해 가상환경으로 제작하여 사용자와 상호 작용하지만, 증강 현실은 현실세계를 바탕으로 사용자가 가상의 물체와 상호 작용함으로써 향상된 현실감을 줄 수 있다는 특징을 가진다. 따라서, 증강 현실에서는 사용자가 자신이 위치해 있는 실제 환경을 인식함과 동시에, 실제 영상 위에 표현된 가상의 정보도 인식하게 된다. 이러한 증강현실 기술은 게임 등의 분야에서도 많이 이용되고 있다.Augmented reality (AR) is a technology derived from one field of virtual reality (VR), and refers to a combination of the real world and a virtual experience. That is, it is a computer graphics technique that synthesizes virtual objects in the real environment and makes them look like objects existing in the original environment. Virtual reality interacts with the user by creating all environments as a virtual environment through a computer, but augmented reality has a feature that the user can interact with virtual objects based on the real world to provide an improved sense of reality. Accordingly, in augmented reality, the user recognizes the real environment in which he is located, and at the same time recognizes virtual information expressed on the real image. Such augmented reality technology is also widely used in the field of games and the like.

현재 지역별로 많은 행사들이 진행되고 있으며, 이러한 행사들의 참여를 독려하기 위한 방법으로 모바일 단말로 행사 내용을 알리는 등의 작업이 수행되고 있다.Currently, many events are being held in each region, and as a way to encourage participation in these events, work such as announcing the event contents through a mobile terminal is being performed.

이러한 지역별 행사들의 참여도 향상 등을 위해 증강현실 기술을 적용해 볼 수 있다.Augmented reality technology can be applied to improve participation in these regional events.

대한민국 공개특허공보 제10-2012-0009638호(2012년02월02일 공개)Republic of Korea Patent Publication No. 10-2012-0009638 (published on February 02, 2012) 대한민국 공개특허공보 제10-2011-0071210호(2011년06월29일 공개)Republic of Korea Patent Publication No. 10-2011-0071210 (published on June 29, 2011) 대한민국 공개특허공보 제10-2011-0004974호(2011년01월17일 공개)Republic of Korea Patent Publication No. 10-2011-0004974 (published on January 17, 2011) 대한민국 공개특허공보 제10-2011-0104686호(2011년09월23일 공개)Republic of Korea Patent Publication No. 10-2011-0104686 (published on September 23, 2011)

본 발명에서는 지역별로 열리는 행사들의 관리, 예컨대 참여도 향상의 방안의 하나로 증강현실 기술을 이용하고자 한다. 예컨대, 증강현실을 이용한 가상객첵을 관리하는데 있어서 행사에 관련된 가상객체를 관리하도록 하거나 행사 거점을 두루 돌아다닐 수 있도록 유도하는 증강현실을 이용한 가상객체 관리 방법 및 증강현실을 이용한 행사 관리 방법을 제공하고 나아가 이러한 방법을 수행할 수 있는 모바일 단말을 제공하고자 한다.In the present invention, it is intended to use augmented reality technology as a way to manage events held in each region, for example, to improve participation. For example, in managing a virtual object check using augmented reality, it provides a virtual object management method using augmented reality and an event management method using augmented reality to manage virtual objects related to the event or to guide people around the event base. Furthermore, it is intended to provide a mobile terminal capable of performing such a method.

전술한 목적을 달성하기 위하여, 본 발명의 하나의 모습에 따라, 특정지역의 행사에 관련된 가상객체를 행사지역과 관련된 특정지점에 관한 현실이미지에 결합시킨 증강현실 이미지를 표시하고 저장하는 모바일 단말에서, 행사지역 내 제1 지점의 제1 시점에서, 특정지점의 자연환경정보 및 가상객체의 생장 또는 제작에 인위적으로 관여하는 것으로서 모바일 단말에서 행해진 객체관여정보 중 어느 하나 이상의 정보에 따라 결정되는 가상객체의 제1 생장/단계제작에 따른 제1 가상이미지를 결합시킨 제1 증강현실 이미지를 표시하고 저장하는 제1 증강이미지 표시단계; 가상객체에 대응하는 실질객체의 설정된 실질 생장/제작 단계에 대응하는 가상객체의 가상 생장/제작 단계에 관하여, 행사지역 내 제2 지점의 제2 시점에서, 제1 지점에서 제2 지점으로의 모바일 단말의 지점이동을 가상 생장/제작 단계 중 제1 가상이미지를 생성한 제1 시점으로부터 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 생성하는 제2 시점까지의 생장/제작 단계구간에 대응시켜 매칭시키는 변환매칭 단계; 및 제2 지점의 제2 시점의 모바일 단말에서, 매칭된 생장/제작 단계구간에 대응하도록 설정된 실질객체의 실질 생장/제작 단계 중 대응 단계구간에서의 자연환경정보 및 매칭된 생장/제작 단계구간에서의 객체관여정보 중 어느 하나 이상의 정보에 따라 제1 생장/단계제작 이후로부터 추가 생장/단계제작된 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 결합시킨 제2 증강현실 이미지를 표시하고 저장하는 제2 증강이미지 표시단계를 포함하여 이루어지는 증강현실을 이용한 가상객체 관리 방법이 제안된다.In order to achieve the above object, according to one aspect of the present invention, in a mobile terminal for displaying and storing an augmented reality image in which a virtual object related to an event in a specific area is combined with a real image related to a specific point related to the event area , a virtual object determined according to one or more of the natural environment information of a specific point and the growth or production of virtual objects at the first point in the event area, and determined according to one or more of the object involvement information performed in the mobile terminal a first augmented image display step of displaying and storing a first augmented reality image combining a first virtual image according to the first growth/stage production of ; With respect to the virtual growth/production phase of the virtual object corresponding to the set actual growth/production phase of the real object corresponding to the virtual object, mobile from the first point to the second point at the second point of the second point in the event area Growth/production stage interval from the first time point at which the first virtual image is generated during the virtual growth/production stage of the terminal movement to the second time point at which the second virtual image is generated according to the second growth/stage manufacturing of the virtual object Transform matching step of matching to correspond to; and in the mobile terminal at the second time point of the second point, natural environment information in the corresponding step section of the actual growth/production step of the real object set to correspond to the matched growth/production step section and the matched growth/production step section Displays a second augmented reality image that combines a second virtual image according to the second growth/stage production of a virtual object additionally grown/staged from after the first growth/stage production according to any one or more of the object involvement information of A virtual object management method using augmented reality comprising the step of displaying and storing a second augmented image is proposed.

이때, 하나의 예에서, 제1 및 제2 지점은 각각 설정된 지점에서의 설정반경범위를 포함하고, 변환매칭 단계에서, 제1 지점에서 제2 지점으로의 지점이동은 제1 가상이미지의 생성 또는 제1 증강현실 이미지의 표시 이후부터의 제1 지점에서의 제1 체류시간, 제2 가상이미지의 생성 또는 제2 증강현실 이미지의 표시 이전까지의 제2 지점에서의 제2 체류시간 또는 제1 및 제2 지점 사이의 경유지점이 있는 경우 경유지점에서의 체류시간이 설정시간 이상인 경우에 지점이동으로 판단될 수 있다.At this time, in one example, the first and second points each include a set radius range at the set point, and in the conversion matching step, the point movement from the first point to the second point is to generate a first virtual image or The first residence time at the first point after the display of the first augmented reality image, the second residence time at the second point before the generation of the second virtual image or the display of the second augmented reality image or the first and If there is a stopover point between the second points, it may be determined as a point movement when the stay time at the stopover point is longer than the set time.

또한, 하나의 예에서, 가상객체의 가상이미지와 결합되어 증강현실 이미지를 생성시키는 현실이미지는 행사지역 내지 그 주변에서 모바일 단말을 통해 촬영된 이미지이거나 행사지역 내지 그 주변에서의 모바일 단말의 위치를 기준으로 설정 앱을 통해 획득되는 이미지이고, 설정 앱을 통해 획득되는 이미지는 모바일 단말에서 설정기간범위 내에서 최초 획득되는 가상객체의 최초 생장/제작 시점 및 제1 및 제2 생장/단계제작에 따른 시점 각각에 대응하는 실질객체의 각 실질 생장/제작 단계에서의 특정지점에 관한 이미지로서 실질객체의 각 실질 생장/제작 단계에 매칭되게 개별 또는 일괄로 획득되고, 설정 앱을 통해 일괄로 현실이미지가 획득된 경우 증강현실 이미지의 생성 시 실질객체의 각 실질 생장/제작 단계에 매칭되는 이미지가 읽혀질 수 있다.In addition, in one example, the real image that is combined with the virtual image of the virtual object to generate an augmented reality image is an image taken through a mobile terminal in or around the event area or the location of the mobile terminal in or around the event area. The image obtained through the setting app as a reference, and the image obtained through the setting app, is based on the initial growth/production time and first and second growth/stage production of the virtual object first acquired within the set period range on the mobile terminal. As an image of a specific point in each actual growth/production stage of the real object corresponding to each viewpoint, it is acquired individually or collectively to match each actual growth/production stage of the real object, and the real image is batched through the setting app. When acquired, an image matching each actual growth/production stage of the real object may be read when the augmented reality image is generated.

이때, 하나의 예에서, 가상객체의 최초 생장 시점 및 제1 및 제2 생장에 따른 시점에 대응하는 실질객체의 각 실질 생장단계는 주, 월 또는 계절에 따른 시기별 단계이고, 현실이미지가 모바일 단말을 통해 촬영된 이미지인 경우에, 설정기간범위 내에서의 증강현실 이미지의 최초 생성과정 및 제1 및 제2 증강이미지 표시단계 중 적어도 어느 하나에서는, 촬영된 이미지의 배경에 실질객체의 각 실질 생장단계에 따라 변하는 변경 배경객체가 포함되는지 확인하는 배경객체 확인과정 및 배경객체 확인과정에서 변경 배경객체가 포함된 것으로 확인된 경우 촬영된 이미지 중 변경 배경객체에 상응하는 이미지를 실질객체의 각 실질 생장단계에 매칭되게 보정하는 배경객체 보정과정을 포함하고, 배경객체 확인과정은 사용자의 설정에 의해 또는 설정에 따른 배경객체의 판단에 의해 또는 양자의 조합에 의해 수행되고, 변경 배경객체에 상응하는 이미지의 보정은 색체, 개화, 열매, 낙엽, 낙과, 적설, 생성, 소멸 중 적어도 어느 하나에 관한 보정일 수 있다.At this time, in one example, each real growth stage of the real object corresponding to the initial growth time of the virtual object and the time according to the first and second growth is a stage by period according to a week, month or season, and the real image is mobile In the case of an image taken through a terminal, in at least one of the first and second augmented image display steps and the initial generation of the augmented reality image within the set period range, each substance of the real object is displayed in the background of the captured image. When it is confirmed that a changed background object is included in the background object confirmation process to check whether a changed background object that changes according to the growth stage is included, and in the background object confirmation process, an image corresponding to the changed background object among the captured images is displayed for each substance of the real object. a background object correction process of correcting to match the growth stage, and the background object confirmation process is performed by the user's setting or by the judgment of the background object according to the setting, or by a combination of both, and corresponding to the changed background object The image may be corrected with respect to at least one of color, flowering, fruit, fallen leaves, fallen fruit, snow, generation, and disappearance.

또한 하나의 예에서, 제1 및 제2 생장 각각을 결정하는 하나의 인자로서 자연환경정보는 빅데이터서버 내지 외부서버로부터 수신된 주변온도, 강수량, 일조 중 어느 하나 이상에 관한 과거 내지 예측 정보로서 실질객체의 대응 단계구간에서 시간경과에 따른 값, 패턴 내지 시간경과 전체에 대한 평균값 정보이고, 제1 및 제2 생장 각각을 결정하는 하나의 인자로서 객체관여정보는 터치입력에 따라 가상객체에 관한 기상환경관리, 영양관리, 방제/방역, 생식관리, 증산관리, 생산관리 및 주변 환경관리 중 어느 하나 이상을 수행하기 위한 정보이고, 제1 및 제2 가상이미지는 제1 및 제2 생장 외에 자연환경정보, 객체관여정보 또는 양자 모두에 의한 실시간 반응을 수행하되, 실시간 반응은 빅데이터서버 내지 외부서버로부터 수신된 자연환경정보로서 강수(降水) 또는 바람에 따라 수행되거나 또는 객체관여정보로서 터치입력에 따른 가상객체에 대한 만지기, 흔들기 또는 밀거나 당기기, 식물성 가상객체에 대한 꺾기 또는 따기, 동물성 가상객체에 대한 물주기 또는 먹이주기 중 어느 하나 이상에 따라 수행될 수 있다.Also, in one example, the natural environment information as a factor determining each of the first and second growth is as past or forecast information about any one or more of ambient temperature, precipitation, and sunlight received from a big data server or an external server. In the corresponding step section of the real object, it is information about the value over time, the pattern, or the average value of the entire time elapsed, and as one factor determining each of the first and second growths, the object involvement information relates to the virtual object according to the touch input. It is information for performing any one or more of meteorological environment management, nutrition management, control / quarantine, reproduction management, transpiration management, production management, and surrounding environment management, and the first and second virtual images are natural in addition to the first and second growth. A real-time reaction is performed by environmental information, object involvement information, or both, but the real-time response is natural environment information received from a big data server or an external server, performed according to precipitation or wind, or touch input as object involvement information It may be performed according to any one or more of touching, shaking, pushing, or pulling a virtual object according to , breaking or picking a vegetable virtual object, and watering or feeding an animal virtual object.

또 하나의 예에서, 가상객체는 행사주제 내지 특정지역과 관련된 것이고, 생장이 이루어지는 가상객체는 식물성 내지 동물성 가상객체이고, 제작이 이루어지는 가상객체는 가상제조물 내지 가상구조물이거나 가상 문화행사이고, 제1 및 제2 지점은 행사에 관련된 전시공간, 행사관람공간, 체험공간, 먹거리공간 중 어느 하나를 구성하는 지점일 수 있다.In another example, the virtual object is related to the event theme or a specific region, the virtual object in which growth is made is a vegetable or animal virtual object, the virtual object in which the production is made is a virtual product, a virtual structure, or a virtual cultural event, and the first and the second point may be a point constituting any one of an exhibition space, an event viewing space, an experience space, and a food space related to the event.

다음으로, 전술한 목적을 달성하기 위하여, 본 발명의 또 하나의 모습에 따라, 증강현실을 이용하여 특정지역의 행사를 관리하는 방법에 있어서, 전술한 발명의 하나의 예에 따른 증강현실을 이용한 가상객체 관리 방법의 각 단계를 수행하고, 행사를 관리하는 방법은: 모바일 단말에서, 반복된 가상객체의 생장/단계제작의 결과로 획득되는 가상객체가 설정범위에 부합되게 생장/제작되었는지를 판단하거나 판단결과를 확인하는 판단/확인 단계; 및 가상객체가 설정범위에 부합되게 생장/제작된 경우 모바일 단말에서 인센티브를 수신하는 인센티브 수신단계를 더 포함하는 것을 특징으로 하는 증강현실을 이용한 행사 관리 방법이 제안된다.Next, in order to achieve the above object, according to another aspect of the present invention, in a method for managing an event in a specific area using augmented reality, using augmented reality according to an example of the above-described invention The method of performing each step of the virtual object management method and managing the event is: In the mobile terminal, it is determined whether the virtual object obtained as a result of the repeated virtual object growth/stage production is grown/produced in accordance with the setting range. or a judgment/confirmation step of confirming the judgment result; and an incentive receiving step of receiving an incentive from a mobile terminal when the virtual object is grown/produced in accordance with a setting range. An event management method using augmented reality is proposed.

이때, 하나의 예에서, 행사 관리 방법은, 모바일 단말에서 인센티브를 표시시켜, 행사에 관련된 전시공간, 행사관람공간 또는 체험공간으로의 입장, 행사에 관련된 티켓구매, 먹거리구매 또는 제품구매 중 어느 하나에 대한 결제 및 행사에 관련된 기념품과의 교환 중 어느 하나 이상의 용도로 인센티브가 스캐닝되어 사용되는 인센티브 사용단계를 더 포함할 수 있다.At this time, in one example, the event management method displays an incentive on a mobile terminal, and enters an exhibition space, an event viewing space, or an experience space related to the event, purchases tickets related to the event, purchases food, or purchases products. The method may further include an incentive use step in which incentives are scanned and used for any one or more purposes of payment for and exchange with souvenirs related to the event.

계속하여, 전술한 목적을 달성하기 위하여, 본 발명의 또 하나의 모습에 따라, 행사지역과 관련된 특정지점에 관한 현실이미지를 획득하는 카메라 유닛; 모바일 단말의 위치정보를 획득하는 위치정보 획득유닛; 외부와 통신을 수행하는 통신 유닛; 카메라 유닛을 통해 획득하거나 설정 앱을 통해 획득된 현실이미지 및 가상객체의 가상이미지를 현실이미지에 결합시킨 증강현실 이미지를 저장하는 메모리 유닛; 가상객체의 생장 또는 제작에 관여하는 객체관여정보를 수행하기 위한 터치입력을 받고, 증강현실 이미지를 디스플레이하는 터치 인터페이스 유닛; 및 특정지역의 행사에 관련된 가상객체의 가상이미지를 획득하여 현실이미지에 결합시켜 증강현실 이미지를 생성하는 제어 유닛을 포함하고, 가상객체에 대응하는 실질객체의 설정된 실질 생장/제작 단계가 가상객체의 가상 생장/제작 단계에 대응되도록 설정되고, 제어 유닛은 행사지역 내 제1 지점의 제1 시점에서 자연환경정보 및 객체관여정보 중 어느 하나 이상의 정보에 따라 결정되는 가상객체의 제1 생장/단계제작에 따른 제1 가상이미지를 획득하고, 제어 유닛은 위치정보로부터 제1 지점에서 행사지역 내 제2 지점으로의 모바일 단말의 지점이동을 판단하고, 제1 지점에서 제2 지점으로의 지점이동을 가상객체의 제1 가상이미지를 생성한 제1 시점으로부터 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 생성하는 제2 시점까지의 생장/제작 단계구간에 대응시켜 매칭시키고, 제어 유닛은 제2 지점의 제2 시점에서, 가상객체의 생장/제작 단계구간에 대응되는 실질객체의 실질 생장/제작 단계 중 대응 단계구간에서의 자연환경정보 및 가상객체의 생장/제작 단계구간에서의 객체관여정보 중 어느 하나 이상의 정보에 따라 제1 생장/단계제작 이후로부터 추가 생장/단계제작된 가상객체의 제2 가상이미지를 획득하고, 제어 유닛은 제1 및 제2 가상이미지 각각을 현실이미지에 결합시켜 제1 및 제2 증강현실이미지 각각을 생성하는 것을 특징으로 하는 모바일 단말이 제안된다.Subsequently, in order to achieve the above object, according to another aspect of the present invention, a camera unit for acquiring a real image of a specific point related to the event area; a location information obtaining unit for obtaining location information of the mobile terminal; a communication unit that communicates with the outside; a memory unit for storing an augmented reality image obtained by combining a virtual image of a virtual object and a real image acquired through a camera unit or a setting app with a real image; a touch interface unit for receiving a touch input for performing object involvement information involved in the growth or production of a virtual object, and displaying an augmented reality image; and a control unit for generating an augmented reality image by acquiring a virtual image of a virtual object related to an event in a specific area and combining it with the real image, wherein the set real growth/production stage of the real object corresponding to the virtual object is performed. The control unit is set to correspond to the virtual growth/production stage, and the control unit determines the first growth/stage production of the virtual object according to one or more of the natural environment information and the object involvement information at a first time point of the first point in the event area. obtains a first virtual image according to the , and the control unit determines the point movement of the mobile terminal from the first point to the second point in the event area from the location information, and virtualizes the point movement from the first point to the second point. Match the growth/production stage period from the first time point of generating the first virtual image of the object to the second time point of generating the second virtual image according to the second growth/stage manufacturing of the virtual object, and the control unit At the second point in time at the second point, natural environment information in the corresponding step section of the real growth/production step of the real object corresponding to the growth/production step section of the virtual object and object involvement in the growth/production step section of the virtual object According to any one or more of the information, a second virtual image of the virtual object additionally grown/staged is obtained from after the first growth/staged production, and the control unit combines each of the first and second virtual images with the real image. A mobile terminal is proposed, characterized in that each of the first and second augmented reality images are generated.

이때, 하나의 예에서, 제1 및 제2 지점은 각각 설정된 지점에서의 설정반경범위를 포함하고, 제어 유닛은 제1 가상이미지의 생성 또는 제1 증강현실 이미지의 표시 이후부터의 제1 지점에서의 제1 체류시간, 제2 가상이미지의 생성 또는 제2 증강현실 이미지의 표시 이전까지의 제2 지점에서의 제2 체류시간 또는 제1 및 제2 지점 사이의 경유지점이 있는 경우 경유지점에서의 체류시간이 설정시간 이상인 경우에 제1 지점에서 제2 지점으로의 지점이동으로 판단한다.At this time, in one example, the first and second points each include a set radius range at the set point, and the control unit is configured to control the first virtual image at a first point after the generation or display of the first augmented reality image. If there is a second residence time at the second point before the first residence time, the generation of the second virtual image, or the display of the second augmented reality image, or if there is a waypoint between the first and second points, the stay at the waypoint If the time is longer than the set time, it is determined that the point moves from the first point to the second point.

또한 하나의 예에서, 현실이미지는 행사지역 내지 그 주변에서 카메라 유닛을 통해 촬영된 이미지이거나 행사지역 내지 그 주변에서의 모바일 단말의 위치를 기준으로 설정 앱을 통해 획득되는 이미지이고, 설정 앱을 통해 획득되는 이미지는 설정기간범위 내에서 최초 생성되는 가상객체의 최초 생장/제작 시점 및 제1 및 제2 생장/단계제작에 따른 시점 각각에 대응하는 실질객체의 각 실질 생장/제작 단계에서의 특정지점에 관한 이미지로서 실질객체의 각 실질 생장/제작 단계에 매칭되게 개별 또는 일괄로 획득되고, 설정 앱을 통해 일괄로 현실이미지가 획득된 경우 증강현실 이미지의 생성 시 실질객체의 각 실질 생장/제작 단계에 매칭되는 이미지가 읽혀질 수 있다.Also in one example, the real image is an image taken through a camera unit in the event area or its surroundings, or an image obtained through the setting app based on the location of the mobile terminal in the event area or its surroundings, and through the setting app The acquired image is a specific point in each actual growth/production stage of the real object corresponding to the initial growth/production time of the first virtual object and the time according to the first and second growth/stage manufacturing within the set period range. When an augmented reality image is generated, each actual growth/production stage of a real object is acquired individually or collectively to match each actual growth/production stage of a real object as an image about An image matching to can be read.

이때, 하나의 예에서, 가상객체의 최초 생장 시점 및 제1 및 제2 생장에 따른 시점에 대응하는 실질객체의 각 실질 생장단계는 주, 월 또는 계절에 따른 시기별 단계이고, 제어 유닛은, 설정기간범위 내에서의 증강현실 이미지의 최초 생성 및 제1 및 제2 증강현실 이미지의 생성 중 적어도 어느 하나에서는 카메라 유닛을 통해 촬영된 현실이미지의 배경에 실질객체의 각 실질 생장단계에 따라 변하는 변경 배경객체가 포함되는지 확인하고, 변경 배경객체가 포함된 것으로 확인된 경우 촬영된 현실이미지 중 변경 배경객체에 상응하는 이미지를 실질객체의 각 실질 생장단계에 매칭되게 보정하고, 배경객체의 확인은 사용자의 설정에 의해 또는 설정에 따른 배경객체의 판단에 의해 또는 양자의 조합에 의해 수행되고, 변경 배경객체에 상응하는 이미지의 보정은 색체, 개화, 열매, 낙엽, 낙과, 적설, 생성, 소멸 중 적어도 어느 하나에 관한 보정일 수 있다.At this time, in one example, each real growth stage of the real object corresponding to the initial growth time of the virtual object and the time according to the first and second growth is a stage by period according to a week, month, or season, and the control unit, In at least one of the first generation of the augmented reality image and the generation of the first and second augmented reality images within the set period range, a change that changes according to each substantive growth stage of the real object in the background of the real image photographed through the camera unit Check whether the background object is included, and if it is confirmed that the changed background object is included, the image corresponding to the changed background object among the captured real images is corrected to match each real growth stage of the real object, and the confirmation of the background object is The correction of the image corresponding to the changed background object is performed by the setting of or by the judgment of the background object according to the setting, or a combination of both, and the correction of the image corresponding to the changed background object is at least one of color, flowering, fruit, fallen leaves, falling fruit, snow, creation, and extinction. It may be a correction for any one.

또한 하나의 예에서, 제1 및 제2 생장 각각을 결정하는 하나의 인자로서 자연환경정보는 통신 유닛을 통해 빅데이터서버 내지 외부서버로부터 수신된 주변온도, 강수량, 일조 중 어느 하나 이상에 관한 과거 내지 예측 정보로서 실질객체의 대응 단계구간에서 시간경과에 따른 값, 패턴 내지 시간경과 전체에 대한 평균값 정보이고, 제1 및 제2 생장 각각을 결정하는 하나의 인자로서 객체관여정보는 터치입력에 따라 가상객체에 관한 기상환경관리, 영양관리, 방제/방역, 생식관리, 증산관리, 생산관리 및 주변 환경관리 중 어느 하나 이상을 수행하기 위한 정보이고, 제어 유닛은 제1 및 제2 생장 외에 자연환경정보, 객체관여정보 또는 양자 모두에 의한 실시간 반응을 수행하는 제1 및 제2 가상이미지를 생성하되, 실시간 반응은 빅데이터서버 내지 외부서버로부터 수신된 자연환경정보로서 강수(降水) 또는 바람에 따라 수행되거나 또는 객체관여정보로서 터치입력에 따른 가상객체에 대한 만지기, 흔들기 또는 밀거나 당기기, 식물성 가상객체에 대한 꺾기 또는 따기, 동물성 가상객체에 대한 물주기 또는 먹이주기 중 어느 하나 이상에 따라 수행될 수 있다.Also, in one example, the natural environment information as a factor determining each of the first and second growths is the past related to any one or more of ambient temperature, precipitation, and sunlight received from a big data server or an external server through a communication unit. As predictive information, it is the value over time in the corresponding step section of the real object, the average value information for the pattern or the entire time elapsed, and as one factor determining each of the first and second growth, the object involvement information is based on the touch input. Information for performing any one or more of weather environment management, nutrition management, control / quarantine, reproductive management, transpiration management, production management, and surrounding environment management for the virtual object, and the control unit is a natural environment in addition to the first and second growth First and second virtual images are generated that perform real-time reactions based on information, object involvement information, or both, but the real-time reactions are natural environment information received from a big data server or an external server according to precipitation or wind. To be performed or performed according to any one or more of touching, shaking, pushing, or pulling a virtual object according to a touch input, breaking or picking a vegetable virtual object, watering or feeding an animal virtual object as object involvement information can

또 하나의 예에서, 제어 유닛은 반복된 가상객체의 생장/단계제작의 결과로 생성되는 가상객체가 설정범위에 부합되게 생장/제작되었는지를 판단하거나 판단결과를 확인하고, 모바일 단말은 가상객체가 설정범위에 부합되게 생장/제작된 경우 통신 유닛을 통해 연결된 외부서버로부터 인센티브를 수신하고, 인센티브는 행사에 관련된 전시공간, 행사관람공간 또는 체험공간으로의 입장, 행사에 관련된 티켓구매, 먹거리구매 또는 제품구매 중 어느 하나에 대한 결제 및 행사에 관련된 기념품과의 교환 중 어느 하나 이상의 용도로 사용될 수 있다.In another example, the control unit determines whether or not the virtual object generated as a result of the repeated virtual object growth/stage production conforms to a set range or confirms the determination result, and the mobile terminal determines whether the virtual object is When grown/produced in accordance with the set range, incentives are received from an external server connected through the communication unit, and the incentives are for admission to exhibition space, event viewing space or experience space related to the event, ticket purchase related to the event, food purchase, or It can be used for any one or more purposes of payment for any one of product purchases and exchange with souvenirs related to the event.

본 발명의 하나의 예에 따라, 지역별로 열리는 행사들의 관리, 예컨대 참여도 향상의 방안의 하나로 증강현실 기술을 이용할 수 있다. 하나의 예에서, 증강현실을 이용한 가상객체를 관리하는데 있어서 행사에 관련된 가상객체를 관리하도록 하여 흥미를 유발하거나 참여도를 높일 수 있고, 게다가 증강현실을 이용하여 가상객체를 관리하면서 행사 거점을 두루 돌아다닐 수 있도록 유도하여 행사 참여도를 높일 수 있다.According to an example of the present invention, augmented reality technology may be used as one of the ways to manage events held in each region, for example, to improve participation. In one example, in managing virtual objects using augmented reality, it is possible to arouse interest or increase participation by managing virtual objects related to events, and to manage virtual objects using augmented reality to cover the event base. You can increase participation in the event by inducing them to walk around.

본 발명의 다양한 실시예에 따라 직접적으로 언급되지 않은 다양한 효과들이 본 발명의 실시예들에 따른 다양한 구성들로부터 당해 기술분야에서 통상의 지식을 지닌 자에 의해 도출될 수 있음은 자명하다.According to various embodiments of the present invention, it is apparent that various effects not directly mentioned may be derived by those of ordinary skill in the art from various configurations according to the embodiments of the present invention.

도 1은 본 발명의 하나의 실시예에 따른 증강현실을 이용한 가상객체 관리 방법을 개략적으로 나타내는 흐름도이다.
도 2는 본 발명의 또 하나의 실시예에 따른 증강현실을 이용한 가상객체 관리 방법을 개략적으로 나타내는 흐름도이다.
도 3은 본 발명의 또 하나의 실시예에 따른 증강현실을 이용한 가상객체 관리 방법의 일부를 개략적으로 나타내는 흐름도이다.
도 4는 본 발명의 또 하나의 실시예에 따른 증강현실을 이용한 행사 관리 방법을 개략적으로 나타내는 흐름도이다.
도 5는 본 발명의 또 하나의 실시예에 따른 증강현실을 이용한 행사 관리 방법을 개략적으로 나타내는 흐름도이다.
도 6은 본 발명의 또 하나의 실시예에 따른 모바일 단말을 개략적으로 나타내는 블럭도이다.
도 7은 본 발명의 또 하나의 실시예에 따른 모바일 단말을 개략적으로 나타내는 블럭도이다.
1 is a flowchart schematically illustrating a virtual object management method using augmented reality according to an embodiment of the present invention.
2 is a flowchart schematically illustrating a virtual object management method using augmented reality according to another embodiment of the present invention.
3 is a flowchart schematically illustrating a part of a virtual object management method using augmented reality according to another embodiment of the present invention.
4 is a flowchart schematically illustrating an event management method using augmented reality according to another embodiment of the present invention.
5 is a flowchart schematically illustrating an event management method using augmented reality according to another embodiment of the present invention.
6 is a block diagram schematically illustrating a mobile terminal according to another embodiment of the present invention.
7 is a block diagram schematically illustrating a mobile terminal according to another embodiment of the present invention.

전술한 과제를 달성하기 위한 본 발명의 실시예들이 첨부된 도면을 참조하여 설명될 것이다. 본 설명에 있어서, 동일부호는 동일한 구성을 의미하고, 당해 분야의 통상의 지식을 가진 자에게 본 발명의 이해를 도모하기 위하여 부차적인 설명은 생략될 수도 있다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention for achieving the above object will be described with reference to the accompanying drawings. In this description, the same reference numerals mean the same components, and in order to facilitate the understanding of the present invention to those of ordinary skill in the art, the secondary description may be omitted.

본 명세서에 비록 단수적 표현이 기재되어 있을지라도, 발명의 개념에 반하거나 명백히 다르거나 모순되게 해석되지 않는 이상 복수의 구성 전체를 대표하는 개념으로 사용될 수 있음에 유의하여야 한다. 본 명세서에서 '포함하는', '갖는', '구비하는', '포함하여 이루어지는' 등의 기재는 하나 또는 그 이상의 다른 구성요소 또는 그들의 조합의 존재 또는 부가 가능성이 있는 것으로 이해되어야 한다.It should be noted that, although a singular expression is described in this specification, it may be used as a concept representing the whole of a plurality of components unless it is contrary to the concept of the invention or is clearly different or contradictory. In the present specification, descriptions such as 'comprising', 'having', 'comprising', 'comprising' and the like should be understood as the possibility of the presence or addition of one or more other elements or combinations thereof.

본 명세서에서 '제1', '제2' 등은 각 구성요소의 순서 내지 순위를 나타내는 것이 아니고 각 구성요소들을 서로 구분짓기 위한 것이다.In this specification, 'first', 'second', etc. do not indicate the order or rank of each component, but are used to distinguish each component from each other.

[증강현실을 이용한 가상객체 관리 방법][How to manage virtual objects using augmented reality]

먼저, 본 발명의 하나의 모습에 따른 증강현실을 이용한 가상객체 관리 방법을 도 1 내지 3을 참조하여 살펴보기로 한다. 또한, 후술되는 증강현실 및 빅데이터를 이용한 가상객체 관리를 수행하는 모바일 단말의 실시예들 및 도6 및 7이 참조될 수 있다.First, a virtual object management method using augmented reality according to an aspect of the present invention will be described with reference to FIGS. 1 to 3 . Also, reference may be made to embodiments of a mobile terminal that performs virtual object management using augmented reality and big data, which will be described later, and FIGS. 6 and 7 .

도 1은 본 발명의 하나의 실시예에 따른 증강현실을 이용한 가상객체 관리 방법을 개략적으로 나타내는 흐름도이고, 도 2는 본 발명의 또 하나의 실시예에 따른 증강현실을 이용한 가상객체 관리 방법을 개략적으로 나타내는 흐름도이고, 도 3은 본 발명의 또 하나의 실시예에 따른 증강현실을 이용한 가상객체 관리 방법의 일부를 개략적으로 나타내는 흐름도이다.1 is a flowchart schematically illustrating a virtual object management method using augmented reality according to an embodiment of the present invention, and FIG. 2 is a schematic diagram illustrating a virtual object management method using augmented reality according to another embodiment of the present invention. 3 is a flowchart schematically showing a part of a virtual object management method using augmented reality according to another embodiment of the present invention.

도 1 내지 2를 참조하면, 하나의 예에 따른 증강현실을 이용한 가상객체 관리 방법은 제1 증강이미지 표시단계(S100, S100'), 변환매칭 단계(S200) 및 제2 증강이미지 표시단계(S300, S300')를 포함한다. 먼저, 제1 증강이미지 표시단계(S100, S100')에서는, 특정지역의 행사에 관련된 가상객체를 행사지역과 관련된 특정지점에 관한 현실이미지에 결합시킨 증강현실 이미지를 표시하고 저장하는 모바일 단말(1)에서, 행사지역 내 제1 지점의 제1 시점에서, 특정지점의 자연환경정보 및 가상객체의 생장 또는 제작에 인위적으로 관여하는 것으로서 모바일 단말(1)에서 행해진 객체관여정보 중 어느 하나 이상의 정보에 따라 결정되는 가상객체의 제1 생장/단계제작에 따른 제1 가상이미지를 결합시킨 제1 증강현실 이미지를 표시하고 저장한다. 변환매칭 단계(S200)에서는, 가상객체에 대응하는 실질객체의 설정된 실질 생장/제작 단계에 대응하는 가상객체의 가상 생장/제작 단계에 관하여, 행사지역 내 제2 지점의 제2 시점에서, 제1 지점에서 제2 지점으로의 모바일 단말(1)의 지점이동을 가상 생장/제작 단계 중 제1 가상이미지를 생성한 제1 시점으로부터 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 생성하는 제2 시점까지의 생장/제작 단계구간에 대응시켜 매칭시킨다. 그리고 제2 증강이미지 표시단계(S300, S300')에서는, 제2 지점의 제2 시점의 모바일 단말(1)에서, 매칭된 생장/제작 단계구간에 대응하도록 설정된 실질객체의 실질 생장/제작 단계 중 대응 단계구간에서의 자연환경정보 및 매칭된 생장/제작 단계구간에서의 객체관여정보 중 어느 하나 이상의 정보에 따라 제1 생장/단계제작 이후로부터 추가 생장/단계제작된 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 결합시킨 제2 증강현실 이미지를 표시하고 저장한다.1 to 2, the virtual object management method using augmented reality according to an example is a first augmented image display step (S100, S100'), a transformation matching step (S200) and a second augmented image display step (S300) , S300'). First, in the first augmented image display step (S100, S100'), the mobile terminal 1 for displaying and storing an augmented reality image in which a virtual object related to an event in a specific area is combined with a real image related to a specific point related to the event area ), at the first point of the first point in the event area, the natural environment information of a specific point and the object involvement information performed in the mobile terminal 1 as artificially involved in the growth or production of virtual objects. The first augmented reality image in which the first virtual image according to the first growth/stage production of the virtual object determined according to the determined virtual object is combined is displayed and stored. In the transformation matching step ( S200 ), with respect to the virtual growth/production step of the virtual object corresponding to the set actual growth/production step of the real object corresponding to the virtual object, at the second point in time at the second point in the event area, the first A second virtual image is generated according to the second growth/step production of the virtual object from the first point of time when the first virtual image is generated during the virtual growth/production step of the point movement of the mobile terminal 1 from the point to the second point Match the growth/manufacturing stage period up to the second time point. And in the second augmented image display step (S300, S300'), in the mobile terminal 1 at the second time point of the second point, the actual growth/production phase of the real object set to correspond to the matched growth/production phase section The second growth/stage of the virtual object additionally grown/staged from after the first growth/stage production according to any one or more of the natural environment information in the corresponding stage section and the object involvement information in the matched growth/production stage section A second augmented reality image combined with a second virtual image according to production is displayed and stored.

본 발명에서, 모바일 단말(1)은 특정지역의 행사에 관련된 가상객체를 행사지역과 관련된 특정지점에 관한 현실이미지에 결합시킨 증강현실 이미지를 표시하고 저장하는 단말이다. 예컨대, 모바일 단말(1)은 스마트폰, 태블릿PC, 노트북, PDA 등이고 이에 한정되지 않으며, 통신 및 휴대가능한 정보기기면 족하다. 행사라함은 예컨대 특정지역에서 특정지역의 특산품 내지 문화 등에 관하여 행해지는 이벤트를 말하고, 예컨대 지역 축제 등이 그 예가 될 수 있다. 특정지역의 특산품 등은 대표적으로 농산물이나 수산물 등을 예로 들수 있고, 나아가 꽃과 같은 식물들이나 나비와 같은 동물 등과 같은 경우에도 특정지역을 대표할 수 있는 것이면 족하고, 이에 한정되지 않는다. 특정지역의 문화 등은 전통문화, 장터, 가요제 등이 될 수 있고, 나아가 빛, 건축물, 산, 강을 주제로 하는 것일 수도 있고, 이에 한정되지 않는다. 행사지역은 특정지역의 행사가 진행되는 지역을 의미하는데, 예컨대 행사자체가 진행되는 지역뿐만 아니라 주변 주차장, 주변 음식점 등을 포함하는 의미일 수 있다.In the present invention, the mobile terminal 1 is a terminal for displaying and storing an augmented reality image in which a virtual object related to an event in a specific area is combined with a real image related to a specific point related to the event area. For example, the mobile terminal 1 is a smart phone, a tablet PC, a notebook computer, a PDA, etc., but is not limited thereto, and a communication and portable information device is sufficient. The term "event" refers to, for example, an event that is performed in a specific area with respect to a special product or culture of a specific area, and for example, a local festival may be an example. The special products of a specific region may be representative agricultural products or aquatic products, and furthermore, plants such as flowers or animals such as butterflies are sufficient as long as they can represent a specific region, but are not limited thereto. The culture of a specific region may be a traditional culture, a market place, a song festival, etc., and further may have the theme of light, a building, a mountain, or a river, but is not limited thereto. The event area means an area where an event in a specific area is held, for example, it may mean including not only the area where the event itself is held but also a nearby parking lot, nearby restaurants, and the like.

가상객체는 현실이미지와 대비되게 가상으로 형성된 이미지를 말하고 주로 증강현실 이미지를 구현하는데 현실이미지 상에 결합되는 이미지로 사용된다. 가상이미지는 가상객체의 이미지를 말한다. 증강현실 이미지는 현실이미지에 가상객체의 가상이미지를 결합시킨 이미지를 말한다. 통상적으로 증강현실 이미지는 현실동영상에 가상이미지를 결합시킨 동영상 이미지를 말한다. 예컨대, 하나의 예에서, 가상객체는 행사주제 내지 특정지역과 관련된 것이고, 생장이 이루어지는 가상객체는 식물성 내지 동물성 가상객체이고, 제작이 이루어지는 가상객체는 가상제조물 내지 가상구조물이거나 가상 문화행사일 수 있다.A virtual object refers to an image formed virtual in contrast with a real image, and is mainly used as an image combined on a real image to implement an augmented reality image. A virtual image is an image of a virtual object. The augmented reality image refers to an image in which a virtual image of a virtual object is combined with a real image. In general, the augmented reality image refers to a moving image in which a virtual image is combined with a real image. For example, in one example, the virtual object is related to the event theme or a specific region, the virtual object in which growth is made is a virtual object of vegetable or animal origin, and the virtual object in which the production is made may be a virtual product, a virtual structure, or a virtual cultural event. .

본 발명에서 현실이미지는 특정지점에 관한 현실이미지로서, 모바일 단말(1)에서 촬영된 이미지일 수 있고, 또는 모바일 단말(1)에서 설정 앱을 통해 획득된 이미지일 수 있다. 예컨대 특정지점은 가상객체가 결합되는 지점일 수 있다. 이에 따라 증강현실 이미지에 사용되는 현실이미지는 특정지점에 관한 이미지여야 한다. 예컨대, 현실이미지 상에 포함되어 가상객체가 결합되는 특정지점은 식물이나 구조물 등과 같은 고정형 가상객체가 고정된 지점이거나 동물 등과 같은 이동형 가상객체가 활동하는 범위일 수 있다. 예컨대, 특정지점이 이동형 가상객체의 활동범위인 경우 이동성이 제약이 있는 가상객체의 경우 전체 활동범위이거나 또는 이동성이 강한 가상객체의 경우 일부 활동범위를 의미할 수 있다.In the present invention, the real image is a real image related to a specific point, and may be an image photographed in the mobile terminal 1 , or may be an image obtained through a setting app in the mobile terminal 1 . For example, the specific point may be a point at which virtual objects are combined. Accordingly, the real image used in the augmented reality image must be an image related to a specific point. For example, the specific point included in the real image and coupled with the virtual object may be a fixed point of a fixed virtual object such as a plant or a structure, or a range in which a movable virtual object such as an animal is active. For example, when a specific point is the activity range of the movable virtual object, it may mean the entire activity range in the case of a virtual object with limited mobility or a partial activity range in the case of a virtual object having high mobility.

예컨대, 도시되지 않았으나, 하나의 예에 따른 증강현실을 이용한 가상객체 관리 방법은 제1 생장/단계제작 단계 이전에 모바일 단말(1)에서 가상객체를 특정지점에 관한 현실이미지에 합성시켜 증강현실 이미지를 최초 생성시키고 저장하는 최초 생성단계를 더 포함할 수 있다. 증강현실 이미지 생성기술은 이미 널리 알려져 있으므로, 구체적인 설명은 생략하기로 한다. 예컨대, 가상객체의 최초 생장의 시기는 설정기간범위 내에서 증강현실 이미지의 최초 생성을 위해 선택되는 가상객체의 생장정도에 따른 시기일 수 있다. 예컨대, 설정기간범위는 행사기간, 또는 행사기간과 그 전후의 일부를 포함한 기간일 수 있다.For example, although not shown, the virtual object management method using augmented reality according to an example synthesizes the virtual object in the mobile terminal 1 before the first growth/stage production step with a real image related to a specific point to create an augmented reality image. It may further include an initial generation step of initially generating and storing. Since augmented reality image generation technology is already widely known, a detailed description thereof will be omitted. For example, the initial growth period of the virtual object may be a period according to the growth degree of the virtual object selected for the initial generation of the augmented reality image within a set period range. For example, the set period range may be an exercise period or a period including a part before and after the exercise period.

이하에서, 각 단계별로 구체적으로 살펴본다.Hereinafter, each step will be described in detail.

제1 증강이미지 표시단계(S100, S100')First augmented image display step (S100, S100')

도 1 내지 2를 참조하여, 제1 증강이미지 표시단계(S100, S100')를 살펴본다. 제1 증강이미지 표시단계(S100, S100')에서는, 특정지역의 행사에 관련된 가상객체에 관한 증강현실 이미지를 표시하고 저장하는 모바일 단말(1)에서, 행사지역 내 제1 지점의 제1 시점에서 가상객체의 제1 생장/단계제작에 따른 제1 가상이미지를 결합시킨 제1 증강현실 이미지를 표시하고 저장한다. 가상객체의 생장/단계제작이라 함은 가상객체가 생장하는 가상생물인 경우 생장을 의미하거나 가상객체가 무생물, 예컨대 제조물이나 구조물 등인 경우 가상의 무생물을 제조 내지 제작하는데 있어서의 제조 내지 제작의 단계를 의미한다. 본 명세서에서 '생장/단계제작'에서와 같이 "/"은 '또는'의 의미로 해석될 수 있다.1 to 2, the first augmented image display step (S100, S100') will be looked at. In the first augmented image display step (S100, S100'), in the mobile terminal 1 for displaying and storing an augmented reality image related to a virtual object related to an event in a specific area, at a first point of view in the event area The first augmented reality image in which the first virtual image according to the first growth/stage production of the virtual object is combined is displayed and stored. Growth/stage production of a virtual object means growth when the virtual object is a growing virtual organism, or when the virtual object is an inanimate object, such as a product or structure, the manufacturing or production step in manufacturing or producing a virtual inanimate object. it means. In this specification, as in 'growth/stage production', "/" may be interpreted as meaning 'or'.

모바일 단말(1)에서 표시되는 제1 증강현실 이미지는 가상객체의 제1 가상이미지를 특정지점에 관한 제1 시점에서의 현실이미지에 결합시켜 얻어질 수 있다. 예컨대 제1 시점은 모바일 단말(1)에서 가상객체의 제1 가상이미지를 얻거나 제1 증강현실 이미지를 생성하는 시점으로서 모바일 단말(1)이 제1 지점에 있을 때의 시점이다.The first augmented reality image displayed on the mobile terminal 1 may be obtained by combining a first virtual image of a virtual object with a real image at a first viewpoint with respect to a specific point. For example, the first time point is a time point when the mobile terminal 1 obtains a first virtual image of a virtual object or generates a first augmented reality image, and is a time point when the mobile terminal 1 is at the first point.

예컨대, 가상객체의 가상이미지, 예를 들면 제1 가상이미지 및/또는 후술되는 제2 가상이미지와 결합되어 증강현실 이미지를 생성시키는 현실이미지는 행사지역 내지 그 주변에서 모바일 단말(1)을 통해 촬영된 이미지이거나 행사지역 내지 그 주변에서의 모바일 단말(1)의 위치를 기준으로 설정 앱을 통해 획득되는 이미지일 수 있다. 예컨대, 행사지역 내지 그 주변에서의 모바일 단말(1)의 위치를 기준으로 획득된다는 것은 모바일 단말(1)이 행사지역 내지 그 주변 위치에 있는 경우에 설정 앱을 통한 특정지점에 관한 현실이미지의 획득이 가능하다는 것을 의미이다. 예컨대, 설정 앱은 본 발명에서 특정지점에 관한 증강현실 이미지를 구현해주는 앱으로서 모바일 단말(1)에 탑재된 앱이다.For example, a virtual image of a virtual object, for example, a first virtual image and/or a real image that is combined with a second virtual image to be described later to generate an augmented reality image is photographed through the mobile terminal 1 in or around the event area. It may be an image or an image obtained through a setting app based on the location of the mobile terminal 1 in the event area or its surroundings. For example, acquisition based on the location of the mobile terminal 1 in the event area or its vicinity means that the mobile terminal 1 is in the event area or its surrounding location, and the acquisition of a reality image about a specific point through the setting app This means that it is possible. For example, the setting app is an app mounted on the mobile terminal 1 as an app that implements an augmented reality image for a specific point in the present invention.

예컨대 하나의 예에서, 행사지역 내의 제1 지점 및 후술되는 제2 지점은 행사에 관련된 전시공간, 행사관람공간, 체험공간, 먹거리공간 중 어느 하나를 구성하는 지점일 수 있다. 제1 가상이미지는 제1 시점에서의 가상객체의 이미지일 수 있다.For example, in one example, the first point in the event area and the second point to be described later may be points constituting any one of an exhibition space, an event viewing space, an experience space, and a food space related to the event. The first virtual image may be an image of the virtual object at the first viewpoint.

예컨대, 제1 지점 및 후술되는 제2 지점은 각각 설정된 지점에서의 설정반경범위를 포함하는 것일 수 있다. 즉, 제1 및 제2 지점이 특정한 하나의 포인트 지점만을 의미하는 것으로 해석될 필요는 없다.For example, the first point and the second point to be described later may each include a set radius range at the set point. That is, the first and second points need not be construed to mean only one specific point point.

제1 증강이미지 표시단계(S100, S100')에서 모바일 단말(1)에서 제1 증강현실 이미지를 구현하는데 현실이미지에 결합되는 가상객체의 제1 가상이미지는 행사지역 내 제1 지점의 제1 시점에서 가상객체의 제1 생장/단계제작에 따라 생성되는 이미지이다. In the first augmented image display step (S100, S100') to implement the first augmented reality image in the mobile terminal 1, the first virtual image of the virtual object coupled to the real image is the first viewpoint of the first point in the event area. It is an image generated according to the first growth/stage production of a virtual object.

이때, 현실이미지는 가상객체의 제1 생장/단계제작에 대응되는 실질객체의 실질 생장/단계제작 시기 내지 구간에서의 특정지점에 관한 현실이미지이다. 예컨대, 가상객체의 제1 가상이미지와 결합되어 제1 증강현실 이미지를 생성시키는 현실이미지는 행사지역 내지 그 주변의 제1 시점에서 모바일 단말(1)을 통해 촬영된 이미지이거나 행사지역 내지 그 주변에서의 모바일 단말(1)의 위치를 기준으로 설정 앱을 통해 획득되는 이미지일 수 있다. 예컨대, 설정 앱을 통해 획득되는 이미지는 모바일 단말(1)에서 설정기간범위 내에서 최초 획득되는 가상객체의 최초 생장/제작 시점 및 제1 및 제2 생장/단계제작에 따른 시점 각각에 대응하는 실질객체의 각 실질 생장/제작 단계에서의 특정지점에 관한 이미지로서 실질객체의 각 실질 생장/제작 단계에 매칭되게 개별 또는 일괄로 획득될 수 있다. 가상객체의 제2 생장 내지 제작단계(단계제작) 시점은 후술되는 가상객체의 제2 가상이미지의 생성 내지 획득 시점을 의미한다. 지역 행사의 경우 연별로 반복되는 경우가 많으므로 모바일 단말(1)을 통한 가상객체에 관한 증강현실 이미지를 표시하도록 하여 행사의 참여 등을 유도하는데 있어 기간 제한이 필요할 수 있다. 예컨대 이때, 설정기간범위 내라 함은 행사기간, 행사기간 및 그 전 또는/및 후의 일부기간을 포함한 기간을 의미할 수 있다. 설정 앱을 통해 획득된 현실이미지에 가상객체의 가상이미지가 결합되어 증강현실 이미지를 구현하게 되므로, 증강현실의 현실을 높이기 위해서는 설정 앱을 통해 획득된 현실이미지가 가상객체의 가상이미지의 생장 내지 제작단계의 변화에 맞는 현실에 부합될 필요가 있다. 따라서 설정 앱을 통해 획득된 현실이미지는 가상객체의 최초 생성 내지 제작시작 시점, 제1 생장 내지 제작단계(단계제작) 시점, 제2 생장 내지 제작단계(단계제작) 시점과 대응되는 실질객체의 각 실질 생장 내지 제작단계(단계제작) 시점에서의 특정지점에 관한 이미지일 수 있다. 이때, 가상객체의 이미지 발전의 각 시점에 대응하는 실질객체의 각 시점에서의 이미지는 설정 앱을 통해 가상객체의 이미지 발전의 각 시점에서 개별적으로 또는 어느 시점에서 일괄적으로 획득될 수 있다. 예컨대, 가상객체의 이미지 발전의 각 시점에 대응하는 실질객체의 각 실질 생장 내지 제작단계(단계제작) 시점에서의 특정지점에 관한 이미지는 모바일 단말(1)과 설정 앱을 통해 통신 연결되는 외부 서버 등에 저장된 것일 수 있다. 예컨대, 설정 앱을 통해 일괄로 현실이미지가 획득된 경우 증강현실 이미지의 생성 시 결합되는 가상객체의 가상이미지의 생장/단계제작에 부합되는 실질객체의 각 실질 생장/제작 단계에 매칭되는 이미지가 읽혀질 수 있다.In this case, the real image is a real image relating to a specific point in the actual growth/stage production period or section of the real object corresponding to the first growth/stage production of the virtual object. For example, the real image that is combined with the first virtual image of the virtual object to generate the first augmented reality image is an image taken through the mobile terminal 1 at the first time point in or around the event area or in the event area or its surroundings. It may be an image obtained through a setting app based on the location of the mobile terminal 1 of For example, the image acquired through the setting app is a substance corresponding to the initial growth/production time of the virtual object first acquired within the set period range in the mobile terminal 1 and the time point according to the first and second growth/stage production, respectively. As an image of a specific point in each substantive growth/production stage of the object, it may be acquired individually or collectively to match each substantive growth/manufacturing stage of the real object. The timing of the second growth or production step (step production) of the virtual object refers to the timing of generation or acquisition of a second virtual image of the virtual object, which will be described later. Since local events are often repeated annually, a time limit may be required to induce participation in the event by displaying an augmented reality image on a virtual object through the mobile terminal 1 . For example, in this case, within the set period range may mean a period including the exercise period, the exercise period, and a partial period before or/and after it. Since the virtual image of the virtual object is combined with the real image obtained through the setting app to realize the augmented reality image, in order to increase the reality of augmented reality, the real image obtained through the setting app is used to grow or produce a virtual image of a virtual object. It is necessary to adapt to the reality that fits the stage change. Therefore, the real image acquired through the setting app is the first generation or production start time of the virtual object, the first growth or production phase (step production) time, and the second growth or production phase (step production) time of the real object corresponding to each of the corresponding angles. It may be an image about a specific point at the time of actual growth or production (stage production). In this case, the image at each point in time of the real object corresponding to each point in time of image development of the virtual object may be acquired individually or collectively at each point in time of image development of the virtual object through the setting app. For example, an image related to a specific point in each actual growth or production stage (stage production) of a real object corresponding to each point in time of image development of a virtual object is an external server that is communicated with the mobile terminal 1 through a setting app It may be stored in, etc. For example, when real images are acquired in a batch through the setting app, images matching each real growth/production stage of a real object that match the growth/stage production of the virtual image of the virtual object that are combined when generating the augmented reality image are read. can

예컨대 하나의 예에서, 가상객체가 생물성인 경우, 가상객체의 최초 생장 시점, 제1 생장에 따른 시점 및 제2 생장에 따른 시점에 대응하는 실질객체의 각 실질 생장단계는 주, 월 또는 계절에 따른 시기별 단계일 수 있다. 예컨대, 가상객체가 무생물성인 경우 가상객체의 최초 제작시작 시점, 제1 및 제2 제작단계 시점에 대응하는 실질객체의 각 단계는 공정별 단계일 수 있다.For example, in one example, when the virtual object is a living thing, each real growth stage of the real object corresponding to the first growth time, the first growth time, and the second growth time of the virtual object is in a week, month or season. It may be a step-by-step process. For example, when the virtual object is inanimate, each step of the real object corresponding to the initial production start time of the virtual object and the first and second production step times may be a process-specific step.

제1 증강이미지 표시단계(S100, S100')에서의 가상객체의 제1 생장/단계제작은 특정지점의 자연환경정보 및 객체관여정보 중 어느 하나 이상의 정보에 따라 결정될 수 있다. 객체관여정보는 가상객체의 생장 또는 제작에 인위적으로 관여하는 것으로서 모바일 단말(1)에서 예컨대 터치입력에 따라 행해진 것을 말한다.The first growth/stage production of the virtual object in the first augmented image display step (S100, S100') may be determined according to any one or more of natural environment information and object involvement information of a specific point. The object involvement information is artificially involved in the growth or production of a virtual object, and refers to something performed in the mobile terminal 1 according to, for example, a touch input.

예컨대, 특정지점의 자연환경정보는 기온이나 해수 또는 강물의 온도, 강우나 적설 등의 강수량, 일조(日照), 바람, 습도 등의 기상정보일 수 있다. 기상정보는 실시간 내지 시간경과에 따른 것일 수 있다. 특히, 가상객체의 제1 생장 내지 단계제작을 결정하는 요소의 하나로서 자연환경정보는 제1 생장 내지 단계제작의 기간에 대응하는 실질객체의 실질 생장 내지 제작단계의 기간 동안의 시간경과에 따른 자연환경정보일 수 있고, 또는 구조물 등의 가상객체의 경우 제1 단계제작 시점에 대응하는 실질객체의 제작단계 시점에서의 또는 가상객체의 제1 단계제작 시점에서의 특정시간에 대한 자연환경정보일 수 있다. 예컨대, 특정지점의 자연환경정보는 외부서버 내지 빅데이터 서버로부터 획득된 정보일 수 있다. 예컨대, 제1 생장 내지 단계제작의 기간(구간)은 가상객체의 이전 생장 내지 제작단계 시점(시기)로부터 제1 생장 내지 제작단계 시점(시기)까지의 기간(구간)을 의미한다.For example, the natural environment information of a specific point may be temperature or seawater or river water temperature, precipitation amount such as rainfall or snow cover, weather information such as sunshine, wind, and humidity. The weather information may be in real time or according to the passage of time. In particular, as one of the factors determining the first growth or stage production of the virtual object, the natural environment information is the natural environment according to the lapse of time during the actual growth or production stage of the real object corresponding to the period of the first growth or stage production. It may be environmental information, or in the case of a virtual object such as a structure, it may be natural environment information for a specific time at the time of the production stage of the real object corresponding to the time of the first stage of production or the time of the first stage of manufacturing of the virtual object have. For example, the natural environment information of a specific point may be information obtained from an external server or a big data server. For example, the period (section) of the first growth or stage production means a period (interval) from the time point (time) of the previous growth or production stage of the virtual object to the time point (time) of the first growth or production stage.

예컨대, 객체관여정보는 모바일 단말(1)에서 터치입력에 따라 생물성 가상객체에 관한 온도조절 등의 기상환경관리, 물주기, 거름주기, 먹이주기 등의 영양관리, 농약 등의 병충해 방제나 예방주사 등의 방역관리, 식물이나 동물의 생식관리, 솎기 등의 증산관리, 수확 등의 생산관리 및 청소나 잡초제거 등의 주변 환경관리 중 어느 하나 이상을 수행하기 위한 정보일 수 있고, 무생물성 가상객체의 경우 터치입력에 따라 재료준비 등의 사전준비단계, 제조 내지 제작의 각 단계 중 어느 하나 이상을 수행하기 위한 정보일 수 있다. 예컨대, 가상객체의 제1 생장 내지 단계제작을 결정하는 요소의 하나로서 객체관여정보는 제1 생장 내지 단계제작의 기간 중에, 예컨대, 가상객체의 이전 생장 내지 제작단계 시점(시기)로부터 제1 생장 내지 제작단계 시점(시기)까지의 기간(구간) 중에 터치입력에 따라 이루어진 것일 수 있다.For example, the object involvement information includes weather environment management such as temperature control for biological virtual objects according to a touch input from the mobile terminal 1, nutrition management such as watering, fertilization, and feeding, pest control or prevention such as pesticides It may be information for performing any one or more of quarantine management such as injection, reproductive management of plants or animals, production management such as thinning, production management such as harvesting, and environmental management such as cleaning or weed removal. In the case of an object, it may be information for performing at least one of a pre-preparation step such as material preparation and each step of manufacturing or manufacturing according to a touch input. For example, as one of the factors determining the first growth or stage production of the virtual object, the object involvement information includes the first growth during the period of the first growth or stage production, for example, from the time point (time) of the previous growth or production stage of the virtual object. It may be made according to a touch input during a period (section) from the time (period) to the time (period) of the manufacturing stage.

예컨대, 가상객체의 생장은 식물성 가상객체의 경우 싹트기, 길이성장, 가지 내지 잎의 성장, 꽃피우기, 열매맺기, 열매성장, 수확, 소멸 등에서 적어도 하나 이상을 포함할 수 있고, 동물성 가상객체의 경우 산란, 새끼, 크기 성장, 변태의 각 단계, 회귀, 생식, 수확, 소멸 등에서 적어도 하나 이상을 포함할 수 있다.For example, the growth of the virtual object may include at least one or more of budding, length growth, growth of branches or leaves, flowering, fruit bearing, fruit growth, harvest, extinction, etc. in the case of a vegetable virtual object, and in the case of an animal virtual object It may include at least one or more of spawning, offspring, size growth, each stage of metamorphosis, regression, reproduction, harvest, extinction, and the like.

도 2를 참조하여 살펴본다. 가상객체가 생장하는 생물성 가상객체인 경우에 대해 살펴보면, 하나의 예에서, 가상객체의 제1 생장 및 제2 생장 각각을 결정하는 하나의 인자로서 자연환경정보는 빅데이터서버 내지 외부서버로부터 수신된 주변온도, 강수량, 일조 중 어느 하나 이상에 관한 과거 내지 예측 정보일 수 있다(S100', S300'). 이때, 제1 생장 및 제2 생장 각각을 결정하는 하나의 인자로서 자연환경정보는 가상객체에 대응하는 실질객체의 각 대응 단계구간에서 시간경과에 따른 값, 패턴 내지 시간경과 전체에 대한 평균값 정보일 수 있다. 게다가, 가상객체의 제1 생장 및 제2 생장 각각을 결정하는 하나의 인자로서 객체관여정보는 터치입력에 따라 가상객체에 관한 기상환경관리, 영양관리, 방제/방역, 생식관리, 증산관리, 생산관리 및 주변 환경관리 중 어느 하나 이상을 수행하기 위한 정보일 수 있다(S100', S300').See FIG. 2 . Looking at the case where the virtual object is a growing biological virtual object, in one example, natural environment information as a factor determining each of the first growth and the second growth of the virtual object is received from a big data server or an external server. It may be past or forecast information about any one or more of ambient temperature, precipitation, and sunshine (S100', S300'). At this time, the natural environment information as one factor determining each of the first growth and the second growth is the value over time in each corresponding step section of the real object corresponding to the virtual object, the pattern or the average value information for the entire time elapsed. can In addition, as one factor determining each of the first growth and the second growth of the virtual object, the object involvement information is weather environment management, nutrition management, control/prevention, reproduction management, transpiration management, and production of the virtual object according to the touch input. It may be information for performing any one or more of management and surrounding environment management (S100', S300').

예컨대, 도 2를 참조하면, 하나의 예에서, 가상객체의 제1 가상이미지 및 후술되는 제2 가상이미지는 제1 생장 및 제2 생장 외에 자연환경정보, 객체관여정보 또는 양자 모두에 의한 실시간 반응을 수행할 수 있다(S150, S350). 예컨대, 가상객체가 식물성인 경우 가상이미지의 반응은 가상객체의 흔들기, 밀리거나 당기기, 구부리기, 꺾기, 따기, 낙엽지기, 낙화, 낙과 등에서 선택되는 적어도 하나 이상일 수 있고, 동물성인 경우 만지기, 이동, 정지, 회피하기, 물이나 먹이 먹기 등에서 선택되는 적어도 하나 이상일 수 있다. 하나의 예에서, 가상객체의 실시간 반응은 빅데이터서버 내지 외부서버로부터 수신된 자연환경정보로서 강수(降水) 또는 바람에 따라 수행되거나 또는 객체관여정보로서 터치입력에 따른 가상객체에 대한 만지기, 흔들기 또는 밀거나 당기기, 식물성 가상객체에 대한 꺾기 또는 따기, 동물성 가상객체에 대한 물주기 또는 먹이주기 중 어느 하나 이상에 따라 수행될 수 있다. 예컨대, 가상객체의 실시간 반응은 바람 등의 자연환경정보가 아닌 모바일 단말(1)에서의 인위적 환경, 예컨대 흔들기 등에 의해서도 이루어질 수 있다.For example, referring to FIG. 2 , in one example, a first virtual image of a virtual object and a second virtual image to be described later are real-time responses by natural environment information, object involvement information, or both in addition to the first growth and second growth. can be performed (S150, S350). For example, when the virtual object is of a vegetable nature, the reaction of the virtual image may be at least one selected from shaking, pushing, pulling, bending, breaking, picking, falling leaves, falling leaves, and falling fruit of the virtual object, and in the case of an animal, touching, moving, It may be at least one selected from stopping, avoiding, eating water or food, and the like. In one example, the real-time reaction of the virtual object is performed according to precipitation or wind as natural environment information received from a big data server or an external server, or touching or shaking the virtual object according to a touch input as object involvement information. Alternatively, it may be performed according to any one or more of pushing or pulling, cutting or picking for a vegetable virtual object, and watering or feeding an animal virtual object. For example, the real-time reaction of the virtual object may be made by an artificial environment in the mobile terminal 1, for example, shaking, not natural environment information such as wind.

예컨대, 제1 증강이미지 표시단계(S100, S100')의 전과정이 모바일 단말(1)에서 수행될 수 있다. 또는 이와 달리, 모바일 단말(1)에서는 제1 증강이미지 표시단계(S100, S100')에서 제1 증강현실 이미지를 생성하고 표시하고 저장하는 과정을 수행하고, 모바일 단말(1)과 전용 앱을 통해 연결된 외부서버에서 가상객체의 제1 가상이미지를 생성하여 모바일 단말(1)로 제공하여 모바일 단말(1)에서 제1 가상이미지를 현실이미지에 결합시키는 것도 가능하다.For example, the entire process of the first augmented image display step (S100, S100') may be performed in the mobile terminal (1). Alternatively, the mobile terminal 1 performs a process of generating, displaying, and storing the first augmented reality image in the first augmented image display step (S100, S100') in the mobile terminal 1, and through the mobile terminal 1 and a dedicated app It is also possible to generate a first virtual image of a virtual object in a connected external server and provide it to the mobile terminal 1 to combine the first virtual image with the real image in the mobile terminal 1 .

변환매칭 단계(S200)Conversion matching step (S200)

계속하여, 도 1 내지 2를 참조하여, 변환매칭 단계(S200)를 구체적으로 살펴본다. 변환매칭 단계(S200)에서는, 제1 지점에서 제2 지점으로의 모바일 단말(1)의 지점이동을 가상객체의 제1 가상이미지를 생성한 제1 시점으로부터 가상객체의 제2 가상이미지를 생성하는 제2 시점까지의 생장/제작 단계구간에 대응시켜 매칭시킨다. 예컨대, 변환매칭 단계(S200)는 모바일 단말(1)에서 수행될 수 있다. 이러한 과정을 통하여, 가상객체의 생장 내지 제작단계에 대응하는 실질객체의 각 생장 내지 제작단계에 요구되는 시간의 경과에 의하지 않고서도 가상객체의 생장 내지 제작을 수행할 수 있다. 특히, 종래에서와 같이 실질객체의 시간의 흐름을 단순히 가상객체의 생장/제작 단계의 시간으로 축소시키는 경우와 달리, 공간의 이동을 시간 내지 공정단계의 개념으로 대응시켜 변환 매칭시킴으로써, 예컨대 행사 등에 적용되는 경우 행사의 참여, 특히 공간 이동을 통한 다양한 참여의 기회를 보장해주고 독려할 수 있다는 점에서 차별적이며 장점을 가질 수 있다. 이에 따라, 행사에 참여한 참가자들이 단순히 눈요기 하듯 지나가면 행사에 참여하는 것이 아니라 여러 공간을 이동하며 참여하게 되어 실질적인 참여도를 높이고 나아가 행사 참여자에게도 유익하고 호응도를 높일 수 있게 된다.Subsequently, with reference to FIGS. 1 and 2 , the transformation matching step ( S200 ) will be described in detail. In the transformation matching step (S200), the movement of the mobile terminal 1 from the first point to the second point generates a second virtual image of the virtual object from the first point of time when the first virtual image of the virtual object is generated. Match the growth/production stage period up to the second time point. For example, the conversion matching step ( S200 ) may be performed in the mobile terminal ( 1 ). Through this process, the growth or production of the virtual object can be performed without the elapse of time required for each growth or production step of the real object corresponding to the growth or production step of the virtual object. In particular, unlike the case in which the flow of time of a real object is simply reduced to the time of the growth/production stage of a virtual object as in the prior art, the movement of space is matched with the concept of time or process stage to transform and match, for example, at events, etc. If applicable, participation in events, especially through space movement, can be differentiated and advantageous in that it guarantees and encourages various opportunities for participation. Accordingly, if the participants who participated in the event simply pass by like an eye-catcher, they do not participate in the event but move through various spaces to participate, thereby increasing the actual participation level and furthermore, it is beneficial and responsive to the event participants.

구체적으로 살펴보면, 변환매칭 단계(S200)에서는, 가상객체에 대응하는 실질객체의 설정된 실질 생장/제작 단계에 대응하는 가상객체의 가상 생장/제작 단계에 관하여, 행사지역 내 제2 지점의 제2 시점에서, 제1 지점에서 제2 지점으로의 모바일 단말(1)의 지점이동을 가상 생장/제작 단계 중 제1 가상이미지를 생성한 제1 시점으로부터 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 생성하는 제2 시점까지의 생장/제작 단계구간에 대응시켜 매칭시킨다. 이때, 제2 지점은 제1 지점과 이격되며 시간적으로 제1 지점 이후 방문되는 지점이다. 예컨대, 제1 지점에서 제2 지점으로의 모바일 단말(1)의 지점이동은 단순히 위치이동만을 가지고 판단하기 보다는 체류시간을 추가하여 판단함으로써, 본 발명의 적용에 따른 효과를 더 높이거나 종래와는 차별적 효과를 기대할 수 있다.More specifically, in the transformation matching step ( S200 ), with respect to the virtual growth/production phase of the virtual object corresponding to the set actual growth/production phase of the real object corresponding to the virtual object, the second time point of the second point in the event area In the second point movement of the mobile terminal 1 from the first point to the second point according to the second growth/step production of the virtual object from the first point of time when the first virtual image is generated during the virtual growth/production step Matching is made in correspondence with the growth/production stage section up to the second time point of generating the virtual image. In this case, the second point is a point that is spaced apart from the first point and is visited after the first point in time. For example, the point movement of the mobile terminal 1 from the first point to the second point is determined by adding a residence time rather than simply determining the location movement, thereby increasing the effect of the application of the present invention or compared to the prior art. Differential effects can be expected.

예컨대, 하나의 예에서, 변환매칭 단계(S200)에서, 제1 지점에서 제2 지점으로의 지점이동은 제1 가상이미지의 생성 또는 제1 증강현실 이미지의 표시 이후부터의 제1 지점에서의 제1 체류시간, 제2 가상이미지의 생성 또는 제2 증강현실 이미지의 표시 이전까지의 제2 지점에서의 제2 체류시간 또는 제1 및 제2 지점 사이의 경유지점이 있는 경우 경유지점에서의 체류시간이 설정시간 이상인 경우에 지점이동으로 판단될 수 있다. 이에 따라, 행사 등에 적용되는 경우 행사의 참여, 특히 공간 이동을 통한 다양한 참여의 기회를 보장해주고 독려할 수 있다는 점에서 차별적이며 장점을 가질 수 있다. 이에 따라, 본 발명을 적용하여 행사 등에서 실시되는 경우에, 행사에 참여한 참가자들이 단순히 눈요기 하듯 지나가지 않고 여러 공간을 일정시간 이상 체류하며 이동하게 되어 실질적인 참여도를 높일 수 있고 나아가 행사 참여자에게도 유익하고 호응도를 높일 수 있게 된다.For example, in one example, in the transformation matching step ( S200 ), the point movement from the first point to the second point is the first point at the first point after the generation of the first virtual image or the display of the first augmented reality image. 1 Residence time, the second residence time at the second point before the generation of the second virtual image or the display of the second augmented reality image, or if there is a stopover point between the first and second points, the stay time at the stopover point is If it is longer than the set time, it may be determined as a point movement. Accordingly, when it is applied to events, it can be differentiated and advantageous in that it can guarantee and encourage participation in events, in particular, various opportunities for participation through space movement. Accordingly, when the present invention is applied to an event, etc., the participants who participated in the event do not simply pass by like an eye candy, but stay and move in various spaces for a certain period of time or more, thereby increasing the actual level of participation, and furthermore, it is beneficial to the event participants and responsiveness can be increased.

예컨대, 변환매칭 단계(S200)가 모바일 단말(1)에서 수행되는 경우 가상객체의 제1 및 제2 가상이미지의 생성도 모바일 단말(1)에서 수행되거나 또는 모바일 단말(1)과 전용 앱으로 연결된 외부서버에서 수행될 수 있다.For example, when the transformation matching step ( S200 ) is performed in the mobile terminal 1 , the generation of the first and second virtual images of the virtual object is also performed in the mobile terminal 1 or connected to the mobile terminal 1 by a dedicated app. This can be done on an external server.

제2 증강이미지 표시단계(S300, S300')Second augmented image display step (S300, S300')

다음으로, 도 1 내지 2를 참조하여 제2 증강이미지 표시단계(S300, S300')를 구체적으로 살펴본다. 제2 증강이미지 표시단계(S300, S300')에서는, 제2 지점의 제2 시점에서의 모바일 단말(1)에서, 현실이미지에 가상객체의 제2 가상이미지를 결합시킨 제2 증강현실 이미지를 표시하고 저장한다. 예컨대, 제2 증강현실 이미지에 사용되는 현실이미지는 가상객체의 제2 생장/단계제작 내지 제2 가상이미지 생성 내지 획득 시점에 대응하는 실질객체의 실질 생장/제작 단계구간 시점, 즉 대응 단계구간 시점에서의 특정지점에 관한 현실이미지이다. 이러한 현실이미지에 대한 설명은 전술한 바를 참조한다.Next, the second augmented image display step (S300, S300') will be described in detail with reference to FIGS. 1 and 2 . In the second augmented image display step (S300, S300'), in the mobile terminal 1 at the second point of view of the second point, a second augmented reality image in which a second virtual image of a virtual object is combined with a real image is displayed and save For example, the real image used for the second augmented reality image is a time point of the actual growth/production phase of the real object corresponding to the second growth/stage production of the virtual object, or the generation or acquisition time of the second virtual image, that is, the corresponding phase interval time. It is a real image about a specific point in . For a description of such a reality image, refer to the above bar.

이때, 제2 증강이미지 표시단계(S300, S300')에서는, 제2 지점의 제2 시점의 모바일 단말(1)에서, 가상객체의 제1 시점으로부터 제2 시점까지의 생장/제작 단계구간에 대응하는 실질객체의 대응 단계구간에의 자연환경정보 및 가상객체의 제1 시점으로부터 제2 시점까지의 생장/제작 단계구간에서의 객체관여정보 중 어느 하나 이상의 정보에 따라 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 결합시킨 제2 증강현실 이미지가 획득된다. 이때, 가상객체의 제2 생장/단계제작을 결정하는 요소의 하나로서 자연환경정보의 범위기간은 실질객체의 실질 생장/제작 단계 중 대응하는 대응 단계구간이 된다. 즉, 변환매칭 단계(S200)에서 매칭된 가상객체의 제1 시점으로부터 제2 시점까지의 생장/제작 단계구간에 대응하도록 설정된 실질객체의 실질 생장/제작 단계 중 대응 단계구간에서의 자연환경정보가 가상객체의 제2 생장/단계제작을 결정하는 하나의 선택요소가 된다. 또한, 가상객체의 제2 생장/단계제작을 결정하는 또 하나의 선택요소로서 객체관여정보는 변환매칭 단계(S200)에서 매칭된 가상객체의 제1 시점으로부터 제2 시점까지의 생장/제작 단계구간에서의 객체관여정보이다. 이때, 가상객체의 제1 시점으로부터 제2 시점까지의 생장/제작 단계구간에 대응하는 실질객체의 대응 단계구간에의 자연환경정보 및 가상객체의 제1 시점으로부터 제2 시점까지의 생장/제작 단계구간에서의 객체관여정보 중 어느 하나 이상의 정보에 따라 가상객체의 제1 생장/단계제작 이후로부터 추가 생장/단계제작된 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 결합시킨 제2 증강현실 이미지가 모바일 단말(10)에 표시되고 저장된다.At this time, in the second augmented image display step (S300, S300'), in the mobile terminal 1 of the second point of view at the second point, the virtual object corresponds to the growth/production phase section from the first point of view to the second time point. The second growth/stage of the virtual object according to any one or more of the natural environment information in the corresponding stage period of the real object and the object involvement information in the growth/production stage period from the first time point to the second time point of the virtual object A second augmented reality image is obtained by combining the second virtual image according to the production. In this case, as one of the factors determining the second growth/stage production of the virtual object, the range period of the natural environment information becomes the corresponding corresponding stage period among the real growth/production stages of the real object. That is, natural environment information in the corresponding step section of the real growth/production step of the real object set to correspond to the growth/production step section from the first time point to the second time point of the virtual object matched in the transformation matching step (S200) It becomes a selection factor that determines the second growth/stage production of the virtual object. In addition, as another optional factor for determining the second growth/stage production of the virtual object, the object involvement information is the growth/production stage interval from the first time point to the second time point of the virtual object matched in the transformation matching step ( S200 ). It is object involvement information in In this case, natural environment information on the corresponding stage period of the real object corresponding to the growth/production stage period from the first time point to the second time point of the virtual object and the growth/production stage from the first time point to the second time point of the virtual object A second in which a second virtual image according to the second growth/stage production of the virtual object additionally grown/staged after the first growth/stage production of the virtual object is combined according to any one or more of the object involvement information in the section The augmented reality image is displayed and stored on the mobile terminal 10 .

예컨대, 제2 증강이미지 표시단계(S300, S300')의 전과정이 모바일 단말(1)에서 수행될 수 있다. 또는 이와 달리, 모바일 단말(1)에서는 제2 증강이미지 표시단계(S200)에서 제2 증강현실 이미지를 생성하고 표시하고 저장하는 과정을 수행하고, 모바일 단말(1)과 전용 앱을 통해 연결된 외부서버에서 가상객체의 제2 가상이미지를 생성하여 모바일 단말(1)로 제공하여 모바일 단말(1)에서 제2 가상이미지를 현실이미지에 결합시키는 것도 가능하다.For example, the entire process of the second augmented image display step (S300, S300') may be performed in the mobile terminal (1). Alternatively, the mobile terminal 1 performs the process of generating, displaying, and storing the second augmented reality image in the second augmented image display step (S200), and the mobile terminal 1 and an external server connected through a dedicated app It is also possible to generate a second virtual image of a virtual object in the , and provide it to the mobile terminal 1 to combine the second virtual image with the real image in the mobile terminal 1 .

배경색체 확인 및 보정Check and correct background color

도 3을 참조하여 본 발명의 또 하나의 예에 따른 증강현실을 이용한 가상객체 관리 방법을 살펴본다. 이때, 증강현실 이미지의 최초 생성과정 및 제1 및 제2 증강이미지 표시단계(S100 내지 S100', S300 내지 S300') 중 적어도 어느 하나는 배경객체 확인과정(S500a) 및 배경객체 보정과정(S500b)을 포함할 수 있다. 이때, 배경객체 확인과정(S500a) 및 배경객체 보정과정(S500b)은 현실이미지에 포함된 배경객체의 이미지가 가상객체의 가상이미지에 대응하는 시기에 부합하는지를 확인하여 부합하지 않는 경우 보정하는 과정이다. 따라서 가상객체의 각 생성 내지 제작단계별 가상이미지에 대응하는 시기에 부합하는 현실이미지가 확보되지 않은 경우에만 본 실시예가 유의미하게 적용될 수 있다. 예를 들면, 현실이미지가 모바일 단말(1)에서 직접 촬영되는 경우 촬영시점이 행사 시간과 관련되게 되고 가상객체에 대응하는 실질객체의 실질 생장 내지 제작의 단계가 행사 기간에서 벗어나는 경우를 포함하는 경우에 본 실시예가 적용될 수 있다. 본 실시예에 따라 배경객체가 시기에 맞게 보정되므로 증강현실 이미지의 현실성을 높일 수 있다.A virtual object management method using augmented reality according to another example of the present invention will be described with reference to FIG. 3 . At this time, at least one of the first generation process of the augmented reality image and the first and second augmented image display steps (S100 to S100', S300 to S300') is a background object confirmation process (S500a) and a background object correction process (S500b) may include. At this time, the background object confirmation process (S500a) and the background object correction process (S500b) are processes of checking whether the image of the background object included in the real image matches the time period corresponding to the virtual image of the virtual object, and correcting if it does not match. . Therefore, the present embodiment can be applied significantly only when a real image corresponding to the time corresponding to the virtual image for each generation or production stage of the virtual object is not secured. For example, when the real image is taken directly from the mobile terminal 1, the shooting time is related to the event time, and the actual growth or production stage of the real object corresponding to the virtual object is out of the event period. This embodiment can be applied to According to this embodiment, since the background object is corrected in time, the reality of the augmented reality image can be increased.

도 3을 참조하면, 배경객체 확인과정(S500a) 및 배경객체 보정과정(S500b)은 증강현실 이미지에 사용되는 현실이미지가 모바일 단(1)말을 통해 촬영된 이미지인 경우에 적용될 수 있다. 이때, 설정기간범위, 예컨대 행사 기간, 또는 행사기간 및 그 전 또는/및 후의 일부기간을 포함한 기간 내에서의 증강현실 이미지의 최초 생성과정 및 제1 및 제2 증강이미지 표시단계(S100 내지 S100', S300 내지 S300') 중 적어도 어느 하나에서 배경객체 확인과정(S500a) 및 배경객체 보정과정(S500b)이 수행될 수 있다. Referring to FIG. 3 , the background object checking process ( S500a ) and the background object correction process ( S500b ) may be applied when the real image used in the augmented reality image is an image captured through the mobile terminal 1 . At this time, the initial creation process of the augmented reality image and the first and second augmented image display steps (S100 to S100') within a set period range, for example, an event period, or a period including a partial period before or after the event period and the event period. , S300 to S300'), the background object confirmation process (S500a) and the background object correction process (S500b) may be performed in at least one of them.

이때, 배경객체 확인과정(S500a)에서는, 촬영된 이미지의 배경에 실질객체의 각 실질 생장단계에 따라 변하는 변경 배경객체가 포함되는지 확인된다. 예컨대, 모바일 단말(1)에서 변경 배경객체가 포함되는지 확인된다. 예컨대 이때, 변경 배경객체 포함여부 확인을 위한 판단기준이 되는 실질객체의 각 실질 생장단계는 주, 월 또는 계절에 따른 시기별 단계일 수 있다. 예컨대 가상객체의 최초 생장 시점 및 제1 및 제2 생장에 따른 시점에 대응하는 실질객체의 각 실질 생장단계는 주, 월 또는 계절에 따른 시기별 단계일 수 있다.In this case, in the background object checking process ( S500a ), it is checked whether the background of the photographed image includes a changed background object that changes according to each actual growth stage of the real object. For example, it is checked whether the changed background object is included in the mobile terminal 1 . For example, in this case, each actual growth stage of a real object, which is a criterion for determining whether a changed background object is included, may be a stage by period according to a week, month, or season. For example, each real growth stage of the real object corresponding to the initial growth time of the virtual object and the time according to the first and second growth may be stages according to periods according to weeks, months, or seasons.

예컨대, 배경객체 확인과정(S500a)은 사용자의 설정에 의해 또는 설정에 따른 배경객체의 판단에 의해 또는 양자의 조합에 의해 수행될 수 있다. 예컨대, 모바일 단말(1)에서 사용자가 촬영된 현실이미지 중 가상객체의 각 생장 내지 제작단계에 대응하는 실질객체의 각 생상 내지 제작단계의 각 대응 시점에 비추어 변경이 필요한 변경 배경객체를 터치 등의 방식으로 정할 수 있고 사용자의 지정에 따라 모바일 단말(1)에서 확인할 수 있다. 또는, 모바일 단말(1)에서 또는 모바일 단말(1)과 전용 앱을 통해 연동된 외부서버에서 모바일 단말(1)에서 촬영된 현실이미지와 다른 시기에 촬영되어 획득된 실질적을 동일한 뷰 범위를 갖는 비교이미지를 비교하여 배경객체를 판단하거나 또는 인공지능(AI) 기술을 이용하여 촬영된 현실이미지 내의 배경객체를 판단하여 실질객체의 각 실질 생단단계에 따라 변하는 변경 배경객체가 포함되는지 판단하여 모바일 단말(1)에서 확인할 수 있다. 예컨대, 현실이미지의 배경객체의 판단에 의해 변경 배경객체가 포함되는지 판단 내지 확인하는 경우 미리 비교판단의 설정범위를 정한 바에 따라 판단을 수행할 수도 있다. 예컨대, 인공지능(AI) 기술을 이용하는 경우 공지된 다양한 기술들이 바로 이용되거나 당해분야의 통상의 기술자에 의해 쉽게 변경하여 적용하는 것이 가능하므로 구체적인 설명은 생략하기로 한다.For example, the background object confirmation process ( S500a ) may be performed by a user's setting, or by determining a background object according to the setting, or a combination of both. For example, in the real image captured by the user in the mobile terminal 1, the user touches the changed background object that needs to be changed in light of the corresponding timing of each generation or production step of the real object corresponding to each growth or production step of the virtual object, etc. method and can be confirmed in the mobile terminal 1 according to the user's designation. Alternatively, a comparison having substantially the same view range obtained by shooting at a different time from the real image captured in the mobile terminal 1 in the mobile terminal 1 or in an external server linked with the mobile terminal 1 through a dedicated app By comparing images to determine a background object, or by judging a background object in a photographed real image using artificial intelligence (AI) technology, the mobile terminal ( 1) can be found. For example, when determining or confirming whether a changed background object is included by the determination of the background object of the real image, the determination may be performed according to the setting range of the comparison determination in advance. For example, when using artificial intelligence (AI) technology, various well-known technologies can be used immediately or can be easily changed and applied by a person skilled in the art, so a detailed description thereof will be omitted.

다음, 배경객체 보정과정(S500b)에서는, 배경객체 확인과정(S500a)에서 변경 배경객체가 포함된 것으로 확인된 경우 촬영된 이미지 중 변경 배경객체에 상응하는 이미지를 실질객체의 각 실질 생장단계에 매칭되게 보정한다. 예컨대, 배경객체 보정과정(S500b)은 모바일 단말(1)에서 또는 모바일 단말(1)과 전용 앱을 통해 연동된 외부서버에서 이루어질 수 있다. 이때, 변경 배경객체에 상응하는 이미지의 보정은 색체, 개화, 열매, 낙엽, 낙과, 적설, 생성, 소멸 중 적어도 어느 하나에 관한 보정일 수 있다. 예컨대, 식물의 낙엽이나 열매 등이 시기에 따라 변하는 것이나, 시기에 따른 개화, 열매맺기의 과정이나, 시기에 따른 낙엽, 낙과의 과정이나, 시기에 따른 적설이나, 시기에 따른 생성, 소멸 등의 과정에서 이미지의 보정이 이루어질 수 있다.Next, in the background object correction process (S500b), when it is confirmed that the changed background object is included in the background object confirmation process (S500a), an image corresponding to the changed background object among the photographed images is matched to each real growth stage of the real object correct it so For example, the background object correction process ( S500b ) may be performed in the mobile terminal 1 or in an external server linked with the mobile terminal 1 through a dedicated app. In this case, the correction of the image corresponding to the changed background object may be correction regarding at least one of color, flowering, fruit, fallen leaves, falling fruit, snow, generation, and disappearance. For example, the leaves or fruits of plants change according to the season, the process of flowering and fruit-bearing according to the season, the process of falling leaves and fruits according to the season, snow cover according to the season, generation or extinction according to the season, etc. Correction of the image may be made in the process.

[증강현실을 이용한 행사 관리 방법][How to manage events using augmented reality]

다음으로, 본 발명의 또 하나의 모습에 따른 증강현실을 이용한 행사 관리 방법을 도 4 내지 5를 참조하여 살펴보기로 한다. 또한, 전술된 증강현실을 이용한 가상객체 관리 방법 및 도 1 내지 3과 후술되는 모바일 단말의 실시예들 및 도6 및 7이 참조될 수 있다.Next, an event management method using augmented reality according to another aspect of the present invention will be described with reference to FIGS. 4 to 5 . In addition, reference may be made to the above-described virtual object management method using augmented reality and embodiments of FIGS. 1 to 3 and a mobile terminal to be described later, and FIGS. 6 and 7 .

도 4는 본 발명의 또 하나의 실시예에 따른 증강현실을 이용한 행사 관리 방법을 개략적으로 나타내는 흐름도이고, 도 5는 본 발명의 또 하나의 실시예에 따른 증강현실을 이용한 행사 관리 방법을 개략적으로 나타내는 흐름도이다.4 is a flowchart schematically illustrating an event management method using augmented reality according to another embodiment of the present invention, and FIG. 5 is a schematic diagram of an event management method using augmented reality according to another embodiment of the present invention. It is a flow chart showing

도 4 내지 5를 참조하면, 본 발명의 실시예는 증강현실을 이용하여 특정지역의 행사를 관리하는 방법에 관한 것이다. 이때, 증강현실을 이용한 행사 관리 방법은 전술한 발명의 하나의 실시예에 따른 증강현실을 이용한 가상객체 관리 방법의 각 단계를 포함하여 수행한다. 도 4 내지 5에 도 2 내지 3의 단계가 도시되지 않았으나 적용될 수 있음은 당연하다.4 to 5 , an embodiment of the present invention relates to a method of managing an event in a specific area using augmented reality. In this case, the event management method using augmented reality is performed including each step of the virtual object management method using augmented reality according to an embodiment of the present invention. Although the steps of FIGS. 2 to 3 are not shown in FIGS. 4 to 5, it is natural that they may be applied.

도 4 내지 5를 참조하면, 증강현실을 이용한 행사 관리 방법은 가상객체 관리 방법의 각 단계 외에 판단/확인 단계(S600) 및 인센티브 수신단계(S700)를 더 포함할 수 있다. 먼저, 판단/확인 단계(S600)에서는, 반복된 가상객체의 생장/단계제작의 결과로 획득되는 가상객체가 설정범위에 부합되게 생장/제작되었는지를 판단하거나 판단결과를 확인한다. 예컨대, 판단/확인 단계(S600)는 모바일 단말(1)에서 수행될 수 있다. 예컨대, 가상객체가 설정범위에 부합되게 생장/제작되었는지를 판단은 모바일 단말(1)과 전용 앱을 통해 연동된 외부서버에서 이루어지고 모바일 단말(1)에서는 그 판단결과를 확인할 수도 있다. 4 to 5 , the event management method using augmented reality may further include a determination/confirmation step (S600) and an incentive receiving step (S700) in addition to each step of the virtual object management method. First, in the determination/verification step S600 , it is determined whether the virtual object obtained as a result of the repeated virtual object growth/step production is grown/manufactured to conform to a setting range or the determination result is checked. For example, the determination/confirmation step S600 may be performed in the mobile terminal 1 . For example, it is determined whether the virtual object is grown/produced in conformity with the setting range in the mobile terminal 1 and an external server linked through a dedicated app, and the determination result may be checked in the mobile terminal 1 .

다음으로, 인센티브 수신단계(S700)에서는, 가상객체가 설정범위에 부합되게 생장/제작된 경우 모바일 단말(1)에서 인센티브를 수신한다. 예컨대, 인센티브의 발행은 모바일 단말(1)과 전용 앱(설정 앱)으로 연결된 외부 서버에서 수행되고 전용 앱(설정 앱)을 통해 모바일 단말(1)에서 수신될 수 있다. 예컨대, 인센티브는 식별부호 등을 포함하는 것일 수 있고, 이에 한정되지 않는다. 예컨대, 식별부호는 바코드 내지 2차원 코드 등일 수 있다. 이때 식별부호를 인식시킴으로써 인센티브가 사용될 수 있다. 예컨대, 인센티브는 입장권, 행사장 등에서 결제대용을 사용가능한 대용화폐, 교환권 등일 수 있다.Next, in the incentive receiving step ( S700 ), when the virtual object is grown/produced to meet the set range, the mobile terminal 1 receives an incentive. For example, the issuance of incentives may be performed on an external server connected to the mobile terminal 1 and a dedicated app (settings app) and received at the mobile terminal 1 through a dedicated app (settings app). For example, the incentive may include an identification code, and the like, but is not limited thereto. For example, the identification code may be a barcode or a two-dimensional code. In this case, an incentive can be used by recognizing the identification code. For example, the incentive may be a substitute currency, an exchange ticket, etc. that can be used as a payment substitute at an admission ticket, an event venue, and the like.

다음으로, 도 5를 참조하여 또 하나의 예를 살펴본다. 도 5를 참조하면, 행사 관리 방법은 인센티브 사용단계(S800)를 더 포함할 수 있다. 이때, 인센티브 사용단계(S800)에서는, 모바일 단말(1)에서 인센티브를 표시시켜, 행사에 관련된 전시공간, 행사관람공간 또는 체험공간으로의 입장, 행사에 관련된 티켓구매, 먹거리구매 또는 제품구매 중 어느 하나에 대한 결제 및 행사에 관련된 기념품과의 교환 중 어느 하나 이상의 용도로 인센티브가 스캐닝되어 사용될 수 있다.Next, another example will be described with reference to FIG. 5 . Referring to FIG. 5 , the event management method may further include an incentive use step ( S800 ). At this time, in the incentive use step ( S800 ), the incentive is displayed on the mobile terminal 1 to enter an exhibition space, an event viewing space, or an experience space related to the event, purchase tickets related to the event, purchase food, or purchase any product. Incentives may be scanned and used for any one or more of payment for one and exchange with souvenirs related to the event.

[모바일 단말][mobile terminal]

다음으로, 본 발명의 또 하나의 모습에 따른 모바일 단말을 도 6 내지 7을 참조하여 살펴보기로 한다. 또한, 전술한 실시예에 따른 증강현실을 이용한 가상객체 관리방법, 전술한 실시예에 따른 증강현실을 이용한 행사 관리방법 및 도 1 내지 5가 참조될 수 있다. 이때, 중복되는 설명은 생략될 수 있다.Next, a mobile terminal according to another aspect of the present invention will be described with reference to FIGS. 6 to 7 . Also, reference may be made to the virtual object management method using augmented reality according to the above-described embodiment, the event management method using augmented reality according to the above-described embodiment, and FIGS. 1 to 5 . In this case, the overlapping description may be omitted.

도 6은 본 발명의 또 하나의 실시예에 따른 모바일 단말을 개략적으로 나타내는 블럭도이고, 도 7은 본 발명의 또 하나의 실시예에 따른 모바일 단말을 개략적으로 나타내는 블럭도이다.6 is a block diagram schematically showing a mobile terminal according to another embodiment of the present invention, and FIG. 7 is a block diagram schematically showing a mobile terminal according to another embodiment of the present invention.

도 6 내지 7을 참조하면, 모바일 단말(1)은 카메라 유닛(10), 위치정보 획득유닛(20), 통신유닛(30), 메모리 유닛(40), 터치인터페이스 유닛(50) 및 제어 유닛(60)을 포함할 수 있다. 예컨대, 모바일 단말은 스마트폰, 태블릿PC, 노트북, PDA 등이고 이에 한정되지 않으며, 통신 및 휴대가능한 정보기기면 족하다. 각 구성들을 구체적으로 살펴본다.6 to 7 , the mobile terminal 1 includes a camera unit 10, a location information acquisition unit 20, a communication unit 30, a memory unit 40, a touch interface unit 50, and a control unit ( 60) may be included. For example, the mobile terminal is a smart phone, a tablet PC, a notebook computer, a PDA, etc., but is not limited thereto, and a communication and portable information device is sufficient. Let's look at each configuration in detail.

먼저, 카메라 유닛(10)은 행사지역과 관련된 특정지점에 관한 현실이미지를 획득한다. 예컨대, 특정지점에 관한 현실이미지는 카메라 유닛(10) 외에 모바일 단말(1)에 설치된 설정 앱(전용 앱)을 통해서 구매 내지 업데이트 방식으로 획득될 수도 있다.First, the camera unit 10 acquires a real image of a specific point related to the event area. For example, the real image for a specific point may be acquired through a purchase or update method through a setting app (dedicated app) installed in the mobile terminal 1 in addition to the camera unit 10 .

위치정보 획득유닛(20)은 모바일 단말(1)의 위치정보를 획득한다. 예컨대, 위치정보 획득유닛(20)은 GPS 모듈을 포함할 수 있다.The location information obtaining unit 20 obtains location information of the mobile terminal 1 . For example, the location information acquisition unit 20 may include a GPS module.

다음으로 통신유닛(30)은 외부와 통신을 수행한다. 예컨대, 통신유닛(30)을 통해 특정지점의 자연환경정보를 외부서버(도시되지 않음)로부터 획득할 수 있다. 특정지점의 자연환경정보에 대한 구체적인 설명은 전술한 실시예들에 대한 설명을 참조하기로 한다. 예컨대, 통신유닛(30)은 설정 앱(전용 앱)을 통한 외부서버와 네트워크 연결이 가능하도록 할 수 있다.Next, the communication unit 30 performs communication with the outside. For example, the natural environment information of a specific point may be acquired from an external server (not shown) through the communication unit 30 . For a detailed description of the natural environment information of a specific point, reference will be made to the description of the above-described embodiments. For example, the communication unit 30 may enable network connection with an external server through a setting app (dedicated app).

다음으로 메모리 유닛(40)은 카메라 유닛(10)을 통해 획득하거나 설정 앱(전용 앱)을 통해 획득된 현실이미지 및 가상객체의 가상이미지를 현실이미지에 결합시킨 증강현실 이미지를 저장한다. 예컨대, 메모리 유닛(40)은 가상객체의 가상이미지도 저장할 수 있다. 예컨대, 메모리 유닛(40)은 현실이미지, 가상이미지 및/또는 증강현실 이미지를 업데이트 저장할 수 있다. 이때, 증강현실 이미지는 동영상일 수 있다.Next, the memory unit 40 stores the augmented reality image obtained by combining the virtual image of the virtual object and the real image obtained through the camera unit 10 or obtained through the setting app (dedicated app) to the real image. For example, the memory unit 40 may also store a virtual image of a virtual object. For example, the memory unit 40 may update and store a real image, a virtual image, and/or an augmented reality image. In this case, the augmented reality image may be a video.

다음으로, 터치인터페이스 유닛(50)은 사용자의 입력을 받고 이미지를 디스플레이한다. 터치인터페이스 유닛(50)은 가상객체의 생장 또는 제작에 관여하는 객체관여정보를 수행하기 위한 터치입력을 받는다. 이때, 객체관여정보에 대한 상세한 설명은 전술된 바를 참조하기로 한다.Next, the touch interface unit 50 receives the user's input and displays an image. The touch interface unit 50 receives a touch input for performing object involvement information related to the growth or production of a virtual object. In this case, a detailed description of the object involvement information will be referred to as described above.

다음으로, 도 6 내지 7을 참조하여, 제어유닛(60)을 살펴본다. 제어유닛(60)은 특정지역의 행사에 관련된 가상객체의 가상이미지를 획득하여 현실이미지에 결합시켜 증강현실 이미지를 생성한다. Next, with reference to FIGS. 6 to 7 , the control unit 60 is looked at. The control unit 60 acquires a virtual image of a virtual object related to an event in a specific area and combines it with a real image to generate an augmented reality image.

예컨대 이때, 현실이미지는 행사지역 내지 그 주변에서 카메라 유닛(10)을 통해 촬영된 이미지이거나 행사지역 내지 그 주변에서의 모바일 단말(1)의 위치를 기준으로 설정 앱을 통해 획득되는 이미지일 수 있다. 예컨대, 설정 앱을 통해 획득되는 이미지는 설정기간범위 내에서 최초 생성되는 가상객체의 최초 생장/제작 시점 및 제1 및 제2 생장/단계제작에 따른 시점 각각에 대응하는 실질객체의 각 실질 생장/제작 단계에서의 특정지점에 관한 이미지로서 실질객체의 각 실질 생장/제작 단계에 매칭되게 개별 또는 일괄로 획득될 수 있다. 게다가, 설정 앱을 통해 일괄로 현실이미지가 획득된 경우 증강현실 이미지의 생성 시 실질객체의 각 실질 생장/제작 단계에 매칭되는 이미지가 읽혀질 수 있다.For example, at this time, the real image may be an image taken through the camera unit 10 in or around the event area or an image obtained through a setting app based on the location of the mobile terminal 1 in the event area or its surroundings. . For example, the image acquired through the setting app is the first growth/production time of the virtual object first created within the set period range, and each actual growth/production of the real object corresponding to the time according to the first and second growth/stage production, respectively. As an image of a specific point in the manufacturing stage, it may be acquired individually or collectively to match each actual growth/manufacturing stage of the real object. In addition, when real images are acquired in a batch through the setting app, images matching each real growth/production stage of a real object may be read when an augmented reality image is generated.

본 발명에서, 제어 유닛(60)은 지점이동을 시점구간의 개념으로 변환 매칭을 수행하여 가상객체의 각 생장 내지 제작단계별에 따른 증강현실 이미지를 생성하다. 이에 따라, 예컨대 행사 등에서 본 발명에 다른 모바일 단말(1)이 사용되는 경우 행사의 참여, 특히 공간 이동을 통한 다양한 참여의 기회를 보장해주고 독려할 수 있다는 점에서 차별적이며 장점을 가질 수 있다. 이때, 행사에 참여한 모바일 단말 사용자들이 단순히 눈요기 하듯 지나가면 행사에 참여하는 것이 아니라 여러 공간을 이동하며 참여하게 되어 실질적인 참여도를 높이고 나아가 행사 참여자에게도 유익하고 호응도를 높일 수 있게 된다.In the present invention, the control unit 60 generates an augmented reality image according to each growth or production stage of a virtual object by performing transformation matching of point movement into the concept of a viewpoint section. Accordingly, when another mobile terminal 1 is used in the present invention, for example, in an event, it can be differentiated and advantageous in that it can guarantee and encourage participation in an event, in particular, various opportunities for participation through space movement. At this time, if the mobile terminal users participating in the event simply pass by like an eye candy, they do not participate in the event, but move around and participate in various spaces, thereby increasing the actual participation level and furthermore, it is beneficial and responsive to the event participants.

예컨대, 제어 유닛(60)에서 지점이동을 시점구간의 개념으로 변환 매칭하고 그에 따른 증강현실 이미지를 생성하기 위해서, 가상객체에 대응하는 실질객체의 설정된 실질 생장/제작 단계가 가상객체의 가상 생장/제작 단계에 대응되도록 설정되어 있다.For example, in the control unit 60, in order to transform and match the movement of a point into the concept of a viewpoint section and generate an augmented reality image accordingly, the set real growth/production step of the real object corresponding to the virtual object is performed in the virtual growth/production of the virtual object. It is set to correspond to the production stage.

예컨대 하나의 예에서, 가상객체의 최초 생장 시점 및 제1 및 제2 생장에 따른 시점에 대응하는 실질객체의 각 실질 생장단계는 주, 월 또는 계절에 따른 시기별 단계일 수 있다.For example, in one example, each real growth stage of the real object corresponding to the initial growth time of the virtual object and the time according to the first and second growth may be stages according to periods according to weeks, months, or seasons.

구체적으로 살펴보면, 제어 유닛(60)은 행사지역 내 제1 지점의 제1 시점에서 자연환경정보 및 객체관여정보 중 어느 하나 이상의 정보에 따라 결정되는 가상객체의 제1 생장/단계제작에 따른 제1 가상이미지를 획득한다. 이때, 자연환경정보 및 객체관여정보에 대해서는 전술한 바를 참조하여 이해하기로 한다. 예컨대, 제어 유닛(60)은 자연환경정보 및 객체관여정보 중 어느 하나 이상의 정보에 따라 결정되는 가상객체의 제1 생장/단계제작에 따른 제1 가상이미지를 생성할 수 있다. 또는 다른 예에서, 제어유닛(60)은 모바일 단말(1)과 전용 앱(설정 앱)으로 네트워크 연결된 외부서버에서 생성되는 가상객체의 제1 생장/단계제작에 따른 제1 가상이미지를 제공받아 제1 증강현실 이미지를 생성하기 위한 용도로 제1 가상이미지를 획득할 수도 있다. 예컨대, 가상객체의 제1 생장 내지 제작단계(단계제작)의 진행을 결정짓는 하나의 선택적 요소로서 특정지점에 관한 자연환경정보는 가상객체의 이전 생장 내지 제작단계 시점(시기)로부터 제1 생장 내지 제작단계 시점(시기)까지의 기간(구간)에 대응하는 실질객체의 생장기간 내지 제작단계구간 동안의 자연환경정보일 수 있다. 예컨대, 다른 예에서, 가상객체가 무생물인 경우 자연환경정보는 가상객체의 제1 제작단계 시점(시기)에 대응하는 실질객체의 제작단계 시점(시기)의 자연환경정보일 수도 있다. 예컨대, 가상객체의 제1 생장 내지 제작단계(단계제작)의 진행을 결정짓는 하나의 선택적 요소로서 객체관여정보는 가상객체의 제1 생장 내지 단계제작의 기간(구간), 예컨대 가상객체의 이전 생장 내지 제작단계 시점(시기)로부터 제1 생장 내지 제작단계 시점(시기)까지의 기간(구간) 중에 터치인터페이스 유닛(50)을 통한 터치 입력에 따라 제공된 것일 수 있다.More specifically, the control unit 60 controls the first growth/stage production of the virtual object determined according to one or more of natural environment information and object involvement information at a first time point of a first point in the event area. Acquire a virtual image. At this time, the natural environment information and the object involvement information will be understood with reference to the foregoing. For example, the control unit 60 may generate a first virtual image according to the first growth/stage production of the virtual object determined according to any one or more of the natural environment information and the object involvement information. Or in another example, the control unit 60 is provided with a first virtual image according to the first growth/stage production of a virtual object generated in an external server network-connected to the mobile terminal 1 and a dedicated app (settings app). 1 A first virtual image may be acquired for the purpose of generating an augmented reality image. For example, as one optional factor determining the progress of the first growth or production stage (stage production) of the virtual object, the natural environment information on a specific point includes the first growth or production stage (time) from the previous growth or production stage of the virtual object. It may be natural environment information during the period from the growth period of the real object to the period of the production stage corresponding to the period (section) up to the time (period) of the production stage. For example, in another example, when the virtual object is inanimate, the natural environment information may be natural environment information at the time point (time) of the production step of the real object corresponding to the time point (time) of the first production step of the virtual object. For example, as one optional element determining the progress of the first growth or production stage (stage production) of the virtual object, the object involvement information includes the period (section) of the first growth or stage production of the virtual object, for example, the previous growth of the virtual object. It may be provided according to a touch input through the touch interface unit 50 during a period (section) from the time (time) of the production step to the time (time) of the first growth or production step.

예컨대 하나의 예에서, 가상객체의 제1 생장 및 제2 생장 각각을 결정하는 하나의 인자로서 자연환경정보는 통신 유닛(30)을 통해 빅데이터서버 내지 외부서버로부터 수신된 주변온도, 강수량, 일조 중 어느 하나 이상에 관한 과거 내지 예측 정보로서 실질객체의 대응 단계구간에서 시간경과에 따른 값, 패턴 내지 시간경과 전체에 대한 평균값 정보일 수 있다. 게다가, 가상객체의 제1 및 제2 생장 각각을 결정하는 하나의 인자로서 객체관여정보는 터치입력에 따라 가상객체에 관한 기상환경관리, 영양관리, 방제/방역, 생식관리, 증산관리, 생산관리 및 주변 환경관리 중 어느 하나 이상을 수행하기 위한 정보일 수 있다.For example, in one example, the natural environment information as a factor determining each of the first and second growths of the virtual object is the ambient temperature, precipitation, and sunlight received from the big data server or the external server through the communication unit 30 . As the past or prediction information about any one or more of the above, it may be a value over time in a corresponding step section of a real object, a pattern or average value information for the entire time elapsed. In addition, as one factor determining each of the first and second growths of the virtual object, the object involvement information is weather environment management, nutrition management, control/prevention, reproductive management, transpiration management, production management related to the virtual object according to the touch input. And it may be information for performing any one or more of the surrounding environment management.

또한 제어 유닛(60)은 위치정보로부터 제1 지점에서 행사지역 내 제2 지점으로의 모바일 단말(1)의 지점이동을 판단한다. 제1 및 제2 지점은 각각 설정된 지점에서의 설정반경범위를 포함하는 개념일 수 있다. 이때, 도 6 내지 7을 참조하면 제어 유닛(60)은 제1 지점에서 제2 지점으로의 지점이동을 가상객체의 제1 가상이미지를 생성한 제1 시점으로부터 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 생성하는 제2 시점까지의 생장/제작 단계구간, 예컨대 제2 생장/단계제작 구간에 대응시켜 매칭시킨다. 도 7은 제1 지점에서 제2 지점으로의 지점이동을 제2 생장/단계제작 구간에 대응시켜 매칭시키는 변환매칭모듈(60b)을 도시하고 있다. 이에 따라, 예컨대 행사 등에서 본 발명에 다른 모바일 단말(1)이 사용되는 경우 행사의 참여, 특히 공간 이동을 통한 다양한 참여의 기회를 보장해주고 독려할 수 있다는 점에서 차별적이며 장점을 가질 수 있다.In addition, the control unit 60 determines the point movement of the mobile terminal 1 from the first point to the second point in the event area from the location information. The first and second points may be a concept including a set radius range at each set point. At this time, referring to FIGS. 6 to 7 , the control unit 60 performs the movement of the point from the first point to the second point, and the second growth/stage production of the virtual object from the first point of time when the first virtual image of the virtual object is generated. The growth/production stage section up to the second time point for generating the second virtual image according to , for example, is matched to correspond to the second growth/stage manufacturing section. 7 shows a transformation matching module 60b for matching the point movement from the first point to the second point to correspond to the second growth/stage manufacturing section. Accordingly, when another mobile terminal 1 is used in the present invention, for example, in an event, it can be differentiated and advantageous in that it can guarantee and encourage participation in an event, in particular, various opportunities for participation through space movement.

예컨대, 하나의 예를 살펴보면, 제어 유닛(60)은 제1 지점에서 제2 지점으로의 지점이동 자체가 아닌 체류시간 개념을 더하여 제1 지점에서 제2 지점으로의 지점이동을 판단할 수 있다. 이에 따라, 행사에 참여한 모바일 단말 사용자들이 단순히 눈요기 하듯 지나가면 행사에 참여하는 것이 아니라 여러 공간을 이동하며 참여하게 되어 실질적인 참여도를 높이고 나아가 행사 참여자에게도 유익하고 호응도를 높일 수 있게 된다. 예컨대, 제어유닛(60)은 제1 가상이미지의 생성 또는 제1 증강현실 이미지의 표시 이후부터의 제1 지점에서의 제1 체류시간, 제2 가상이미지의 생성 또는 제2 증강현실 이미지의 표시 이전까지의 제2 지점에서의 제2 체류시간 또는 제1 및 제2 지점 사이의 경유지점이 있는 경우 경유지점에서의 체류시간이 설정시간 이상인 경우에 제1 지점에서 제2 지점으로의 지점이동으로 판단할 수 있다.For example, referring to one example, the control unit 60 may determine the point movement from the first point to the second point by adding the concept of a residence time rather than the point movement itself from the first point to the second point. Accordingly, if the mobile terminal users who participated in the event simply pass by like an eye candy, they do not participate in the event, but move through various spaces to participate, thereby increasing the actual participation level and furthermore, it is beneficial and responsive to the event participants. For example, the control unit 60 may control the first residence time at the first point after the generation of the first virtual image or the display of the first augmented reality image, before the generation of the second virtual image or the display of the second augmented reality image. If there is a second residence time at the second point up to, or a stopover point between the first and second points, if the stay time at the stopover point is longer than the set time, it can be judged as a point movement from the first point to the second point. can

게다가, 도 6 내지 7에서의 제어 유닛(60)은 제2 지점의 제2 시점에서, 가상객체의 생장/제작 단계구간에 대응되는 실질객체의 실질 생장/제작 단계 중 대응 단계구간에서의 자연환경정보 및 가상객체의 생장/제작 단계구간에서의 객체관여정보 중 어느 하나 이상의 정보에 따라 제1 생장/단계제작 이후로부터 추가 생장/단계제작된 가상객체의 제2 가상이미지를 획득한다. 예컨대 이때, 제어 유닛(60)은 자연환경정보 및 객체관여정보 중 어느 하나 이상의 정보에 따라 결정되는 가상객체의 제2 가상이미지를 생성할 수 있다. 또는 다른 예에서, 제어유닛(60)은 모바일 단말(1)과 전용 앱(설정 앱)으로 네트워크 연결된 외부서버에서 생성되는 가상객체의 제2 가상이미지를 제공받아 제2 증강현실 이미지를 생성하기 위한 용도로 제2 가상이미지를 획득할 수도 있다. 예컨대, 제1 생장 내지 단계제작 이후로부터 추가 생장 내지 단계제작된 가상객체의 제2 생장 내지 단계제작의 진행을 결정짓는 하나의 선택적 요소인 자연환경정보는 가상객체의 제1 생장 내지 단계제작 시점(시기) 이후로부터 제2 생장 내지 제작단계 시점(시기)까지의 기간(구간)에 대응하는 실질객체의 실질 생장기간 내지 제작단계구간 동안의 자연환경정보일 수 있다. 예컨대, 가상객체의 제2 생장 내지 단계제작의 진행을 결정짓는 하나의 선택적 요소로서 객체관여정보는 가상객체의 제2 생장 내지 단계제작의 기간(구간), 예컨대 가상객체의 제1 생장 내지 단계제작 시점(시기)로부터 제2 생장 내지 단계제작 시점(시기)까지의 기간(구간) 중에 터치인터페이스 유닛(50)을 통한 터치 입력에 따라 제공된 것일 수 있다.In addition, the control unit 60 in FIGS. 6 to 7 controls the natural environment in the corresponding stage of the real growth/manufacturing stage of the real object corresponding to the virtual object growth/production stage period at the second time point of the second point. A second virtual image of the virtual object additionally grown/produced from after the first growth/stage production is acquired according to at least one of information and object involvement information in the growth/production stage section of the virtual object. For example, in this case, the control unit 60 may generate the second virtual image of the virtual object determined according to one or more of the natural environment information and the object involvement information. Or in another example, the control unit 60 is provided with a second virtual image of a virtual object generated from an external server network-connected to the mobile terminal 1 and a dedicated app (settings app) to generate a second augmented reality image A second virtual image may be acquired for the purpose. For example, natural environment information, which is one optional factor determining the progress of the second growth or stage production of the virtual object that has been additionally grown or staged, from after the first growth or staged manufacturing, is the first growth or staged manufacturing time of the virtual object ( It may be natural environment information during the actual growth period to the production stage period of the real object corresponding to the period (interval) from the time) to the second growth or production stage time (period). For example, as one optional element that determines the progress of the second growth or stage production of the virtual object, the object involvement information includes the period (section) of the second growth or stage production of the virtual object, for example, the first growth or stage production of the virtual object. It may be provided according to a touch input through the touch interface unit 50 during a period (section) from the time point (time) to the second growth point (time point).

게다가, 도 6 내지 7에서의 제어 유닛(60)은 제1 및 제2 가상이미지 각각을 현실이미지에 결합시켜 제1 및 제2 증강현실이미지 각각을 생성한다. 도 7은 증강현실이미지를 생성하는 증강이미지모듈(60a)을 도시하고 있다.In addition, the control unit 60 in FIGS. 6 to 7 combines each of the first and second virtual images with the real image to generate the first and second augmented reality images, respectively. 7 shows an augmented image module 60a for generating an augmented reality image.

본 발명의 또 하나의 예를 살펴본다. 하나의 예에서, 제어 유닛(60)은 제1 및 제2 생장 외에 자연환경정보, 객체관여정보 또는 양자 모두에 의한 실시간 반응을 수행하는 제1 및 제2 가상이미지를 생성할 수 있다. 이때, 실시간 반응은 빅데이터서버 내지 외부서버로부터 수신된 자연환경정보로서 강수(降水) 또는 바람에 따라 수행되거나 또는 객체관여정보로서 터치입력에 따른 가상객체에 대한 만지기, 흔들기 또는 밀거나 당기기, 식물성 가상객체에 대한 꺾기 또는 따기, 동물성 가상객체에 대한 물주기 또는 먹이주기 중 어느 하나 이상에 따라 수행될 수 있다.Let's look at another example of the present invention. In one example, the control unit 60 may generate first and second virtual images that perform a real-time reaction by natural environment information, object involvement information, or both in addition to the first and second growth. At this time, the real-time response is natural environment information received from the big data server or external server, which is performed according to precipitation or wind, or as object involvement information, touching, shaking, pushing, or pulling a virtual object according to a touch input, vegetable It may be performed according to any one or more of cutting or picking for the virtual object, watering or feeding the animal virtual object.

게다가, 본 발명의 또 하나의 예를 살펴본다. 하나의 예에서, 제어 유닛(60)은, 설정기간범위 내에서의 증강현실 이미지의 최초 생성 및 제1 및 제2 증강현실 이미지의 생성 중 적어도 어느 하나에서는 카메라 유닛을 통해 촬영된 현실이미지의 배경에 실질객체의 각 실질 생장단계에 따라 변하는 변경 배경객체가 포함되는지 확인할 수 있다. 이때, 배경객체의 확인은 사용자의 설정에 의해 또는 설정에 따른 배경객체의 판단에 의해 또는 양자의 조합에 의해 수행될 수 있다.In addition, another example of the present invention will be considered. In one example, the control unit 60, the background of the reality image photographed through the camera unit in at least one of the first generation of the augmented reality image and the generation of the first and second augmented reality images within the set period range It can be checked whether the changed background object that changes according to each actual growth stage of the real object is included. In this case, the confirmation of the background object may be performed by the user's setting, or by determining the background object according to the setting, or a combination of both.

게다가, 제어유닛(60)은 변경 배경객체가 포함된 것으로 확인된 경우 촬영된 현실이미지 중 변경 배경객체에 상응하는 이미지를 실질객체의 각 실질 생장단계에 매칭되게 보정할 수 있다. 이때, 변경 배경객체에 상응하는 이미지의 보정은 색체, 개화, 열매, 낙엽, 낙과, 적설, 생성, 소멸 중 적어도 어느 하나에 관한 보정일 수 있다.In addition, when it is confirmed that the changed background object is included, the control unit 60 may correct an image corresponding to the changed background object among the captured real images to match each real growth stage of the real object. In this case, the correction of the image corresponding to the changed background object may be correction regarding at least one of color, flowering, fruit, fallen leaves, falling fruit, snow, generation, and disappearance.

예컨대, 가상객체의 최초 생장 시점 및 제1 및 제2 생장에 따른 시점에 대응하는 실질객체의 각 실질 생장단계는 주, 월 또는 계절에 따른 시기별 단계일 수 있다. For example, each real growth stage of the real object corresponding to the initial growth time of the virtual object and the time according to the first and second growth may be stages according to periods according to weeks, months, or seasons.

또한, 본 발명의 또 하나의 예를 살펴본다. 하나의 예에서, 제어 유닛(60)은 반복된 가상객체의 생장/단계제작의 결과로 생성되는 가상객체가 설정범위에 부합되게 생장/제작되었는지를 판단하거나 판단결과를 확인할 수 있다. 예컨대, 제어 유닛(60)은 가상객체가 설정범위에 부합되게 생장/제작되었는지를 판단할 수 있다. 다른 예에서, 모바일 단말(1)과 전용 앱(설정 앱)을 통해 연결된 외부서버에서 가상객체가 설정범위에 부합되게 생장/제작되었는지를 판단하고, 제어유닛(60)은 판단결과를 수신하여 확인할 수도 있다.In addition, another example of the present invention will be looked at. In one example, the control unit 60 may determine whether the virtual object generated as a result of the repeated growth/stage production of the virtual object is grown/manufactured according to a setting range or may confirm the determination result. For example, the control unit 60 may determine whether the virtual object is grown/manufactured to conform to a setting range. In another example, the mobile terminal 1 and the external server connected through the dedicated app (setting app) determines whether the virtual object is grown/produced to meet the setting range, and the control unit 60 receives the determination result and confirms may be

게다가, 모바일 단말(1)은 가상객체가 설정범위에 부합되게 생장/제작된 경우 통신 유닛(30)을 통해 연결된 외부서버로부터 인센티브를 수신할 수 있다. 예컨대, 인센티브는 행사에 관련된 전시공간, 행사관람공간 또는 체험공간으로의 입장, 행사에 관련된 티켓구매, 먹거리구매 또는 제품구매 중 어느 하나에 대한 결제 및 행사에 관련된 기념품과의 교환 중 어느 하나 이상의 용도로 사용될 수 있다.In addition, the mobile terminal 1 may receive an incentive from an external server connected through the communication unit 30 when the virtual object is grown/produced to meet the setting range. For example, the incentive is one or more of the use of any one or more of an event-related exhibition space, event viewing space or experience space, payment for any one of ticket purchase, food purchase or product purchase related to the event, and exchange with a souvenir related to the event can be used as

이상에서, 전술한 실시예 및 첨부된 도면들은 본 발명의 범주를 제한하는 것이 아니라 본 발명에 대한 당해 기술분야에서 통상의 지식을 가진 자의 이해를 돕기 위해 예시적으로 설명된 것이다. 또한, 전술한 구성들의 다양한 조합에 따른 실시예들이 앞선 구체적인 설명들로부터 당업자에게 자명하게 구현될 수 있다. 따라서, 본 발명의 다양한 실시예는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있고, 본 발명의 범위는 특허청구범위에 기재된 발명에 따라 해석되어야 하며, 당해 기술분야에서 통상의 지식을 가진 자에 의한 다양한 변경, 대안, 균등물들을 포함하고 있다.In the above, the above-described embodiments and the accompanying drawings are illustratively described to help those of ordinary skill in the art for the present invention, rather than limiting the scope of the present invention. In addition, embodiments according to various combinations of the above-described configurations may be apparent to those skilled in the art from the above detailed descriptions. Accordingly, various embodiments of the present invention can be implemented in modified forms without departing from the essential characteristics of the present invention, and the scope of the present invention should be interpreted according to the invention described in the claims, and it is common in the art Various modifications, alternatives, and equivalents are included by those with knowledge of

1: 모바일 단말 10: 카메라 유닛
20: 위치정보 획득유닛 30: 통신유닛
40: 메모리 유닛 50: 터치인터페이스 유닛
60: 제어 유닛 60a: 증강이미지모듈
60b: 변환매칭모듈
1: mobile terminal 10: camera unit
20: location information acquisition unit 30: communication unit
40: memory unit 50: touch interface unit
60: control unit 60a: augmented image module
60b: conversion matching module

Claims (14)

특정지역의 행사에 관련된 가상객체를 행사지역과 관련된 특정지점에 관한 현실이미지에 결합시킨 증강현실 이미지를 표시하고 저장하는 모바일 단말에서, 상기 행사지역 내 제1 지점의 제1 시점에서, 상기 특정지점의 자연환경정보 및 상기 가상객체의 생장 또는 제작에 인위적으로 관여하는 것으로서 상기 모바일 단말에서 행해진 객체관여정보 중 어느 하나 이상의 정보에 따라 결정되는 상기 가상객체의 제1 생장/단계제작에 따른 제1 가상이미지를 결합시킨 제1 증강현실 이미지를 표시하고 저장하는 제1 증강이미지 표시단계;
상기 가상객체에 대응하는 실질객체의 설정된 실질 생장/제작 단계에 대응하는 상기 가상객체의 가상 생장/제작 단계에 관하여, 상기 행사지역 내 제2 지점의 제2 시점에서, 상기 제1 지점에서 상기 제2 지점으로의 상기 모바일 단말의 지점이동을 상기 가상 생장/제작 단계 중 상기 제1 가상이미지를 생성한 상기 제1 시점으로부터 상기 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 생성하는 제2 시점까지의 생장/제작 단계구간에 대응시켜 매칭시키는 변환매칭 단계; 및
상기 제2 지점의 상기 제2 시점의 상기 모바일 단말에서, 매칭된 상기 생장/제작 단계구간에 대응하도록 설정된 상기 실질객체의 상기 실질 생장/제작 단계 중 대응 단계구간에서의 상기 자연환경정보 및 매칭된 상기 생장/제작 단계구간에서의 상기 객체관여정보 중 어느 하나 이상의 정보에 따라 상기 제1 생장/단계제작 이후로부터 추가 생장/단계제작된 상기 가상객체의 상기 제2 생장/단계제작에 따른 상기 제2 가상이미지를 결합시킨 제2 증강현실 이미지를 표시하고 저장하는 제2 증강이미지 표시단계를 포함하여 이루어지는 증강현실을 이용한 가상객체 관리 방법.
In a mobile terminal for displaying and storing an augmented reality image in which a virtual object related to an event in a specific area is combined with a real image related to a specific point related to the event area, at a first point in the first point in the event area, the specific point The first virtual according to the first growth/stage production of the virtual object determined according to any one or more of the natural environment information and the object involvement information performed in the mobile terminal as artificially involved in the growth or production of the virtual object A first augmented image display step of displaying and storing a first augmented reality image combined with the image;
With respect to the virtual growth/production step of the virtual object corresponding to the set actual growth/production step of the real object corresponding to the virtual object, at a second time point of a second point in the event area, the first point at the first point To generate a second virtual image according to the second growth/stage production of the virtual object from the first time point at which the first virtual image is generated during the virtual growth/production step by moving the mobile terminal to the second point a transformation matching step of matching the growth/production stage period up to the second time point; and
In the mobile terminal at the second time point of the second point, the natural environment information in the corresponding step section of the actual growth/production step of the real object set to correspond to the matched growth/production step section and the matched The second according to the second growth/step production of the virtual object additionally grown/step-manufactured after the first growth/step production according to any one or more of the object involvement information in the growth/production step section A virtual object management method using augmented reality comprising a second augmented image display step of displaying and storing a second augmented reality image combined with a virtual image.
청구항 1에서,
상기 제1 및 제2 지점은 각각 설정된 지점에서의 설정반경범위를 포함하고,
상기 변환매칭 단계에서, 상기 제1 지점에서 상기 제2 지점으로의 상기 지점이동은 상기 제1 가상이미지의 생성 또는 상기 제1 증강현실 이미지의 표시 이후부터의 상기 제1 지점에서의 제1 체류시간, 상기 제2 가상이미지의 생성 또는 상기 제2 증강현실 이미지의 표시 이전까지의 상기 제2 지점에서의 제2 체류시간 또는 상기 제1 및 제2 지점 사이의 경유지점이 있는 경우 상기 경유지점에서의 체류시간이 설정시간 이상인 경우에 상기 지점이동으로 판단되는 것을 특징으로 하는 증강현실을 이용한 가상객체 관리 방법.
In claim 1,
The first and second points each include a set radius range at a set point,
In the transformation matching step, the movement of the point from the first point to the second point is a first residence time at the first point after the generation of the first virtual image or the display of the first augmented reality image. , If there is a second residence time at the second point before the generation of the second virtual image or the display of the second augmented reality image, or if there is a waypoint between the first and second points, the stay at the waypoint A virtual object management method using augmented reality, characterized in that it is determined that the point is moved when the time is longer than the set time.
청구항 1에서,
상기 가상객체의 가상이미지와 결합되어 상기 증강현실 이미지를 생성시키는 상기 현실이미지는 상기 행사지역 내지 그 주변에서 상기 모바일 단말을 통해 촬영된 이미지이거나 상기 행사지역 내지 그 주변에서의 상기 모바일 단말의 위치를 기준으로 설정 앱을 통해 획득되는 이미지이고,
상기 설정 앱을 통해 획득되는 이미지는 상기 모바일 단말에서 설정기간범위 내에서 최초 획득되는 상기 가상객체의 최초 생장/제작 시점 및 상기 제1 및 제2 생장/단계제작에 따른 시점 각각에 대응하는 상기 실질객체의 각 실질 생장/제작 단계에서의 상기 특정지점에 관한 이미지로서 상기 실질객체의 각 실질 생장/제작 단계에 매칭되게 개별 또는 일괄로 획득되고,
상기 설정 앱을 통해 일괄로 상기 현실이미지가 획득된 경우 상기 증강현실 이미지의 생성 시 상기 실질객체의 각 실질 생장/제작 단계에 매칭되는 이미지가 읽혀지는 것을 특징으로 하는 증강현실을 이용한 가상객체 관리 방법.
In claim 1,
The real image that is combined with the virtual image of the virtual object to generate the augmented reality image is an image taken through the mobile terminal in or around the event area or the location of the mobile terminal in or around the event area. As a standard, it is an image acquired through the settings app,
The image acquired through the setting app is the substance corresponding to the first growth/production time of the virtual object first acquired within a set period range in the mobile terminal and the time point according to the first and second growth/stage manufacturing, respectively. An image about the specific point in each actual growth/production stage of an object is obtained individually or collectively to match each actual growth/production stage of the real object,
Virtual object management method using augmented reality, characterized in that when the real image is acquired in a batch through the setting app, an image matching each real growth/production step of the real object is read when the augmented reality image is generated .
청구항 3에서,
상기 가상객체의 최초 생장 시점 및 상기 제1 및 제2 생장에 따른 시점에 대응하는 상기 실질객체의 각 실질 생장단계는 주, 월 또는 계절에 따른 시기별 단계이고,
상기 현실이미지가 상기 모바일 단말을 통해 촬영된 이미지인 경우에, 상기 설정기간범위 내에서의 상기 증강현실 이미지의 최초 생성과정 및 상기 제1 및 제2 증강이미지 표시단계 중 적어도 어느 하나에서는, 상기 촬영된 이미지의 배경에 상기 실질객체의 각 실질 생장단계에 따라 변하는 변경 배경객체가 포함되는지 확인하는 배경객체 확인과정 및 상기 배경객체 확인과정에서 상기 변경 배경객체가 포함된 것으로 확인된 경우 상기 촬영된 이미지 중 상기 변경 배경객체에 상응하는 이미지를 상기 실질객체의 각 실질 생장단계에 매칭되게 보정하는 배경객체 보정과정을 포함하고,
상기 배경객체 확인과정은 사용자의 설정에 의해 또는 설정에 따른 배경객체의 판단에 의해 또는 양자의 조합에 의해 수행되고,
상기 변경 배경객체에 상응하는 이미지의 보정은 색체, 개화, 열매, 낙엽, 낙과, 적설, 생성, 소멸 중 적어도 어느 하나에 관한 보정인 것을 특징으로 하는 증강현실을 이용한 가상객체 관리 방법.
In claim 3,
Each real growth stage of the real object corresponding to the initial growth time of the virtual object and the time according to the first and second growth is a stage by period according to a week, month or season,
When the real image is an image captured through the mobile terminal, in at least one of the first generating process of the augmented reality image within the set period range, and the first and second augmented image display steps, the shooting In the background object checking process of checking whether the changed background object that changes according to each actual growth stage of the real object is included in the background of the image, and when it is confirmed that the changed background object is included in the background object checking process, the photographed image a background object correction process of correcting an image corresponding to the changed background object to match each real growth stage of the real object;
The background object confirmation process is performed by the user's setting or by determining the background object according to the setting, or by a combination of both,
The method for managing virtual objects using augmented reality, characterized in that the correction of the image corresponding to the changed background object is correction for at least one of color, flowering, fruit, fallen leaves, fallen fruit, snow, generation, and extinction.
청구항 1에서,
상기 제1 및 제2 생장 각각을 결정하는 하나의 인자로서 상기 자연환경정보는 빅데이터서버 내지 외부서버로부터 수신된 주변온도, 강수량, 일조 중 어느 하나 이상에 관한 과거 내지 예측 정보로서 상기 실질객체의 대응 단계구간에서 시간경과에 따른 값, 패턴 내지 상기 시간경과 전체에 대한 평균값 정보이고,
상기 제1 및 제2 생장 각각을 결정하는 하나의 인자로서 상기 객체관여정보는 터치입력에 따라 상기 가상객체에 관한 기상환경관리, 영양관리, 방제/방역, 생식관리, 증산관리, 생산관리 및 주변 환경관리 중 어느 하나 이상을 수행하기 위한 정보이고,
상기 제1 및 제2 가상이미지는 상기 제1 및 제2 생장 외에 상기 자연환경정보, 상기 객체관여정보 또는 양자 모두에 의한 실시간 반응을 수행하되, 상기 실시간 반응은 상기 빅데이터서버 내지 상기 외부서버로부터 수신된 상기 자연환경정보로서 강수(降水) 또는 바람에 따라 수행되거나 또는 상기 객체관여정보로서 터치입력에 따른 상기 가상객체에 대한 만지기, 흔들기 또는 밀거나 당기기, 식물성 가상객체에 대한 꺾기 또는 따기, 동물성 가상객체에 대한 물주기 또는 먹이주기 중 어느 하나 이상에 따라 수행되는 것을 특징으로 하는 증강현실을 이용한 가상객체 관리 방법.
In claim 1,
As one factor determining each of the first and second growths, the natural environment information is the past or forecast information about any one or more of ambient temperature, precipitation, and sunlight received from a big data server or an external server. In the corresponding step section, it is the value over time, the pattern, or the average value information for the entire time elapsed,
As one factor determining each of the first and second growths, the object involvement information is weather environment management, nutrition management, control/prevention, reproductive management, production management, production management and surroundings regarding the virtual object according to a touch input. Information for performing any one or more of environmental management,
The first and second virtual images perform a real-time reaction by the natural environment information, the object involvement information, or both in addition to the first and second growth, wherein the real-time reaction is obtained from the big data server or the external server. As the received natural environment information, it is performed according to precipitation or wind, or as the object involvement information, touching, shaking, pushing, or pulling on the virtual object according to a touch input, cutting or picking for a vegetable virtual object, animal nature A virtual object management method using augmented reality, characterized in that it is performed according to any one or more of watering and feeding for the virtual object.
청구항 1 내지 5 중 어느 하나에서,
상기 가상객체는 행사주제 내지 상기 특정지역과 관련된 것이고,
상기 생장이 이루어지는 상기 가상객체는 식물성 내지 동물성 가상객체이고, 상기 제작이 이루어지는 상기 가상객체는 가상제조물 내지 가상구조물이거나 가상 문화행사이고,
상기 제1 및 제2 지점은 상기 행사에 관련된 전시공간, 행사관람공간, 체험공간, 먹거리공간 중 어느 하나를 구성하는 지점인 것을 특징으로 하는 증강현실을 이용한 가상객체 관리 방법.
In any one of claims 1 to 5,
The virtual object is related to the event theme or the specific area,
The virtual object in which the growth is made is a vegetable or animal virtual object, and the virtual object in which the production is made is a virtual product, a virtual structure, or a virtual cultural event,
The method for managing virtual objects using augmented reality, characterized in that the first and second points are points constituting any one of an exhibition space, an event viewing space, an experience space, and a food space related to the event.
증강현실을 이용하여 특정지역의 행사를 관리하는 방법에 있어서,
청구항 1 내지 5 중 어느 하나에 따른 증강현실을 이용한 가상객체 관리 방법의 각 단계를 수행하고,
상기 행사를 관리하는 방법은:
상기 모바일 단말에서, 반복된 상기 가상객체의 생장/단계제작의 결과로 획득되는 상기 가상객체가 설정범위에 부합되게 생장/제작되었는지를 판단하거나 판단결과를 확인하는 판단/확인 단계; 및
상기 가상객체가 설정범위에 부합되게 생장/제작된 경우 상기 모바일 단말에서 인센티브를 수신하는 인센티브 수신단계를 더 포함하는 것을 특징으로 하는 증강현실을 이용한 행사 관리 방법.
In a method of managing an event in a specific area using augmented reality,
Performing each step of the virtual object management method using augmented reality according to any one of claims 1 to 5,
How to manage the above event:
a determination/confirmation step of determining, in the mobile terminal, whether the virtual object obtained as a result of repeated growth/step-production of the virtual object is grown/manufactured according to a setting range or confirming the determination result; and
The event management method using augmented reality, characterized in that it further comprises an incentive receiving step of receiving an incentive from the mobile terminal when the virtual object is grown/produced to meet a set range.
청구항 7에서,
상기 모바일 단말에서 상기 인센티브를 표시시켜, 상기 행사에 관련된 전시공간, 행사관람공간 또는 체험공간으로의 입장, 상기 행사에 관련된 티켓구매, 먹거리구매 또는 제품구매 중 어느 하나에 대한 결제 및 상기 행사에 관련된 기념품과의 교환 중 어느 하나 이상의 용도로 상기 인센티브가 스캐닝되어 사용되는 인센티브 사용단계를 더 포함하는 것을 특징으로 하는 증강현실을 이용한 행사 관리 방법.
In claim 7,
By displaying the incentive on the mobile terminal, admission to an exhibition space, event viewing space or experience space related to the event, payment for any one of ticket purchase, food purchase, or product purchase related to the event, and related to the event Event management method using augmented reality, characterized in that it further comprises the step of using the incentive in which the incentive is scanned and used for any one or more purposes of exchange with a souvenir.
행사지역과 관련된 특정지점에 관한 현실이미지를 획득하는 카메라 유닛;
모바일 단말의 위치정보를 획득하는 위치정보 획득유닛;
외부와 통신을 수행하는 통신 유닛;
상기 카메라 유닛을 통해 획득하거나 설정 앱을 통해 획득된 상기 현실이미지 및 가상객체의 가상이미지를 상기 현실이미지에 결합시킨 증강현실 이미지를 저장하는 메모리 유닛;
상기 가상객체의 생장 또는 제작에 관여하는 객체관여정보를 수행하기 위한 터치입력을 받고, 상기 증강현실 이미지를 디스플레이하는 터치 인터페이스 유닛; 및
특정지역의 행사에 관련된 상기 가상객체의 상기 가상이미지를 획득하여 상기 현실이미지에 결합시켜 상기 증강현실 이미지를 생성하는 제어 유닛을 포함하고,
상기 가상객체에 대응하는 실질객체의 설정된 실질 생장/제작 단계가 상기 가상객체의 가상 생장/제작 단계에 대응되도록 설정되고,
상기 제어 유닛은 상기 행사지역 내 제1 지점의 제1 시점에서 상기 특정지점의 자연환경정보 및 상기 객체관여정보 중 어느 하나 이상의 정보에 따라 결정되는 상기 가상객체의 제1 생장/단계제작에 따른 제1 가상이미지를 획득하고,
상기 제어 유닛은 상기 위치정보로부터 상기 제1 지점에서 상기 행사지역 내 제2 지점으로의 상기 모바일 단말의 지점이동을 판단하고, 상기 제1 지점에서 상기 제2 지점으로의 지점이동을 상기 가상객체의 상기 제1 가상이미지를 생성한 제1 시점으로부터 상기 가상객체의 제2 생장/단계제작에 따른 제2 가상이미지를 생성하는 제2 시점까지의 생장/제작 단계구간에 대응시켜 매칭시키고,
상기 제어 유닛은 상기 제2 지점의 상기 제2 시점에서, 상기 가상객체의 상기 생장/제작 단계구간에 대응되는 상기 실질객체의 상기 실질 생장/제작 단계 중 대응 단계구간에서의 상기 자연환경정보 및 상기 가상객체의 상기 생장/제작 단계구간에서의 상기 객체관여정보 중 어느 하나 이상의 정보에 따라 상기 제1 생장/단계제작 이후로부터 추가 생장/단계제작된 상기 가상객체의 상기 제2 가상이미지를 획득하고,
상기 제어 유닛은 상기 제1 및 제2 가상이미지 각각을 상기 현실이미지에 결합시켜 제1 및 제2 증강현실이미지 각각을 생성하는 것을 특징으로 하는 모바일 단말.
a camera unit for acquiring a real image of a specific point related to the event area;
a location information obtaining unit for obtaining location information of the mobile terminal;
a communication unit that communicates with the outside;
a memory unit for storing an augmented reality image obtained by combining the virtual image of the virtual object and the real image acquired through the camera unit or a setting app with the real image;
a touch interface unit for receiving a touch input for performing object involvement information involved in the growth or production of the virtual object, and displaying the augmented reality image; and
A control unit for generating the augmented reality image by acquiring the virtual image of the virtual object related to an event in a specific area and combining it with the real image,
The set real growth/production step of the real object corresponding to the virtual object is set to correspond to the virtual growth/production step of the virtual object,
The control unit is configured to control the first growth/stage production of the virtual object determined according to any one or more of the natural environment information and the object involvement information of the specific point at a first time point of the first point in the event area. 1 Acquire a virtual image,
The control unit determines a point movement of the mobile terminal from the first point to a second point in the event area from the location information, and performs the point movement from the first point to the second point of the virtual object. Matching the growth/production stage section from the first time point when the first virtual image is generated to the second time point at which the second virtual image is generated according to the second growth/step production of the virtual object;
The control unit is configured to: at the second time point of the second point, the natural environment information and the natural environment information in a corresponding step section of the real growth/production step of the real object corresponding to the growth/production step section of the virtual object Obtaining the second virtual image of the virtual object additionally grown/produced after the first growth/stage production according to any one or more of the object involvement information in the growth/production stage section of the virtual object,
wherein the control unit combines each of the first and second virtual images with the real image to generate first and second augmented reality images, respectively.
청구항 9에서,
상기 제1 및 제2 지점은 각각 설정된 지점에서의 설정반경범위를 포함하고,
상기 제어 유닛은 상기 제1 가상이미지의 생성 또는 상기 제1 증강현실 이미지의 표시 이후부터의 상기 제1 지점에서의 제1 체류시간, 상기 제2 가상이미지의 생성 또는 상기 제2 증강현실 이미지의 표시 이전까지의 상기 제2 지점에서의 제2 체류시간 또는 상기 제1 및 제2 지점 사이의 경유지점이 있는 경우 상기 경유지점에서의 체류시간이 설정시간 이상인 경우에 상기 제1 지점에서 상기 제2 지점으로의 상기 지점이동으로 판단하는 것을 특징으로 하는 모바일 단말.
In claim 9,
The first and second points each include a set radius range at a set point,
The control unit is configured to: a first residence time at the first point after generation of the first virtual image or display of the first augmented reality image, generation of the second virtual image or display of the second augmented reality image If there is a second residence time at the second point before, or a stopover point between the first and second points, from the first point to the second point when the stay time at the stopover point is equal to or longer than a set time Mobile terminal, characterized in that determined by the movement of the point.
청구항 9에서,
상기 현실이미지는 상기 행사지역 내지 그 주변에서 상기 카메라 유닛을 통해 촬영된 이미지이거나 상기 행사지역 내지 그 주변에서의 상기 모바일 단말의 위치를 기준으로 상기 설정 앱을 통해 획득되는 이미지이고,
상기 설정 앱을 통해 획득되는 이미지는 설정기간범위 내에서 최초 생성되는 상기 가상객체의 최초 생장/제작 시점 및 상기 제1 및 제2 생장/단계제작에 따른 시점 각각에 대응하는 상기 실질객체의 각 실질 생장/제작 단계에서의 상기 특정지점에 관한 이미지로서 상기 실질객체의 각 실질 생장/제작 단계에 매칭되게 개별 또는 일괄로 획득되고,
상기 설정 앱을 통해 일괄로 상기 현실이미지가 획득된 경우 상기 증강현실 이미지의 생성 시 상기 실질객체의 각 실질 생장/제작 단계에 매칭되는 이미지가 읽혀지는 것을 특징으로 하는 모바일 단말.
In claim 9,
The real image is an image taken through the camera unit in the event area or its surroundings, or an image obtained through the setting app based on the location of the mobile terminal in the event area or its surroundings,
The image acquired through the setting app is each substance of the real object corresponding to the first growth/production time of the virtual object initially created within the set period range and the time point according to the first and second growth/stage manufacturing. As an image of the specific point in the growth/production stage, it is acquired individually or collectively to match each actual growth/production stage of the real object,
When the real image is acquired in a batch through the setting app, when the augmented reality image is generated, an image matching each real growth/production stage of the real object is read.
청구항 11에서,
상기 가상객체의 최초 생장 시점 및 상기 제1 및 제2 생장에 따른 시점에 대응하는 상기 실질객체의 각 실질 생장단계는 주, 월 또는 계절에 따른 시기별 단계이고,
상기 제어 유닛은, 상기 설정기간범위 내에서의 상기 증강현실 이미지의 최초 생성 및 상기 제1 및 제2 증강현실 이미지의 생성 중 적어도 어느 하나에서는 상기 카메라 유닛을 통해 촬영된 상기 현실이미지의 배경에 상기 실질객체의 각 실질 생장단계에 따라 변하는 변경 배경객체가 포함되는지 확인하고, 상기 변경 배경객체가 포함된 것으로 확인된 경우 촬영된 상기 현실이미지 중 상기 변경 배경객체에 상응하는 이미지를 상기 실질객체의 각 실질 생장단계에 매칭되게 보정하고,
상기 배경객체의 확인은 사용자의 설정에 의해 또는 설정에 따른 배경객체의 판단에 의해 또는 양자의 조합에 의해 수행되고,
상기 변경 배경객체에 상응하는 이미지의 보정은 색체, 개화, 열매, 낙엽, 낙과, 적설, 생성, 소멸 중 적어도 어느 하나에 관한 보정인 것을 특징으로 하는 모바일 단말.
In claim 11,
Each real growth stage of the real object corresponding to the initial growth time of the virtual object and the time according to the first and second growth is a stage by period according to a week, month or season,
In at least one of the first generation of the augmented reality image and the generation of the first and second augmented reality images within the set period range, the control unit is configured to display the background of the reality image captured through the camera unit. It is checked whether a changed background object that changes according to each actual growth stage of the real object is included, and when it is confirmed that the changed background object is included, an image corresponding to the changed background object among the captured real images is set to each of the real objects. Corrected to match the actual growth stage,
The confirmation of the background object is performed by the user's setting or by the judgment of the background object according to the setting, or by a combination of both,
The correction of the image corresponding to the changed background object is a correction for at least one of color, flowering, fruit, fallen leaves, fallen fruit, snow, generation, and extinction.
청구항 9에서,
상기 제1 및 제2 생장 각각을 결정하는 하나의 인자로서 상기 자연환경정보는 상기 통신 유닛을 통해 빅데이터서버 내지 외부서버로부터 수신된 주변온도, 강수량, 일조 중 어느 하나 이상에 관한 과거 내지 예측 정보로서 상기 실질객체의 대응 단계구간에서 시간경과에 따른 값, 패턴 내지 상기 시간경과 전체에 대한 평균값 정보이고,
상기 제1 및 제2 생장 각각을 결정하는 하나의 인자로서 상기 객체관여정보는 터치입력에 따라 상기 가상객체에 관한 기상환경관리, 영양관리, 방제/방역, 생식관리, 증산관리, 생산관리 및 주변 환경관리 중 어느 하나 이상을 수행하기 위한 정보이고,
상기 제어 유닛은 상기 제1 및 제2 생장 외에 상기 자연환경정보, 상기 객체관여정보 또는 양자 모두에 의한 실시간 반응을 수행하는 상기 제1 및 제2 가상이미지를 생성하되, 상기 실시간 반응은 상기 빅데이터서버 내지 상기 외부서버로부터 수신된 상기 자연환경정보로서 강수(降水) 또는 바람에 따라 수행되거나 또는 상기 객체관여정보로서 터치입력에 따른 상기 가상객체에 대한 만지기, 흔들기 또는 밀거나 당기기, 식물성 가상객체에 대한 꺾기 또는 따기, 동물성 가상객체에 대한 물주기 또는 먹이주기 중 어느 하나 이상에 따라 수행되는 것을 특징으로 하는 모바일 단말.
In claim 9,
As one factor determining each of the first and second growths, the natural environment information is past or forecast information about any one or more of ambient temperature, precipitation, and sunlight received from a big data server or an external server through the communication unit. In the corresponding step section of the real object as a value over time, a pattern or average value information for the entire time elapsed,
As one factor determining each of the first and second growths, the object involvement information is weather environment management, nutrition management, control/prevention, reproductive management, production management, production management and surroundings regarding the virtual object according to a touch input. Information for performing any one or more of environmental management,
The control unit generates the first and second virtual images for performing a real-time reaction based on the natural environment information, the object involvement information, or both in addition to the first and second growth, wherein the real-time reaction is the big data As the natural environment information received from the server or the external server, it is performed according to precipitation or wind, or as the object involvement information, touching, shaking, pushing, or pulling the virtual object according to a touch input, to a vegetable virtual object A mobile terminal, characterized in that it is performed according to any one or more of cutting or picking, watering or feeding for virtual virtual objects.
청구항 9 내지 13 중 어느 하나에서,
상기 제어 유닛은 반복된 상기 가상객체의 생장/단계제작의 결과로 생성되는 상기 가상객체가 설정범위에 부합되게 생장/제작되었는지를 판단하거나 판단결과를 확인하고,
상기 모바일 단말은 상기 가상객체가 설정범위에 부합되게 생장/제작된 경우 상기 통신 유닛을 통해 연결된 외부서버로부터 인센티브를 수신하고,
상기 인센티브는 상기 행사에 관련된 전시공간, 행사관람공간 또는 체험공간으로의 입장, 상기 행사에 관련된 티켓구매, 먹거리구매 또는 제품구매 중 어느 하나에 대한 결제 및 상기 행사에 관련된 기념품과의 교환 중 어느 하나 이상의 용도로 사용되는 것을 특징으로 하는 모바일 단말.
14. In any one of claims 9 to 13,
The control unit determines whether the virtual object generated as a result of the repeated growth/stage production of the virtual object is grown/manufactured in accordance with a set range or confirms the determination result,
The mobile terminal receives an incentive from an external server connected through the communication unit when the virtual object is grown/produced to meet a set range,
The incentive is any one of admission to an exhibition space, event viewing space or experience space related to the event, payment for any one of ticket purchase, food purchase, or product purchase related to the event, and exchange with a souvenir related to the event Mobile terminal, characterized in that used for the above purpose.
KR1020190170231A 2019-12-18 2019-12-18 Method for managing virtual object using augment reality, method for managing festival using augment reality and mobile terminal KR102314894B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190170231A KR102314894B1 (en) 2019-12-18 2019-12-18 Method for managing virtual object using augment reality, method for managing festival using augment reality and mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190170231A KR102314894B1 (en) 2019-12-18 2019-12-18 Method for managing virtual object using augment reality, method for managing festival using augment reality and mobile terminal

Publications (2)

Publication Number Publication Date
KR20210078342A true KR20210078342A (en) 2021-06-28
KR102314894B1 KR102314894B1 (en) 2021-10-19

Family

ID=76607953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190170231A KR102314894B1 (en) 2019-12-18 2019-12-18 Method for managing virtual object using augment reality, method for managing festival using augment reality and mobile terminal

Country Status (1)

Country Link
KR (1) KR102314894B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110004974A (en) 2009-07-09 2011-01-17 에스케이 텔레콤주식회사 Method for providing location based services by using augmented reality, system, server and portable terminal therefor
KR20110071210A (en) 2009-12-21 2011-06-29 한국전자통신연구원 Apparatus and method for mixed reality content operation based on indoor and outdoor context awareness
KR20110104686A (en) 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Marker size based interaction method and augmented reality system for realizing the same
KR20120009638A (en) 2010-07-19 2012-02-02 주식회사 비즈모델라인 Method for Managing Virtual-Object Data about Non-Recognition Reality-Object, Augmented Reality Device and Recording Medium
KR20140033868A (en) * 2012-09-11 2014-03-19 한국과학기술원 Method and apparatus for environment modeling for ar
KR20150026375A (en) * 2013-09-02 2015-03-11 엘지전자 주식회사 Portable device and controlling method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110004974A (en) 2009-07-09 2011-01-17 에스케이 텔레콤주식회사 Method for providing location based services by using augmented reality, system, server and portable terminal therefor
KR20110071210A (en) 2009-12-21 2011-06-29 한국전자통신연구원 Apparatus and method for mixed reality content operation based on indoor and outdoor context awareness
KR20110104686A (en) 2010-03-17 2011-09-23 에스케이텔레콤 주식회사 Marker size based interaction method and augmented reality system for realizing the same
KR20120009638A (en) 2010-07-19 2012-02-02 주식회사 비즈모델라인 Method for Managing Virtual-Object Data about Non-Recognition Reality-Object, Augmented Reality Device and Recording Medium
KR20140033868A (en) * 2012-09-11 2014-03-19 한국과학기술원 Method and apparatus for environment modeling for ar
KR20150026375A (en) * 2013-09-02 2015-03-11 엘지전자 주식회사 Portable device and controlling method thereof

Also Published As

Publication number Publication date
KR102314894B1 (en) 2021-10-19

Similar Documents

Publication Publication Date Title
CN104796668B (en) Observation device
KR100991730B1 (en) System for managing real farm through online
KR101936317B1 (en) Method for smart farming
JP2022120848A (en) Information processing unit, information processing method, information processing system, and program
KR101934961B1 (en) Method and apparatus for predicting profitablilty
JP7300796B2 (en) Prediction system, method and program for growth status or pest occurrence status
US20190134508A1 (en) Information processing apparatus, program, and information processing method
JP6551943B2 (en) Growth management device, growth management method, and program
US20180224802A1 (en) System and method presenting holographic plant growth
US20210350235A1 (en) System and method for horticulture viability prediction and display
CN106663284A (en) Information processing device, information processing method, and program
KR102407750B1 (en) Metaverse-based agricultural and fishery product cultivation system and mehod therfor
CN1325090A (en) Network farm-operation method of indicating cultivation condition and harvest result by users
Buerkert et al. Prospects of mountain ecotourism in Oman: the example of As Sawjarah on Al Jabal al Akhdar
KR102314894B1 (en) Method for managing virtual object using augment reality, method for managing festival using augment reality and mobile terminal
JP2009240628A (en) Program, information recording medium, and game system
JP2021128756A (en) Futures Trading Information Display Program
KR102329027B1 (en) Method for managing virtual object using augment reality and big-data and mobile terminal executing thereof
Takekar et al. Plant and taste to reap with Internet of Things implementation of IoT in agriculture to make it a parallel industry
KR101888931B1 (en) Apparatus and method for consulting distribution information
KR102411058B1 (en) Farming education simulation server using metaverse
KR102281983B1 (en) Talk with plant service method using mobile terminal
Netthikumarage et al. GARDENPRO-Android Mobile Application for Home Garden Management Using Machine Learning Augmented Reality and IOT
KR20180076098A (en) Plant cultivation terminal and plant cultivation system
JP2005063083A (en) State change simulation system and device, control method thereof, and control program thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant