KR20240083277A - Method and System for Providing Space Storytelling Service - Google Patents

Method and System for Providing Space Storytelling Service Download PDF

Info

Publication number
KR20240083277A
KR20240083277A KR1020220166998A KR20220166998A KR20240083277A KR 20240083277 A KR20240083277 A KR 20240083277A KR 1020220166998 A KR1020220166998 A KR 1020220166998A KR 20220166998 A KR20220166998 A KR 20220166998A KR 20240083277 A KR20240083277 A KR 20240083277A
Authority
KR
South Korea
Prior art keywords
mission
story
spatial
storytelling
location
Prior art date
Application number
KR1020220166998A
Other languages
Korean (ko)
Inventor
김준완
Original Assignee
김준완
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김준완 filed Critical 김준완
Priority to KR1020220166998A priority Critical patent/KR20240083277A/en
Publication of KR20240083277A publication Critical patent/KR20240083277A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/12Payment architectures specially adapted for electronic shopping systems
    • G06Q20/123Shopping for digital content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/14Payment architectures specially adapted for billing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0613Third-party assisted
    • G06Q30/0619Neutral agent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Engineering & Computer Science (AREA)
  • Finance (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Primary Health Care (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

공간 스토리텔링 서비스 제공방법이 개시된다. 본 명세서는, 제1 사용자로부터 특정 공간을 배경으로 수행해야할 적어도 하나의 미션을 포함하는 미션스토리를 입력받는 단계; 미리 정해진 기준에 따라 상기 입력된 미션스토리의 등록여부를 판단하는 단계; 상기 등록된 미션스토리에 기초하여 공간스토리 기반의 미션 콘텐츠를 생성하여 상기 플랫폼 상에 공개하는 단계; 및 제2 사용자로부터 상기 특정 공간을 선택하는 입력 및 상기 특정 공간에서 제공되는 상기 미션 콘텐츠가 선택되는 경우, 유료 결재화면을 제공하는 단계;를 포함한다.A method of providing a spatial storytelling service is disclosed. This specification includes the steps of receiving a mission story including at least one mission to be performed in the background of a specific space from a first user; Determining whether or not to register the input mission story according to predetermined criteria; Generating space story-based mission content based on the registered mission story and releasing it on the platform; and providing a paid payment screen when an input for selecting the specific space is received from a second user and the mission content provided in the specific space is selected.

Description

공간 스토리텔링 서비스 제공 방법 및 시스템{Method and System for Providing Space Storytelling Service}{Method and System for Providing Space Storytelling Service}

본 명세서는 공간 스토리텔링 서비스 제공 방법 및 시스템에 관한 것이다.This specification relates to a method and system for providing spatial storytelling services.

개인들은 특정 위치와 관련된 경험 및 추억 등을 가질 수 있다. 경험담 혹은 특정 공간에서의 추억 등은 스토리 그 자체로 유용하게 활용될 수 있다. 예를 들어, 공간 스토리텔링으로 명명될 수 있는 위치기반의 스토리 콘텐츠는 영화, 드라마 등 다양한 주제로 활용될 수 있으며, 실제로 좋은 소재, 신선한 주제가 영화나 드라마 또는 작가들의 흥행을 결정하는 가장 중요한 요소가 될 수 있다.Individuals may have experiences and memories related to a specific location. Stories of experiences or memories of a specific space can be useful as stories themselves. For example, location-based story content, which can be named spatial storytelling, can be used for various topics such as movies and dramas, and in fact, good material and fresh topics are the most important factors in determining the success of movies, dramas, or writers. It can be.

상기 공간 스토리텔링은 문화 콘텐츠를 창작하는 작가 등의 수요자들에게 공간 기반의 현실감 있는 창의적인 소스를 제공하는데 이용되기도 하지만, 실제 공간을 배경으로 하는 다양한 이벤트를 생성하는데 이용될 수도 있다.The spatial storytelling is used to provide space-based, realistic creative sources to consumers such as writers who create cultural content, but can also be used to create various events set in actual space.

다만, 현실적으로 소재와 캐릭터 발굴을 위한 플랫폼이 부재한 현실로 인해, 공간 스토리 공급자에 의해 제공되는 스토리 콘텐츠를 다양한 컨텐츠로 확대 적용하는 데는 한계가 있다.However, due to the lack of a platform for discovering materials and characters in reality, there are limitations in expanding and applying the story content provided by spatial story providers to various contents.

전술한 문제를 해결하기 위해 본 명세서는, 공간을 매개로 하여 특정 공간에 대한 경험 스토리를 보유하고 있는 스토리 공급자와 스토리 수요자를 보다 효율적으로 매칭하기 위한 위치기반 스토리 콘텐츠의 제공 방법을 제공하는 것을 목적으로 한다.In order to solve the above-mentioned problem, the purpose of this specification is to provide a method of providing location-based story content to more efficiently match story providers and story consumers who have experience stories about a specific space through space. Do this.

또한, 본 명세서는 공간 스토리텔러의 개인적인 경험을 보다 효율적으로 유료 콘텐츠로 재 가공하며, 특정 공간과 관련된 공간정보 제공자, 특정 공간과 관련된 광고제공자와의 새로운 비즈니스 모델을 제시함으로써, 위치기반 스토리 콘텐츠 제공 방법을 제공하는 것을 목적으로 한다.In addition, this specification provides location-based story content by reprocessing the personal experiences of spatial storytellers more efficiently into paid content and presenting a new business model with spatial information providers related to specific spaces and advertising providers related to specific spaces. The purpose is to provide a method.

본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 이하의 발명의 상세한 설명으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clear to those skilled in the art from the detailed description of the invention below. It will be understandable.

본 명세서의 일 실시예에 따른 공간 스토리텔링 서비스 제공방법은, 공간 스토리 서비스를 제공하는 플랫폼을 통한 공간 스토리텔링 서비스 제공방법에 있어서, 제1 사용자로부터 특정 공간을 배경으로 수행해야할 적어도 하나의 미션을 포함하는 미션스토리를 입력받는 단계; 미리 정해진 기준에 따라 상기 입력된 미션스토리의 등록여부를 판단하는 단계; 상기 등록된 미션스토리에 기초하여 공간스토리 기반의 미션 콘텐츠를 생성하여 상기 플랫폼 상에 공개하는 단계; 및 제2 사용자로부터 상기 특정 공간을 선택하는 입력 및 상기 특정 공간에서 제공되는 상기 미션 콘텐츠가 선택되는 경우, 유료 결재화면을 제공하는 단계;를 포함한다.A method of providing a spatial storytelling service according to an embodiment of the present specification is a method of providing a spatial storytelling service through a platform that provides a spatial story service, and includes at least one mission to be performed in the background of a specific space from the first user. Step of inputting a mission story including; Determining whether or not to register the input mission story according to predetermined criteria; Generating space story-based mission content based on the registered mission story and releasing it on the platform; and providing a paid payment screen when an input for selecting the specific space is received from a second user and the mission content provided in the specific space is selected.

상기 공간스토리 기반 미션 콘텐츠는, 상기 특정 공간상에서 서로 다른 위치에서 수행할 적어도 하나의 서로 다른 미션을 포함할 수 있다.The spatial story-based mission content may include at least one different mission to be performed at different locations in the specific space.

상기 미션 스토리를 생성하는 단계는, 상기 특정 공간상에서 수행되어야 하는 적어도 하나의 미션위치가 매핑된 맵 데이터를 생성하는 단계;를 포함하고, 상기 맵 데이터 상에 상기 적어도 하나의 미션위치에 표시된 수행되어야 할 미션정보가 매핑되어 저장될 수 있다.The step of generating the mission story includes generating map data in which at least one mission location to be performed in the specific space is mapped, and the at least one mission location to be performed is displayed on the map data. Mission information to be done can be mapped and stored.

상기 공간 스토리텔링 서비스 제공 방법은, 상기 제2 사용자의 단말의 위치정보를 획득하는 단계; 및 상기 제2 사용자의 단말이 상기 특정 공간으로부터 미리 정해진 반경 이내에 위치하는 것을 감지한 경우, 상기 미션 콘텐츠의 실행과 관련된 알람을 출력하는 단계;를 더 포함할 수 있다.The method of providing the spatial storytelling service includes obtaining location information of the second user's terminal; And when the second user's terminal detects that it is located within a predetermined radius from the specific space, outputting an alarm related to execution of the mission content; may further include.

상기 공간 스토리텔링 서비스 제공 방법은 상기 특정 공간상에서 상기 미션 콘텐츠가 시작된 경우, 상기 제2 사용자의 단말의 카메라가 구동됨에 따라, 상기 카메라의 프리뷰 영상에 상기 특정 공간상에서 수행되어야 하는 적어도 하나의 미션위치를 안내하는 AR 인디케이터를 표시하는 단계;를 더 포함할 수 있다.The spatial storytelling service providing method includes, when the mission content starts in the specific space, as the camera of the second user's terminal is driven, at least one mission location to be performed in the specific space in the preview image of the camera. It may further include displaying an AR indicator to guide.

상기 특정 공간상에서 상기 제2 사용자의 단말을 통해 상기 미션 콘텐츠가 실행되는 경우, 서로 다른 미션위치에서 상기 제2 사용자의 단말 상의 카메라를 통해 상기 미션 위치의 타겟 객체가 인식됨에 따라 특정 미션 위치에서의 미션이 수행되었음을 알리는 알람을 출력하는 단계; 및 상기 서로 다른 미션위치에서 모든 미션이 수행된 것을 감지하는 경우, 미션수행 완료에 따른 보상을 제공하는 단계;를 포함할 수 있다.When the mission content is executed through the second user's terminal in the specific space, the target object at the mission location is recognized through the camera on the second user's terminal at different mission locations, so that the target object at the specific mission location is recognized. Outputting an alarm indicating that the mission has been performed; And when it is detected that all missions have been performed at the different mission locations, providing a reward according to the completion of the mission.

본 명세서의 다른 실시예에 따른 공간 스토리텔링 서비스 제공 시스템은, 공간 스토리 제공자로부터 특정 공간을 배경으로 수행해야할 적어도 하나의 미션을 포함하는 미션스토리를 입력받고, 등록된 미션스토리에 기초하여 공간스토리 기반의 미션 콘텐츠를 생성하여 제공하는 서버; 및 상기 서버에서 운용되는 공간 스토리텔링 애플리케이션이 실행하고, 상기 특정 공간을 선택하는 입력 및 상기 특정 공간에서 제공되는 상기 미션 콘텐츠가 선택되는 경우, 유료 결재화면을 제공하는 사용자 단말;를 포함하고, 상기 서버는, 상기 사용자 단말의 위치 정보를 획득하고, 상기 사용자 단말이 상기 특정 공간으로부터 미리 정해진 반경 이내에 위치하는 것을 감지한 경우, 상기 미션 콘텐츠 실행과 관련된 알람을 출력하고, 상기 사용자 단말은, 상기 특정 공간상에서 카메라를 통해 미션위치의 타겟 객체를 인식한 경우, 특정 미션위치에서의 미션이 수행되었음을 알리는 알람을 출력한다.A spatial storytelling service provision system according to another embodiment of the present specification receives a mission story including at least one mission to be performed in the background of a specific space from a spatial story provider, and provides a spatial story based on the registered mission story. A server that creates and provides mission content; And a user terminal that executes a spatial storytelling application operated on the server and provides a paid payment screen when an input for selecting the specific space is selected and the mission content provided in the specific space is selected. The server acquires location information of the user terminal, and when detecting that the user terminal is located within a predetermined radius from the specific space, outputs an alarm related to execution of the mission content, and the user terminal, When a target object at a mission location is recognized through a camera in space, an alarm is output indicating that a mission has been performed at a specific mission location.

상기 서버는, 서로 다른 미션위치에서 모든 미션이 수행된 것을 감지하는 경우, 미션수행 완료에 따른 보상을 제공할 수 있다.When the server detects that all missions have been performed at different mission locations, it can provide compensation for completing missions.

본 명세서의 일 실시예에 따르면, 공간을 매개로 하여 특정 공간에 대한 경험 스토리를 보유하고 있는 스토리 공급자와 스토리 수요자를 보다 효율적으로 매칭시킬 수 있다.According to an embodiment of the present specification, it is possible to more efficiently match story providers and story consumers who have experience stories about a specific space through space.

또한, 본 명세서는 공간 스토리텔러의 개인적인 경험을 보다 효율적으로 유료 콘텐츠로 재가공함으로써, 개인의 경험을 자산화시킬 수 있다.Additionally, this specification can make personal experiences into assets by reprocessing the spatial storyteller's personal experiences into paid content more efficiently.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. .

본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을도 설명한다.
도 1은 본 명세서의 일 실시예에 따른 공간 스토리텔링 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 본 명세서의 일 실시예에 따른 공간 스토리텔링 서비스 제공방법을 구현하기 위한 서버와 사용자 단말의 블록도이다.
도 3은 본 명세서의 일 실시예에 따른 AI 장치의 예시적인 블록도이다.
도 4 내지 도 5 본 명세서의 일 실시예에 따른 공간 스토리텔링 서비스 제공 방법의 흐름도이다.
도 6 내지 도 10은 본 명세서의 일 실시예에 따른 공간 스토리텔링 애플리케이션의 실행 화면의 예시이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide embodiments of the present specification and, along with the detailed description, also explain technical features of the present specification.
1 is a diagram for explaining a system for providing a spatial storytelling service according to an embodiment of the present specification.
Figure 2 is a block diagram of a server and a user terminal for implementing a method for providing a spatial storytelling service according to an embodiment of the present specification.
Figure 3 is an example block diagram of an AI device according to an embodiment of the present specification.
4 to 5 are flowcharts of a method for providing a spatial storytelling service according to an embodiment of the present specification.
6 to 10 are examples of execution screens of a spatial storytelling application according to an embodiment of the present specification.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide embodiments of the present invention, and together with the detailed description, explain technical features of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that it does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

도 1은 본 명세서의 일 실시예에 따른 위치정보 기반 스토리 콘텐츠 제공 시스템을 설명하기 위한 도면이다.1 is a diagram for explaining a system for providing location information-based story content according to an embodiment of the present specification.

도 1을 참조하면, 본 명세서의 일 실시예에 따른 공간 스토리텔링 서비스 제공 시스템은, 서버(10), 시나리오 제공자 단말(20), 시나리오 구매자 단말(30)을 포함한다. 한편, 상기 시스템은 장소 정보 제공자(40) 및/또는 광고 제공자(50)가 운용하는 디바이스를 더 포함할 수 있다. Referring to FIG. 1, the spatial storytelling service providing system according to an embodiment of the present specification includes a server 10, a scenario provider terminal 20, and a scenario buyer terminal 30. Meanwhile, the system may further include a device operated by the location information provider 40 and/or the advertisement provider 50.

여기서, 시나리오 제공자라 함은 공간 기반의 스토리텔링 콘텐츠 제작에 필요한 개인의 경험담, 개인의 경험담에 기초한 미션 스토리 등을 포함하는 소스 콘텐츠를 제공하는 주체를 의미할 수 있다. 시나리오 구매자라 함은 상기 시나리오 제공자에 의해 소스 콘텐츠가 공간 스토리텔링 서비스 플랫폼을 통해 제작되는 공간 기반 스토리텔링 콘텐츠를 유료 결제를 통해 구매하는 주체를 의미할 수 있다. 한편, 본 명세서에서 상기 공간 스토리텔링 콘텐츠, 위치정보 기반 스토리 콘텐츠 등은 동일한 의미로 사용될 수 있다.Here, the scenario provider may mean an entity that provides source content including personal experiences necessary for producing space-based storytelling content, mission stories based on personal experiences, etc. A scenario buyer may refer to an entity that purchases spatial-based storytelling content whose source content is produced by the scenario provider through a spatial storytelling service platform through paid payment. Meanwhile, in this specification, the spatial storytelling content, location information-based story content, etc. may be used with the same meaning.

상기 공간 스토리텔링 서비스는 서버(10)의 프로세서에 의해 구현될 수 있다. 상기 서버(10)는 위치정보 기반 스토리 콘텐츠를 제공하기 위한 소정의 어플리케이션을 실행하여 상기 위치정보 기반 스토리 콘텐츠 제공 서비스를 구현할 수 있다. 이를 위해, 상기 시나리오 제공자 단말(20), 시나리오 구매자 단말(30), 장소 정보 제공자 (40)의 단말 및 광고 제공자(50)의 단말은 모두 상기 어플리케이션이 설치된 상태에서 상기 서비스가 구현될 수 있다.The spatial storytelling service may be implemented by the processor of the server 10. The server 10 may implement the location information-based story content provision service by executing a predetermined application for providing location information-based story content. To this end, the scenario provider terminal 20, the scenario purchaser terminal 30, the terminal of the location information provider 40, and the terminal of the advertisement provider 50 can all implement the service with the application installed.

한편, 상기 시나리오 제공자, 시나리오 구매자, 공간정보 제공자, 광고제공자는 모두 상기 어플리케이션을 통해 회원 등록과정을 거친 후에 상기 어플리케이션에서 제공하는 서비스를 이용할 수 있다.Meanwhile, the scenario provider, scenario purchaser, spatial information provider, and advertisement provider can all use the services provided by the application after completing the membership registration process through the application.

상기 서버(10)는 스토리 제공자(21)로부터 특정 공간에서의 경험을 포함하는 위치기반 스토리를 제공받아서 등록 및 저장할 수 있다. 서버(10)는 스토리 제공자(21)의 단말(20)을 통해 소정의 인터페이스를 통해 위치기반 스토리 정보를 입력받을 수 있다. 서버(20)는 미리 정해진 기준에 기초하여 입력된 스토리에 대하여 저작권 등재 또는 저작권 관리가 필요한지 여부를 판단하고, 저장할 수 있다.The server 10 may receive a location-based story including an experience in a specific space from the story provider 21, register and store it. The server 10 can receive location-based story information through a predetermined interface through the terminal 20 of the story provider 21. The server 20 may determine whether copyright registration or copyright management is necessary for the input story based on predetermined standards and store the story.

상기 서버(10)는 스토리 요청자(31)로부터 스토리 제공자(21)에 의해 제공되어 등록된 적어도 하나의 위치기반 스토리 콘텐츠를 요청하는 입력을 수신할 수 있다. 스토리 요청자(31)는 스토리 요청자의 단말(30)에서 제공되는 소정의 인터페이스를 통해 스토리 요청자(31)가 제공받기 위한 콘텐츠에 대한 적어도 하나의 조건을 입력할 수 있다.The server 10 may receive an input from the story requester 31 requesting at least one location-based story content provided and registered by the story provider 21. The story requester 31 may input at least one condition for content to be provided through a predetermined interface provided by the story requester's terminal 30.

장소정보 제공자(40)는 상기 어플리케이션을 통해 위치정보, 해당 위치의 연혁정보, 상기 위치정보를 나타내는 적어도 하나의 영상정보, 상기 장소정보 제공자를 나타내는 업체정보(홈페이지 정보, SNS 정보 등)을 서버(40)에 등록할 수 있다. 장소정보 제공자(40)는 상기 스토리 제공자(21) 및/또는 스토리 요청자(31)의 요청에 의해 추가적인 장소 정보 등을 어플리케이션 상에 업로드 할 수도 있다.The location information provider 40 provides location information, history information of the location, at least one image information representing the location information, and business information (homepage information, SNS information, etc.) representing the location information provider through the application. 40). The location information provider 40 may upload additional location information, etc. to the application at the request of the story provider 21 and/or the story requester 31.

광고 제공자(50)는 특정 위치에서 운영하는 스토어를 어플리케이션 상에 등록함으로써, 스토어에 대한 광고를 어플리케이션을 통해 수행할 수 있다. 상기 어플리케이션은 상기 광고 제공자(50)에 의해 제공되는 스토어와 관련된 연관 검색어, 위치, 연혁, 스토어의 영상 자료, 스토어 홈페이지 정보, SNS 정보 등을 등록할 수 있다.The advertising provider 50 can perform advertising for the store through the application by registering the store operating in a specific location on the application. The application can register related search words, location, history, video data of the store, store homepage information, SNS information, etc. related to the store provided by the advertisement provider 50.

상기 스토리 제공자(21)는 스토리 수요자(31)에게 유료로 판매되는 콘텐츠의 정산을 거쳐서 상기 서버(10)에서 운영하는 어플리케이션을 통해 소정의 대금을 지급받을 수 있다. 상기 스토리 요청자(31)는 상기 어플리케이션에 업로드되어 있는 스토리 중 특정 스토리 콘텐츠에 대한 유료 결제를 통해 상기 특정 스토리를 구입할 수 있다. 한편, 상기 어플리케이션은 공간 스토리텔링 콘텐츠와 관련된 이벤트를 적어도 하나의 외부 단말에 광고가 되도록 할 수 있다. 상기 광고를 통해 상기 어플리케이션에 멤버십 가입을 유도할 수 있고, 상기 어플리케이션에서 제공하는 공간 스토리텔링 콘텐츠 이용을 유도할 수도 있다.The story provider 21 can receive a certain amount of money through the application operated by the server 10 after settling the content sold for a fee to the story consumer 31. The story requester 31 can purchase a specific story among the stories uploaded to the application by paying for the content. Meanwhile, the application can advertise events related to spatial storytelling content on at least one external terminal. The advertisement can induce membership in the application and use of spatial storytelling content provided by the application.

그리고, 상기 장소정보 제공자(40)는 상기 서버(40)에서 운영하는 플랫폼에 소정의 수수료 지불을 통해 장소 정보를 등록할 수 있다. 또한, 상기 광고 제공자(40)는 상기 서버(40)에서 운영하는 플랫폼에 소정의 수수료 지불을 통해 광고 정보를 등록할 수 있다.Additionally, the location information provider 40 can register location information on the platform operated by the server 40 by paying a predetermined fee. Additionally, the advertising provider 40 can register advertising information on the platform operated by the server 40 by paying a predetermined fee.

상기 서버(10), 상기 스토리 콘텐츠 제공자 단말(20), 상기 스토리 콘텐츠 요청자 단말(30), 상기 장소정보 제공자의 단말(40), 상기 광고 제공자의 단말(50)은 통신망(60)을 통해 연결됨으로써, 위치 기반 스토리 콘텐츠 제공 서비스가 구현될 수 있다.The server 10, the story content provider terminal 20, the story content requester terminal 30, the location information provider terminal 40, and the advertisement provider terminal 50 are connected through a communication network 60. By doing so, a location-based story content provision service can be implemented.

도 2는 본 명세서의 일 실시예에 따른 공간 스토리텔링 서비스 제공 시스템을 구현하기 위한 사용자 단말과 서버의 블록도이다.Figure 2 is a block diagram of a user terminal and a server for implementing a spatial storytelling service providing system according to an embodiment of the present specification.

도 2를 참조하면, 사용자 단말(100)은 서버(200)에서 제공되는 공간 스토리텔링 서비스 어플리케이션을 실행함으로써, 공간 스토리텔링 서비스를 제공받을 수 있다. 서버(200)는 사용자 단말(100)의 위치정보를 획득하고, 사용자 단말(100)의 위치이 기초하여 위치 기반의 공간 스토리텔링 서비스를 제공할 수 있다.Referring to FIG. 2, the user terminal 100 can receive a spatial storytelling service by executing a spatial storytelling service application provided by the server 200. The server 200 may obtain location information of the user terminal 100 and provide a location-based spatial storytelling service based on the location of the user terminal 100.

사용자 단말(100)은 무선 통신부(110), 위치정보 모듈(120), 메모리(130), 카메라(140), 디스플레이부(150), 제어부(160)를 포함할 수 있다.The user terminal 100 may include a wireless communication unit 110, a location information module 120, a memory 130, a camera 140, a display unit 150, and a control unit 160.

무선 통신부(110)는 이동통신모듈, 무선 인터넷 모듈, 근거리 통신모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다. 상기 무선 통신은, 예를 들어, WiFi(wireless fidelity), WiFi 다이렉트, BT(Bluetooth), NFC(near field communication), GPS(global positioning system), 셀룰러(cellular) 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro GSM 또는 5G 등) 등의 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a mobile communication module, a wireless Internet module, a short-range communication module, and a location information module. The wireless communication includes, for example, WiFi (wireless fidelity), WiFi Direct, BT (Bluetooth), NFC (near field communication), GPS (global positioning system), and cellular communication (e.g., LTE, LTE-A) , CDMA, WCDMA, UMTS, WiBro GSM, or 5G, etc.).

위치정보 모듈(120)은 사용자 단말(100)의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 사용자 단말(100)은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 사용자 단말(100)의 위치를 획득할 수 있다. 다른 예로서, 사용자 단말(100)는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 사용자 단말(100)의 위치를 획득할 수 있다. 필요에 따라서, 위치정보 모듈(120)은 치환 또는 부가적으로 사용자 단말(100)의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보 모듈(120)은 사용자 단말(100)의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 사용자 단말(100)의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.The location information module 120 is a module for acquiring the location (or current location) of the user terminal 100, and representative examples thereof include a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module. For example, if the user terminal 100 utilizes a GPS module, the user terminal 100 can acquire its location using signals sent from GPS satellites. As another example, when the user terminal 100 utilizes a Wi-Fi module, the location of the user terminal 100 is based on information from the Wi-Fi module and a wireless AP (Wireless Access Point) that transmits or receives wireless signals. can be obtained. If necessary, the location information module 120 may replace or additionally perform any of the functions of other modules of the wireless communication unit 110 to obtain data regarding the location of the user terminal 100. The location information module 120 is a module used to obtain the location (or current location) of the user terminal 100, and is not limited to a module that directly calculates or obtains the location of the user terminal 100.

메모리(130)는 제어부(150)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 공간 스토리텔링 콘텐츠 등록을 위한 데이터 입력, 정지영상, 동영상 등)을 임시저장 할 수 있다.The memory 130 can store programs for operating the control unit 150 and temporarily store input/output data (e.g., data input for registering spatial storytelling content, still images, videos, etc.). You can.

메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스 크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 사용자 단말(100)는 인터넷(internet)상에서 상기 메모리(130)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 130 is a flash memory type, hard disk type, solid state disk type, SDD type (Silicon Disk Drive type), and multimedia card micro type. ), card-type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable programmable read) -only memory), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk may include at least one type of storage medium. The user terminal 100 may be operated in connection with web storage that performs a storage function of the memory 130 on the Internet.

카메라(140)는 영상 촬영 모드에서 이미지 센서에 의해 획득되는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(150)에 표시되거나, 메모리(130)에 저장될 수 있다. 본 명세서의 일 실시예에 따라, 카메라(140)가 구동되면 프리뷰 이미지가 디스플레이부(150)에 표시될 수 있으며, 제어부(160)는 공간 스토리텔링 관련 콘텐츠는 AR 정보를 카메라의 프리뷰 이미지상에 중첩적으로 표시되도록 제어할 수 있다.The camera 140 processes image frames, such as still images or moving images, acquired by an image sensor in image capture mode. The processed image frame may be displayed on the display unit 150 or stored in the memory 130. According to an embodiment of the present specification, when the camera 140 is driven, a preview image may be displayed on the display unit 150, and the control unit 160 may display spatial storytelling-related content AR information on the preview image of the camera. You can control them to be displayed in an overlapping manner.

디스플레이부(150)는 사용자 단말(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(150)는 사용자 단말(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. 디스플레이부(150)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 150 displays (outputs) information processed in the user terminal 100. For example, the display unit 150 may display execution screen information of an application running on the user terminal 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information. . The display unit 150 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. It may include at least one of a display, a 3D display, and an e-ink display.

제어부(160)는 사용자 단말(100)을 통해 구동되는 응용 프로그램과 관련된 동작, 또는 사용자 단말(010)의 전반적인 동작을 제어한다. 제어부(160)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나, 메모리(130)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The control unit 160 controls operations related to application programs running through the user terminal 100 or the overall operation of the user terminal 010. The control unit 160 can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above, or by running an application program stored in the memory 130. .

도 2를 참조하면, 서버(200)는 공간 스토리텔링 어플리케이션(210)을 통해 위치기반 스토리 콘텐츠 제공 서비스를 운영할 수 있다. 상기 어플리케이션(210)은 회원관리부(211), 입력부(212), 콘텐츠 등록부(213), 저작권 판단부(214) 및 이벤트 관리부(215)를 포함할 수 있다.Referring to FIG. 2, the server 200 may operate a location-based story content provision service through the spatial storytelling application 210. The application 210 may include a member management unit 211, an input unit 212, a content registration unit 213, a copyright determination unit 214, and an event management unit 215.

회원 관리부(211)는 상기 스토리 콘텐츠 제공자, 스토리 콘텐츠 요청자, 장소정보 제공자, 광고제공자 등으로부터 회원 등록을 받아서, 회원 관리동작을 수행할 수 있다. 회원 관리부(211)는 가입되는 회원을 스토리 제공자, 스토리 요청자, 장소정보 제공자 및 광고 제공자로 구분하여 관리할 수 있다.The member management unit 211 may receive member registration from the story content provider, story content requester, location information provider, advertisement provider, etc., and perform member management operations. The member management unit 211 can manage registered members by dividing them into story providers, story requesters, location information providers, and advertisement providers.

입력부(212)는 스토리 콘텐츠 제공자, 스토리 콘텐츠 요청자, 장소정보 제공자, 광고제공자에 의해 입력되는 데이터를 수집하기 위해 소정의 인터페이스를 제공할 수 있다.The input unit 212 may provide a predetermined interface to collect data input by a story content provider, a story content requester, a location information provider, and an advertisement provider.

예를 들어, 입력부(212)는 스토리 콘텐츠 제공자가 스토리를 등록할 수 있도록 하는 제1 입력 인터페이스를 제공할 수 있다. 상기 제1 입력 인터페이스는, 공간선택메뉴(국가, 도시, 특정 공간), 공간 방문 기간(년도, 월, 일, 시간 구간), 인물 등록 메뉴(함께 방문한 사람/ 특정 장소에서 만난 사람들을 특정할 수 있는 메뉴), 스토리 등록 메뉴(시간대별 기록형식, 사건중심의 기록 형식 등을 포함할 수 있음), 그 외 특이사항 별첨메뉴(특정 스토리에 대한 감상 등을 포함할 수 있음), 등록조건 메뉴(유료, 무료, 부분 유료 등을 포함할 수 있음)를 포함할 수 있다. 상기 스토리 등록 메뉴를 통해 특정 공간에서 수행되어야 하는 미션스토리를 등록 가능하다. 상기 미션 스토리는 상기 특정 공간상에서 서로 다른 위치에서 수행할 적어도 하나의 서로 다른 미션을 포함할 수 있다. 상기 서로 다른 미션이라 하더라도, 하나의 스토리를 완성하기 위해 스토리 전개가 연결되는 미션일 수 있다. 상기 미션 스토리는 미션들의 조합을 통해 하나의 스토리가 완성될 수 있도록 소정의 순서에 따라 상호 연계되어 미션이 수행되도록 설정될 수 있다. 또한 상기 미션 스토리는 순서가 정해져 있지는 않지만, 모든 미션이 수행되어 획득되는 아이템들의 조합을 통해 하나의 스토리가 완성되도록 연계되도록 설정될 수도 있다. 상기 입력부(212)를 통해 등록되는 미션 스토리 설정에 대한 전술한 예는 예시이며 한정적인 것은 아니다.For example, the input unit 212 may provide a first input interface that allows a story content provider to register a story. The first input interface includes a space selection menu (country, city, specific space), space visit period (year, month, day, time section), and person registration menu (you can specify people you visited together/people you met in a specific place). menu), story registration menu (may include time zone-specific record format, event-centered record format, etc.), other special information attachment menu (may include impressions of a specific story, etc.), registration conditions menu ( may include paid, free, partially paid, etc.). Through the story registration menu, you can register a mission story that must be performed in a specific space. The mission story may include at least one different mission to be performed at different locations in the specific space. Even if the missions are different from each other, they may be missions in which story development is connected to complete one story. The mission story may be set so that missions are performed in conjunction with each other according to a predetermined order so that one story can be completed through a combination of missions. Additionally, although the order of the mission stories is not set, they may be set to be linked so that one story is completed through a combination of items obtained by performing all missions. The above-described examples of mission story settings registered through the input unit 212 are examples and are not limiting.

또한, 입력부(212)는 스토리 콘텐츠 요청자가 스토리를 구매할 수 있도록 구매 조건을 입력하기 위한 제2 입력 인터페이스를 제공할 수 있다. 상기 제2 입력 인터페이스는, 장소 선택메뉴, 시간구간 선택메뉴, 장르 선택메뉴, 키워드 선택메뉴를 포함할 수 있다.Additionally, the input unit 212 may provide a second input interface for inputting purchase conditions so that the story content requester can purchase the story. The second input interface may include a location selection menu, a time section selection menu, a genre selection menu, and a keyword selection menu.

또한, 입력부(212)는 장소정보 제공자가 장소 정보를 등록하기 위한 제3 입력 인터페이스를 제공할 수 있다. 상기 제3 입력 인터페이스는, 위치정보 등록메뉴, 장소정보 제공자 정보 등록메뉴를 포함할 있다. 위치정보 등록메뉴는, 위치정보를 포함하는 영상을 업로드할 수 있는 메뉴를 포함할 수 있다. 장소정보 제공자 정보는 장소정보 제공자의 홈페이지, SNS 계정 등을 포함할 수 있다.Additionally, the input unit 212 may provide a third input interface for a location information provider to register location information. The third input interface may include a location information registration menu and a location information provider information registration menu. The location information registration menu may include a menu for uploading an image including location information. Location information provider information may include the location information provider's homepage, SNS account, etc.

또한, 입력부(212)는 광고 제공자가 광고정보를 등록하기 위한 제4 입력 인터페이스를 제공할 수 있다. 상기 제4 입력 인터페이스는 광고 제공자의 스토어 정보를 등록하기 위한 적어도 하나의 메뉴를 포함할 수 있다.Additionally, the input unit 212 may provide a fourth input interface for an advertisement provider to register advertisement information. The fourth input interface may include at least one menu for registering store information of an advertising provider.

콘텐츠 등록부(213)는 스토리 제공자에 의해 입력되는 스토리 콘텐츠를 상기 어플리케이션 상에 등록하여 관리할 수 있다. 콘텐츠 등록부(213)는 입력부(212)를 통해 입력된 공간 기반 스토리 콘텐츠가 미리 정해진 기준을 만족하는지 여부에 따라 어플리케이션에 등록할지 여부를 판단할 수 있다. 일 실시예에 따라 상기 미리 정해진 기준은 공간 기반 스토리텔링 콘텐츠를 제작할 수 있을 정도의 미션 스토리의 창작성을 우선순위로 판단할 수 있다. The content registration unit 213 can register and manage story content input by a story provider on the application. The content registration unit 213 may determine whether to register the space-based story content input through the input unit 212 in the application depending on whether it satisfies a predetermined standard. According to one embodiment, the predetermined criteria may determine the creativity of the mission story to the extent that it can produce space-based storytelling content as a priority.

저작권 판단부(214)는 상기 콘텐츠 등록부(213)에 등록되는 스토리 콘텐츠를 저작권을 통해 관리될 필요가 있는지 여부를 판단할 수 있다. 일 실시예에 따라, 저작권 판단부(214)는 스토리 제공자에 의해 입력되는 글자수가 미리 정해진 기준을 초과하는 경우, 저작권 유형을 등록하기 위한 선택창을 제공할 수 있다. 또한, 일 실시예에 따라, 저작권 판단부(214)는 스토리 콘텐츠 제공자를 통해 입력되는 스토리의 유형에 따라 스토리 템플릿의 페이지 수에 기초하여 저작권 관리 여부를 판단할 수 있다. 예를 들어, 시놉시스의 경우 3페이지, 트리트먼트는 20 페이지, 시나리오 및 대본의 경우 70 페이지가 기준이될 수 있다.The copyright determination unit 214 may determine whether the story content registered in the content registration unit 213 needs to be managed through copyright. According to one embodiment, the copyright determination unit 214 may provide a selection window for registering a copyright type when the number of characters input by the story provider exceeds a predetermined standard. Additionally, according to one embodiment, the copyright determination unit 214 may determine whether or not copyright is managed based on the number of pages of the story template according to the type of story input through the story content provider. For example, a synopsis may be 3 pages long, a treatment may be 20 pages long, and a screenplay or script may be 70 pages long.

한편, 저작권 판단부(214)는 서버(10)에 구비된 인공지능 프로세서를 통해 스토리 제공자에 의해 등록된 스토리 콘텐츠에 대하여 저작물성을 판단할 수 있다. 일 실시예에 따라 상기 인공지능 프로세서는 스토리 제공자에 의해 등록된 스토리를 적어도 둘 이상의 항목으로 분류할 수 있다. 상기 적어도 둘 이상의 항목은, 텍스트 분석을 수행한 결과에 따라 분류되는 결과일 수 있다. 상기 인공지능 프로세서는, 상기 텍스트 분석을 통해 단순한 사건의 나열인 "사건" 항목과, 상기 단순한 사건에 창작이 가미된 표현이 존재하는 "창작성" 항목으로 구분할 수 있다. 또한, 상기 인공지능 프로세서는 상기 "사건" 및 "창작성" 항목 외에 "공간의 특이성" 항목을 더 포함할 수 있다. 상기 "공간의 특이성"은 상기 어플리케이션을 통해 등록된 위치기반의 스토리가 포함하는 공간의 종류 중 희소성에 기초하여 판단될 수 있다. 일 예에 따라 인공지능 프로세서는 상기 어플리케이션을 통해 등록된 스토리 콘텐츠에 대응하는 위치정보의 수가 적을수록 희소성이 높은 공간으로 판단할 수 있다. 대도시의 도심 공간 중 사람이 많이 모이는 공간의 경우 공간 스토리텔링의 콘텐츠 수도 많아질 수 있지만, 상대적으로 해당 공간에서의 경험의 특이성은 상대적으로 낮아질 수 있기 때문이다. 희소성이 높은 스토리 콘텐츠를 요청하는 스토리 콘텐츠 요청자의 선택에 따라 "공간의 특이성" 항목은 저작물성 판단에 있어서, 선택적으로 적용될 수도 있다.Meanwhile, the copyright determination unit 214 can determine the copyright of the story content registered by the story provider through the artificial intelligence processor provided in the server 10. According to one embodiment, the artificial intelligence processor may classify the story registered by the story provider into at least two or more items. The at least two or more items may be results classified according to the results of text analysis. Through the text analysis, the artificial intelligence processor can distinguish between an “event” item, which is a simple list of events, and a “creativity” item, which contains expressions that add creativity to the simple events. Additionally, the artificial intelligence processor may further include the item “specificity of space” in addition to the “event” and “creativity” items. The “specificity of space” can be determined based on the scarcity of the types of spaces included in the location-based story registered through the application. According to one example, the artificial intelligence processor may determine that the space has higher scarcity as the number of location information corresponding to the story content registered through the application decreases. In the case of urban spaces in large cities where many people gather, the number of content for spatial storytelling may increase, but the specificity of the experience in that space may be relatively low. Depending on the choice of the story content requester who requests story content with a high level of scarcity, the "specificity of space" item may be selectively applied in determining copyrightability.

한편, 저작권 판단부(214)는 콘텐츠 등록부(213)에 의해 등록되는 공간 스토리텔링 콘텐츠가 미션 스토리인 경우 생성된 미션 스토리가 기 등록되거나 사전에 공개된 제3의 미션 스토리와의 유사성 여부를 판단하고, 상기 제3의 미션 스토리가 저작권으로 보호되는지 여부를 사전에 판단할 수 있다. 저작권 판단부(214)는 상기 제3의 미션 스토리가 저작권으로 보호되는 컨텐츠인 경우, 콘텐츠 등록부(213)에 의해 등록되는 공간 스토리텔링 콘텐츠가 어플리케이션을 통해 노출되는 것을 보류하고, 저작권 침해여부에 대한 구체적인 판단 작업을 수행할 수 있다. 상기 저작권 침해 판단은 사전에 설정되는 AI 프로세싱 또는 전문기관 의뢰를 통해 수행될 수 있다.Meanwhile, when the spatial storytelling content registered by the content registration unit 213 is a mission story, the copyright judgment unit 214 determines whether the generated mission story is similar to a third mission story that has already been registered or has been released in advance. And, it is possible to determine in advance whether the third mission story is protected by copyright. If the third mission story is copyright-protected content, the copyright determination unit 214 withholds the spatial storytelling content registered by the content registration unit 213 from being exposed through the application, and determines whether copyright infringement has occurred. Can perform specific judgment tasks. The determination of copyright infringement can be performed through preset AI processing or by requesting a specialized agency.

이벤트 관리부(215)는 장소제공자가 제공하는 이벤트 정보, 광고 제공자가 등록하는 장소와 연계된 광고 정보를 관리할 수 있다. The event management unit 215 can manage event information provided by the venue provider and advertisement information linked to the venue registered by the advertisement provider.

상기 이벤트 관리부(215)는 장소제공자가 제공하는 기본정보(위치, 연혁, 과거의 이벤트 이력 등)를 텍스트 또는 영상정보로 입력받아서 데이터베이스에 저장하고 관리할 수 있다. 또한, 상기 이벤트 관리부(215)는 광고 제공자에 의해 입력되는 지역정보(특정 장소와의 거리 및 연계성)을 스토어 데이터베이스를 통해 저장할 수 있다. 상기 이벤트 관리부(215)는 온라인 광고제공자의 관련정보(특정 장소와의 연계성)을 스토어 데이터베이스에 저장하고, 관련 정보를 노출하는 노출시간, 배너의 위치를 산출할 수 있다. 이벤트 관리부(215)는 광고의 노출시간과 노출되는 공간과 비례하는 가격정보를 자동으로 산출하여 제시할 수 있다.The event management unit 215 can receive basic information (location, history, past event history, etc.) provided by the venue provider as text or video information, store it in a database, and manage it. Additionally, the event management unit 215 may store regional information (distance and connectivity to a specific location) input by the advertising provider through the store database. The event management unit 215 stores the online advertising provider's related information (connectivity with a specific location) in the store database, and calculates the exposure time and banner location for exposing the related information. The event management unit 215 can automatically calculate and present price information proportional to the advertisement exposure time and exposed space.

통신부(220)는 스토리 공급자 단말(20), 스토리 요청자 단말(30), 장소정보 제공자 단말(40), 광고 제공자 단말(50) 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 상기 통신부(22)는 이동통신모듈, 무선 인터넷 모듈, 근거리 통신모듈, 위치정보 모듈 중 적어도 하나를 포함할 수 있다. 상기 무선 통신은, 예를 들어, WiFi(wireless fidelity), WiFi 다이렉트, BT(Bluetooth), NFC(near field communication), GPS(global positioning system), 셀룰러(cellular) 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro GSM 또는 5G 등) 등의 적어도 하나를 포함할 수 있다.The communication unit 220 may include one or more modules that enable wireless communication between the story provider terminal 20, the story requester terminal 30, the location information provider terminal 40, and the advertisement provider terminal 50. The communication unit 22 may include at least one of a mobile communication module, a wireless Internet module, a short-distance communication module, and a location information module. The wireless communication includes, for example, WiFi (wireless fidelity), WiFi Direct, BT (Bluetooth), NFC (near field communication), GPS (global positioning system), and cellular communication (e.g., LTE, LTE-A) , CDMA, WCDMA, UMTS, WiBro GSM, or 5G, etc.).

저장부(230)는 제어부(250)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 스토리 제공자, 장소정보 제공자, 광고 제공자에 의해 입력되는 데이터)를 임시 저장할 수 있다. 저장부(230)는 메모리 형태로 구현될 수 있으며, 메모리는, 상기 제어부(250) 또는 다른 구성 요소들로부터 수신되거나 상기 제어부(250) 또는 다른 구성 요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리는, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 또는 어플리케이션 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다The storage unit 230 can store a program for the operation of the control unit 250 and temporarily store input/output data (for example, data input by a story provider, location information provider, or advertisement provider). there is. The storage unit 230 may be implemented in the form of a memory, and the memory may store commands or data received from the control unit 250 or other components or generated by the control unit 250 or other components. there is. The memory may include, for example, programming modules such as a kernel, middleware, an application programming interface (API), or an application. Each of the above-mentioned programming modules may be composed of software, firmware, hardware, or a combination of at least two of these.

메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스 크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.Memory is flash memory type, hard disk type, SSD type (Solid State Disk type), SDD type (Silicon Disk Drive type), multimedia card micro type, card. Types of memory (e.g. SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM) ), PROM (programmable read-only memory), magnetic memory, magnetic disk, and optical disk may include at least one type of storage medium.

전원공급부(240) 는 제어부(250)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다. The power supply unit 240 receives external power and internal power under the control of the control unit 250 and supplies power necessary for the operation of each component.

제어부(250) 서버(200)에 포함되는 적어도 하나의 구성요소를 제어할 수 있다.The control unit 250 can control at least one component included in the server 200.

도 3은 본 명세서의 일 실시예에 따른 AI 장치의 예시적인 블록도이다.Figure 3 is an example block diagram of an AI device according to an embodiment of the present specification.

도 3을 살펴보면, AI 장치(20)는 AI 프로세싱을 수행할 수 있는 AI 모듈을 포함하는 전자 기기 또는 AI 모듈을 포함하는 서버 등을 포함할 수 있다. 또한, AI 장치(20)는 도 1 및 도 2에 도시된 서버(20,200)의 일부의 구성으로 포함되어 AI 프로세싱 중 적어도 일부를 함께 수행하도록 구비될 수도 있다.Referring to FIG. 3 , the AI device 20 may include an electronic device including an AI module capable of performing AI processing or a server including an AI module. Additionally, the AI device 20 may be included as part of the servers 20 and 200 shown in FIGS. 1 and 2 and may be equipped to perform at least part of AI processing together.

AI 프로세싱은 전술한 바와 같이, 상기 어플리케이션을 통해 입력되는 스토리로부터 저작권을 판단하는 동작, 입력되는 미션 스토리가 소정 기준을 만족하는지를 판단하는 동작을 포함할 수 있다. 예를 들어, 상기 AI 프로세싱은, 텍스트 인식, 인식되는 텍스트를 저작물성 판단에 적용되는 "사건" 항목과 "창작성" 항목으로 구분하는 동작, 상기 "사건" 항목과 "창작성" 항목에 각각 부여되는 가중치를 각각 결정하는 동작을 포함할 수 있다. 여기서, 상기 가중치를 결정하는 동작은 "창작성" 항목의 볼륨에 따라 달라질 수 있다. 예를 들어, 입력된 스토리 텍스트 중 "창작성"의 볼륨(비중)이 높을수록, 창작성 가중치가 높게 설정될 수 있다. As described above, AI processing may include determining copyright from a story input through the application and determining whether the input mission story satisfies a predetermined standard. For example, the AI processing includes text recognition, the operation of dividing the recognized text into “event” items and “creativity” items applied to judgment of copyrighted work, and weights assigned to the “event” item and “creativity” item, respectively. It may include an operation to determine each. Here, the operation of determining the weight may vary depending on the volume of the “creativity” item. For example, the higher the volume (proportion) of “creativity” in the input story text, the higher the creativity weight may be set.

AI 장치(20)는 AI 프로세싱 결과를 직접 이용하는 클라이언트 디바이스이거나, AI 프로세싱 결과를 다른 기기에 제공하는 클라우드 환경의 디바이스일 수도 있다. AI 장치(20)는 신경망을 학습할 수 있는 컴퓨팅 장치로서, 서버, 데스크탑 PC, 노트북 PC, 태블릿 PC 등과 같은 다양한 전자 장치로 구현될 수 있다.The AI device 20 may be a client device that directly uses AI processing results, or it may be a device in a cloud environment that provides AI processing results to other devices. The AI device 20 is a computing device capable of learning neural networks, and may be implemented as various electronic devices such as servers, desktop PCs, laptop PCs, and tablet PCs.

AI 장치(20)는 AI 프로세서(21), 메모리(25) 및/또는 통신부(27)를 포함할 수 있다.The AI device 20 may include an AI processor 21, memory 25, and/or a communication unit 27.

AI 프로세서(21)는 메모리(25)에 저장된 프로그램을 이용하여 신경망을 학습할 수 있다. 특히, AI 프로세서(21)는 감시 카메라의 관련 데이터를 인식하기 위한 신경망을 학습할 수 있다. 여기서, 감시 카메라의 관련 데이터를 인식하기 위한 신경망은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 갖는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 모드들은 뉴런이 시냅스(synapse)를 통해 신호를 주고 받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고 받을 수 있다. 여기서 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 신경망 모델의 예는 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용될 수 있다.The AI processor 21 can learn a neural network using a program stored in the memory 25. In particular, the AI processor 21 can learn a neural network to recognize related data from surveillance cameras. Here, a neural network for recognizing related data from a surveillance camera may be designed to simulate the human brain structure on a computer, and may include a plurality of network nodes with weights that simulate neurons of a human neural network. there is. Multiple network modes can exchange data according to each connection relationship to simulate the synaptic activity of neurons sending and receiving signals through synapses. Here, the neural network may include a deep learning model developed from a neural network model. In a deep learning model, multiple network nodes are located in different layers and can exchange data according to convolutional connection relationships. Examples of neural network models include deep neural networks (DNN), convolutional deep neural networks (CNN), Recurrent Boltzmann Machine (RNN), Restricted Boltzmann Machine (RBM), and deep trust. It includes various deep learning techniques such as deep belief networks (DBN) and Deep Q-Network, and can be applied to fields such as computer vision, speech recognition, natural language processing, and voice/signal processing.

한편, 전술한 바와 같은 기능을 수행하는 프로세서는 범용 프로세서(예를 들어, CPU)일 수 있으나, 인공지능 학습을 위한 AI 전용 프로세서(예를 들어, GPU)일 수 있다.Meanwhile, the processor that performs the above-described functions may be a general-purpose processor (e.g., CPU), or may be an AI-specific processor (e.g., GPU) for artificial intelligence learning.

메모리(25)는 AI 장치(20)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(25)는 비 휘발성 메모리, 휘발성 메모리, 플래시 메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SDD) 등으로 구현할 수 있다. 메모리(25)는 AI 프로세서(21)에 의해 액세스되며, AI 프로세서(21)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 또한, 메모리(25)는 본 발명의 일 실시예에 따른 데이터 분류/인식을 위한 학습 알고리즘을 통해 생성된 신경망 모델(예를 들어, 딥 러닝 모델(26))을 저장할 수 있다.The memory 25 can store various programs and data necessary for the operation of the AI device 20. The memory 25 can be implemented as non-volatile memory, volatile memory, flash-memory, hard disk drive (HDD), or solid state drive (SDD). The memory 25 is accessed by the AI processor 21, and reading/writing/modifying/deleting/updating data by the AI processor 21 can be performed. Additionally, the memory 25 may store a neural network model (eg, deep learning model 26) generated through a learning algorithm for data classification/recognition according to an embodiment of the present invention.

한편, AI 프로세서(21)는 데이터 분류/인식을 위한 신경망을 학습하는 데이터 학습부(22)를 포함할 수 있다. 데이터 학습부(22)는 데이터 분류/인식을 판단하기 위하여 어떤 학습 데이터를 이용할지, 학습 데이터를 이용하여 데이터를 어떻게 분류하고 인식할지에 관한 기준을 학습할 수 있다. 데이터 학습부(22)는 학습에 이용될 학습 데이터를 획득하고, 획득된 학습데이터를 딥러닝 모델에 적용함으로써, 딥러닝 모델을 학습할 수 있다. Meanwhile, the AI processor 21 may include a data learning unit 22 that learns a neural network for data classification/recognition. The data learning unit 22 can learn standards regarding which learning data to use to determine data classification/recognition and how to classify and recognize data using the learning data. The data learning unit 22 can learn a deep learning model by acquiring learning data to be used for learning and applying the acquired learning data to the deep learning model.

데이터 학습부(22)는 적어도 하나의 하드웨어 칩 형태로 제작되어 AI 장치(20)에 탑재될 수 있다. 예를 들어, 데이터 학습부(22)는 인공지능(AI)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 범용 프로세서(CPU) 또는 그래픽 전용 프로세서(GPU)의 일부로 제작되어 AI 장치(20)에 탑재될 수도 있다. 또한, 데이터 학습부(22)는 소프트웨어 모듈로 구현될 수 있다. 소프트웨어 모듈(또는 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록 매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 애플리케이션에 의해 제공될 수 있다. The data learning unit 22 may be manufactured in the form of at least one hardware chip and mounted on the AI device 20. For example, the data learning unit 22 may be manufactured in the form of a dedicated hardware chip for artificial intelligence (AI), or may be manufactured as part of a general-purpose processor (CPU) or a graphics processor (GPU) to be used in the AI device 20. It may be mounted. Additionally, the data learning unit 22 may be implemented as a software module. When implemented as a software module (or a program module including instructions), the software module may be stored in a non-transitory computer readable recording medium that can be read by a computer. In this case, at least one software module may be provided by an operating system (OS) or an application.

데이터 학습부(22)는 학습 데이터 획득부(23) 및 모델 학습부(24)를 포함할 수 있다. The data learning unit 22 may include a learning data acquisition unit 23 and a model learning unit 24.

학습 데이터 획득부(23)는 데이터를 분류하고 인식하기 위한 신경망 모델에 필요한 학습 데이터를 획득할 수 있다. The learning data acquisition unit 23 may acquire learning data required for a neural network model for classifying and recognizing data.

모델 학습부(24)는 획득된 학습 데이터를 이용하여, 신경망 모델이 소정의 데이터를 어떻게 분류할지에 관한 판단 기준을 가지도록 학습할 수 있다. 이 때 모델 학습부(24)는 학습 데이터 중 적어도 일부를 판단 기준으로 이용하는 지도 학습(supervised learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또는 모델 학습부(24)는 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 판단 기준을 발견하는 비지도 학습(unsupervised learning)을 통해 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 학습에 따른 상황 판단의 결과가 올바른지에 대한 피드백을 이용하여 강화 학습(reinforcement learning)을 통하여, 신경망 모델을 학습시킬 수 있다. 또한, 모델 학습부(24)는 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 신경망 모델을 학습시킬 수 있다. The model learning unit 24 can use the acquired training data to train the neural network model to have a judgment standard on how to classify certain data. At this time, the model learning unit 24 can learn a neural network model through supervised learning that uses at least some of the learning data as a judgment standard. Alternatively, the model learning unit 24 can learn a neural network model through unsupervised learning, which discovers a judgment standard by learning on its own using training data without guidance. Additionally, the model learning unit 24 can learn a neural network model through reinforcement learning using feedback on whether the result of the situational judgment based on learning is correct. Additionally, the model learning unit 24 may learn a neural network model using a learning algorithm including error back-propagation or gradient descent.

신경망 모델이 학습되면, 모델 학습부(24)는 학습된 신경망 모델을 메모리에 저장할 수 있다. 모델 학습부(24)는 학습된 신경망 모델을 AI 장치(20)와 유선 또는 무선 네트워크로 연결된 서버의 메모리에 저장할 수도 있다.When the neural network model is learned, the model learning unit 24 may store the learned neural network model in memory. The model learning unit 24 may store the learned neural network model in the memory of a server connected to the AI device 20 through a wired or wireless network.

데이터 학습부(22)는 인식 모델의 분석 결과를 향상시키거나, 인식 모델의 생성에 필요한 리소스 또는 시간을 절약하기 위해 학습 데이터 전처리부(미도시) 및 학습 데이터 선택부(미도시)를 더 포함할 수도 있다. The data learning unit 22 further includes a learning data pre-processing unit (not shown) and a learning data selection unit (not shown) to improve the analysis results of the recognition model or save the resources or time required for generating the recognition model. You may.

학습 데이터 전처리부는 획득된 데이터가 상황 판단을 위한 학습에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 예를 들어, 학습 데이터 전처리부는, 모델 학습부(24)가 텍스트 및/또는 이미지 인식을 위한 학습을 위하여 획득된 학습 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.The learning data preprocessor may preprocess the acquired data so that the acquired data can be used for learning to determine situations. For example, the learning data preprocessor may process the acquired data into a preset format so that the model learning unit 24 can use the acquired learning data for learning for text and/or image recognition.

또한, 학습 데이터 선택부는, 학습 데이터 획득부(23)에서 획득된 학습 데이터 또는 전처리부에서 전처리된 학습 데이터 중 학습에 필요한 데이터를 선택할 수 있다.선택된 학습 데이터는 모델 학습부(24)에 제공될 수 있다.In addition, the learning data selection unit may select data necessary for learning among the learning data acquired in the learning data acquisition unit 23 or the learning data preprocessed in the preprocessor. The selected learning data will be provided to the model learning unit 24. You can.

또한, 데이터 학습부(22)는 신경망 모델의 분석 결과를 향상시키기 위하여 모델 평가부(미도시)를 더 포함할 수도 있다.Additionally, the data learning unit 22 may further include a model evaluation unit (not shown) to improve the analysis results of the neural network model.

모델 평가부는, 신경망 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(22)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 인식 모델을 평가하기 위한 기 정의된 데이터일 수 있다. 일 예로, 모델 평가부는 평가 데이터에 대한 학습된 인식 모델의 분석 결과 중, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정되 임계치를 초과하는 경우, 소정 기준을 만족하지 못한 것으로 평가할 수 있다.The model evaluation unit inputs evaluation data into the neural network model, and when the analysis result output from the evaluation data does not satisfy a predetermined standard, the model learning unit 22 can perform re-training. In this case, the evaluation data may be predefined data for evaluating the recognition model. As an example, the model evaluation unit may evaluate the evaluation data as not meeting a predetermined standard when the number or ratio of inaccurate evaluation data exceeds a preset threshold among the analysis results of the learned recognition model for the evaluation data. there is.

통신부(27)는 AI 프로세서(21)에 의한 AI 프로세싱 결과를 외부 전자 기기로 전송할 수 있다. 예를 들어, 외부 전자 기기는 블루투스 장치, 모바일 기기, 컴퓨팅 장치 등을 포함할 수 있다.The communication unit 27 can transmit the results of AI processing by the AI processor 21 to an external electronic device. For example, external electronic devices may include Bluetooth devices, mobile devices, computing devices, etc.

한편, 도 3에 도시된 AI 장치(20)는 AI 프로세서(21)와 메모리(25), 통신부(27) 등으로 기능적으로 구분하여 설명하였지만, 전술한 구성요소들이 하나의 모듈로 통합되어 AI 모듈로 호칭될 수도 있음을 밝혀둔다.Meanwhile, the AI device 20 shown in FIG. 3 has been described as functionally divided into an AI processor 21, a memory 25, a communication unit 27, etc., but the above-described components are integrated into one module to form an AI module. Please note that it may also be referred to as .

도 4 내지 도 5 본 명세서의 일 실시예에 따른 공간 스토리텔링 서비스 제공 방법의 흐름도이다. 본 명세서의 일 실시예에 따른 공간 스토리텔링 서비스는 소정의 공간 스토리텔링 어플리케이션을 통해 구현될 수 있으며, 상기 어플리케이션은 도 1 및 2에 도시된 서버를 통해 운영될 수 있다. 보다 구체적으로는 상기 공간 스토리텔링 어플리케이션은 서버를 통해 운영되며, 사용자 단말에 설치되어 실행될 수 있다. 이하, 설명의 편의를 위해 서버(200)의 제어부(250)에서 상기 공간 스토리텔링 서비스 제공 방법을 구현하는 것으로 설명하지만, 사용자 단말(100)의 제어부(160)를 통해서도 구현될 수 있음은 물론이다.4 to 5 are flowcharts of a method for providing a spatial storytelling service according to an embodiment of the present specification. The spatial storytelling service according to an embodiment of the present specification may be implemented through a certain spatial storytelling application, and the application may be operated through the server shown in FIGS. 1 and 2. More specifically, the spatial storytelling application is operated through a server and can be installed and executed on a user terminal. Hereinafter, for convenience of explanation, the method for providing the spatial storytelling service will be described as being implemented in the control unit 250 of the server 200, but of course, it can also be implemented through the control unit 160 of the user terminal 100. .

도 4를 참조하면, 제어부(250)는 제1 사용자로부터 특정 공간을 배경으로 수행해야할 적어도 하나의 미션을 포함하는 미션스토리를 입력받을 수 있다(S400).Referring to FIG. 4, the control unit 250 may receive a mission story including at least one mission to be performed against the background of a specific space from the first user (S400).

제어부(250)는 미리 정해진 기준에 따라 상기 입력된 미션스토리의 등록여부를 판단할 수 있다(S410).The control unit 250 may determine whether to register the input mission story according to a predetermined standard (S410).

상기 미리 정해진 기준은, 입력된 미션스토리가 공간 기반의 스토리인지, 스토리 제공자의 특정 공간에 대한 기 등록된 개인 경험담과 연관 관계가 존재하는지, 입력된 미션 스토리가 적어도 하나의 서로 다른 위치에서 수행되는 미션위치를 포함하고 있는지, 적어도 하나의 미션이 상호 조합되어 하나의 스토리로 연결되는 것인지, 제3자의 저작물 콘텐츠와 유사성이 존재하는지 등을 포함할 수 있다.The predetermined criteria include whether the input mission story is a space-based story, whether there is a correlation with a pre-registered personal experience story about a specific space of the story provider, and whether the input mission story is performed in at least one different location. This may include whether it includes a mission location, whether at least one mission is combined into one story, and whether there is similarity to the content of a third party's work.

제어부(250)는 상기 등록된 미션스토리에 기초하여 공간스토리 기반의 미션 콘텐츠를 생성하여 상기 플랫폼 상에 공개할 수 있다(S420).The control unit 250 may generate spatial story-based mission content based on the registered mission story and disclose it on the platform (S420).

상기 플랫폼은 전술한 공간 스토리텔링 애플리케이션을 의미할 수 있으며, 상기 플랫폼 상에 공개라 함은, 사용자에 의해 입력된 미션 스토리에 기초하여 공간 스토리텔링 콘텐츠가 생성되고, 생성된 공간 스토리텔링 콘텐츠에 대한 광고, 이벤트 생성, 애플리케이션 게시판 상에 노출 등을 포함할 수 있다.The platform may refer to the above-described spatial storytelling application, and disclosure on the platform means that spatial storytelling content is created based on the mission story input by the user, and the spatial storytelling content is generated. This may include advertisements, event creation, exposure on application bulletin boards, etc.

제2 사용자로부터(사용자 단말을 통해) 상기 특정 공간을 선택하는 입력 및 상기 특정 공간에서 제공되는 상기 미션 콘텐츠가 선택될 수 있다(S430).An input for selecting the specific space may be selected from a second user (via the user terminal) and the mission content provided in the specific space may be selected (S430).

상기 제2 사용자 단말을 통해 특정 공간에서 제공되는 미션 콘텐츠가 선택되는 경우, 공간 스토리텔링 어플리케이션은 상기 제2 사용자 단말의 위치를 주기적으로 모니터링할 수 있다. 그리고 사용자 단말의 위치가 상기 미션이 수행될 특정 공간에 진입하는 경우(S440:Y), 사용자 단말은 사용자 단말의 위치 정보를 서버로 전송할 수 있다(S450).When mission content provided in a specific space is selected through the second user terminal, the spatial storytelling application may periodically monitor the location of the second user terminal. And when the location of the user terminal enters a specific space where the mission will be performed (S440:Y), the user terminal may transmit the location information of the user terminal to the server (S450).

사용자 단말은 공간 스토리텔링 애플리케이션을 실행하고(S460), 카메라가 구동되도록 제어할 수 있다(S470).The user terminal can run the spatial storytelling application (S460) and control the camera to operate (S470).

도 5를 참조하면, 사용자 단말은 카메라 프리뷰 영상에 미션 위치 안내를 위한 AR 인디케이터를 표시할 수 있다(S500). 사용자 단말은 공간 이동을 통해 카메라 영상으로부터 특정 미션 위치에서 타겟 객체를 인식할 수 있다(S510). 사용자 단말은 카메라 영상에서 상기 타겟 객체가 미션 수행을 위한 객체와 일치하는 경우, 해당 위치에서의 미션이 수행되었음을 알리는 알람을 출력할 수 있다(S520). 상기 알람은 디스플레이부를 통해 표시하거나, 음향출력부 또는 진동 형태로 출력될 수도 있다. 그리고 서로 다른 위치에서 모든 미션 스토리에 대한 미션이 수행되었을 경우 모든 미션 수행완료에 따른 보상이 제공될 수 있다(S530). 상기 보상은 어플리케이션을 통해 제공될 수 있다. 상기 보상은 즉시 지급되거나, 향후 지급되도록 저장될 수도 있다.Referring to Figure 5, the user terminal may display an AR indicator for mission location guidance on the camera preview image (S500). The user terminal can recognize a target object at a specific mission location from a camera image through spatial movement (S510). If the target object in the camera image matches the object for mission performance, the user terminal may output an alarm indicating that the mission has been performed at the corresponding location (S520). The alarm may be displayed through a display unit, or output through an audio output unit or in the form of vibration. And when missions for all mission stories are performed in different locations, rewards may be provided for completing all missions (S530). The compensation may be provided through an application. The compensation may be paid immediately or stored for future payment.

도 6 내지 도 10은 본 명세서의 일 실시예에 따른 공간 스토리텔링 애플리케이션의 실행 화면의 예시이다.6 to 10 are examples of execution screens of a spatial storytelling application according to an embodiment of the present specification.

도 6의 (a)는 공간 스토리텔링 어플리케이션의 실행 화면을 일 예이다. 공간 스토리텔링 어플리케이션은 현재 진행중인 공간 기반 미션스토리 상품을 추천 형태로 애플리케이션 화면상에 제공할 수 있다. 상기 예시적으로 제공되는 공간 기반 미션 스토리는 가정에서 실행하는 카테고리와 직접 특정 공간을 방문하여 미션을 수행하는 카테고리로 구분될 수 있다.Figure 6(a) is an example of an execution screen of a spatial storytelling application. The spatial storytelling application can provide space-based mission story products currently in progress on the application screen in the form of recommendations. The space-based mission story provided as an example can be divided into a category performed at home and a category performed by directly visiting a specific space to perform the mission.

도 6의 (b)는 일 실시예에 따라, 특정 공간(호텔)에서 제공되는 공간 기반 미션 스토리 이벤트가 복수의 공간(호텔)에서 제공되는 경우 복수의 공간(호텔)을 예시적으로 제공하여 사용자에게 미션 수행을 위한 공간을 선택할 수 있도록 한다.In (b) of FIG. 6, according to an embodiment, when a space-based mission story event provided in a specific space (hotel) is provided in a plurality of spaces (hotels), a plurality of spaces (hotels) are exemplarily provided to the user. Allows you to choose a space to carry out your mission.

도 7을 참조하면, 도 6의 (b)에서 특정 공간(호텔)이 선택된 경우, 상기 특정 공간에서 실행 중인 공간 기반 미션 스토리 상품을 소개하는 정보들을 제공할 수 있다.Referring to FIG. 7, when a specific space (hotel) is selected in (b) of FIG. 6, information introducing a space-based mission story product running in the specific space can be provided.

도 8을 참조하면, 공간 스토리텔링 어플리케이션은 상기 특정 공간상에서 수행되어야 하는 적어도 하나의 미션위치가 매핑된 맵 데이터를 생성할 수 있다. 상기 맵 데이터 상에 상기 적어도 하나의 미션위치에 표시된 수행되어야할 미션정보가 매핑되어 저장될 수 있다. 이에 따라 사용자 단말을 통해 맵 데이터가 제공될 수 있고, 상기 제공되는 맵 데이터를 통해 수행하여야 할 미션 위치를 사전에 확인할 수 있다. 한편, 상기 맵 데이터는 각각의 미션에 소정의 그래픽 객체가 매핑되어 표시되고, 그래픽 객체가 선택되는 경우, 해당 미션 위치에서의 미션 수행 안내정보를 표시할 수 있다.Referring to FIG. 8, the spatial storytelling application may generate map data mapping at least one mission location to be performed in the specific space. Mission information to be performed displayed at the at least one mission location may be mapped and stored on the map data. Accordingly, map data can be provided through the user terminal, and the location of the mission to be performed can be confirmed in advance through the provided map data. Meanwhile, the map data is displayed with a predetermined graphic object mapped to each mission, and when a graphic object is selected, mission performance guidance information at the corresponding mission location can be displayed.

도 9를 참조하면, 공간 스토리텔링 어플리케이션은, 상기 특정 공간상에서 상기 미션 콘텐츠가 시작된 경우, 상기 제2 사용자의 단말의 카메라가 구동됨에 따라, 상기 카메라의 프리뷰 영상에 상기 특정 공간상에서 수행되어야 하는 적어도 하나의 미션위치를 안내하는 AR 인디케이터를 표시할 수 있다. 상기 AR 인디케이터는 사용자의 현재 위치를 기준으로 미션 위치를 안내하는 네비게이션 인디케이터를 포함할 수 있다. 상기 네비게이션 인디케이터는 카메라 프리뷰 영상에서 길 안내 인디케이터 형태로 표시될 수 있다.Referring to FIG. 9, the spatial storytelling application, when the mission content starts in the specific space, as the camera of the second user's terminal is driven, the preview image of the camera shows at least the information that must be performed in the specific space. An AR indicator can be displayed to guide one mission location. The AR indicator may include a navigation indicator that guides the mission location based on the user's current location. The navigation indicator may be displayed in the form of a route guidance indicator in the camera preview image.

도 10을 참조하면, 공간 스토리텔링 어플리케이션은, 상기 특정 공간상에서 상기 제2 사용자의 단말을 통해 상기 미션 콘텐츠가 실행되는 경우, 서로 다른 미션위치에서 상기 제2 사용자의 단말 상의 카메라를 통해 상기 미션 위치의 타겟 객체가 인식됨에 따라 특정 미션 위치에서의 미션이 수행되었음을 알리는 알람을 출력할 수 있다. 상기 알람은 전술한 바와 같이, 카메라 프리뷰 영상에 타겟 객체이 썸 네일을 표시함으로써 출력될 수 있다. 상기 알람은 전술한 바와 같이 영상 형태 외에 음향 출력, 진동 출력 등 구현 형태가 제한되지는 않는다.Referring to Figure 10, the spatial storytelling application, when the mission content is executed through the terminal of the second user in the specific space, the mission location through the camera on the terminal of the second user at different mission locations. As the target object is recognized, an alarm notifying that a mission has been performed at a specific mission location can be output. As described above, the alarm may be output by displaying a thumbnail of the target object on the camera preview image. As described above, the alarm is not limited in its implementation form, such as sound output or vibration output, in addition to the video form.

공간 스토리텔링 어플리케이션은 도 10의 (a), (b), (c)와 같이 3개의 타겟 객체를 인식하는 경우(미션 수행 완료에 필요한 타겟 객체의 개수) 타겟 객체의 조합을 통해 하나의 스토리 완성 여부 등을 추가적으로 확인할 수 있다. When the spatial storytelling application recognizes three target objects as shown in (a), (b), and (c) of Figure 10 (the number of target objects required to complete the mission), one story is completed through the combination of target objects. You can additionally check whether or not.

전술한 공간 스토리텔링 어플리케이션은 서버(200) 및/또는 사용자 단말(100)을 통해 구현되는 것을 가정할 수 있다.It can be assumed that the above-described spatial storytelling application is implemented through the server 200 and/or the user terminal 100.

한편, 본 명세서의 일 실시예에 있어서, 공간 스토리텔링 애플리케이션이 제공하는 특정 미션 스토리 상품에 대하여, 이용자 수가 미리 정해진 사용자수를 초과하는 경우, 상기 애플리케이션은, 유사한 다른 미션 스토리 상품으로 이용자를 유도할 수 있다. 특정 미션 스토리 상품에 일정 사용자 수를 초과하는 경우, 특정 공간의 밀집도에 따른 사고 위험성을 줄이기 위해 유사한 다른 미션 스토리 상품을 추천할 수도 있다.Meanwhile, in one embodiment of the present specification, when the number of users exceeds the predetermined number of users for a specific mission story product provided by a spatial storytelling application, the application may guide users to other similar mission story products. You can. If a certain Mission Story product exceeds a certain number of users, other similar Mission Story products may be recommended to reduce the risk of accidents due to the density of a specific space.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. Therefore, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (8)

공간 스토리 서비스를 제공하는 플랫폼을 통한 공간 스토리텔링 서비스 제공방법에 있어서,
제1 사용자로부터 특정 공간을 배경으로 수행해야할 적어도 하나의 미션을 포함하는 미션스토리를 입력받는 단계;
미리 정해진 기준에 따라 상기 입력된 미션스토리의 등록여부를 판단하는 단계;
상기 등록된 미션스토리에 기초하여 공간스토리 기반의 미션 콘텐츠를 생성하여 상기 플랫폼 상에 공개하는 단계; 및
제2 사용자로부터 상기 특정 공간을 선택하는 입력 및 상기 특정 공간에서 제공되는 상기 미션 콘텐츠가 선택되는 경우, 유료 결재화면을 제공하는 단계;
를 포함하는 공간 스토리텔링 서비스 제공방법.
In the method of providing spatial storytelling services through a platform that provides spatial story services,
Receiving a mission story including at least one mission to be performed in a specific space from a first user;
Determining whether or not to register the input mission story according to predetermined criteria;
Generating space story-based mission content based on the registered mission story and releasing it on the platform; and
providing a paid payment screen when an input for selecting the specific space is received from a second user and the mission content provided in the specific space is selected;
A method of providing spatial storytelling services including.
제 1 항에 있어서,
상기 공간스토리 기반 미션콘텐츠는,
상기 특정 공간상에서 서로 다른 위치에서 수행할 적어도 하나의 서로 다른 미션을 포함하는 것을 특징으로 하는 공간 스토리텔링 서비스 제공방법.
According to claim 1,
The space story-based mission content is,
A spatial storytelling service providing method comprising at least one different mission to be performed at different locations in the specific space.
제 1 항에 있어서,
상기 미션 스토리를 생성하는 단계는,
상기 특정 공간상에서 수행되어야 하는 적어도 하나의 미션위치가 매핑된 맵 데이터를 생성하는 단계;를 포함하고,
상기 맵 데이터 상에 상기 적어도 하나의 미션위치에 표시된 수행되어야할 미션정보가 매핑되어 저장되는 것을 특징으로 하는 공간 스토리텔링 서비스 제공방법.
According to claim 1,
The step of creating the mission story is,
A step of generating map data mapping at least one mission location to be performed in the specific space,
A method of providing a spatial storytelling service, characterized in that mission information to be performed displayed at the at least one mission location is mapped and stored on the map data.
제 1 항에 있어서,
상기 제2 사용자의 단말의 위치정보를 획득하는 단계;
상기 제2 사용자의 단말이 상기 특정 공간으로부터 미리 정해진 반경 이내에 위치하는 것을 감지한 경우, 상기 미션 콘텐츠의 실행과 관련된 알람을 출력하는 단계;
를 더 포함하는 것을 특징으로 하는 공간 스토리텔링 서비스 제공방법.
According to claim 1,
Obtaining location information of the second user's terminal;
When detecting that the second user's terminal is located within a predetermined radius from the specific space, outputting an alarm related to execution of the mission content;
A method of providing a spatial storytelling service further comprising:
제 4 항에 있어서,
상기 특정 공간상에서 상기 미션 콘텐츠가 시작된 경우, 상기 제2 사용자의 단말의 카메라가 구동됨에 따라, 상기 카메라의 프리뷰 영상에 상기 특정 공간상에서 수행되어야 하는 적어도 하나의 미션위치를 안내하는 AR 인디케이터를 표시하는 단계;
를 더 포함하는 것을 특징으로 하는 공간 스토리텔링 서비스 제공방법.
According to claim 4,
When the mission content starts in the specific space, as the camera of the second user's terminal is driven, an AR indicator is displayed on the preview image of the camera to guide the location of at least one mission to be performed in the specific space. step;
A method of providing a spatial storytelling service further comprising:
제 1 항에 있어서,
상기 특정 공간상에서 상기 제2 사용자의 단말을 통해 상기 미션 콘텐츠가 실행되는 경우,
서로 다른 미션위치에서 상기 제2 사용자의 단말 상의 카메라를 통해 상기 미션 위치의 타겟 객체가 인식됨에 따라 특정 미션 위치에서의 미션이 수행되었음을 알리는 알람을 출력하는 단계;
상기 서로 다른 미션위치에서 모든 미션이 수행된 것을 감지하는 경우, 미션수행 완료에 따른 보상을 제공하는 단계;
를 포함하는 것을 특징으로 하는 공간 스토리텔링 서비스 제공방법.
According to claim 1,
When the mission content is executed through the second user's terminal in the specific space,
Outputting an alarm notifying that a mission has been performed at a specific mission location as a target object at the mission location is recognized through a camera on the second user's terminal at different mission locations;
When detecting that all missions have been performed at the different mission locations, providing compensation according to mission completion;
A method of providing a spatial storytelling service comprising:
공간 스토리 제공자로부터 특정 공간을 배경으로 수행해야할 적어도 하나의 미션을 포함하는 미션스토리를 입력받고, 등록된 미션스토리에 기초하여 공간스토리 기반의 미션 콘텐츠를 생성하여 제공하는 서버; 및
상기 서버에서 운용되는 공간 스토리텔링 애플리케이션이 실행하고, 상기 특정 공간을 선택하는 입력 및 상기 특정 공간에서 제공되는 상기 미션 콘텐츠가 선택되는 경우, 유료 결재화면을 제공하는 사용자 단말;를 포함하고,
상기 서버는,
상기 사용자 단말의 위치 정보를 획득하고, 상기 사용자 단말이 상기 특정 공간으로부터 미리 정해진 반경 이내에 위치하는 것을 감지한 경우, 상기 미션 콘텐츠 실행과 관련된 알람을 출력하고,
상기 사용자 단말은,
상기 특정 공간상에서 카메라를 통해 미션위치의 타겟 객체를 인식한 경우, 특정 미션위치에서의 미션이 수행되었음을 알리는 알람을 출력하는 것을 특징으로 하는 공간 스토리텔링 서비스 제공 시스템.
A server that receives a mission story including at least one mission to be performed in the background of a specific space from a space story provider, and generates and provides space story-based mission content based on the registered mission story; and
A user terminal that executes a spatial storytelling application operated on the server and provides a paid payment screen when an input for selecting the specific space and the mission content provided in the specific space are selected,
The server is,
Obtaining location information of the user terminal, and when detecting that the user terminal is located within a predetermined radius from the specific space, outputting an alarm related to execution of the mission content,
The user terminal is,
A system for providing a spatial storytelling service, characterized in that when a target object of a mission location is recognized through a camera in the specific space, an alarm is output indicating that a mission has been performed at the specific mission location.
제 7 항에 있어서,
상기 서버는,
서로 다른 미션위치에서 모든 미션이 수행된 것을 감지하는 경우, 미션수행 완료에 따른 보상을 제공하는 것을 특징으로 하는 공간 스토리텔링 서비스 제공 시스템.

According to claim 7,
The server is,
A spatial storytelling service provision system characterized by providing rewards for completing missions when it is detected that all missions have been performed at different mission locations.

KR1020220166998A 2022-12-02 2022-12-02 Method and System for Providing Space Storytelling Service KR20240083277A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220166998A KR20240083277A (en) 2022-12-02 2022-12-02 Method and System for Providing Space Storytelling Service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220166998A KR20240083277A (en) 2022-12-02 2022-12-02 Method and System for Providing Space Storytelling Service

Publications (1)

Publication Number Publication Date
KR20240083277A true KR20240083277A (en) 2024-06-12

Family

ID=91469319

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220166998A KR20240083277A (en) 2022-12-02 2022-12-02 Method and System for Providing Space Storytelling Service

Country Status (1)

Country Link
KR (1) KR20240083277A (en)

Similar Documents

Publication Publication Date Title
US10614381B2 (en) Personalizing user experiences with electronic content based on user representations learned from application usage data
US20240029110A1 (en) Platform for location and time based advertising
US11430025B2 (en) Synthetic data generation modeling system
US10846617B2 (en) Context-aware recommendation system for analysts
US20180129971A1 (en) Learning user preferences using sequential user behavior data to predict user behavior and provide recommendations
CN108241520B (en) System and method for providing to-do list of user
US10902445B2 (en) Location evaluation
US11054270B1 (en) Generating catalogs of navigation information
US20240202550A1 (en) Machine learning modeling using social graph signals
US20210304078A1 (en) Utilizing contemporaneous transportation data from a transportation matching system to surface trending destinations in user interfaces
US11706167B2 (en) Generating and accessing video content for products
US10907983B1 (en) Navigation information on an online system
US20170330074A1 (en) Methods And Systems For Providing Travel Recommendations
CN114648392B (en) Product recommendation method and device based on user portrait, electronic equipment and medium
US20220309557A1 (en) Intelligent computer search functionality for locating items of interest near users
US20210406325A1 (en) Dynamically integrating interactive machine learning multi-models
AU2017203504A1 (en) Machine learning travel management system with wearable device integration
US20220358589A1 (en) Electronic trading platform
US11983230B2 (en) Systems and methods for data aggregation and cyclical event prediction
US20210133851A1 (en) Personalized content based on interest levels
US20200184580A1 (en) Hierarchical generation of booking probability
Hassan et al. Geospatial Data Science Quick Start Guide: Effective techniques for performing smarter geospatial analysis using location intelligence
US11029170B1 (en) Predicting user intent in navigation information
KR20240083277A (en) Method and System for Providing Space Storytelling Service
JP7174782B2 (en) Information processing device, information processing method and information processing program