KR20200100046A - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
KR20200100046A
KR20200100046A KR1020207015001A KR20207015001A KR20200100046A KR 20200100046 A KR20200100046 A KR 20200100046A KR 1020207015001 A KR1020207015001 A KR 1020207015001A KR 20207015001 A KR20207015001 A KR 20207015001A KR 20200100046 A KR20200100046 A KR 20200100046A
Authority
KR
South Korea
Prior art keywords
information
content
user
virtual object
image
Prior art date
Application number
KR1020207015001A
Other languages
Korean (ko)
Inventor
츠요시 아비코
야스히데 호소다
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20200100046A publication Critical patent/KR20200100046A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6009Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
    • A63F2300/6018Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content where the game content is authored by the player, e.g. level editor or by game device at runtime, e.g. level is created from music data on CD
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8088Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game involving concurrently several players in a non-networked game, e.g. on the same game console
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

자택 외에서 제공되는 콘텐츠에 대한 흥미를 야기하는 것이 가능하게 된다. 가상 오브젝트의 화상 정보 및 실공간에 있어서의 상기 가상 오브젝트의 위치 정보를 포함하고, 상기 실공간을 나타내는 지도 정보에 대하여 부가되는 콘텐츠 정보를 취득하는 취득부와, 상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에, 일인칭 시점에서 시인 가능한 상기 가상 공간의 상에 대하여 중첩되도록 상기 화상 정보를 제1 클라이언트 단말기에 표시시키는 제1 제어부를 구비하는, 정보 처리 장치가 제공된다.It becomes possible to generate interest in content provided outside the home. An acquisition unit that includes image information of a virtual object and position information of the virtual object in real space, and acquires content information added to map information indicating the real space, and the position based on the content information There is provided an information processing apparatus comprising a first control unit for displaying the image information on a first client terminal so as to overlap with an image of the virtual space that can be visually recognized from a first-person view at a location in a virtual space corresponding to information. .

Figure P1020207015001
Figure P1020207015001

Description

정보 처리 장치, 정보 처리 방법 및 프로그램Information processing device, information processing method and program

본 개시는 정보 처리 장치, 정보 처리 방법 및 프로그램에 관한 것이다.The present disclosure relates to an information processing apparatus, an information processing method, and a program.

근년, 정보 처리 기술의 진전에 수반하여, 게임 등의 콘텐츠를 유저에게 제공하는 여러 가지 기술이 개발되고 있다. 예를 들어, 이하의 특허문헌 1에는, 휴대 단말 장치로부터 게임 서버로 로그인함으로써, 자택 등에서 게임 장치에 의해 즐길 수 있는 게임에 관련된 아이템 등을, 외출 시에 휴대 단말 장치의 위치에 따라 입수 가능한 기술이 개시되어 있다. 아울러, 입수된 아이템 등을, 자택 등에서 게임 장치에 의해 실행되는 게임에 반영하는 기술도 개시되어 있다. 이들 기술에 의해, 게임에 대한 유저의 흥미가 야기되어, 보다 오락성이 높은 게임이 제공된다.In recent years, with progress in information processing technology, various technologies for providing content such as games to users have been developed. For example, in Patent Document 1 below, by logging in from a mobile terminal device to a game server, items related to a game that can be enjoyed by a game device at home, etc., can be obtained according to the location of the mobile terminal device when going out. Is disclosed. In addition, a technique for reflecting the acquired item or the like to a game executed by a game device at home or the like is also disclosed. With these techniques, the user's interest in the game is caused, and a game with higher entertainment is provided.

일본 특허 공개 제2016-087017호 공보Japanese Patent Publication No. 2016-087017

그러나, 특허문헌 1에 개시된 기술은, 주로, 유저가 자택 등에서 즐기는 게임에 대한 흥미를 야기하는 것이며, 유저가 자택 외에서 즐기는 게임에 대한 흥미를 야기하는 것은 아니다. 따라서, 자택 외에서 제공되는 콘텐츠에 대한 흥미를 야기하는 것에 대해서는, 여전히 개선의 여지가 있다.However, the technology disclosed in Patent Literature 1 mainly causes interest in games that the user enjoys at home or the like, and does not cause interest in games that users enjoy outside their home. Therefore, there is still room for improvement in terms of causing interest in content provided outside the home.

그래서, 본 개시는, 상기 문제를 감안하여 이루어진 것이며, 본 발명의 목적으로 하는 바는, 자택 외에서 제공되는 게임 등의 콘텐츠에 대한 유저의 흥미를 야기하는 것이 가능한, 신규이면서도 개량된 정보 처리 장치, 정보 처리 방법 및 프로그램을 제공하는 데 있다.Therefore, the present disclosure has been made in view of the above problems, and an object of the present invention is a novel and improved information processing device capable of inducing user interest in content such as games provided outside the home, It is to provide information processing methods and programs.

본 개시에 따르면, 가상 오브젝트의 화상 정보 및 실공간에 있어서의 상기 가상 오브젝트의 위치 정보를 포함하고, 상기 실공간을 나타내는 지도 정보에 대하여 부가되는 콘텐츠 정보를 취득하는 취득부와, 상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에, 일인칭 시점에서 시인 가능한 상기 가상 공간의 상에 대하여 중첩되도록 상기 화상 정보를 제1 클라이언트 단말기에 표시시키는 제1 제어부를 구비하는, 정보 처리 장치가 제공된다.According to the present disclosure, an acquisition unit that includes image information of a virtual object and position information of the virtual object in real space, and acquires content information added to map information indicating the real space, and the content information Information, comprising: a first control unit configured to display the image information on a first client terminal such that the image information is superimposed on a position in the virtual space corresponding to the location information with respect to an image of the virtual space that can be visually recognized from a first-person view. A processing device is provided.

또한, 본 개시에 따르면, 가상 오브젝트의 화상 정보 및 실공간에 있어서의 상기 가상 오브젝트의 위치 정보를 포함하고, 상기 실공간을 나타내는 지도 정보에 대하여 부가되는 콘텐츠 정보를 취득하는 것과, 상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에, 일인칭 시점에서 시인 가능한 상기 가상 공간의 상에 대하여 중첩되도록 상기 화상 정보를 제1 클라이언트 단말기에 표시시키는 것을 갖는, 컴퓨터에 의해 실행되는 정보 처리 방법이 제공된다.Further, according to the present disclosure, including image information of a virtual object and position information of the virtual object in real space, acquiring content information added to map information indicating the real space, and acquiring content information added to the content information Based on the location in the virtual space corresponding to the location information, having the image information displayed on the first client terminal so as to be superimposed on the image of the virtual space that can be visually recognized from a first-person view, executed by a computer Information processing methods are provided.

또한, 본 개시에 따르면, 가상 오브젝트의 화상 정보 및 실공간에 있어서의 상기 가상 오브젝트의 위치 정보를 포함하고, 상기 실공간을 나타내는 지도 정보에 대하여 부가되는 콘텐츠 정보를 취득하는 것과, 상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에, 일인칭 시점에서 시인 가능한 상기 가상 공간의 상에 대하여 중첩되도록 상기 화상 정보를 제1 클라이언트 단말기에 표시시키는 것을 컴퓨터에 실현시키기 위한 프로그램이 제공된다.Further, according to the present disclosure, including image information of a virtual object and position information of the virtual object in real space, acquiring content information added to map information indicating the real space, and acquiring content information added to the content information On the basis of, there is a program for realizing in a computer that the image information is displayed on a first client terminal so as to be superimposed on an image of the virtual space that is visually recognizable from a first-person viewpoint at a position in the virtual space corresponding to the location information Is provided.

이상 설명한 바와 같이 본 개시에 따르면, 자택 외에서 제공되는 콘텐츠에 대한 흥미를 야기하는 것이 가능하게 된다.As described above, according to the present disclosure, it is possible to generate interest in content provided outside the home.

또한, 상기 효과는 반드시 한정적인 것은 아니며, 상기 효과와 함께, 또는 상기 효과 대신에, 본 명세서에 나타난 어느 효과, 또는 본 명세서로부터 파악될 수 있는 다른 효과가 발휘되어도 된다.In addition, the above effect is not necessarily limited, and any effect shown in the present specification or other effects that can be grasped from the present specification may be exhibited in addition to or instead of the above effect.

도 1은, 본 실시 형태에 관한 정보 처리 시스템의 시스템 구성예를 도시하는 도면이다.
도 2는, 클라이언트(200)의 일례를 도시하는 도면이다.
도 3은, 클라이언트(200)의 일례를 도시하는 도면이다.
도 4는, 클라이언트(200)의 일례를 도시하는 도면이다.
도 5는, 서버(100)의 기능 구성예를 도시하는 블록도이다.
도 6은, 콘텐츠의 작성에 사용되는 GUI 화면의 일례를 도시하는 도면이다.
도 7은, 콘텐츠의 작성에 사용되는 GUI 화면의 일례를 도시하는 도면이다.
도 8은, 콘텐츠의 작성에 사용되는 GUI 화면의 일례를 도시하는 도면이다.
도 9는, 콘텐츠의 작성에 사용되는 GUI 화면의 일례를 도시하는 도면이다.
도 10은, 콘텐츠의 작성에 사용되는 GUI 화면의 일례를 도시하는 도면이다.
도 11은, AR 콘텐츠의 표시예에 대하여 설명하는 도면이다.
도 12는, VR 콘텐츠의 표시예에 대하여 설명하는 도면이다.
도 13은, 클라이언트(200)의 기능 구성예를 도시하는 블록도이다.
도 14는, 콘텐츠의 제공에 관한 처리 플로우의 예를 도시하는 흐름도이다.
도 15는, 콘텐츠의 제공에 관한 처리 플로우의 예를 도시하는 흐름도이다.
도 16은, 서버(100) 또는 클라이언트(200)를 구현하는 정보 처리 장치(900)의 하드웨어 구성예를 도시하는 블록도이다.
도 17은, 제1 실시예에 관한 콘텐츠 제공예를 도시하는 도면이다.
도 18은, 제1 실시예에 관한 콘텐츠 제공예를 도시하는 도면이다.
도 19는, 제1 실시예에 관한 콘텐츠 제공예를 도시하는 도면이다.
도 20은, 제2 실시예에 관한 콘텐츠 제공예를 도시하는 도면이다.
1 is a diagram showing an example of a system configuration of an information processing system according to the present embodiment.
2 is a diagram illustrating an example of the client 200.
3 is a diagram illustrating an example of the client 200.
4 is a diagram showing an example of the client 200.
5 is a block diagram showing an example of the functional configuration of the server 100.
6 is a diagram showing an example of a GUI screen used for creating content.
7 is a diagram showing an example of a GUI screen used for creating contents.
8 is a diagram showing an example of a GUI screen used for creating contents.
9 is a diagram showing an example of a GUI screen used for creating content.
10 is a diagram showing an example of a GUI screen used for creating contents.
11 is a diagram for explaining a display example of AR content.
12 is a diagram for describing a display example of VR content.
13 is a block diagram showing an example of the functional configuration of the client 200.
14 is a flowchart showing an example of a processing flow related to provision of content.
15 is a flowchart showing an example of a processing flow related to provision of content.
16 is a block diagram showing an example of a hardware configuration of an information processing device 900 that implements the server 100 or the client 200.
17 is a diagram showing an example of providing content according to the first embodiment.
18 is a diagram showing an example of providing content according to the first embodiment.
19 is a diagram showing an example of providing content according to the first embodiment.
Fig. 20 is a diagram showing an example of providing content according to the second embodiment.

이하에 첨부 도면을 참조하면서, 본 개시의 적합한 실시 형태에 대하여 상세하게 설명한다. 또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 갖는 구성 요소에 대해서는, 동일한 번호를 부여함으로써 중복 설명을 생략한다.Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in the present specification and drawings, elements having substantially the same functional configuration are denoted by the same reference numerals, so that redundant descriptions are omitted.

또한, 설명은 이하의 순서로 행하기로 한다.In addition, explanation will be made in the following order.

1. 실시 형태1. Embodiment

1.1. 개요 1.1. summary

1.2. 시스템 구성예 1.2. System configuration example

1.3. 서버(100)의 기능 구성예 1.3. Example of functional configuration of the server 100

1.4. 클라이언트(200)의 기능 구성예 1.4. Example of functional configuration of the client 200

1.5. 처리 플로우의 예 1.5. Processing flow example

1.6. 하드웨어 구성예 1.6. Hardware configuration example

2. 실시예2. Examples

2.1. 제1 실시예 2.1. Embodiment 1

2.2. 제2 실시예 2.2. Embodiment 2

2.3. 제3 실시예 2.3. Embodiment 3

2.4. 변형예 2.4. Variation

3. 마무리3. Finish

<1. 실시 형태><1. Embodiment>

(1.1. 개요)(1.1. Overview)

우선, 본 개시에 관한 일 실시 형태의 개요에 대하여 설명한다.First, an outline of an embodiment according to the present disclosure will be described.

상기한 바와 같이, 정보 처리 기술의 진전에 수반하여, 게임을 포함하는 콘텐츠를 유저에게 제공하는 여러 가지 기술이 개발되고 있다. 그러나, 자택 외에서 제공되는 콘텐츠에 대한 유저의 흥미를 야기하는 것에 대해서는, 여전히 개선의 여지가 있다.As described above, with advances in information processing technology, various technologies have been developed for providing content including games to users. However, there is still room for improvement as to causing the user's interest in content provided outside the home.

그래서, 본건의 개시자는, 이 사정을 감안하여 본건의 기술을 창작하기에 이르렀다. 본 개시는, AR(Augmented Reality) 콘텐츠의 제공에 사용되는 정보의 적어도 일부를 사용하여 VR(Virtual Reality) 콘텐츠를 제공 가능한 플랫폼을 제공할 수 있다.Therefore, the initiator of this case came to create the description of this case in consideration of this situation. The present disclosure may provide a platform capable of providing Virtual Reality (VR) content by using at least part of information used to provide Augmented Reality (AR) content.

보다 구체적으로는, 본 개시에 관한 정보 처리 장치(서버(100))는, AR 콘텐츠의 제공에 사용되는 정보의 적어도 일부를 사용하여 VR 콘텐츠를 작성할 수 있다. 그리고, 정보 처리 장치는, 작성한 VR 콘텐츠를 유저 장치(클라이언트(200))에 제공할 수 있다. 또한, 정보 처리 장치는, AR 콘텐츠를 작성할 수도 있고, 작성한 AR 콘텐츠를 유저 장치에 제공할 수도 있다. 본 개시에 있어서, AR 콘텐츠는 옥외에서 제공되는 콘텐츠이고, VR 콘텐츠는 옥내에서 제공되는 콘텐츠라고 간주되어도 된다. 또한, 콘텐츠가 상업 시설 등이나 빌딩 등의 일반적인 개인집보다 넓은 면적을 갖는 옥내를 이용하여 제공되는 콘텐츠인 경우, 그 콘텐츠는 AR 콘텐츠로서 간주될 수 있다. 즉, AR 콘텐츠는, 실공간에 있어서의 유저의 위치의 이동이, AR 콘텐츠에 있어서의 유저의 위치의 이동과 일대일로 대응하는 콘텐츠로 간주되어도 된다. 한편, VR 콘텐츠는, 실공간에 있어서의 유저의 위치의 이동과는 독립적으로, VR 콘텐츠에 있어서의 유저의 위치가 임의로 이동될 수 있는 콘텐츠라고 간주되어도 된다.More specifically, the information processing device (server 100) according to the present disclosure can create VR content by using at least a part of information used for provision of AR content. Then, the information processing device can provide the created VR content to the user device (client 200). In addition, the information processing device may create AR content or provide the created AR content to a user device. In the present disclosure, AR contents may be regarded as contents provided outdoors, and VR contents may be regarded as contents provided indoors. In addition, when the content is a content provided indoors having a larger area than a general private house such as a commercial facility or a building, the content may be regarded as AR content. That is, the AR content may be regarded as content corresponding to the movement of the user's position in real space on a one-to-one basis with the movement of the user's position in the AR content. On the other hand, VR content may be regarded as content in which the user's position in VR content can be arbitrarily moved independently of the movement of the user's position in real space.

이에 의해, 본 개시는, AR 콘텐츠에 대응하는 VR 콘텐츠를 유저에게 체험시킴으로써, 원래 현지에서만 체험할 수 있었던 AR 콘텐츠에 대한 유저의 흥미를 야기할 수 있어, AR 콘텐츠를 보다 효율적으로 보급시킬 수 있다.Accordingly, the present disclosure allows users to experience VR content corresponding to AR content, thereby causing user interest in AR content that was originally experienced only in the local area, so that AR content can be more efficiently distributed. .

또한, 본 실시 형태에 관한 AR 콘텐츠란, 실공간의 상에 대하여 가상 오브젝트를 중첩적으로 표시 가능한 콘텐츠를 가리키고, VR 콘텐츠란, 가상 공간의 상에 대하여 가상 오브젝트를 중첩적으로 표시 가능한 콘텐츠(또는 표시 화면 전체를 가상 오브젝트로 구성하는 콘텐츠)를 가리킨다. 이후에는, AR 콘텐츠 또는 VR 콘텐츠를 간단히 「콘텐츠」 또는 「이들 콘텐츠」라고 호칭하는 경우가 있다. 또한, 본 개시에 있어서의 「실공간의 상」은, 실공간을 촬상함으로써 취득되는 실공간 화상에 기초하여 생성되는 합성 화상을 포함할 수 있다. 즉, 합성 화상은, 실공간 화상의 해석 결과에 기초하는 실공간에 대응한 뎁스 정보를 갖는 뎁스 화상, 가상 오브젝트의 톤(색, 콘트라스트, 밝기 등의 외관 정보)에 기초하여 가공된 보정 화상 등이어도 된다. 한편, 「가상 공간의 상」은, 실공간의 정보를 참조하지 않고 작성되는 화상으로 해석되어도 된다.In addition, the AR content according to the present embodiment refers to content that can superimpose a virtual object on an image in real space, and the VR content is a content that can superimpose a virtual object on an image in a virtual space (or Refers to content that constitutes the entire display screen as virtual objects). In the following, AR content or VR content may be simply referred to as "content" or "these content". In addition, the "real-space image" in the present disclosure may include a composite image generated based on a real-space image acquired by imaging a real space. That is, the composite image is a depth image having depth information corresponding to real space based on the analysis result of the real space image, a correction image processed based on the tone (appearance information such as color, contrast, brightness, etc.) of a virtual object, etc. May be. On the other hand, the "image of a virtual space" may be interpreted as an image created without referring to information on real space.

(1.2. 시스템 구성예)(1.2. System configuration example)

상기에서는, 본 개시에 관한 일 실시 형태의 개요에 대하여 설명하였다. 계속해서, 도 1 내지 도 4를 참조하여, 본 실시 형태에 관한 정보 처리 시스템의 시스템 구성예에 대하여 설명한다.In the above, an outline of an embodiment according to the present disclosure has been described. Next, an example of the system configuration of the information processing system according to the present embodiment will be described with reference to FIGS. 1 to 4.

도 1에 도시하는 바와 같이, 본 실시 형태에 관한 정보 처리 시스템은, 서버(100)와 클라이언트(200)를 구비한다.As shown in FIG. 1, the information processing system according to the present embodiment includes a server 100 and a client 200.

(서버(100))(Server(100))

서버(100)는, AR 콘텐츠 및 VR 콘텐츠를 작성 가능하고, 이들 콘텐츠를 클라이언트(200)에 제공 가능한 정보 처리 장치이다. 콘텐츠의 작성에 대하여 보다 구체적으로 설명하면, 서버(100)는, AR 콘텐츠 및 VR 콘텐츠를 작성 가능한 개발 플랫폼을 유저에 대하여 제공한다. 예를 들어, 서버(100)는, 이들 콘텐츠를 작성 가능한 GUI(Graphical User Interface) 화면을 클라이언트(200)에 제공한다. 그리고, 유저는, 당해 GUI 화면에 대하여 여러 가지 입력을 행함으로써, 가상 오브젝트의 화상 정보 및 실공간에 있어서의 가상 오브젝트의 위치 정보 등을 포함하고, AR 콘텐츠에 사용될 콘텐츠 정보를 작성할 수 있다. 그리고, 유저는, 당해 가상 오브젝트의 적어도 일부를 사용하여, VR 콘텐츠에 사용되는 콘텐츠 정보를 작성할 수도 있다.The server 100 is an information processing device capable of creating AR contents and VR contents and providing these contents to the client 200. In more detail with respect to the creation of contents, the server 100 provides a user with a development platform capable of creating AR contents and VR contents. For example, the server 100 provides a GUI (Graphical User Interface) screen in which these contents can be created to the client 200. Then, by making various inputs to the GUI screen, the user can create content information to be used for AR content, including image information of a virtual object and position information of a virtual object in real space. Then, the user can also create content information used for VR content by using at least a part of the virtual object.

또한, 콘텐츠의 제공에 대하여 보다 구체적으로 설명하면, 서버(100)는, 실공간에 있어서의 유저의 위치 정보와 클라이언트(200)의 프로퍼티 정보에 기초하여AR 콘텐츠 또는 VR 콘텐츠 중 어느 것을 제공할지를 판단한다. 예를 들어, 유저의 위치 정보가 「자택」을 나타내고, 클라이언트(200)의 프로퍼티 정보가 「거치용 단말기(AR 비대응 단말기)」를 나타내는 경우에는, 서버(100)는, VR 콘텐츠를 클라이언트(200)에 제공한다. 또한, 유저의 위치 정보가, 실공간에 있어서의 특정 위치를 나타내고, 클라이언트(200)의 프로퍼티 정보가 「AR 대응 단말기」를 나타내는 경우에는, 서버(100)는, AR 콘텐츠를 클라이언트(200)에 제공한다. 여기서, 클라이언트(200)의 프로퍼티 정보란, 클라이언트(200)의 제품 정보 또는 설정 정보 등을 포함하는, 클라이언트(200)에 관한 어떠한 정보를 가리킨다. 또한, 상기는 어디까지나 일례이며, 서버(100)에 의한 콘텐츠의 제공의 제어 방법에 대해서는 적절하게 변경될 수 있다. 예를 들어, 클라이언트(200)가 휴대 단말기인 경우, 서버(100)는, 휴대 단말기의 유저의 위치 정보가 「AR 콘텐츠 에어리어 외」를 나타내는 경우에는 VR 콘텐츠를 제공하고, 휴대 단말기의 유저의 위치 정보가 「AR 콘텐츠 에어리어 내」를 나타내는 경우에는 AR 콘텐츠를 제공하도록 제어되어도 된다. 또한, 서버(100)는, 휴대 단말기에 대하여, 동일한 콘텐츠에 관하여, AR 콘텐츠와 VR 콘텐츠 중 어느 것을 플레이 가능한지를 나타내는 아이콘을 제시해도 된다.In addition, to describe the provision of content in more detail, the server 100 determines whether to provide AR content or VR content based on the location information of the user in real space and the property information of the client 200. do. For example, when the location information of the user indicates "home" and the property information of the client 200 indicates "a terminal for residence (non-AR-compliant terminal)", the server 100 transmits the VR content to the client ( 200). In addition, when the location information of the user indicates a specific location in real space and the property information of the client 200 indicates “AR-adaptive terminal”, the server 100 sends AR content to the client 200. to provide. Here, the property information of the client 200 refers to any information about the client 200, including product information or setting information of the client 200. In addition, the above is only an example, and the method of controlling the provision of content by the server 100 may be appropriately changed. For example, when the client 200 is a mobile terminal, the server 100 provides VR content when the location information of the user of the mobile terminal indicates "outside the AR content area", and the location of the user of the mobile terminal When the information indicates "in the AR content area", it may be controlled to provide AR content. Further, the server 100 may present an icon indicating which of the AR content and the VR content can be played with respect to the same content to the portable terminal.

여기서, 서버(100)와 클라이언트(200)의 통신 방법은 특별히 한정되지 않는다. 예를 들어, 서버(100)와 클라이언트(200)를 접속하는 네트워크는, 유선의 전송로 또는 무선의 전송로 중 어느 것이어도 된다. 예를 들어, 당해 네트워크는, 인터넷 등의 공중 회선망이나, Ethernet(등록 상표)을 포함하는 각종 LAN(Local Area Network), WAN(Wide Area Network) 등을 포함해도 된다. 또한, 당해 네트워크는, IP-VPN(Internet Protocol-Virtual Private Network) 등의 전용 회선망이나, Bluetooth(등록 상표) 등의 근거리 무선 통신망을 포함해도 된다.Here, the communication method between the server 100 and the client 200 is not particularly limited. For example, the network connecting the server 100 and the client 200 may be either a wired transmission path or a wireless transmission path. For example, the network may include a public line network such as the Internet, various local area networks (LANs) including Ethernet (registered trademarks), and wide area networks (WANs). Further, the network may include a dedicated line network such as IP-VPN (Internet Protocol-Virtual Private Network) or a short-range wireless communication network such as Bluetooth (registered trademark).

또한, 서버(100)의 종류는 특별히 한정되지 않으며, 예를 들어 범용 컴퓨터, 테스크톱형 PC(Personal Computer), 노트북형 PC, 태블릿형 PC, 스마트폰 등을 포함하는 임의의 정보 처리 장치일 수 있다.In addition, the type of the server 100 is not particularly limited, and may be any information processing device including, for example, a general-purpose computer, a desktop PC, a notebook PC, a tablet PC, and a smartphone. .

(클라이언트(200))(Client (200))

클라이언트(200)는, AR 콘텐츠 및 VR 콘텐츠의 작성 시, 또는 이들 콘텐츠의 재생 시에 유저가 사용하는 정보 처리 장치이다. 콘텐츠의 작성에 대하여 보다 구체적으로 설명하면, 클라이언트(200)는, 서버(100)로부터 제공되는 GUI 화면을 표시한다. 유저는, 당해 GUI 화면을 사용하여 콘텐츠의 작성에 필요한 정보(예를 들어, 가상 오브젝트의 화상 정보, 실공간에 있어서의 가상 오브젝트의 위치 정보 또는 가상 오브젝트에 의한 이벤트 정보 등)를 설정할 수 있다. 그리고, 클라이언트(200)는, 유저로부터의 입력 정보를 서버(100)에 제공함으로써, 이들 콘텐츠의 작성을 실현한다.The client 200 is an information processing device used by a user when creating AR content and VR content, or when playing these content. To describe the creation of content in more detail, the client 200 displays a GUI screen provided from the server 100. The user can set information necessary for content creation (eg, image information of a virtual object, position information of a virtual object in real space, event information by a virtual object, etc.) using the GUI screen. Then, the client 200 realizes creation of these contents by providing the server 100 with input information from the user.

콘텐츠의 재생에 대하여 보다 구체적으로 설명하면, 클라이언트(200)는, 유저의 위치 정보와 클라이언트(200)의 프로퍼티 정보를 서버(100)에 제공한다. 그리고, 클라이언트(200)는, 이들 정보에 기초하여 서버(100)에 의해 제공되는 콘텐츠 정보를 수신하고, 소정의 방법으로 출력함으로써, 이들 콘텐츠를 유저에게 제공한다. 또한, 클라이언트(200)에 의한 콘텐츠의 출력 방법은 특별히 한정되지 않는다. 예를 들어, 클라이언트(200)는, 콘텐츠를 디스플레이 등에 표시해도 되고, 스피커 등으로부터 발음시켜도 된다. 또한, 콘텐츠의 재생 시에 클라이언트(200)로부터 서버(100)로 제공되는 정보는 상기에 한정되지 않는다.In more detail with respect to content playback, the client 200 provides the server 100 with location information of the user and property information of the client 200. Then, the client 200 receives the content information provided by the server 100 based on the information, and provides the content to the user by outputting it in a predetermined method. In addition, a method of outputting content by the client 200 is not particularly limited. For example, the client 200 may display the content on a display or the like, or may make it sound from a speaker or the like. In addition, information provided from the client 200 to the server 100 when the content is reproduced is not limited to the above.

또한, 도 1에 도시하는 바와 같이, 클라이언트(200)에는 여러 가지 장치가 포함된다. 예를 들어, 클라이언트(200)에는, 광학 투과형의 헤드 마운트 디스플레이(201)(이후, 「HMD」라고 호칭함), 차폐형(또는 비디오 투과형)의 HMD(202), 스마트폰(203) 또는 태블릿형 PC(204) 등이 포함된다. AR 콘텐츠의 재생에는, 광학 투과형 HMD(201), 비디오 투과형 HMD(202), 스마트폰(203) 또는 태블릿형 PC(204) 등이 사용되고, VR 콘텐츠의 재생에는, 차폐형 HMD(202), 스마트폰(203) 또는 태블릿형 PC(204) 등이 사용되는 것을 상정하고 있지만, 이들에 한정되지 않는다. 또한, 클라이언트(200)에는, 이들 이외의 임의의 표시 장치가 포함되어도 된다. 예를 들어, 클라이언트(200)에는 텔레비전 등이 포함되어도 된다.In addition, as shown in Fig. 1, the client 200 includes various devices. For example, the client 200 includes an optically transmissive head mounted display 201 (hereinafter referred to as ``HMD''), a shielded (or video transmissive) HMD 202, a smartphone 203, or a tablet. Type PC 204, etc. are included. For the reproduction of AR contents, an optically transmissive HMD 201, a video transmissive HMD 202, a smartphone 203, or a tablet PC 204 are used, and for the reproduction of VR contents, a shielded HMD 202 and a smart Although it is assumed that the phone 203 or the tablet PC 204 is used, it is not limited to these. Further, the client 200 may include any display device other than these. For example, the client 200 may include a television or the like.

또한, 클라이언트(200)에는, 표시 기능을 갖지 않는 임의의 정보 처리 장치가 포함되어도 된다. 예를 들어, 클라이언트(200)에는, 도 2의 2A 및 2B에 도시하는 바와 같이, 귀를 막지 않는 스피커(205)(이후, 「오픈 이어형 스피커」라고 호칭함)가 포함되어도 된다. 오픈 이어형 스피커(205)는, 2B에 도시하는 바와 같이, 유저의 목에 걸린 상태로 사용되며, 귀를 막지 않기 때문에, 외부음을 차단하지 않는다. 이에 의해, 오픈 이어형 스피커(205)는, 콘텐츠(특히, AR 콘텐츠)를 재생함에 있어서, 실공간의 음에 중첩시키도록 음상을 정위시킴으로써 임장감이 있는 음향 출력을 행할 수 있다.Further, the client 200 may include an arbitrary information processing device that does not have a display function. For example, the client 200 may include a speaker 205 that does not cover the ears (hereinafter referred to as "open ear speaker") as shown in Figs. 2A and 2B. As shown in 2B, the open-ear speaker 205 is used in a state that is caught on the user's neck, and does not block the ear, so it does not block external sound. As a result, the open-ear speaker 205 can perform sound output with a sense of presence by positioning the sound image so as to overlap the sound in the real space when reproducing content (especially AR content).

또한, 클라이언트(200)에는, 도 3의 3A 및 3B에 도시하는 오픈 이어형 스피커(206)가 포함되어도 된다. 오픈 이어형 스피커(206)는, 3B에 도시하는 바와 같이, 유저의 귀에 삽입됨으로써 장착되지만, 귀에 대한 삽입 부분에 관통된 구멍을 갖고 있기 때문에, 귀를 막지 않고, 외부음을 차단하지 않는다. 이에 의해 오픈 이어형 스피커(206)도, 상기와 마찬가지로, 콘텐츠(특히, AR 콘텐츠)를 재생함에 있어서, 실공간의 음에 중첩시키도록 음상을 정위시킴으로써 임장감이 있는 음향 출력을 행할 수 있다.In addition, the client 200 may include an open-ear speaker 206 shown in Figs. 3A and 3B. The open-ear speaker 206 is attached by being inserted into the user's ear as shown in 3B, but does not block the ear and does not block external sound because it has a hole through which the ear is inserted. As a result, similarly to the above, the open-ear speaker 206 can also perform sound output with a sense of presence by positioning the sound image so as to superimpose the sound in the real space when reproducing content (especially AR content).

또한, 클라이언트(200)에는, 도 4의 4A 및 4B에 도시하는 웨어러블 단말기(207)가 포함되어도 된다. 웨어러블 단말기(207)는, 4B에 도시하는 바와 같이, 유저의 귀에 장착되는 장치이며, 음상을 정위시킴으로써 임장감이 있는 음향 출력을 행할 수 있다. 또한, 웨어러블 단말기(207)에는, 여러 가지 센서가 구비되어 있으며, 이들 센서로부터의 센서 정보에 기초하여 유저의 자세(예를 들어, 헤드의 기울기 등), 발화, 위치 또는 행동 등을 추정할 수 있는 장치이다.Further, the client 200 may include a wearable terminal 207 shown in FIGS. 4A and 4B. As shown in 4B, the wearable terminal 207 is a device that is attached to the user's ear, and can perform sound output with a sense of presence by positioning the sound image. In addition, the wearable terminal 207 is equipped with various sensors, and based on sensor information from these sensors, the user's posture (for example, the inclination of the head), speech, position, or behavior can be estimated. It is a device.

(1.3. 서버(100)의 기능 구성예)(1.3. Example of functional configuration of server 100)

상기에서는, 본 실시 형태에 관한 정보 처리 시스템의 시스템 구성예에 대하여 설명하였다. 계속해서, 도 5를 참조하여, 서버(100)의 기능 구성예에 대하여 설명한다.In the above, an example of the system configuration of the information processing system according to the present embodiment has been described. Next, an example of the functional configuration of the server 100 will be described with reference to FIG. 5.

도 5에 도시하는 바와 같이, 서버(100)는, 콘텐츠 작성부(110)와, 콘텐츠 제공부(120)와, 통신부(130)와, 기억부(140)를 구비한다.As shown in FIG. 5, the server 100 includes a content creation unit 110, a content providing unit 120, a communication unit 130, and a storage unit 140.

(콘텐츠 작성부(110))(Content creation unit (110))

콘텐츠 작성부(110)는, AR 콘텐츠 또는 VR 콘텐츠를 작성하는 기능 구성이다. 도 5에 도시하는 바와 같이, 콘텐츠 작성부(110)는, 위치 처리부(111)와, 오브젝트 처리부(112)와, 이벤트 처리부(113)와, 콘텐츠 작성 제어부(114)를 구비한다.The content creation unit 110 is a functional configuration for creating AR content or VR content. As shown in FIG. 5, the content creation unit 110 includes a location processing unit 111, an object processing unit 112, an event processing unit 113, and a content creation control unit 114.

위치 처리부(111)는, AR 콘텐츠 또는 VR 콘텐츠에 있어서, 가상 오브젝트의 위치 정보에 관한 처리를 행하는 기능 구성이다. 보다 구체적으로는, 위치 처리부(111)는, 이들 콘텐츠의 작성 시, 유저로부터의 입력에 기초하여, 실공간에 있어서의 가상 오브젝트의 위치 정보를 설정한다. 여기서, 위치 정보는, 예를 들어 위도 정보 및 경도 정보를 포함한다. 위치 처리부(111)는, 가상 오브젝트의 위치 정보로서 위도 정보 및 경도 정보를 설정함으로써, AR 콘텐츠에 대해서는 당해 위치 정보에 대응하는 실공간에 있어서의 위치에 당해 가상 오브젝트를 표시시킬 수 있고, VR 콘텐츠에 대해서는 당해 위치 정보에 대응하는 가상 공간에 있어서의 위치에 당해 가상 오브젝트를 표시시킬 수 있다.The position processing unit 111 is a functional configuration that performs processing regarding positional information of a virtual object in AR content or VR content. More specifically, the position processing unit 111 sets positional information of a virtual object in real space based on an input from a user when creating these contents. Here, the location information includes, for example, latitude information and longitude information. By setting latitude information and longitude information as the location information of the virtual object, the location processing unit 111 can display the virtual object at a location in real space corresponding to the location information for AR content, and VR content With respect to, the virtual object can be displayed at a location in a virtual space corresponding to the location information.

또한, 위치 정보의 내용은 상기에 한정되지 않는다. 예를 들어, 위치 정보는 고도 정보를 포함해도 된다. 위치 처리부(111)는, 가상 오브젝트의 위치 정보로서 고도 정보도 설정함으로써, 위도 및 경도가 동일한 위치에 있어서도 다른 고도로 가상 오브젝트를 표시시킬 수 있다. 이와 같이 구성됨으로써, 예를 들어 건물의 각 층의 평면별로 다른 가상 오브젝트군을 표시시킬 수 있다. 또한, 위치 정보는 주소 정보, 스폿 명칭 정보 또는 스폿 코드 정보 등과 같이, 실공간에 있어서의 위치, 영역 또는 건축물 등을 나타내는 어떠한 정보를 포함해도 된다. 또한, 위치 정보는, 가상 오브젝트의 방향 또는 자세에 관한 정보를 포함해도 된다.In addition, the content of the location information is not limited to the above. For example, the location information may include altitude information. The position processing unit 111 also sets altitude information as position information of the virtual object, so that the virtual object can be displayed at a different altitude even at a position having the same latitude and longitude. With this configuration, for example, different virtual object groups can be displayed for each floor plan of the building. Further, the location information may include any information indicating a location, area, or building in real space, such as address information, spot name information, or spot code information. In addition, the positional information may include information about the orientation or posture of the virtual object.

오브젝트 처리부(112)는, AR 콘텐츠 또는 VR 콘텐츠에 있어서, 가상 오브젝트에 관한 처리를 행하는 기능 구성이다. 보다 구체적으로는, 오브젝트 처리부(112)는, 유저로부터의 입력에 기초하여 가상 오브젝트의 화상 정보를 포함하는 가상 오브젝트 정보를 설정한다. 예를 들어, 오브젝트 처리부(112)는, 복수의 가상 오브젝트의 화상 정보를 관리하고 있고, 당해 가상 오브젝트의 화상 정보 중에서 콘텐츠에 사용될 가상 오브젝트의 화상 정보를 유저에게 선택시켜도 된다. 또한, 오브젝트 처리부(112)는, 외부의 네트워크(예를 들어, 인터넷) 상에 산재해 있는 화상 정보를 수집하고, 이들 화상 정보 중에서 콘텐츠에 사용될 화상 정보를 유저에게 선택시켜도 된다. 또한, 오브젝트 처리부(112)는, 유저로부터 입력된 화상 정보를 콘텐츠에 사용해도 된다.The object processing unit 112 is a functional configuration that performs processing on a virtual object in AR content or VR content. More specifically, the object processing unit 112 sets virtual object information including image information of the virtual object based on an input from the user. For example, the object processing unit 112 manages image information of a plurality of virtual objects, and may cause the user to select image information of a virtual object to be used for content from among image information of the virtual object. Further, the object processing unit 112 may collect image information scattered on an external network (for example, the Internet), and may cause the user to select image information to be used for content from among these image information. Further, the object processing unit 112 may use image information input from a user for content.

또한, 가상 오브젝트의 화상 정보의 내용은 특별히 한정되지 않는다. 예를 들어, 가상 오브젝트의 화상 정보는, 어떠한 일러스트 정보(또는 애니메이션 정보)여도 되고, 실공간에 존재하는 오브젝트의 정지 화상 정보(또는 동화상 정보)여도 된다.In addition, the content of the image information of the virtual object is not particularly limited. For example, the image information of the virtual object may be any illustration information (or animation information), or may be still image information (or moving image information) of an object existing in real space.

이벤트 처리부(113)는, AR 콘텐츠 또는 VR 콘텐츠에 있어서, 가상 오브젝트에 의해 행해지는 이벤트에 관한 처리를 행하는 기능 구성이다. 보다 구체적으로는, 이벤트 처리부(113)는, 유저로부터의 입력에 기초하여 이벤트의 내용, 발생 조건을 포함하는 이벤트 정보를 설정한다. 여기서, 이벤트란, 1 또는 2 이상의 가상 오브젝트에 의해 행해지는 임의의 행동, 특정 장소에서 행해지는 행사, 또는 가상 오브젝트의 행동 등에 의해 발생하는 사상 등을 포함하며, 이들에 한정되지 않는다. 또한, 이벤트의 내용이란, 이벤트를 행하는 가상 오브젝트, 이벤트가 행해지는 위치, 이벤트가 행해지는 타이밍, 이벤트의 목적 또는 이벤트의 실시 방법 등을 포함하며, 이들에 한정되지 않는다. 또한, 이벤트의 발생 조건이란, 일시, 장소, 유저 혹은 가상 오브젝트의 행동 혹은 상황 등으로 지정되는 것이지만, 이들 이외의 요소에 의해 지정되어도 된다.The event processing unit 113 is a functional configuration that performs processing related to an event performed by a virtual object in AR content or VR content. More specifically, the event processing unit 113 sets event information including contents of the event and occurrence conditions based on an input from the user. Here, the event includes, but is not limited to, an arbitrary action performed by one or two or more virtual objects, an event performed in a specific place, or an event generated by an action of a virtual object. In addition, the content of an event includes, but is not limited to, a virtual object that performs an event, a location where the event is performed, a timing at which the event is performed, the purpose of the event, or a method of performing the event. Incidentally, the conditions for occurrence of an event are those specified by date and time, location, behavior or situation of a user or a virtual object, etc., but may be specified by factors other than these.

콘텐츠 작성 제어부(114)는, AR 콘텐츠 또는 VR 콘텐츠의 작성을 제어하는 기능 구성이다. 보다 구체적으로는, 콘텐츠 작성 제어부(114)는, 클라이언트(200)에 대하여, 이들 콘텐츠의 작성(또는 편집 등)에 사용될 GUI 화면을 제공한다.The content creation control unit 114 is a functional configuration that controls creation of AR content or VR content. More specifically, the content creation control unit 114 provides, to the client 200, a GUI screen to be used for creating (or editing, etc.) these contents.

여기서, 도 6 내지 도 10을 참조하여, 콘텐츠 작성 제어부(114)가 클라이언트(200)(클라이언트 단말기)에 제공하는 GUI 화면의 예에 대하여 설명한다. 또한, 이 GUI 화면에 관련된 데이터는 일시적으로 클라이언트(200)에 의해 오프라인에서 이용되어도 되고, GUI 화면에 관련된 데이터가, 서버(100)와 클라이언트(200)에 의해 분산적으로 관리되어도 된다. 도 6은, 위치 정보의 작성에 사용되는 GUI 화면의 예이다. 도 6에 도시하는 바와 같이, GUI 화면에는, 복수의 콘텐츠(도 6에 있어서는, 콘텐츠 A 내지 콘텐츠 E)에 관한 콘텐츠 정보를 관리하는 콘텐츠 탭(300)이 표시되어 있고, 유저는, 클라이언트(200)를 사용하여 콘텐츠 탭(300)을 선택함으로써, 작성(또는 편집 등)의 대상으로 되는 콘텐츠를 지정한다.Here, an example of a GUI screen provided by the content creation control unit 114 to the client 200 (client terminal) will be described with reference to FIGS. 6 to 10. Further, the data related to the GUI screen may be temporarily used offline by the client 200, and the data related to the GUI screen may be distributedly managed by the server 100 and the client 200. 6 is an example of a GUI screen used to create position information. As shown in Fig. 6, on the GUI screen, a content tab 300 for managing content information related to a plurality of contents (contents A to E in Fig. 6) is displayed, and the user receives the client 200 ) To select the content tab 300 to designate the content to be created (or edited, etc.).

유저가 콘텐츠 탭(300)을 선택하면, 콘텐츠 탭(300)이 전개되어 지도 탭(301)이 표시된다. 또한, 도 6에는 도시하고 있지 않지만, 각 콘텐츠에는 복수의 지도 정보가 사용되어도 되며, 복수의 지도 정보가 사용되는 경우에는, 복수의 지도 탭(301)이 표시되어도 된다(여기서 말하는 복수의 지도 정보란, 단일의 지도 정보가 분할되어 생성된 것이어도 되고, 복수의 서로 다른 지도 정보여도 됨). 그리고, 유저가 지도 탭(301)을 선택하면, 콘텐츠 작성 제어부(114)는, 가상 오브젝트 선택 영역(310)과 지도 표시 영역(320)을 화면에 표시시킨다. 가상 오브젝트 선택 영역(310)은, 지도 상에 배치 가능한 가상 오브젝트 등(도 6에 있어서는, 가상 오브젝트 A 내지 가상 오브젝트 D. 아울러 이벤트 A도 표시되어 있음)이 표시되는 영역이며, 유저는, 소정의 조작에 의해, 지도 상에 배치할 가상 오브젝트를 선택할 수 있다.When the user selects the content tab 300, the content tab 300 is opened and the map tab 301 is displayed. In addition, although not shown in Fig. 6, a plurality of map information may be used for each content, and when a plurality of map information is used, a plurality of map tabs 301 may be displayed (a plurality of map information referred to herein). May be generated by dividing a single map information, or may be a plurality of different map information). Then, when the user selects the map tab 301, the content creation control unit 114 displays the virtual object selection area 310 and the map display area 320 on the screen. The virtual object selection area 310 is an area in which virtual objects that can be placed on the map (in Fig. 6, virtual objects A to virtual objects D. Event A is also displayed) are displayed, and the user By operation, a virtual object to be placed on the map can be selected.

지도 표시 영역(320)은, 콘텐츠의 무대로서 선택되는 실공간을 나타내는 지도가 표시되는 영역이며, 유저는, 지도 표시 영역(320)에 표시된 세계 지도를 확대시키거나, 축소시키거나, 이동시키거나 함으로써 원하는 범위의 지도를 표시시킬 수 있다. 그리고, 유저는, 가상 오브젝트 선택 영역(310)에서 선택한 가상 오브젝트를, 소정의 조작에 의해 지도 표시 영역(320)에 배치할 수 있다. 또한, 가상 오브젝트 선택 영역(310)으로부터의 가상 오브젝트의 선택, 및 지도 표시 영역(320)에의 가상 오브젝트의 배치를 실현하는 소정의 조작 내용은 특별히 한정되지 않는다. 예를 들어, 유저는, 가상 오브젝트 선택 영역(310)의 가상 오브젝트를 드래그하고, 지도 표시 영역(320) 내의 원하는 위치에 드롭함으로써, 가상 오브젝트의 선택 및 배치를 실현해도 된다. 이에 의해, 유저는 보다 용이하게 위치 정보를 편집할 수 있다. 위치 처리부(111)는, 지도 표시 영역(320)에 있어서의 가상 오브젝트의 배치에 기초하여 위치 정보를 생성한다.The map display area 320 is an area in which a map representing a real space selected as a stage of content is displayed, and a user enlarges, reduces, or moves the world map displayed in the map display area 320 By doing so, a map of a desired range can be displayed. Then, the user can place the virtual object selected in the virtual object selection area 310 on the map display area 320 by a predetermined operation. In addition, a predetermined operation content for realizing selection of a virtual object from the virtual object selection area 310 and placement of the virtual object on the map display area 320 is not particularly limited. For example, the user may implement selection and arrangement of a virtual object by dragging a virtual object in the virtual object selection area 310 and dropping it at a desired position in the map display area 320. Thereby, the user can edit the location information more easily. The location processing unit 111 generates location information based on the arrangement of virtual objects in the map display area 320.

또한, 드래그 조작되는 가상 오브젝트의 아이콘은, 유저의 시인성, 조작성을 확보하기 위해 소정의 사이즈를 갖는다. 이 때문에, 표시될 지도의 축척대로, 가상 오브젝트를 의도한 위치에 배치하기가 곤란한 경우가 있다.In addition, the icon of the virtual object to be dragged has a predetermined size in order to ensure the user's visibility and operability. For this reason, it may be difficult to arrange a virtual object at an intended position according to the scale of the map to be displayed.

상기 과제를 해결하기 위해, 유저는 일인칭 시점의 VR 콘텐츠로서 작성 중인 콘텐츠를 표시하고, VR 콘텐츠 내에서의 유저 조작에 따라, 가상 오브젝트의 위치를 적절하게 조정해도 된다. 이러한 VR 콘텐츠 내에서의 유저 조작에 의한 가상 오브젝트의 위치의 조정 결과는, 지도 표시 영역(320) 상의 가상 오브젝트의 위치 정보에 반영된다.In order to solve the above problem, the user may display the content being created as VR content from a first-person view, and appropriately adjust the position of the virtual object according to the user's operation in the VR content. The result of adjusting the position of the virtual object by user manipulation in the VR content is reflected in the position information of the virtual object on the map display area 320.

VR 콘텐츠 내에서의 조정 대신에, 지도 표시 영역(320) 내에 드래그 및 드롭된 가상 오브젝트의 위치가, 지도 정보에 포함되는 도로 정보, 구획 정보, 건물 정보 등에 기초하여, 적절하게 자동적으로 조정되어도 된다. 예를 들어, 드롭된 가상 오브젝트인 인물의 아이콘이 실질적으로 도로 영역에 포함되는 경우, 인물의 아이콘의 위치는, 도로 영역 외 또한 도로 영역의 우측 혹은 좌측을 따라 설정되도록 조정된다. 혹은, 드롭된 가상 오브젝트로서의 가구 아이콘이 실질적으로 건물 영역에 포함되는 경우, 가구 아이콘의 위치는 건물 내의 벽을 따라 설정되어도 된다. 즉, 가상 오브젝트의 프로퍼티와, 가상 오브젝트의 드롭 위치와, 가상 오브젝트의 드롭 위치에 대응하는 지도 정보의 조합이 소정의 조건을 충족한 경우에, 가상 오브젝트의 위치를 지도 정보에 기초하여 자동적으로 조정하고, 조합이 소정의 조건을 충족하지 않은 경우에, 가상 오브젝트의 위치를 유저에 의한 드롭 위치로 설정해도 된다. 또한, 이러한 자동 조정은, 표시되는 지도의 축척이 역치 이상인 경우에는 금지되고, 유저의 드롭 위치에 따라 가상 오브젝트의 위치가 임의로 설정되어도 된다. 표시되는 지도의 축척이 상대적으로 큰 경우, 가상 오브젝트의 아이콘의 사이즈에 대하여, 표시되는 지도가 충분한 사이즈를 가질 수 있다. 따라서, 유저는 적절하게 드롭 위치를 조작할 수 있기 때문에, 그러한 경우, 가상 오브젝트의 위치의 자동 조정이 적절하게 금지되어도 된다.Instead of adjustment in the VR content, the position of the dragged and dropped virtual object in the map display area 320 may be appropriately automatically adjusted based on road information, section information, building information, etc. included in the map information. . For example, when an icon of a person, which is a dropped virtual object, is substantially included in the road area, the position of the person icon is adjusted to be set along the right or left side of the road area outside the road area. Alternatively, when the furniture icon as the dropped virtual object is substantially included in the building area, the position of the furniture icon may be set along the wall in the building. That is, when the combination of the properties of the virtual object, the drop position of the virtual object, and map information corresponding to the drop position of the virtual object meets a predetermined condition, the position of the virtual object is automatically adjusted based on the map information. In addition, when the combination does not satisfy a predetermined condition, the position of the virtual object may be set as a drop position by the user. Further, such automatic adjustment is prohibited when the scale of the displayed map is greater than or equal to the threshold value, and the position of the virtual object may be arbitrarily set according to the user's drop position. When the scale of the displayed map is relatively large, the displayed map may have a sufficient size with respect to the size of the icon of the virtual object. Therefore, since the user can appropriately manipulate the drop position, in such a case, automatic adjustment of the position of the virtual object may be appropriately prohibited.

도 7은, 가상 오브젝트 정보의 작성에 사용되는 GUI 화면의 예이다. 도 7에 도시하는 바와 같이, 유저가 콘텐츠 탭(300)을 선택하면, 콘텐츠 탭(300)이 전개되어 가상 오브젝트 탭(302)이 표시된다. 또한, 도 7에 도시하는 바와 같이, 콘텐츠에서 복수의 가상 오브젝트가 사용되는 경우에는, 가상 오브젝트 탭(302)이 더 전개되어, 가상 오브젝트 탭(302a)이 표시되어도 된다. 그리고, 유저가 가상 오브젝트 탭(302) 또는 가상 오브젝트 탭(302a)을 선택하면, 콘텐츠 작성 제어부(114)는, 가상 오브젝트 표시 영역(330)을 화면에 표시시킨다. 가상 오브젝트 표시 영역(330)은, 유저가 당해 콘텐츠에 사용하기 위해 선택(또는 입력)한 가상 오브젝트의 화상 정보(331)가 표시되는 영역이며, 유저는, 선택한 가상 오브젝트의 화상 정보(331)를 가상 오브젝트 표시 영역(330)에서 확인할 수 있다. 또한, 콘텐츠 작성 제어부(114)는, 가상 오브젝트 표시 영역(330)에 가상 오브젝트의 화상 정보(331)를 표시시킬 뿐만 아니라, 가상 오브젝트 표시 영역(330)을 통하여 가상 오브젝트의 화상 정보(331)의 편집 기능(예를 들어, 형상, 모양 또는 색채 등의 편집 기능)을 유저에게 제공해도 된다. 또한, 도 7에는 도시되어 있지 않지만, 가상 오브젝트 정보는 음상 정보를 포함해도 되고, 도 7의 GUI 화면에서, 음상 정보의 확인, 편집 등이 실현되어도 된다. 오브젝트 처리부(112)는, 가상 오브젝트 표시 영역(330)을 통하여 행해진 편집의 내용에 기초하여 가상 오브젝트 정보를 생성한다.7 is an example of a GUI screen used for creation of virtual object information. As shown in FIG. 7, when the user selects the content tab 300, the content tab 300 is expanded and the virtual object tab 302 is displayed. In addition, as shown in FIG. 7, when a plurality of virtual objects are used in the content, the virtual object tab 302 may be further expanded and the virtual object tab 302a may be displayed. Then, when the user selects the virtual object tab 302 or the virtual object tab 302a, the content creation control unit 114 causes the virtual object display area 330 to be displayed on the screen. The virtual object display area 330 is an area in which image information 331 of a virtual object selected (or input) by a user for use in the content is displayed, and the user displays image information 331 of the selected virtual object. It can be seen in the virtual object display area 330. In addition, the content creation control unit 114 not only displays the image information 331 of the virtual object on the virtual object display area 330, but also displays the image information 331 of the virtual object through the virtual object display area 330. An editing function (for example, an editing function such as shape, shape, or color) may be provided to the user. In addition, although not shown in FIG. 7, the virtual object information may include sound image information, and confirmation and editing of sound image information may be realized on the GUI screen of FIG. 7. The object processing unit 112 generates virtual object information based on the contents of edits made through the virtual object display area 330.

도 8 및 도 9는, 이벤트 정보의 작성에 사용되는 GUI 화면의 예이다. 도 8에 도시하는 바와 같이, 유저가 콘텐츠 탭(300)을 선택하면, 콘텐츠 탭(300)이 전개되어 이벤트 탭(303)이 표시된다. 또한, 도 8에 도시하는 바와 같이, 콘텐츠에서 복수의 이벤트가 설정되는 경우에는, 이벤트 탭(303)이 더 전개되어, 이벤트 탭(303a)이 표시되어도 된다. 그리고, 유저가 이벤트 탭(303) 또는 이벤트 탭(303a)을 선택하면, 콘텐츠 작성 제어부(114)는, 이벤트 표시 영역(340)을 화면에 표시시킨다. 이벤트 표시 영역(340)은, 유저가 이벤트를 편집할 수 있는 영역이다. 당해 이벤트의 편집은, 통일 모델링 언어(UML(Unified Modeling Language))에 의해 기술될 수 있다. 예를 들어, 이벤트 표시 영역(340)에는, 텍스트 박스(341) 등이 미리 표시되어 있고, 유저는, 당해 텍스트 박스(341)에 대하여 입력을 행함으로써, 이벤트에 있어서 실시될 처리 또는 가상 오브젝트의 행동 등을 정의할 수 있다. 또한, 유저는, 이벤트에 있어서의 처리 등의 천이를, 화살표(342)를 사용하여 정의할 수 있고, 천이 조건(343)을 사용하여 천이의 조건 등을 정의할 수 있다. 또한, 도 8에 도시하는 내용은, 이벤트 전체에 있어서의 일부이며, 유저의 작업 영역은 확대, 드래그 또는 스크롤될 수 있다. 또한, 유저는, 이벤트 표시 영역(340)의 아이콘(344)을 누름으로써, 도 8에 도시하는 화면(텍스트 베이스의 화면)으로부터, 도 9에 도시하는 화면(GUI 베이스의 화면)으로 전환할 수 있다.8 and 9 are examples of GUI screens used for creating event information. As shown in Fig. 8, when the user selects the content tab 300, the content tab 300 is expanded and the event tab 303 is displayed. In addition, as shown in Fig. 8, when a plurality of events are set in the content, the event tab 303 may be further expanded and the event tab 303a may be displayed. Then, when the user selects the event tab 303 or the event tab 303a, the content creation control unit 114 displays the event display area 340 on the screen. The event display area 340 is an area in which a user can edit an event. Editing of the event may be described using a unified modeling language (UML). For example, in the event display area 340, a text box 341 or the like is displayed in advance, and the user inputs the text box 341 to perform processing in an event or a virtual object. You can define actions, etc. In addition, the user can define transitions such as processing in an event using the arrow 342, and can define transition conditions and the like using the transition condition 343. In addition, the content shown in FIG. 8 is a part of the entire event, and the user's work area can be enlarged, dragged, or scrolled. In addition, by pressing the icon 344 of the event display area 340, the user can switch from the screen shown in Fig. 8 (text-based screen) to the screen shown in Fig. 9 (GUI-based screen). have.

도 9는, 도 8에서 설정된 이벤트 정보에 대응하는 내용이 나타난 화면(GUI 베이스의 화면)이다(적절하게 정보가 변경되어 있음). 환언하면, 도 9의 이벤트 표시 영역(350)에는, 도 8에서 편집된 이벤트 정보가, 아이콘 등을 사용하여 지도 상에 나타나 있다. 도 8에 있어서의 화살표(342) 및 천이 조건(343)은, 도 9에 있어서의 화살표(351) 및 천이 조건(352)에 대응하고 있다. 환언하면, 도 9에 있어서의 천이 조건(352)이 충족되면, 화살표(351)로 나타난 앞서의 처리 등이 행해진다. 유저는, 이벤트 표시 영역(350)에서, 클릭 또는 드래그 등을 행함으로써 가상 오브젝트 사이 등에 화살표(351)를 그을 수 있다. 또한, 예를 들어 천이 조건 A의 달성을 복수의 가상 오브젝트에 대응시키기 위해, 직사각형의 파선(353)이 사용될 수 있다. 또한, 이벤트의 구획으로서, 도 9에서는 별 형상 오브젝트(354)가 사용되고 있다. 유저가 당해 오브젝트(354)를 일련의 이벤트의 종료로서 설정함으로써, 도 9의 하부에 나타난 이벤트 진도(355)에 있어서 구획이 자동적으로 부가되어도 된다. 이벤트 진도(355)란, 단계적인 이벤트 진도를 슬라이더 표시하는 구성이다. 유저는, 당해 슬라이더의 위치를 변화시킴으로써, 이벤트 진도에 따른 가상 오브젝트의 배치를 이벤트 표시 영역(350)에 표시시킬 수 있다. 이에 의해, 이벤트 진도를 용이하게 또한 시각적으로 확인하는 것이 가능하게 된다. 슬라이더에는, 이벤트의 명칭 등이 애너테이션으로서 부가된다. 또한, 유저는, 이벤트 표시 영역(350)의 아이콘(356)을 누름으로써, 도 9에 도시하는 화면(GUI 베이스의 화면)으로부터, 도 8에 도시하는 화면(텍스트 베이스의 화면)으로 전환할 수 있다. 또한, 가상 오브젝트의 배치에 대해서는, 도 6을 참조하여 설명한 바와 같이, 가상 오브젝트가 이벤트 표시 영역(350)에 있어서 이동한 경우, 당해 가상 오브젝트의 위치 정보가 갱신됨과 함께, 그 위치 정보가 이벤트별로 관리된다.9 is a screen (a GUI-based screen) in which content corresponding to the event information set in FIG. 8 is displayed (information is appropriately changed). In other words, in the event display area 350 of FIG. 9, the event information edited in FIG. 8 is displayed on a map using icons or the like. The arrow 342 and the transition condition 343 in FIG. 8 correspond to the arrow 351 and the transition condition 352 in FIG. 9. In other words, when the transition condition 352 in Fig. 9 is satisfied, the previous processing indicated by the arrow 351 or the like is performed. A user can draw an arrow 351 between virtual objects or the like by clicking or dragging in the event display area 350. Further, for example, in order to correspond the achievement of the transition condition A to a plurality of virtual objects, a rectangular broken line 353 may be used. In addition, a star-shaped object 354 is used in FIG. 9 as an event segment. When the user sets the object 354 as the end of a series of events, a segment may be automatically added in the event progress 355 shown in the lower part of FIG. 9. The event progress 355 is a configuration in which a step-by-step event progress is displayed on a slider. By changing the position of the slider, the user can display the arrangement of virtual objects according to the progress of the event on the event display area 350. This makes it possible to easily and visually confirm the progress of the event. To the slider, the name of the event or the like is added as an annotation. In addition, by pressing the icon 356 of the event display area 350, the user can switch from the screen shown in Fig. 9 (GUI-based screen) to the screen shown in Fig. 8 (text-based screen). have. In addition, regarding the arrangement of the virtual objects, as described with reference to FIG. 6, when the virtual object moves in the event display area 350, the location information of the virtual object is updated and the location information is updated for each event. Is managed.

도 10은, 위치 정보, 가상 오브젝트 정보 또는 이벤트 정보를 포함하는 콘텐츠 정보의 확인, 편집에 사용되는 GUI 화면의 예이다. 도 10에 도시하는 바와 같이, 유저가 콘텐츠 탭(300)을 선택하면, 콘텐츠 탭(300)이 전개되어 데이터 테이블 탭(304)이 표시된다. 데이터 테이블 표시 영역(360)에는 콘텐츠 정보를 나타내는 데이터 테이블이 표시된다.10 is an example of a GUI screen used for checking and editing content information including location information, virtual object information, or event information. As shown in FIG. 10, when the user selects the content tab 300, the content tab 300 is expanded and the data table tab 304 is displayed. A data table representing content information is displayed in the data table display area 360.

또한, 당해 데이터 테이블에는, 가상 오브젝트 정보에 포함되는 「가상 오브젝트 No」, 「명칭」 및 「보충」과, 위치 정보에 포함되는 「위치의 고정 유무」, 「위도」 및 「경도」가 표시되어 있다. 「가상 오브젝트 No」는 가상 오브젝트를 특정 가능한 번호를 표시하고, 「명칭」은 가상 오브젝트의 명칭을 표시하고, 「보충」은 가상 오브젝트에 관한 보충 정보를 표시한다. 또한, 「위치의 고정 유무」는 가상 오브젝트의 위치가 고정되어 있는지 가변인지를 표시하고, 「위도」는 가상 오브젝트가 배치되어 있는 위도 정보를 표시하고, 「경도」는 가상 오브젝트가 배치되어 있는 경도 정보를 표시한다. 데이터 테이블 표시 영역(360)에 표시되는 내용은 이것에 한정되지 않는다. 예를 들어, 데이터 테이블 표시 영역(360)에는, 위치 정보, 가상 오브젝트 정보 또는 이벤트 정보 이외의 임의의 정보가 표시되어도 된다.In addition, in the data table, "virtual object No", "name" and "supplement" included in the virtual object information, and "whether or not the position is fixed", "latitude" and "longitude" included in the position information are displayed. have. "Virtual object No" indicates a number that can identify a virtual object, "Name" indicates a name of a virtual object, and "Supplementary" indicates supplementary information about the virtual object. In addition, "whether or not the position is fixed" indicates whether the position of the virtual object is fixed or variable, "latitude" indicates the latitude information where the virtual object is placed, and "longitude" indicates the longitude where the virtual object is placed. Display information. The content displayed in the data table display area 360 is not limited to this. For example, arbitrary information other than position information, virtual object information, or event information may be displayed in the data table display area 360.

그리고, 유저는, 데이터 테이블 표시 영역(360)에 표시된 데이터 테이블을 편집함으로써, 위치 정보, 가상 오브젝트 정보 또는 이벤트 정보를 포함하는 콘텐츠 정보를 편집할 수 있다. 또한, 데이터 테이블을 사용하여 편집된 내용은, 상기에서 설명한 별도의 화면에 자동적으로 반영된다. 예를 들어, 유저가 데이터 테이블에 있어서의 가상 오브젝트의 위도 정보 또는 경도 정보를 편집한 경우, 도 6의 지도 표시 영역(320)에 있어서의 가상 오브젝트의 위치가, 편집 후의 위도 정보 또는 경도 정보에 대응하는 위치로 변경되어 있다.Then, the user can edit the content information including location information, virtual object information, or event information by editing the data table displayed on the data table display area 360. Also, the content edited using the data table is automatically reflected on the separate screen described above. For example, when the user edits the latitude information or longitude information of the virtual object in the data table, the position of the virtual object in the map display area 320 of FIG. 6 is in the latitude information or longitude information after editing. It has been changed to the corresponding location.

또한, 콘텐츠 작성 제어부(114)가 클라이언트(200)에 제공하는 GUI 화면은, 도 6 내지 도 10의 예에 한정되지 않는다.In addition, the GUI screen provided by the content creation control unit 114 to the client 200 is not limited to the examples of FIGS. 6 to 10.

그리고, 콘텐츠 작성 제어부(114)는, 콘텐츠 정보의 포맷, 사이즈, 시큐리티 설정 등(예를 들어, 액세스권 등)을 결정하고, 위치 정보, 가상 오브젝트 정보 및 이벤트 정보 등의 통합 및 패키징을 행함으로써, AR 콘텐츠 또는 VR 콘텐츠를 구성하는 콘텐츠 정보를 작성한다. 또한, 콘텐츠 작성 제어부(114)는, 작성한 콘텐츠 정보를, 실공간을 나타내는 지도 정보에 대하여 부가한 상태로 기억부(140)에 저장한다. 이에 의해, 콘텐츠가 실공간을 나타내는 지도 정보에 기초하여 적절하게 실행 가능하게 된다.Then, the content creation control unit 114 determines the format, size, and security settings of the content information (eg, access rights, etc.), and performs integration and packaging of location information, virtual object information and event information, etc. Create content information constituting AR content or VR content. Further, the content creation control unit 114 stores the created content information in the storage unit 140 in a state in which the created content information is added to the map information indicating the real space. Accordingly, the content can be appropriately executed based on the map information indicating the real space.

(콘텐츠 제공부(120))(Contents provider 120)

콘텐츠 제공부(120)는, AR 콘텐츠 또는 VR 콘텐츠를 클라이언트(200)에 제공하는 기능 구성이다. 도 5에 도시하는 바와 같이, 콘텐츠 제공부(120)는, 취득부(121)와, 루트 결정부(122)와, 콘텐츠 제공 제어부(123)를 구비한다.The content providing unit 120 is a functional configuration for providing AR content or VR content to the client 200. As shown in FIG. 5, the content providing unit 120 includes an acquisition unit 121, a route determining unit 122, and a content providing control unit 123.

취득부(121)는, AR 콘텐츠 또는 VR 콘텐츠의 제공에 사용되는 임의의 정보를 취득하는 기능 구성이다. 예를 들어, 취득부(121)는, 콘텐츠 작성부(110)에 의해작성되고, 기억부(140)에 저장되어 있는 콘텐츠 정보(AR 콘텐츠에 관한 콘텐츠 정보 또는 VR 콘텐츠에 관한 콘텐츠 정보 중 어느 것이어도 됨)를 취득한다.The acquisition unit 121 is a functional configuration for acquiring arbitrary information used for provision of AR content or VR content. For example, the acquisition unit 121 includes content information created by the content creation unit 110 and stored in the storage unit 140 (either content information about AR content or content information about VR content). It is okay).

또한, 취득부(121)는, 유저의 상황(또는 상태)을 나타내는 정보(이후, 「유저 상황 정보」라고 호칭함)를 취득한다. 예를 들어, 클라이언트(200)는, 자장치에 구비되어 있는 각종 센서를 사용하여, 자장치를 장착하고 있는 유저의 자세, 시선, 발화, 위치 또는 행동 등을 추정하고, 추정 결과에 기초하여 유저 상황 정보를 생성하고, 서버(100)에 제공한다. 또한, 유저 상황 정보의 내용은 이것에 한정되지 않고, 센서 등에 기초하여 출력 가능한 유저의 상황(또는 상태)에 관한 정보라면 어떠한 정보여도 된다. 또한, 유저 상황 정보는, 유저가 클라이언트(200)에 구비되어 있는 입력 수단을 사용하여 행한 입력의 내용을 포함해도 된다.Further, the acquisition unit 121 acquires information indicating the user's situation (or state) (hereinafter referred to as "user situation information"). For example, the client 200 uses various sensors provided in the own device to estimate the posture, gaze, speech, position, or behavior of the user who is equipped with the own device, and based on the estimation result, the user Context information is generated and provided to the server 100. In addition, the content of the user situation information is not limited to this, and any information may be used as long as it is information about the user's situation (or state) that can be output based on a sensor or the like. Further, the user context information may include contents of an input made by a user using an input means provided in the client 200.

또한, 취득부(121)는, 유저의 행동 로그도 취득한다. 행동 로그는, 예를 들어 유저의 위치 정보의 이력을 포함한다. 부가적으로, 행동 로그는, 유저의 행동에 수반하여 취득된 화상이나, 유저의 행동의 컨텍스트 등을 포함해도 된다. 여기서, 취득부(121)에 행동 로그를 제공하는 유저는, AR 콘텐츠 또는 VR 콘텐츠를 이용하는 유저와는 다른 하나 또는 복수의 유저를 포함할 수 있다. 또한, 취득부(121)는, 클라이언트(200)의 제품 정보 또는 설정 정보 등을 포함하는, 클라이언트(200)에 관한 어떠한 정보인 프로퍼티 정보도 취득한다. 또한, 이들 정보의 취득 방법은 특별히 한정되지 않는다. 예를 들어, 취득부(121)는, 통신부(130)를 통하여 클라이언트(200)로부터 이들 정보를 취득해도 된다.Further, the acquisition unit 121 also acquires a user's behavior log. The action log contains, for example, the history of the user's location information. Additionally, the behavior log may include an image acquired along with the user's behavior, the context of the user's behavior, and the like. Here, the user who provides the behavior log to the acquisition unit 121 may include one or more users different from the users who use AR content or VR content. Further, the acquisition unit 121 also acquires property information, which is any information about the client 200, including product information or setting information of the client 200. In addition, the method of acquiring these information is not particularly limited. For example, the acquisition unit 121 may acquire these information from the client 200 via the communication unit 130.

그리고, 취득부(121)는, 취득한 이들 정보를 루트 결정부(122) 및 콘텐츠 제공 제어부(123)에 제공한다. 이에 의해, 루트 결정부(122)는, 유저의 위치 정보나 행동 로그 등에 기초하여 콘텐츠에 있어서의 루트(예를 들어, 권장 루트 등)를 결정할 수 있고, 콘텐츠 제공 제어부(123)는, 이들 정보에 기초하여 콘텐츠의 제공을 제어할 수 있다.Then, the acquisition unit 121 provides these acquired information to the route determination unit 122 and the content provision control unit 123. Thereby, the route determination unit 122 can determine a route in the content (for example, a recommended route, etc.) based on the user's location information or an action log, and the content provision control unit 123 The provision of the content can be controlled based on.

루트 결정부(122)는, AR 콘텐츠 또는 VR 콘텐츠에 있어서의 루트(예를 들어, 권장 루트 등)를 결정하는 기능 구성이다. 보다 구체적으로는, 루트 결정부(122)는, 유저에게 제공되고 있는 콘텐츠의 내용 및 취득부(121)에 의해 취득된 유저 상황 정보에 포함되는 위치 정보 등에 기초하여, 당해 콘텐츠에 있어서의 루트를 결정한다. 예를 들어, AR 콘텐츠가 제공되고 있는 경우, 루트 결정부(122)는, 실공간에 있어서의 유저의 현재 위치로부터, 당해 AR 콘텐츠에 있어서의 다음의 목적 위치(예를 들어, 이벤트의 발생 위치 등)로의 최단 루트를 출력한다. 또한, VR 콘텐츠가 제공되고 있는 경우, 루트 결정부(122)는, 가상 공간에 있어서의 유저의 현재 위치로부터, VR 콘텐츠에 있어서의 다음의 목적 위치로의 최단 루트를 출력한다. 또한, 루트의 출력 방법은, 특별히 한정되지 않는다.The route determination unit 122 is a functional configuration for determining a route (for example, a recommended route, etc.) in AR contents or VR contents. More specifically, the route determination unit 122 determines the route in the content based on the content of the content provided to the user and the location information included in the user context information acquired by the acquisition unit 121. Decide. For example, when AR content is provided, the route determination unit 122, from the user's current position in real space, to the next destination position in the AR content (for example, the event occurrence position Etc.). In addition, when VR content is provided, the route determination unit 122 outputs the shortest route from the user's current position in the virtual space to the next destination position in the VR content. In addition, the route output method is not particularly limited.

또한, 루트의 결정에 사용되는 정보는 상기에 한정되지 않는다. 예를 들어, 루트 결정부(122)는, 행동 로그 등에도 기초하여 루트를 결정해도 된다. 이에 의해, 루트 결정부(122)는, 유저의 과거의 행동도 근거로 하여 보다 적절한 루트를 결정할 수 있다. 예를 들어, 루트 결정부(122)는, 유저가 빈번히 지나는 루트를 콘텐츠에 있어서의 루트로서 결정해도 되고, 반대로 유저가 지난 적이 없는 루트를 콘텐츠에 있어서의 루트로서 결정해도 된다. 루트 결정부(122)는 결정한 루트를 나타내는 정보(이후, 「루트 정보」라고 호칭함)를 콘텐츠 제공 제어부(123)에 제공한다.In addition, the information used to determine the route is not limited to the above. For example, the route determination unit 122 may determine a route based on an action log or the like. Thereby, the route determination unit 122 can determine a more appropriate route based on the user's past behavior. For example, the route determination unit 122 may determine a route that the user frequently passes as a route in the content, or conversely, may determine a route that the user has never passed as a route in the content. The route determining unit 122 provides information indicating the determined route (hereinafter, referred to as “root information”) to the content providing control unit 123.

콘텐츠 제공 제어부(123)는, VR 콘텐츠의 제공을 제어하는 제1 제어부 및 AR 콘텐츠의 제공을 제어하는 제2 제어부로서 기능하는 기능 구성이다. 보다 구체적으로는, 콘텐츠 제공 제어부(123)는, 취득부(121)에 의해 취득된 유저 상황 정보(위치 정보를 포함함) 및 루트 결정부(122)에 의해 출력된 루트 정보 등에 기초하여 AR 콘텐츠 또는 VR 콘텐츠의 제공을 제어한다.The content providing control unit 123 is a functional configuration that functions as a first control unit that controls provision of VR contents and a second control unit that controls provision of AR contents. More specifically, the content providing control unit 123 is based on the user context information (including location information) acquired by the acquisition unit 121 and the route information output by the route determination unit 122, and the like, Or, it controls the provision of VR content.

예를 들어, 콘텐츠 제공 제어부(123)는, 유저 상황 정보에 포함되는 실공간에 있어서의 유저의 위치 정보와 클라이언트(200)의 프로퍼티 정보에 기초하여, AR 콘텐츠 또는 VR 콘텐츠 중 어느 것을 제공할지를 판단한다. 예를 들어, 유저의 위치 정보가 「자택」을 나타내고, 클라이언트(200)의 프로퍼티 정보가 「거치용 단말기(AR 비대응 단말기)」를 나타내는 경우에는, 콘텐츠 제공 제어부(123)는, VR 콘텐츠를 클라이언트(200)에 제공한다. 또한, 유저의 위치 정보가, 실공간에 있어서의 특정 위치를 나타내고, 클라이언트(200)의 프로퍼티 정보가 「AR 대응 단말기」를 나타내는 경우에는, 콘텐츠 제공 제어부(123)는, AR 콘텐츠를 클라이언트(200)에 제공한다. 또한, 상기는 어디까지나 일례이며, 콘텐츠 제공 제어부(123)에 의한 콘텐츠의 제공의 제어 방법에 대해서는 적절하게 변경될 수 있다. 예를 들어, 콘텐츠 제공 제어부(123)는, 행동 로그 등에도 기초하여 AR 콘텐츠 또는 VR 콘텐츠 중 어느 것을 제공할지를 판단해도 된다.For example, the content providing control unit 123 determines whether to provide AR content or VR content based on the location information of the user in real space and property information of the client 200 included in the user context information. do. For example, when the location information of the user indicates "home" and the property information of the client 200 indicates "a terminal for residence (non-AR-compliant terminal)", the content providing control unit 123 Provided to the client 200. In addition, when the location information of the user indicates a specific location in real space and the property information of the client 200 indicates “AR-adaptive terminal”, the content providing control unit 123 transfers the AR content to the client 200 ). In addition, the above is only an example, and the method of controlling the provision of content by the content providing control unit 123 may be appropriately changed. For example, the content providing control unit 123 may determine whether to provide AR content or VR content based on an action log or the like.

또한, 콘텐츠 제공 제어부(123)는, 콘텐츠의 제안을 행할 수도 있다. 예를 들어, 콘텐츠 제공 제어부(123)는, 행동 로그에 포함되는 유저의 위치 정보의 이력에 기초하여, 유저가 과거에 간 적이 있는 위치(또는, 그 위치에서 가까운 위치)에서 제공되고 있는 하나 또는 복수의 콘텐츠를 제안해도 된다. 그리고, 콘텐츠 제공 제어부(123)는, 제안한 복수의 콘텐츠 중에서 유저에 의해 선택된 콘텐츠를 유저에게 제공한다.In addition, the content providing control unit 123 can also propose a content. For example, the content providing control unit 123, based on the history of the user's location information included in the behavior log, the user has been provided at a location (or a location close to the location) where the user has been You may suggest a plurality of contents. Then, the content providing control unit 123 provides the user with the content selected by the user from among the plurality of proposed contents.

여기서, 도 11 및 도 12를 참조하여, 콘텐츠 제공 제어부(123)가 제공하는 AR 콘텐츠 및 VR 콘텐츠의 표시예에 대하여 설명한다. 도 11은, 콘텐츠 제공 제어부(123)가 AR 콘텐츠를 제공하는 경우의 클라이언트(200)의 표시예이다. 도 11에 있어서의 11B는, 11A에 도시하는 바와 같이, 전차의 가상 오브젝트(10)가 배치되어 있는 실공간에 있어서의 위치에 유저가 위치하고 있는 상태에서, 유저가 가상 오브젝트(10)의 전방 방향으로 클라이언트(200)를 향한 경우의 클라이언트(200)의 표시예를 도시하고 있다(또한, 도 11의 예에서는, 클라이언트(200)가 스마트폰(203)임). 이때, 콘텐츠 제공 제어부(123)는, 실공간의 상(배경(11))에 대하여 중첩되도록 가상 오브젝트(10)를 클라이언트(200)에 표시시킨다.Here, a display example of AR content and VR content provided by the content providing control unit 123 will be described with reference to FIGS. 11 and 12. 11 is a display example of the client 200 when the content providing control unit 123 provides AR content. 11B in FIG. 11 shows that, as shown in 11A, in a state in which the user is located at a position in the real space where the virtual object 10 of the train is arranged, the user is in the forward direction of the virtual object 10 A display example of the client 200 in the case of facing the client 200 is shown (in addition, in the example of FIG. 11, the client 200 is the smartphone 203). At this time, the content providing control unit 123 displays the virtual object 10 on the client 200 so as to overlap with the image (background 11) in real space.

도 12는, 콘텐츠 제공 제어부(123)가 VR 콘텐츠를 제공하는 경우의 클라이언트(200)의 표시예이다. 도 12에 있어서의 12B는, 12A에 도시하는 바와 같이, 전차의 가상 오브젝트(12)가 배치되어 있는 실공간에 있어서의 위치에 대응하는 가상 공간에 있어서의 위치에 유저가 위치하고 있는 상태에서, 유저가 가상 오브젝트(12)의 전방 방향을 향한 경우의 클라이언트(200)의 표시예를 도시하고 있다(또한, 도 12의 예에서는, 클라이언트(200)가 차폐형 HMD(202)임). 이때, 콘텐츠 제공 제어부(123)는, 일인칭 시점에서 시인 가능한 가상 공간의 상(배경 화상(13))에 대하여 중첩되도록 가상 오브젝트(12)를 클라이언트(200)에 표시시킨다. 또한, 배경 화상(13)은, 실공간에 대응하는 화상이다. 환언하면, 배경 화상(13)은, 실공간의 상을 재현하는 상이며, 전천구 화상이어도 되고, 자유 시점 화상이어도 된다. 예를 들어, 가상 오브젝트의 위치(위도, 경도)로부터 소정의 거리 이내에서 촬영된 전천구 화상이 네트워크 상에서 검색되고, 추출된 전천구 화상이 배경 화상(13)으로서 사용되어도 된다. 또한, 배치되는 가상 오브젝트의 톤이 해석되고, 해석 결과에 기초하여 전천구 화상의 톤이 조정되어도 된다. 예를 들어, 애니메이션스러운 가상 오브젝트가 표시되는 경우, 배경 화상(13)으로서 사용되는 전천구 화상도 애니메이션스럽게 가공되어도 된다. 콘텐츠 제공 제어부(123)가 제공하는 AR 콘텐츠 및 VR 콘텐츠의 표시 양태는 도 11 및 도 12에 한정되지 않는다.12 is a display example of the client 200 when the content providing control unit 123 provides VR content. 12B in Fig. 12 is a state in which the user is located at a position in the virtual space corresponding to the position in the real space in which the virtual object 12 of the train is arranged, as shown in 12A. Shows an example of display of the client 200 in the case where is facing the front direction of the virtual object 12 (in addition, in the example of FIG. 12, the client 200 is the shielded HMD 202). At this time, the content providing control unit 123 displays the virtual object 12 on the client 200 so as to be superimposed on an image (background image 13) of a virtual space that can be visually recognized from a first-person view. Further, the background image 13 is an image corresponding to a real space. In other words, the background image 13 is an image that reproduces an image in real space, and may be an all-celestial image or a free viewpoint image. For example, an all celestial sphere image captured within a predetermined distance from the location (latitude, longitude) of the virtual object may be searched on the network, and the extracted all celestial sphere image may be used as the background image 13. Further, the tone of the virtual object to be arranged may be analyzed, and the tone of the all-celestial image may be adjusted based on the analysis result. For example, when an animated virtual object is displayed, an all-celestial sphere image used as the background image 13 may also be processed in an animation manner. The display mode of AR content and VR content provided by the content providing control unit 123 is not limited to FIGS. 11 and 12.

또한, 콘텐츠 제공 제어부(123)는, 가상 오브젝트의 화상 정보뿐만 아니라, 콘텐츠 정보에 포함되는, 가상 오브젝트의 음상 정보를 클라이언트(200)에 제공해도 된다. 예를 들어, AR 콘텐츠에 관해서는, 콘텐츠 제공 제어부(123)는, 실공간에 있어서의 가상 오브젝트의 위치 정보에 대응하는 실공간에 있어서의 위치에서 클라이언트(200)에 음상 정보를 출력시켜도 된다. 또한, VR 콘텐츠에 관해서는, 콘텐츠 제공 제어부(123)는, 실공간에 있어서의 가상 오브젝트의 위치 정보에 대응하는 가상 공간에 있어서의 위치에서 클라이언트(200)에 음상 정보를 출력시켜도 된다. 또한, 콘텐츠 제공 제어부(123)는, 클라이언트(200)에 음상 정보만을 출력시켜도 되고, 화상 정보와 음상 정보의 양쪽을 출력시켜도 된다.Further, the content providing control unit 123 may provide not only image information of the virtual object but also sound image information of the virtual object included in the content information to the client 200. For example, with respect to AR content, the content providing control unit 123 may output sound image information to the client 200 at a position in the real space corresponding to the position information of the virtual object in the real space. In addition, with respect to VR content, the content providing control unit 123 may output sound image information to the client 200 at a position in the virtual space corresponding to the position information of the virtual object in the real space. Further, the content providing control unit 123 may output only sound image information to the client 200, or may output both image information and sound image information.

(통신부(130))(Communication Department (130))

통신부(130)는, 클라이언트(200)와의 각종 통신을 제어하는 기능 구성이다. 예를 들어, AR 콘텐츠 또는 VR 콘텐츠의 작성 시에는, 통신부(130)는, 각종 설정에 사용되는 GUI 화면 정보를 클라이언트(200)에 송신하고, 입력 정보 등을 클라이언트(200)로부터 수신한다. 또한, AR 콘텐츠 또는 VR 콘텐츠의 제공 시에는, 통신부(130)는, 유저 상황 정보(위치 정보 등을 포함함) 또는 클라이언트(200)의 프로퍼티 정보 등을 클라이언트(200)로부터 수신하고, 콘텐츠 정보를 클라이언트(200)에 송신한다. 또한, 통신부(130)가 통신하는 정보 및 통신하는 케이스는 이들에 한정되지 않는다.The communication unit 130 is a functional configuration for controlling various types of communication with the client 200. For example, when creating AR content or VR content, the communication unit 130 transmits GUI screen information used for various settings to the client 200 and receives input information or the like from the client 200. In addition, when providing AR content or VR content, the communication unit 130 receives user context information (including location information, etc.) or property information of the client 200 from the client 200, and receives content information. It transmits to the client 200. In addition, information communicated by the communication unit 130 and a case for communicating are not limited thereto.

(기억부(140))(Memory (140))

기억부(140)는, 각종 정보를 기억하는 기능 구성이다. 예를 들어, 기억부(140)는, 위치 처리부(111)에 의해 생성된 위치 정보, 오브젝트 처리부(112)에 의해 생성된 가상 오브젝트 정보, 이벤트 처리부(113)에 의해 생성된 이벤트 정보, 콘텐츠 작성 제어부(114)에 의해 생성된 콘텐츠 정보, 취득부(121)에 의해 취득된 각종 정보(예를 들어, 유저 상황 정보, 행동 로그 또는 클라이언트(200)의 프로퍼티 정보 등), 루트 결정부(122)에 의해 결정된 루트 정보 또는 콘텐츠 제공 제어부(123)에 의해 클라이언트(200)에 제공된 콘텐츠 정보 등을 기억한다. 또한, 기억부(140)는, 서버(100)의 각 기능 구성에 의해 사용되는 프로그램 또는 파라미터 등을 기억한다. 또한, 기억부(140)가 기억하는 정보의 내용은 이들에 한정되지 않는다.The storage unit 140 is a functional configuration for storing various types of information. For example, the storage unit 140 includes location information generated by the location processing unit 111, virtual object information generated by the object processing unit 112, event information generated by the event processing unit 113, and content creation. Content information generated by the control unit 114, various types of information acquired by the acquisition unit 121 (for example, user context information, behavior log, or property information of the client 200), route determination unit 122 The route information determined by or the content information provided to the client 200 by the content providing control unit 123 is stored. Further, the storage unit 140 stores programs or parameters used by each functional configuration of the server 100. In addition, the contents of the information stored by the storage unit 140 are not limited to these.

이상, 서버(100)의 기능 구성예에 대하여 설명하였다. 또한, 도 5를 사용하여 설명한 상기 기능 구성은 어디까지나 일례이며, 서버(100)의 기능 구성은 이러한 예에 한정되지 않는다. 예를 들어, 서버(100)는, 도 5에 도시하는 구성 전부를 반드시 구비해야 하는 것은 아니다. 또한, 서버(100)의 기능 구성은, 사양이나 운용에 따라 유연하게 변형 가능하다.In the above, an example of the functional configuration of the server 100 has been described. In addition, the functional configuration described with reference to FIG. 5 is only an example, and the functional configuration of the server 100 is not limited to this example. For example, the server 100 does not necessarily have to have all the configurations shown in FIG. 5. In addition, the functional configuration of the server 100 can be flexibly modified according to specifications and operation.

(1.4. 클라이언트(200)의 기능 구성예)(1.4. Example of functional configuration of client 200)

상기에서는, 서버(100)의 기능 구성예에 대하여 설명하였다. 계속해서, 도 13을 참조하여, 클라이언트(200)의 기능 구성예에 대하여 설명한다. 도 13은, AR 콘텐츠를 실행하는 광학 투과형 HMD(201), 및 VR 콘텐츠를 실행하는 차폐형 HMD(202)를 상정한 기능 구성예이다. 또한, 클라이언트(200)가 광학 투과형 HMD(201) 또는 차폐형 HMD(202) 이외인 경우에는, 적절하게 기능 구성의 추가 또는 삭제가 행해질 수 있다.In the above, an example of the functional configuration of the server 100 has been described. Subsequently, an example of the functional configuration of the client 200 will be described with reference to FIG. 13. Fig. 13 is a functional configuration example assuming an optically transmissive HMD 201 for executing AR contents and a shielded HMD 202 for executing VR contents. In addition, when the client 200 is other than the optically transmissive HMD 201 or the shielded HMD 202, the addition or deletion of functional configurations can be appropriately performed.

도 13에 도시하는 바와 같이, 클라이언트(200)는, 센서부(210)와, 입력부(220)와, 제어부(230)와, 출력부(240)와, 통신부(250)와, 기억부(260)를 구비한다.As shown in Fig. 13, the client 200 includes a sensor unit 210, an input unit 220, a control unit 230, an output unit 240, a communication unit 250, and a storage unit 260. ).

(제어부(230))(Control unit 230)

제어부(230)는, 연산 처리 장치 및 제어 장치로서 기능하며, 각종 프로그램에 따라 클라이언트(200) 내의 동작 전반을 제어한다. 제어부(230)는, 예를 들어 CPU(Central Processing Unit), 마이크로 프로세서 등의 전자 회로에 의해 실현된다. 또한, 제어부(230)는, 사용할 프로그램이나 연산 파라미터 등을 기억하는 ROM(Read Only Memory), 및 적절하게 변화하는 파라미터 등을 일시 기억하는 RAM(Random Access Memory)을 포함하고 있어도 된다.The control unit 230 functions as an arithmetic processing unit and a control unit, and controls overall operations in the client 200 according to various programs. The control unit 230 is implemented by, for example, an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor. Further, the control unit 230 may include a ROM (Read Only Memory) for storing programs to be used, operation parameters, and the like, and a RAM (Random Access Memory) for temporarily storing parameters that change appropriately.

또한, 본 실시 형태에 따른 제어부(230)는, 도 13에 도시하는 바와 같이, 인식 엔진(231)과, 콘텐츠 처리부(232)를 구비한다. 인식 엔진(231)은, 센서부(210)에 의해 센싱된 각종 센서 정보를 사용하여 유저 또는 주변의 각종 상황을 인식하는 기능을 갖는다. 보다 구체적으로는, 인식 엔진(231)은, 헤드부 자세 인식 엔진(231a)과, Depth 인식 엔진(231b)과, SLAM(Simultaneous Localization and Mapping) 인식 엔진(231c)과, 시선 인식 엔진(231d)과, 음성 인식 엔진(231e)과, 위치 인식 엔진(231f)과, 행동 인식 엔진(231g)을 구비한다. 또한, 도 13에 도시하는 이들 인식 엔진은 일례이며, 본 실시 형태는 이것에 한정되지 않는다.Further, the control unit 230 according to the present embodiment includes a recognition engine 231 and a content processing unit 232 as shown in FIG. 13. The recognition engine 231 has a function of recognizing a user or various situations around the user by using various types of sensor information sensed by the sensor unit 210. More specifically, the recognition engine 231 includes a head posture recognition engine 231a, a depth recognition engine 231b, a Simultaneous Localization and Mapping (SLAM) recognition engine 231c, and a gaze recognition engine 231d. And, a speech recognition engine 231e, a location recognition engine 231f, and a behavior recognition engine 231g are provided. In addition, these recognition engines shown in FIG. 13 are examples, and this embodiment is not limited to this.

헤드부 자세 인식 엔진(231a)은, 센서부(210)에 의해 센싱된 각종 센서 정보를 사용하여, 유저의 헤드부의 자세(신체에 대한 얼굴의 방향 또는 기울기를 포함함)를 인식한다. 예를 들어 헤드부 자세 인식 엔진(231a)은, 외향 카메라(211)에 의해 촬상된 주변의 촬상 화상, 자이로 센서(214)에 의해 취득된 자이로 정보, 가속도 센서(215)에 의해 취득된 가속도 정보, 및 방위 센서(216)에 의해 취득된 방위 정보 중 적어도 어느 것을 해석하여, 유저의 헤드부의 자세를 인식할 수 있다. 또한 헤드부 자세의 인식 알고리즘은 일반적으로 알려져 있는 알고리즘을 사용해도 되며, 본 실시 형태에서는 특별히 한정하지 않는다.The head posture recognition engine 231a recognizes the user's head posture (including the direction or inclination of the face relative to the body) using various sensor information sensed by the sensor unit 210. For example, the head posture recognition engine 231a includes a surrounding image captured by the outward camera 211, gyro information acquired by the gyro sensor 214, and acceleration information acquired by the acceleration sensor 215. , And the orientation information acquired by the orientation sensor 216 can be analyzed to recognize the attitude of the user's head. In addition, the algorithm for recognizing the head posture may use a generally known algorithm, and is not particularly limited in this embodiment.

Depth 인식 엔진(231b)은, 센서부(210)에 의해 센싱된 각종 센서 정보를 사용하여, 유저 주변의 공간에 있어서의 뎁스 정보를 인식한다. 예를 들어 Depth 인식 엔진(231b)은, 외향 카메라(211)에 의해 취득한 주변의 촬상 화상을 해석하여, 주변 공간의 물체의 거리 정보 및 물체의 평면 위치를 인식할 수 있다. 또한 Depth 인식의 알고리즘에 대해서는 일반적으로 알려져 있는 알고리즘을 사용해도 되며, 본 실시 형태에서는 특별히 한정하지 않는다.The depth recognition engine 231b uses various types of sensor information sensed by the sensor unit 210 to recognize depth information in a space around the user. For example, the depth recognition engine 231b can analyze a captured image of the surroundings acquired by the outward camera 211, and recognize the distance information of the object in the surrounding space and the plane position of the object. In addition, as for the depth recognition algorithm, a generally known algorithm may be used, and the present embodiment is not particularly limited.

SLAM 인식 엔진(231c)은, 센서부(210)에 의해 센싱된 각종 센서 정보를 사용하여, 자기 위치의 추정과 주변 공간의 지도 작성을 동시에 행하여, 주변 공간 내에 있어서의 자신의 위치를 동정할 수 있다. 예를 들어 SLAM 인식 엔진(231c)은, 외향 카메라(211)에 의해 취득한 주변의 촬상 화상을 해석하여, 클라이언트(200)의 자기 위치를 동정할 수 있다. 또한 SLAM 인식의 알고리즘에 대해서는 일반적으로 알려져 있는 알고리즘을 사용해도 되며, 본 실시 형태에서는 특별히 한정하지 않는다.The SLAM recognition engine 231c uses various sensor information sensed by the sensor unit 210 to estimate its own position and create a map of the surrounding space at the same time, thereby identifying its own position in the surrounding space. have. For example, the SLAM recognition engine 231c can analyze the surrounding captured image acquired by the outward camera 211 and identify the self-position of the client 200. In addition, as for the SLAM recognition algorithm, a generally known algorithm may be used, and the present embodiment is not particularly limited.

또한 인식 엔진(231)은, 상술한 Depth 인식 엔진(231b)의 인식 결과 및 SLAM 인식 엔진(231c)의 인식 결과에 기초하여, 공간 인식(공간 파악)을 행하는 것이 가능하다. 구체적으로는, 인식 엔진(231)은, 주변 3차원 공간에 있어서의 클라이언트(200)의 위치를 인식할 수 있다.Further, the recognition engine 231 can perform spatial recognition (space recognition) based on the recognition result of the depth recognition engine 231b and the recognition result of the SLAM recognition engine 231c described above. Specifically, the recognition engine 231 can recognize the position of the client 200 in the surrounding three-dimensional space.

시선 인식 엔진(231d)은, 센서부(210)에 의해 센싱된 각종 센서 정보를 사용하여, 유저의 시선 검출을 행한다. 예를 들어 시선 인식 엔진(231d)은, 내향 카메라(212)에 의해 취득한 유저의 눈의 촬상 화상을 해석하여, 유저의 시선 방향을 인식한다. 또한 시선 검출의 알고리즘에 대해서는 특별히 한정하지 않지만, 예를 들어 눈시울과 홍채의 위치 관계, 또는 각막 반사와 동공의 위치 관계에 기초하여, 유저의 시선 방향을 인식할 수 있다.The gaze recognition engine 231d uses various types of sensor information sensed by the sensor unit 210 to detect the gaze of the user. For example, the gaze recognition engine 231d analyzes the captured image of the user's eyes acquired by the inward camera 212 to recognize the user's gaze direction. In addition, the algorithm of gaze detection is not particularly limited, but the user's gaze direction can be recognized based on, for example, the positional relationship between the eyeball and the iris, or the positional relationship between the corneal reflection and the pupil.

음성 인식 엔진(231e)은, 센서부(210)에 의해 센싱된 각종 센서 정보를 사용하여, 유저 또는 환경음의 인식을 행한다. 예를 들어 음성 인식 엔진(231e)은, 마이크(213)에 의해 취득한 수음 정보에 대하여 노이즈 제거나 음원 분리 등을 행하여, 음성 인식, 형태소 해석, 음원 인식 또는 소음 레벨의 인식 등을 행할 수 있다.The speech recognition engine 231e recognizes a user or environmental sound using various types of sensor information sensed by the sensor unit 210. For example, the speech recognition engine 231e can perform noise removal, sound source separation, and the like on the sound-receiving information acquired by the microphone 213, and perform speech recognition, morpheme analysis, sound source recognition, or noise level recognition.

위치 인식 엔진(231f)은, 센서부(210)에 의해 센싱된 각종 센서 정보를 사용하여, 클라이언트(200)의 절대 위치를 인식한다. 예를 들어 위치 인식 엔진(231f)은, 측위부(217)에 의해 측위된 위치 정보, 및 미리 취득한 지도 정보에 기초하여, 클라이언트(200)의 장소(예를 들어 역, 학교, 집, 회사, 전동차, 테마파크 등)를 인식한다.The location recognition engine 231f uses various types of sensor information sensed by the sensor unit 210 to recognize the absolute location of the client 200. For example, the location recognition engine 231f, based on the location information positioned by the positioning unit 217 and the map information acquired in advance, the location of the client 200 (for example, a station, school, home, company, Train, theme park, etc.)

행동 인식 엔진(231g)은, 센서부(210)에 의해 센싱된 각종 센서 정보를 사용하여, 유저의 행동을 인식한다. 예를 들어 행동 인식 엔진(231g)은, 외향 카메라(211)의 촬상 화상, 마이크(213)의 수음 음성, 자이로 센서(214)의 각속도 정보, 가속도 센서(215)의 가속도 정보, 방위 센서(216)의 방위 정보, 및 측위부(217)의 절대 위치 정보 중 적어도 어느 것을 사용하여, 유저의 행동 상황(활동 상태의 일례)을 인식한다. 유저의 행동 상황으로서는, 예를 들어 정지 상태, 보행 상태(천천히 보행, 조깅), 주행 상태(대시, 고속 주행), 앉아 있는 상태, 서 있는 상태, 자고 있는 상태, 자전거를 타고 있는 상태, 전동차를 타고 있는 상태, 자동차를 타고 있는 상태를 인식할 수 있다. 또한, 행동 인식 엔진(231g)은, 보다 구체적으로는, 각속도 정보 및 가속도 정보에 기초하여 측정되는 활동량에 따라 상태 상황을 인식해도 된다.The behavior recognition engine 231g recognizes a user's behavior using various types of sensor information sensed by the sensor unit 210. For example, the behavior recognition engine 231g includes a captured image of the outward camera 211, a sound-receiving voice of the microphone 213, angular velocity information of the gyro sensor 214, acceleration information of the acceleration sensor 215, and orientation sensor 216. ) Of the orientation information and the absolute position information of the positioning unit 217 are used to recognize a user's behavioral state (an example of an activity state). The user's behavior includes, for example, a stationary state, a walking state (slowly walking, jogging), a driving state (dash, high-speed driving), a sitting state, a standing state, a sleeping state, a bicycle riding state, and an electric vehicle. You can recognize the state you are riding in and the state you are in a car. Further, more specifically, the behavior recognition engine 231g may recognize a state situation according to an activity amount measured based on angular velocity information and acceleration information.

콘텐츠 처리부(232)는, AR 콘텐츠 또는 VR 콘텐츠에 관한 처리를 실행하는 기능 구성이다. 보다 구체적으로는, 콘텐츠 처리부(232)는, 콘텐츠의 작성 또는 콘텐츠의 재생에 관한 처리를 행한다.The content processing unit 232 is a functional configuration that executes processing related to AR content or VR content. More specifically, the content processing unit 232 performs processing related to creation of content or reproduction of content.

콘텐츠의 작성 시에 대하여 보다 구체적으로 설명하면, 유저가 입력부(220)를 사용하여 입력(예를 들어, 서버(100)로부터 제공된 GUI 화면에의 입력)을 행한 경우, 콘텐츠 처리부(232)는, 입력 정보를 입력부(220)로부터 취득하고, 당해 입력 정보를 서버(100)에 제공한다.When the content is created more specifically, when the user inputs using the input unit 220 (for example, input to the GUI screen provided from the server 100), the content processing unit 232, Input information is acquired from the input unit 220 and the input information is provided to the server 100.

콘텐츠의 재생 시에 대하여 보다 구체적으로 설명하면, 콘텐츠 처리부(232)는, 상기 인식 엔진(231)에 의해 인식된, 유저의 상황(또는 상태)을 나타내는 유저 상황 정보를 생성하고, 당해 유저 상황 정보를 서버(100)에 제공한다. 그 후, 서버(100)가 유저 상황 정보 등에 기초하여 AR 콘텐츠 또는 VR 콘텐츠에 대한 콘텐츠 정보를 제공해 온 경우에는, 콘텐츠 처리부(232)는, 출력부(240)를 제어함으로써 당해 콘텐츠 정보를 출력한다. 예를 들어, 콘텐츠 처리부(232)는, 디스플레이 등에 가상 오브젝트를 표시시키거나, 스피커 등에 음상을 출력시키거나 한다.When the content is reproduced in more detail, the content processing unit 232 generates user context information that indicates the user's situation (or state) recognized by the recognition engine 231, and the user context information Is provided to the server 100. Thereafter, when the server 100 has provided content information for AR content or VR content based on user context information, the content processing unit 232 controls the output unit 240 to output the content information. . For example, the content processing unit 232 displays a virtual object on a display or the like, or outputs a sound image to a speaker or the like.

(센서부(210))(Sensor unit 210)

센서부(210)는, 유저 또는 주변 환경에 관한 각종 정보를 취득하는 기능을 갖는다. 예를 들어 센서부(210)는, 외향 카메라(211)와, 내향 카메라(212)와, 마이크(213)와, 자이로 센서(214)와, 가속도 센서(215)와, 방위 센서(216)와, 측위부(217)를 구비한다. 또한, 여기서 예시하는 센서부(210)의 구체예는 일례이며, 본 실시 형태는 이것에 한정되지 않는다. 또한, 각 센서는 복수 있어도 된다.The sensor unit 210 has a function of acquiring various types of information about the user or the surrounding environment. For example, the sensor unit 210 includes an outward camera 211, an inward camera 212, a microphone 213, a gyro sensor 214, an acceleration sensor 215, an orientation sensor 216, and , And a positioning portion 217. In addition, the specific example of the sensor part 210 illustrated here is an example, and this embodiment is not limited to this. In addition, there may be multiple sensors.

외향 카메라(211) 및 내향 카메라(212)는, 촬상 렌즈, 조리개, 줌 렌즈 및 포커스 렌즈 등에 의해 구성되는 렌즈계, 렌즈계에 대하여 포커스 동작이나 줌 동작을 행하게 하는 구동계, 렌즈계에서 얻어지는 촬상광을 광전 변환하여 촬상 신호를 생성하는 고체 촬상 소자 어레이 등을 각각 갖는다. 고체 촬상 소자 어레이는, 예를 들어 CCD(Charge Coupled Device) 센서 어레이나, CMOS(Complementary Metal Oxide Semiconductor) 센서 어레이에 의해 실현되어도 된다.The outward camera 211 and the inward camera 212 are a lens system composed of an imaging lens, an aperture, a zoom lens, a focus lens, and the like, a driving system for performing a focus operation or a zoom operation on the lens system, and photoelectric conversion of imaged light obtained from the lens system. And a solid-state imaging element array that generates an imaging signal. The solid-state image sensor array may be realized by, for example, a CCD (Charge Coupled Device) sensor array or a CMOS (Complementary Metal Oxide Semiconductor) sensor array.

마이크(213)는, 유저의 음성이나 주위의 환경음을 수음하고, 음성 정보로서 제어부(230)에 출력한다.The microphone 213 receives the user's voice and surrounding environmental sound, and outputs the voice information to the control unit 230.

자이로 센서(214)는, 예를 들어 3축 자이로 센서에 의해 실현되며, 각속도(회전 속도)를 검출한다.The gyro sensor 214 is realized by a three-axis gyro sensor, for example, and detects an angular speed (rotation speed).

가속도 센서(215)는, 예를 들어 3축 가속도 센서(G 센서라고도 칭함)에 의해 실현되며, 이동 시의 가속도를 검출한다.The acceleration sensor 215 is realized by a three-axis acceleration sensor (also referred to as a G sensor), for example, and detects acceleration during movement.

방위 센서(216)는, 예를 들어 3축 지자기 센서(컴퍼스)에 의해 실현되며, 절대 방향(방위)을 검출한다.The orientation sensor 216 is realized by, for example, a 3-axis geomagnetic sensor (compass), and detects an absolute direction (orientation).

측위부(217)는, 외부로부터의 취득 신호에 기초하여 클라이언트(200)의 현재 위치를 검지하는 기능을 갖는다. 구체적으로는, 예를 들어 측위부(217)는, GPS(Global Positioning System) 측위부에 의해 실현되며, GPS 위성으로부터의 전파를 수신하여, 클라이언트(200)가 존재하고 있는 위치를 검지하고, 검지한 위치 정보를 제어부(230)에 출력한다. 또한, 측위부(217)는, GPS 외에, 예를 들어 Wi-Fi(등록 상표), Bluetooth(등록 상표), 휴대 전화ㆍPHSㆍ스마트폰 등과의 송수신, 또는 근거리 통신 등에 의해 위치를 검지하는 것이어도 된다. 또한, 측위부(217)는, 사전에 매뉴얼 설치된 바코드 정보 등(예를 들어, QR 코드 등)을 인식함으로써, 간접적으로 클라이언트(200)의 위치를 특정해도 된다. 또한, 측위부(217)는, 실공간에 있어서의 여러 가지 지점의 화상을 미리 데이터베이스 상에 기록해 두고, 이들 화상의 특징점과, 외향 카메라(211) 등에 의해 촬상된 화상의 특징점을 매칭함으로써 클라이언트(200)의 위치를 특정해도 된다.The positioning unit 217 has a function of detecting the current position of the client 200 based on an externally acquired signal. Specifically, for example, the positioning unit 217 is realized by a GPS (Global Positioning System) positioning unit, receives radio waves from GPS satellites, detects the location where the client 200 exists, and detects One location information is output to the controller 230. In addition, the positioning unit 217 is capable of detecting a location by transmitting/receiving, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), mobile phone, PHS, smartphone, etc., or short-range communication other than GPS. You can do it. Further, the positioning unit 217 may indirectly specify the location of the client 200 by recognizing barcode information (eg, QR code, etc.) manually installed in advance. In addition, the positioning unit 217 records images of various points in real space on a database in advance, and matches the feature points of these images with the feature points of the image captured by the outward camera 211, etc. 200) may be specified.

(입력부(220))(Input unit 220)

입력부(220)는, 스위치, 버튼, 또는 레버 등의 물리적인 구조를 갖는 조작 부재에 의해 실현된다.The input unit 220 is realized by an operation member having a physical structure such as a switch, a button, or a lever.

(출력부(240))(Output unit 240)

출력부(240)는, 각종 정보를 출력하는 기능 구성이다. 예를 들어, 출력부(240)는, 디스플레이 등의 표시 수단 또는 스피커 등의 음성 출력 수단 등을 구비하고 있고, 제어부(230)의 제어에 기초하여, 콘텐츠 정보의 출력을 실현한다. 또한, 출력부(240)가 구비하는 출력 수단은 특별히 한정되지 않는다.The output unit 240 is a functional configuration for outputting various types of information. For example, the output unit 240 includes display means such as a display or audio output means such as a speaker, and realizes output of content information based on the control of the control unit 230. Further, the output means provided in the output unit 240 is not particularly limited.

(통신부(250))(Communication Department (250))

통신부(250)는, 서버(100)와의 각종 통신을 제어하는 기능 구성이다. 예를 들어, AR 콘텐츠 또는 VR 콘텐츠의 작성 시에는, 통신부(250)는, 각종 설정에 사용될 GUI 화면 정보를 서버(100)로부터 수신하고, 입력 정보 등을 서버(100)에 송신한다. 또한, AR 콘텐츠 또는 VR 콘텐츠의 재생 시에는, 통신부(250)는, 유저 상황 정보(위치 정보 등을 포함함) 또는 자장치의 프로퍼티 정보 등을 서버(100)에 송신하고, 콘텐츠 정보를 서버(100)로부터 수신한다. 또한, 통신부(250)가 통신하는 정보 및 통신하는 케이스는 이들에 한정되지 않는다.The communication unit 250 is a functional configuration that controls various types of communication with the server 100. For example, when creating AR content or VR content, the communication unit 250 receives GUI screen information to be used for various settings from the server 100 and transmits input information or the like to the server 100. In addition, when reproducing AR content or VR content, the communication unit 250 transmits user context information (including location information, etc.) or property information of the own device to the server 100, and transmits the content information to the server ( 100). In addition, information communicated by the communication unit 250 and a case for communicating are not limited thereto.

(기억부(260))(Memory Department (260))

기억부(260)는, 각종 정보를 기억하는 기능 구성이다. 예를 들어, 기억부(260)는, 자장치의 프로퍼티 정보, 콘텐츠 처리부(232)에 의해 생성된 유저 상황 정보, 또는 서버(100)로부터 제공된 콘텐츠 정보 등을 기억한다. 또한, 기억부(260)는, 클라이언트(200)의 각 기능 구성에 의해 사용되는 프로그램 또는 파라미터 등을 기억한다. 또한, 기억부(260)가 기억하는 정보의 내용은 이들에 한정되지 않는다.The storage unit 260 is a functional configuration for storing various types of information. For example, the storage unit 260 stores property information of the own device, user context information generated by the content processing unit 232, content information provided from the server 100, and the like. Further, the storage unit 260 stores programs or parameters used by each functional configuration of the client 200. In addition, the contents of the information stored by the storage unit 260 are not limited to these.

이상, 클라이언트(200)의 기능 구성예에 대하여 설명하였다. 또한, 도 13을 사용하여 설명한 상기의 기능 구성은 어디까지나 일례이며, 클라이언트(200)의 기능 구성은 이러한 예에 한정되지 않는다. 예를 들어, 클라이언트(200)는, 도 13에 도시하는 기능 구성 전부를 반드시 구비하는 것은 아니다. 또한, 클라이언트(200)의 기능 구성은, 사양이나 운용에 따라 유연하게 변형 가능하다.In the above, the functional configuration example of the client 200 has been described. In addition, the functional configuration described above using FIG. 13 is only an example, and the functional configuration of the client 200 is not limited to this example. For example, the client 200 does not necessarily have all of the functional configurations shown in FIG. 13. In addition, the functional configuration of the client 200 can be flexibly modified according to specifications and operation.

(1.5. 처리 플로우의 예)(1.5. Example of processing flow)

상기에서는, 클라이언트(200)의 기능 구성예에 대하여 설명하였다. 계속해서, 도 14 및 도 15를 참조하여, 콘텐츠의 제공에 관한 처리 플로우의 일례에 대하여 설명한다.In the above, an example of the functional configuration of the client 200 has been described. Subsequently, with reference to Figs. 14 and 15, an example of a processing flow related to provision of contents will be described.

도 14는, 서버(100)에 의한 VR 콘텐츠의 제공에 관한 처리 플로우의 일례이다. 스텝 S1000에서는, 서버(100)의 취득부(121)가 유저 상황 정보(위치 정보 등을 포함함) 및 클라이언트(200)의 프로퍼티 정보 등을 포함하는 각종 정보를 클라이언트(200)로부터 취득한다. 스텝 S1004에서는, 콘텐츠 제공 제어부(123)가, 취득된 각종 정보에 기초하여 하나 또는 복수의 VR 콘텐츠를 제안한다. 예를 들어, 유저 상황 정보에 포함되는 위치 정보가 「자택」을 나타내고, 클라이언트(200)의 프로퍼티 정보가 「거치용 단말기(AR 비대응 단말기)」를 나타내는 경우에는, 콘텐츠 제공 제어부(123)는, 하나 또는 복수의 VR 콘텐츠를 유저에게 제안한다. 또한, 콘텐츠 제공 제어부(123)는, 행동 로그 등에 기초하여 유저가 과거에 간 적이 있는 위치 등에 기초하여 하나 또는 복수의 VR 콘텐츠를 유저에게 제안한다.14 is an example of a processing flow related to provision of VR content by the server 100. In step S1000, the acquisition unit 121 of the server 100 acquires, from the client 200, various types of information including user context information (including location information, etc.) and property information of the client 200. In step S1004, the content providing control unit 123 proposes one or more VR contents based on the acquired various types of information. For example, when the location information included in the user context information indicates “home” and the property information of the client 200 indicates “a dwelling terminal (non-AR-compliant terminal)”, the content providing control unit 123 , Propose one or more VR contents to the user. In addition, the content providing control unit 123 proposes one or more VR contents to the user based on a location that the user has been to in the past based on an action log or the like.

스텝 S1008에서는, 유저가, 클라이언트(200)의 입력부(220)를 사용하여, 제안된 VR 콘텐츠 중에서 원하는 VR 콘텐츠를 선택한다(제안된 VR 콘텐츠가 하나인 경우에는, 유저는, 당해 VR 콘텐츠를 플레이할지 여부의 입력을 행함). 스텝 S1012에서는, 서버(100)의 콘텐츠 제공 제어부(123)가, 유저에 의해 선택된 VR 콘텐츠를 제공한다(VR 콘텐츠의 제공에 관한 보다 상세한 처리 플로우에 대해서는, 도 15를 참조하여 설명함). VR 콘텐츠의 제공이 종료된 경우, 스텝 S1016에서, 취득부(121)가 행동 로그를 클라이언트(200)로부터 취득하고, 기억부(140)에 저장함으로써 일련의 처리가 종료된다.In step S1008, the user uses the input unit 220 of the client 200 to select a desired VR content from among the proposed VR contents (if the proposed VR content is one, the user plays the VR content. Enter whether to do it or not). In step S1012, the content provision control unit 123 of the server 100 provides the VR content selected by the user (a more detailed processing flow for provision of the VR content will be described with reference to FIG. 15). When the provision of the VR content is ended, in step S1016, the acquisition unit 121 acquires the action log from the client 200 and stores it in the storage unit 140, thereby ending a series of processing.

도 15는, 도 14의 스텝 S1012에서 행해지는 VR 콘텐츠의 제공 처리를 보다 상세하게 도시한 것이다. 스텝 S1100에서는, 서버(100)의 취득부(121)는, 유저 상황 정보(위치 정보를 포함함)를 계속적으로 취득한다. 또한, 콘텐츠 제공 중에, 취득부(121)가 유저 상황 정보를 취득하는 빈도 또는 타이밍 등은 특별히 한정되지 않는다.Fig. 15 shows in more detail the VR content providing process performed in step S1012 in Fig. 14. In step S1100, the acquisition unit 121 of the server 100 continuously acquires user context information (including location information). In addition, the frequency or timing at which the acquisition unit 121 acquires user situation information during content provision is not particularly limited.

그리고, 콘텐츠 제공 제어부(123)는, 유저 상황 정보에 기초하여 VR 콘텐츠에 있어서의 이벤트의 발생 조건을 충족하는지 여부를 확인한다. 이벤트의 발생 조건이 충족된 경우(스텝 S1104/"예"), 스텝 S1108에서, 콘텐츠 제공 제어부(123)는, VR 콘텐츠에서 이벤트를 발생시킨다.Then, the content providing control unit 123 checks whether or not an event occurrence condition in the VR content is satisfied based on the user context information. When the event occurrence condition is satisfied (step S1104/Yes), in step S1108, the content provision control unit 123 generates an event from the VR content.

스텝 S1112에서, 콘텐츠 제공 제어부(123)는, VR 콘텐츠가 종료되었는지 여부를 확인하고, VR 콘텐츠가 종료되지 않은 경우(스텝 S1112/"아니오"), 스텝 S1100 내지 스텝 S1108의 처리가 계속적으로 실시된다. VR 콘텐츠가 종료된 경우(스텝 S1112/"예"), VR 콘텐츠의 제공 처리가 종료된다.In step S1112, the content provision control unit 123 checks whether the VR content has ended, and when the VR content has not ended (step S1112/"No"), the processing of steps S1100 to S1108 is continuously executed. . When the VR content is ended (step S1112/"Yes"), the VR content provision process is ended.

또한, 도 14 및 도 15에 도시한 흐름도에 있어서의 각 스텝은, 반드시 기재된 순서를 따라 시계열로 처리할 필요는 없다. 즉, 흐름도에 있어서의 각 스텝은, 기재된 순서와 다른 순서로 처리되어도, 병렬적으로 처리되어도 된다.In addition, each step in the flowcharts shown in Figs. 14 and 15 does not necessarily need to be processed in time series according to the described procedure. That is, each step in the flowchart may be processed in a different order from the described order or may be processed in parallel.

(1.6. 하드웨어 구성예)(1.6. Example of hardware configuration)

상기에서는, 콘텐츠의 제공에 관한 처리 플로우의 일례에 대하여 설명하였다. 계속해서, 도 16을 참조하여, 서버(100) 또는 클라이언트(200)의 하드웨어 구성예에 대하여 설명한다.In the above, an example of a processing flow related to provision of content has been described. Subsequently, an example of the hardware configuration of the server 100 or the client 200 will be described with reference to FIG. 16.

도 16은, 서버(100) 또는 클라이언트(200)를 구현하는 정보 처리 장치(900)의 하드웨어 구성예를 도시하는 블록도이다. 정보 처리 장치(900)는, CPU(Central Processing Unit)(901)와, ROM(Read Only Memory)(902)과, RAM(Random Access Memory)(903)과, 호스트 버스(904)와, 브리지(905)와, 외부 버스(906)와, 인터페이스(907)와, 입력 장치(908)와, 출력 장치(909)와, 스토리지 장치(HDD)(910)와, 드라이브(911)와, 통신 장치(912)를 구비한다.16 is a block diagram showing an example of a hardware configuration of an information processing device 900 that implements the server 100 or the client 200. The information processing device 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, a host bus 904, and a bridge ( 905, an external bus 906, an interface 907, an input device 908, an output device 909, a storage device (HDD) 910, a drive 911, and a communication device ( 912).

CPU(901)는, 연산 처리 장치 및 제어 장치로서 기능하며, 각종 프로그램에 따라 정보 처리 장치(900) 내의 동작 전반을 제어한다. 또한, CPU(901)는, 마이크로 프로세서여도 된다. ROM(902)은, CPU(901)가 사용할 프로그램이나 연산 파라미터 등을 기억한다. RAM(903)은, CPU(901)의 실행에 있어서 사용할 프로그램이나, 그 실행에 있어서 적절하게 변화하는 파라미터 등을 일시 기억한다. 이들은 CPU 버스 등으로 구성되는 호스트 버스(904)에 의해 서로 접속되어 있다. 당해 CPU(901), ROM(902) 및 RAM(903)의 협동에 의해, 서버(100)의 콘텐츠 작성부(110) 혹은 콘텐츠 제공부(120), 또는 클라이언트(200)의 센서부(210) 혹은 제어부(230)의 각 기능이 실현된다.The CPU 901 functions as an arithmetic processing device and a control device, and controls overall operations in the information processing device 900 according to various programs. Further, the CPU 901 may be a microprocessor. The ROM 902 stores programs, operation parameters, and the like to be used by the CPU 901. The RAM 903 temporarily stores programs to be used in the execution of the CPU 901, parameters that change appropriately in the execution, and the like. These are connected to each other by a host bus 904 composed of a CPU bus or the like. By cooperation of the CPU 901, ROM 902, and RAM 903, the content creation unit 110 or the content provision unit 120 of the server 100, or the sensor unit 210 of the client 200 Alternatively, each function of the control unit 230 is realized.

호스트 버스(904)는, 브리지(905)를 통하여, PCI(Peripheral Component Interconnect/Interface) 버스 등의 외부 버스(906)에 접속되어 있다. 또한, 반드시 호스트 버스(904), 브리지(905) 및 외부 버스(906)를 분리 구성할 필요는 없으며, 하나의 버스에 이들 기능을 실장해도 된다.The host bus 904 is connected to an external bus 906 such as a Peripheral Component Interconnect/Interface (PCI) bus through a bridge 905. In addition, it is not always necessary to separate the host bus 904, the bridge 905, and the external bus 906, and these functions may be mounted on one bus.

입력 장치(908)는, 마우스, 키보드, 터치 패널, 버튼, 마이크로폰, 스위치 및 레버 등 유저가 정보를 입력하기 위한 입력 수단과, 유저에 의한 입력에 기초하여 입력 신호를 생성하고, CPU(901)에 출력하는 입력 제어 회로 등으로 구성되어 있다. 정보 처리 장치(900)를 사용하는 유저는, 해당 입력 장치(908)를 조작함으로써, 각 장치에 대하여 각종 데이터를 입력하거나 처리 동작을 지시하거나 할 수 있다. 당해 입력 장치(908)에 의해, 클라이언트(200)의 입력부(220)의 기능이 실현된다.The input device 908 generates input means for a user to input information, such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever, and an input signal based on an input by the user, and the CPU 901 It is composed of an input control circuit that outputs to. A user who uses the information processing device 900 can input various data or instruct a processing operation to each device by operating the input device 908. The input device 908 implements the function of the input unit 220 of the client 200.

출력 장치(909)는, 예를 들어 CRT(Cathode Ray Tube) 디스플레이 장치, 액정 디스플레이(LCD) 장치, OLED(Organic Light Emitting Diode) 장치 및 램프 등의 표시 장치를 포함한다. 또한, 출력 장치(909)는, 스피커 및 헤드폰 등의 음성 출력 장치를 포함한다. 출력 장치(909)는, 예를 들어 재생된 콘텐츠를 출력한다. 구체적으로는, 표시 장치는 재생된 영상 데이터 등의 각종 정보를 텍스트 또는 이미지로 표시한다. 한편, 음성 출력 장치는, 재생된 음성 데이터 등을 음성으로 변환하여 출력한다. 당해 출력 장치(909)에 의해, 클라이언트(200)의 출력부(240)의 기능이 실현된다.The output device 909 includes, for example, a cathode ray tube (CRT) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, and a display device such as a lamp. Further, the output device 909 includes an audio output device such as a speaker and a headphone. The output device 909 outputs, for example, the reproduced content. Specifically, the display device displays various types of information such as reproduced video data as text or images. On the other hand, the audio output device converts the reproduced audio data or the like into audio and outputs it. By the output device 909, the function of the output unit 240 of the client 200 is realized.

스토리지 장치(910)는, 데이터 저장용 장치이다. 스토리지 장치(910)는, 기억 매체, 기억 매체에 데이터를 기록하는 기록 장치, 기억 매체로부터 데이터를 판독하는 판독 장치 및 기억 매체에 기록된 데이터를 삭제하는 삭제 장치 등을 포함해도 된다. 스토리지 장치(910)는, 예를 들어 HDD(Hard Disk Drive)로 구성된다. 이 스토리지 장치(910)는, 하드 디스크를 구동하고, CPU(901)가 실행할 프로그램이나 각종 데이터를 저장한다. 당해 스토리지 장치(910)에 의해, 서버(100)의 기억부(140) 또는 클라이언트(200)의 기억부(260)의 기능이 실현된다.The storage device 910 is a device for storing data. The storage device 910 may include a storage medium, a recording device that writes data to the storage medium, a reading device that reads data from the storage medium, and a deletion device that deletes data recorded on the storage medium. The storage device 910 is configured of, for example, a hard disk drive (HDD). This storage device 910 drives a hard disk and stores programs and various data to be executed by the CPU 901. The storage device 910 implements the function of the storage unit 140 of the server 100 or the storage unit 260 of the client 200.

드라이브(911)는, 기억 매체용 리더/라이터이며, 정보 처리 장치(900)에 내장 혹은 외장된다. 드라이브(911)는, 장착되어 있는 자기 디스크, 광 디스크, 광 자기 디스크, 또는 반도체 메모리 등의 리무버블 기억 매체(913)에 기록되어 있는 정보를 판독하여, RAM(903)에 출력한다. 또한, 드라이브(911)는, 리무버블 기억 매체(913)에 정보를 기입할 수도 있다.The drive 911 is a reader/writer for a storage medium, and is built-in or external to the information processing device 900. The drive 911 reads information recorded in a removable storage medium 913 such as a mounted magnetic disk, optical disk, magneto optical disk, or semiconductor memory, and outputs it to the RAM 903. Further, the drive 911 can also write information to the removable storage medium 913.

통신 장치(912)는, 예를 들어 통신망(914)에 접속하기 위한 통신 디바이스 등으로 구성된 통신 인터페이스이다. 통신 장치(912)에 의해, 서버(100)의 통신부(130) 또는 클라이언트(200)의 통신부(250)의 기능이 실현된다.The communication device 912 is a communication interface composed of, for example, a communication device for connecting to the communication network 914. The communication device 912 realizes the functions of the communication unit 130 of the server 100 or the communication unit 250 of the client 200.

<2. 실시예><2. Example>

상기에서는, 본 개시에 관한 일 실시 형태에 대하여 설명하였다. 상기에서는, 콘텐츠의 제공에 관한 주된 예에 대하여 설명하였지만, 서버(100)는, 상기 이외에도 여러 가지 양태로 콘텐츠를 제공 가능하다. 이후에서는, 서버(100)에 의한 콘텐츠의 제공의 베리에이션에 대하여 여러 가지 실시예를 설명한다.In the above, an embodiment according to the present disclosure has been described. In the above, a main example related to the provision of contents has been described, but the server 100 can provide contents in various aspects other than the above. In the following, various embodiments will be described with respect to variations in content provision by the server 100.

(2.1. 제1 실시예)(2.1. First embodiment)

예를 들어, 유저가, 차폐형 HMD(202) 등의 클라이언트(200)를 사용하고 있는 경우에 있어서, 서버(100)의 취득부(121)는, 유저 상황 정보 또는 행동 로그 등을 취득한다. 그리고, 상기한 바와 같이, 콘텐츠 제공 제어부(123)는, 유저 상황 정보에 포함되는 위치 정보나, 행동 로그에 기초하여 VR 콘텐츠를 제안할 수 있다. 이때, 콘텐츠 제공 제어부(123)는, 도 17에 도시하는 바와 같이, 실공간에 대응하는 가상 공간의 지도의 부감도(버드 뷰)에 대하여, 제안하는 VR 콘텐츠가 제공되고 있는 위치를 POI(Point of Interest)로서 표시시킬 수 있다(도 17의 예에서는 POI(14) 및 POI(15)가 표시되어 있음).For example, when the user is using the client 200 such as the shielded HMD 202, the acquisition unit 121 of the server 100 acquires user situation information or an action log. In addition, as described above, the content providing control unit 123 may propose VR content based on location information included in user context information or an action log. At this time, as shown in FIG. 17, the content providing control unit 123 determines the position where the proposed VR content is provided with respect to a bird's-eye view (bird view) of the map of the virtual space corresponding to the real space. Interest) (in the example of FIG. 17, POI 14 and POI 15 are displayed).

그때, 콘텐츠 제공 제어부(123)는, POI(15)와 같이, VR 콘텐츠의 내용을 나타내는 화상(예를 들어, VR 콘텐츠의 포스터 화상 또는 VR 콘텐츠의 한 장면을 나타내는 화상 등)을 함께 표시시켜도 된다. 또한, 콘텐츠 제공 제어부(123)는, POI(14)와 같이, VR 콘텐츠의 내용을 나타내는 화상 이외의 정보를 표시시켜도 된다. 예를 들어, POI(14)의 예에서는, 「총 유저수」, 「요금」, 「소요 시간」 및 「난이도」가 표시되어 있다. 「총 유저수」는, 표시 시점에 있어서의, POI(14)에 대응하는 VR 콘텐츠를 플레이하고 있는 유저수의 총합을 나타내고 있고, 「요금」은, 당해 VR 콘텐츠의 플레이 요금을 나타내고 있고, 「소요 시간」은, 당해 VR 콘텐츠의 개시부터 종료까지 요하는 시간(또는 개시부터 종료까지 요하는 시간의 평균값)을 나타내고 있고, 「난이도」는, 당해 VR 콘텐츠의 난이도를 나타내고 있다. 또한, POI에 표시되는 정보는, 상기에 한정되지 않는다.At that time, the content providing control unit 123 may display together an image representing the content of the VR content (for example, a poster image of the VR content or an image representing a scene of the VR content), like the POI 15. . Further, the content providing control unit 123 may display information other than an image indicating the contents of the VR content, like the POI 14. For example, in the example of the POI 14, "total number of users", "price", "time required", and "difficulty" are displayed. "Total number of users" represents the total number of users playing VR content corresponding to the POI 14 at the time of display, and "Price" represents the play fee of the VR content, and "Time required "" represents the time required from the start to the end of the VR content (or the average value of the time required from the start to the end), and the "difficulty" represents the difficulty of the VR content. In addition, the information displayed on the POI is not limited to the above.

유저는, 소정의 방법(예를 들어, 클라이언트(200)의 입력부(220)로의 입력, 또는 클라이언트(200)를 장착한 상태에서의 제스처 혹은 콘텐츠의 주시 등)으로 플레이할 VR 콘텐츠를 선택한다. 그 후, 서버(100)의 루트 결정부(122)는, 가상 공간에 있어서의 현재지(또는 소정의 방법으로 유저에 의해 선택된 위치)로부터 선택된 VR 콘텐츠가 제공되고 있는 위치까지의 권장 루트(16)를 출력하고, 콘텐츠 제공 제어부(123)는, 당해 권장 루트(16)를 클라이언트(200)에 표시시킨다. 또한, 콘텐츠 제공 제어부(123)는, 예를 들어 실공간에 있어서의 권장 루트(16) 상의 점포나 이벤트 등의 광고 정보 등을 제공해도 된다.The user selects the VR content to be played by a predetermined method (for example, input to the input unit 220 of the client 200, or a gesture or gaze of the content while the client 200 is mounted). After that, the route determination unit 122 of the server 100 determines the recommended route 16 from the current location in the virtual space (or the location selected by the user in a predetermined method) to the location where the selected VR content is provided. ), and the content providing control unit 123 displays the recommended route 16 on the client 200. Further, the content provision control unit 123 may provide advertisement information such as stores and events on the recommended route 16 in a real space, for example.

유저가, 가상 공간에 있어서 권장 루트(16)를 이동할 때에는, 콘텐츠 제공 제어부(123)는, 도 18의 18A에 도시하는 지도의 부감도(버드뷰)로부터 18B에 도시하는 가상 공간에 있어서의 유저의 위치에 대응하는 전천구 화상(예를 들어, 실공간을 재현한 전천구 화상 등)을 표시시킨다. 보다 구체적으로는, 콘텐츠 제공 제어부(123)는, 클라이언트(200)로부터 취득된, 가상 공간에 있어서의 유저의 위치 정보에 기초하여 당해 권장 루트(16) 상의 각 위치에 대응하는 전천구 화상을 클라이언트(200)에 표시시킨다. 이때, 콘텐츠 제공 제어부(123)는, 유저에 의한 권장 루트(16)의 이동에 연동되도록, 전천구 화상이 연속적으로 재생되는 하이퍼랩스 동화상을 클라이언트(200)에 재생시켜도 된다(환언하면, 타임랩스 동화상을 클라이언트(200)에 재생시키지 않아도 됨). 이에 의해, 콘텐츠 제공 제어부(123)는, 보다매끄럽게 다이내믹한 표시를 유저에 대하여 제공할 수 있다. 또한, 하이퍼랩스 동화상의 재생 속도는, 유저에 의해 적절하게 조정되어도 된다. 또한, 콘텐츠 제공 제어부(123)는, 전천구 화상이 아니라 자유 시점 화상을 표시시켜도 된다.When the user moves the recommended route 16 in the virtual space, the content providing control unit 123 is the user in the virtual space shown in 18B from a bird's-eye view (bird view) of the map shown in Fig. 18A. All celestial sphere images corresponding to the position (eg, all celestial sphere images reproduced in real space) are displayed. More specifically, the content providing control unit 123, based on the location information of the user in the virtual space, acquired from the client 200, sends a global image corresponding to each location on the recommended route 16 to the client. Mark at (200). At this time, the content providing control unit 123 may reproduce a hyperlapse moving image in which all celestial images are continuously reproduced on the client 200 so as to be linked to the movement of the recommended route 16 by the user (in other words, time lapse It is not necessary to reproduce the moving image on the client 200). Thereby, the content providing control unit 123 can provide a smoother and more dynamic display to the user. Further, the reproduction speed of the hyperlapse moving image may be appropriately adjusted by the user. In addition, the content providing control unit 123 may display a free viewpoint image instead of an all-round image.

그리고, 유저가, 선택한 VR 콘텐츠의 제공 위치에 도착하여, VR 콘텐츠를 플레이할 때에는, 도 19에 도시하는 바와 같이, 콘텐츠 제공 제어부(123)는, 가상 오브젝트로서 캐릭터(17)를 표시시켜도 된다. 그리고, 콘텐츠 제공 제어부(123)는, 이벤트의 진행에 따라 캐릭터(17)를 화면에 대하여 안측 방향을 향하여 이동시킴으로써, 유저에 대하여 루트를 인식시켜도 된다.Then, when the user arrives at the provision position of the selected VR content and plays the VR content, the content provision control unit 123 may display the character 17 as a virtual object as shown in FIG. 19. Further, the content providing control unit 123 may make the user recognize the route by moving the character 17 toward the inside with respect to the screen as the event progresses.

또한, 복수의 유저가 동시에 당해 VR 콘텐츠를 플레이하고 있는 경우, 콘텐츠 제공 제어부(123)는, 각 유저의 위치 정보에 기초하여 다른 유저를 나타내는 아바타(18) 내지 아바타(20)를 표시시켜도 된다. 이에 의해, 콘텐츠 제공 제어부(123)는, 다른 유저가 VR 콘텐츠를 플레이하고 있는 모습을 유저에 대하여 나타낼 수 있다. 또한, 콘텐츠 제공 제어부(123)는, VR 콘텐츠의 번화함 등을 표현할 수 있다. 또한, 콘텐츠 제공 제어부(123)는, 과거(예를 들어, 최근 1주일 이내 등)에 당해 VR 콘텐츠를 플레이한 유저의 아바타를 표시시켜도 된다. 또한, 콘텐츠 제공 제어부(123)는, 아바타의 혼잡 상황 등에 기초하여 표시시키는 아바타의 수를 조절해도 된다. 또한, 콘텐츠 제공 제어부(123)는, 미리 준비된 화상을 랜덤하게 선택함으로써, 당해 화상을 아바타로서 표시시켜도 되고, 유저에 의해 입력된 화상을 아바타로서 표시시켜도 된다. 콘텐츠 제공 제어부(123)는, AR 콘텐츠를 플레이하고 있는(또는 플레이하고 있던) 클라이언트(200)의 위치 정보에 기초하여, VR 콘텐츠를 플레이하고 있는 클라이언트(200) 상에 아바타를 표시해도 된다.In addition, when a plurality of users are simultaneously playing the VR content, the content providing control unit 123 may display avatars 18 to 20 representing other users based on the location information of each user. Thereby, the content providing control unit 123 can indicate to the user how another user is playing the VR content. In addition, the content providing control unit 123 may express the busyness of VR content. Further, the content providing control unit 123 may display an avatar of a user who has played the VR content in the past (for example, within the last one week). Further, the content providing control unit 123 may adjust the number of avatars to be displayed based on the congestion situation of the avatars. Further, the content providing control unit 123 may display the image as an avatar by randomly selecting an image prepared in advance, or may display an image input by the user as an avatar. The content providing control unit 123 may display an avatar on the client 200 playing the VR content based on the location information of the client 200 playing (or playing) the AR content.

또한, 콘텐츠 제공 제어부(123)는, 각 유저가 진행하고 있는 이벤트에 설정된 조건에 따른 행동(예를 들어, 손을 흔듬, 퀴즈에 대하여 고개를 갸웃거림)을, 각 아바타에 행하게 할 수도 된다. 이에 의해, 콘텐츠 제공 제어부(123)는, 유저에 대하여 VR 콘텐츠의 임장감을 보다 구체적으로 느끼게 할 수 있다.In addition, the content providing control unit 123 may cause each avatar to perform an action (eg, waving a hand, tilting his head for a quiz) according to a condition set for an event in progress by each user. Accordingly, the content providing control unit 123 can make the user feel the presence of VR content in more detail.

(2.2. 제2 실시예)(2.2. Second embodiment)

제2 실시예는, 복수의 유저가 동시에 플레이 가능한 콘텐츠(레이드 콘텐츠)에 관한 실시예이다.The second embodiment is an embodiment of content (raid content) that can be played by a plurality of users at the same time.

본 실시예에 있어서, 콘텐츠 제공 제어부(123)는, 복수의 유저에 의해 사용되고 있는 클라이언트(200)로부터의 유저 상황 정보(위치 정보를 포함함)에 기초하여, 각 유저의 상황(위치 관계를 포함함)을 파악함으로써, 각 유저의 상황(위치 관계를 포함함)을 AR 콘텐츠 또는 VR 콘텐츠에 반영시킬 수 있다.In this embodiment, the content providing control unit 123 is based on the user context information (including location information) from the client 200 used by a plurality of users, the situation of each user (including the location relationship). ), it is possible to reflect each user's situation (including location relationship) to AR content or VR content.

예를 들어, 도 20에 도시하는 바와 같이, 콘텐츠 제공 제어부(123)는, 유저 A에 대응하는 아바타(21)와 유저 B에 대응하는 아바타(22)가 몬스터(23)와 싸우는 콘텐츠 등을, 유저 A 및 유저 B에 대하여 동시에 제공할 수 있다. 콘텐츠 제공 제어부(123)는, 유저 A 및 유저 B의 위치 정보에 기초하여 이벤트를 발생시키거나, 가상 오브젝트(예를 들어, 몬스터(23) 등)를 공통화시키거나 하는 것 등에 의해, 이들 유저에 대하여 높은 임장감 및 오락성을 제공할 수 있다.For example, as shown in FIG. 20, the content providing control unit 123 provides content in which the avatar 21 corresponding to the user A and the avatar 22 corresponding to the user B fight the monster 23, It can be provided to user A and user B at the same time. The content provision control unit 123 generates an event based on the location information of the user A and the user B, or makes a virtual object (for example, the monster 23, etc.) common to these users. It can provide high sense of presence and entertainment.

여기서, 몬스터(23)의 거동이나 위치는, 시시각각 변화하는 유저 A, B 각각의 위치나 거동에 따라 변화하는 편이 몰입감의 관점에서 바람직하다. 이를 위해서는, 유저 A의 클라이언트(200)로부터 송신된 유저 상황 정보(위치 정보를 포함함), 및 유저 B의 클라이언트(200)로부터 송신된 유저 상황 정보(위치 정보를 포함함)에 기초하여, 서버(100) 상에서 처리된 공통의 콘텐츠 정보가 유저 A, 유저 B의 클라이언트(200)에 대하여 실시간으로 송신될 필요가 있다.Here, it is preferable from the viewpoint of a sense of immersion that the behavior or position of the monster 23 changes according to the position or behavior of each of the users A and B that change every moment. To this end, based on the user context information (including location information) transmitted from the client 200 of user A, and the user context information (including location information) transmitted from the client 200 of user B, the server The common content information processed on (100) needs to be transmitted to the clients 200 of users A and B in real time.

그러나, 각 유저의 유저 상황 정보는, 각 클라이언트(200)에 구비된 복수의 센서에 의해 취득되며, 통상은 상한을 갖는 통신 속도로 서버(100)에 송신된다. 그 때문에, 콘텐츠의 진행이 지연될 가능성이 있고, 또한 유저별로 지연 정도가 다를 가능성이 있다.However, the user context information of each user is acquired by a plurality of sensors provided in each client 200, and is usually transmitted to the server 100 at a communication speed having an upper limit. Therefore, there is a possibility that the progress of the content may be delayed, and the degree of delay may vary for each user.

그래서, 클라이언트(200)는, 서버(100)와의 통신뿐만 아니라, 다른 클라이언트(200)와 Bluetooth 등의 근거리 무선 통신을 행함으로써, 당해 과제를 해결해도 된다. 예를 들어, 우선, 유저 A의 클라이언트(200)는, 몬스터(23)의 현재 위치를 서버(100)로부터 취득하고 있는 것으로 하자. 몬스터(23)의 위치 정보는, 유저 B의 클라이언트(200)에 의해서도 실시간으로 취득되고 있다. 유저 A는, 몬스터(23)에 대하여, 예를 들어 오른쪽에서 왼쪽으로 손을 뿌리치는 제스처를 행한다. 유저 A의 클라이언트(200)는, 유저 A의 제스처에 관한 유저 상황 정보와, 서버(100)로부터 취득한 몬스터(23)의 위치 정보에 기초하여, 몬스터(23)가 튕겨졌는지 여부를, 서버(100)를 통하지 않고 판정한다. 그리고, 유저 A의 클라이언트(200)는, 판정 결과에 따라 "몬스터(23)가 튕겨졌다"고 하는 콘텐츠 정보(또는 콘텐츠 정보에 포함되는 이벤트 정보)를 생성한다.Therefore, the client 200 may solve the problem by performing short-range wireless communication such as Bluetooth with other clients 200 as well as communication with the server 100. For example, first, it is assumed that the client 200 of the user A acquires the current position of the monster 23 from the server 100. The location information of the monster 23 is also acquired in real time by the client 200 of the user B. The user A performs a gesture of waving his hand from the right to the left, for example, to the monster 23. The user A's client 200 determines whether the monster 23 has been bounced or not, based on the user situation information regarding the user A's gesture and the location information of the monster 23 obtained from the server 100. It is judged without passing through ). Then, the client 200 of the user A generates content information (or event information included in the content information) that "the monster 23 has been bounced" according to the determination result.

유저 A의 클라이언트(200)에 의해 생성된 콘텐츠 정보는, 소정의 통신 방식에 의해 서버(100)에 송신됨과 함께, 유저 B의 클라이언트(200)에 Bluetooth 등의 근거리 무선 통신으로 송신된다. 이에 의해, 유저 B의 클라이언트(200)는, "유저 A에 의해 몬스터(23)가 튕겨졌다"고 하는 이벤트의 발생을 인식할 수 있다.Content information generated by the client 200 of user A is transmitted to the server 100 by a predetermined communication method and transmitted to the client 200 of user B by short-range wireless communication such as Bluetooth. Thereby, the client 200 of the user B can recognize the occurrence of the event "the monster 23 was bounced by the user A".

그 후, 유저 B의 클라이언트(200)는, 당해 콘텐츠 정보에 기초하여 몬스터(23)의 거동을 제어한다. 환언하면, 유저 B의 클라이언트(200)는, 서버(100)를 통하지 않고, "유저 A에 의해 몬스터(23)가 튕겨졌다"고 하는 이벤트를 유저 B에게 제공할 수 있다.After that, the client 200 of the user B controls the behavior of the monster 23 based on the content information. In other words, the user B's client 200 can provide the user B with an event of "the monster 23 was bounced by user A" without going through the server 100.

서버(100)를 통하지 않고 처리된 몬스터(23)의 거동이나 위치는, 서버(100)에 의한 처리 결과에 따라 보정된다. 이때, 서버(100)는, 유저 A 및 유저 B에 의한 행동의, 콘텐츠로의 반영을 가능한 한 실시간으로 실현하기 위해, 유저 A의 클라이언트(200)에 있어서의 처리 결과를 우선하여 보정 처리를 행해도 된다. 예를 들어, 유저 A의 제스처 시에, 유저 B의 위치나 거동에 따라 몬스터(23)의 위치가 변화함으로써, 유저 A에 의한 오른쪽에서 왼쪽으로 손을 뿌리치는 제스처가 본래라면 몬스터(23)에 닿지 않는 경우가 생길 수 있다. 이러한 경우라도, 서버(100)는, 유저 A의 클라이언트(200)에 의해 처리된 "유저 A에 의해 몬스터(23)가 튕겨졌다"고 하는 결과를 우선하고, 그 결과에 따라 이벤트의 진행을 보정해도 된다. 구체적으로는, 서버(100)는, "유저 A에 의해 몬스터(23)가 튕겨졌다"고 하는 결과를 전제로, 유저 A 및 유저 B의 클라이언트(200)에 있어서의 몬스터(23)의 위치가 정합되도록, 유저 A 및 유저 B의 클라이언트(200)에 있어서의 몬스터(23)의 위치를 보정한다.The behavior or position of the monster 23 processed without going through the server 100 is corrected according to the result of processing by the server 100. At this time, the server 100 prioritizes the processing result of the user A's client 200 in order to realize the reflection of the actions of the user A and the user B into the content as possible in real time, and performs correction processing. Also works. For example, at the time of user A's gesture, the position of the monster 23 changes according to the position or behavior of user B, so that if the gesture of waving a hand from right to left by user A is originally, it will not touch the monster 23. There may be cases that do not. Even in this case, the server 100 prioritizes the result of "the monster 23 was bounced by user A" processed by the client 200 of user A, and corrects the progress of the event according to the result. You can do it. Specifically, the server 100 assumes the result that "the monster 23 was bounced by user A", the position of the monster 23 in the client 200 of the user A and the user B is In order to match, the positions of the monsters 23 in the clients 200 of the users A and B are corrected.

이에 의해, 유저 A 및 유저 B 각각에 의한 제스처가, 각 클라이언트(200)에 의해 실행되는 콘텐츠에 대하여, 적은 지연으로 반영될 수 있다. 또한, 각각의 클라이언트(200)의 센서 정보가 참작된 결과, 몬스터(23)에 닿은 제스처(오른쪽에서 왼쪽으로 손을 뿌리치는 제스처)가 닿지 않도록 보정되는 등의 이벤트의 되감기를 방지할 수 있어, 유용성의 저하를 억제할 수 있다.Thereby, gestures by each of the user A and the user B can be reflected with a small delay with respect to the content executed by each client 200. In addition, as a result of taking into account the sensor information of each client 200, it is possible to prevent rewinding of events such as correction so that a gesture that touches the monster 23 (a gesture that shakes a hand from right to left) does not touch. Can be suppressed.

(2.3. 제3 실시예)(2.3. Third embodiment)

제3 실시예는, AR 콘텐츠 및 VR 콘텐츠 사이에서의 리얼타임 인터랙션에 관한 실시예이다.The third embodiment is an embodiment of real-time interaction between AR content and VR content.

AR 콘텐츠를 플레이하고 있는 유저 A와, 당해 AR 콘텐츠에 대응하는 VR 콘텐츠를 유저 A와 동일한 타이밍에 플레이하고 있는 유저 B가 존재하는 경우에 대하여 생각하자. 이 경우, 서버(100)는, 각 유저에 의해 사용되고 있는 클라이언트(200)로부터 유저 상황 정보(위치 정보를 포함함)를 수신하고, 각 유저의 상황(위치 관계를 포함함)을 파악함으로써, 각 유저의 상황을 AR 콘텐츠 및 VR 콘텐츠의 각각에 반영시킬 수 있다.Consider the case where there is a user A playing AR content and a user B playing VR content corresponding to the AR content at the same timing as the user A. In this case, the server 100 receives user context information (including location information) from the client 200 used by each user, and grasps each user's situation (including the location relationship), The user's situation can be reflected in each of AR content and VR content.

이에 의해, 서버(100)는, 유저 A가 플레이하고 있는 AR 콘텐츠에 있어서의 이벤트와, 유저 B가 플레이하고 있는 VR 콘텐츠에 있어서의 이벤트를 동기시킬 수 있기 때문에, 이들 유저에 대하여 높은 임장감 및 오락성을 제공할 수 있다. 예를 들어, 각 유저는 협력하여 이벤트를 실시할 수 있다(예를 들어, 문제의 해결 등).As a result, the server 100 can synchronize the events in the AR content played by the user A with the events in the VR content played by the user B, so that the server 100 has a high sense of presence and entertainment for these users. Can provide. For example, each user can cooperate to conduct an event (eg, solving a problem, etc.).

이 경우, VR 콘텐츠를 플레이하고 있는 유저 B의 이동 속도나 이동 범위는, AR 콘텐츠와 이벤트를 동기시키지 않고 VR 콘텐츠 단체가 재생되는 경우보다 제한된다. 보다 구체적으로는, 가상 공간 내의 이동 속도는, 실공간을 도보로 이동하였을 때의 속도에 대응하도록 시속 4 내지 10[km] 정도로 제한된다. 또한, VR 콘텐츠를 플레이하고 있는 유저 B의 이동 범위에 대하여, 가상 공간에 있어서 도로의 중앙을 걷는 것이 금지되어도 되고, 횡단보도를 이용하지 않으면 도로를 횡단할 수 없도록 이동 범위가 제한되어도 된다.In this case, the movement speed and movement range of the user B playing the VR content are more limited than when the VR content unit is played without synchronizing the AR content and the event. More specifically, the moving speed in the virtual space is limited to about 4 to 10 [km] per hour so as to correspond to the speed when the real space is moved on foot. Further, with respect to the movement range of the user B playing the VR content, walking in the center of the road in a virtual space may be prohibited, or the movement range may be limited so that the road cannot be crossed without using a crosswalk.

AR 콘텐츠를 플레이하는 유저 A의 클라이언트(200)에는, VR 콘텐츠를 플레이하는 유저 B의 실공간에 있어서의 위치가 표시되어도 된다. 예를 들어, 유저 A의 클라이언트(200)가 스마트폰(혹은 투과형 HMD)인 경우, 유저 B가 위치하는 범위로 스마트폰의 카메라의 화각을 향하게 함으로써, 유저 B를 나타내는 아바타가 실공간의 상에 중첩되도록 스마트폰의 표시가 제어된다. 한편, VR 콘텐츠를 플레이하는 유저 B의 클라이언트(200)에는, AR 콘텐츠를 플레이하는 유저 A의 실공간에 있어서의 위치가 표시되어도 된다. 유저 A의 실공간에 있어서의 위치는, 예를 들어 GPS에 의해 검출된다. 유저 B의 클라이언트(200)가 HMD인 경우, 유저 A가 위치하는 범위로 HMD를 향하게 함으로써, 유저 A를 나타내는 아바타가 예를 들어 전천구 영상에 중첩되도록 HMD의 표시가 제어된다.On the client 200 of user A playing AR content, the position in real space of user B playing VR content may be displayed. For example, if the client 200 of the user A is a smartphone (or a transmissive HMD), the avatar representing the user B is placed on the image of the real space by pointing the angle of view of the camera of the smartphone to the range where the user B is located. The display of the smartphone is controlled to overlap. On the other hand, on the client 200 of user B playing VR content, the position in real space of user A playing AR content may be displayed. The position of user A in real space is detected by GPS, for example. When the client 200 of the user B is an HMD, the display of the HMD is controlled so that the avatar representing the user A is superimposed on, for example, an entire celestial sphere image by pointing the HMD in the range where the user A is located.

그런데, AR 콘텐츠를 플레이하는 유저 A의 클라이언트(200)의 위치 및 방향은, 예를 들어 GPS, 가속도 센서, 자이로 센서 등의 각종 센서의 조합에 의해 특정될 수 있다. 한편, 각종 센서는 각각 검출 오차를 갖기 때문에, 각종 센서에 의해 취득되는 센서값이 나타내는 유저 A의 위치와 방향은, 유저 A의 실제의 위치와 방향과는 다를 수 있다. 따라서, 유저 B의 클라이언트(200)에 있어서의, 센서값에 기초하는 유저 A를 나타내는 아바타의 위치 및 방향은, 실제의 유저 A의 위치 및 방향과 다를 수 있다. 이 결과, AR 콘텐츠를 플레이하는 유저 A의 시선과 VR 콘텐츠를 플레이하는 유저 B의 시선은, 커뮤니케이션 시에 의도하지 않게 어긋날 가능성이 있다.By the way, the location and direction of the client 200 of user A playing AR content may be specified by a combination of various sensors such as GPS, acceleration sensor, and gyro sensor. On the other hand, since various sensors each have a detection error, the position and direction of user A indicated by sensor values acquired by the various sensors may be different from the actual position and direction of user A. Accordingly, the position and direction of the avatar representing the user A based on the sensor value in the client 200 of the user B may be different from the actual position and direction of the user A. As a result, there is a possibility that the gaze of the user A who plays the AR content and that of the user B who plays the VR content are unintentionally deviated during communication.

상기 과제를 감안하여, 유저 B와 유저 A의 사이에서 커뮤니케이션이 행해질 것으로 추정되는 경우에는, 예를 들어 유저 B의 클라이언트(200)에 있어서의 유저 A의 시선은 적절하게 보정되는 것이 바람직하다. 구체적으로는, 실공간에 있어서의 유저 A의 위치와 유저 B의 위치를 연결하는 직선과 유저 A의 클라이언트(200)의 방향이 이루는 각도가 감소하고 있는, 즉 유저 A와 유저 B가 정면으로 대향하려고 하고 있다고 추정된 경우, 유저 B의 클라이언트(200)에 있어서, 유저 A의 클라이언트(200)에 의해 취득되는 센서값은 유저 A가 유저 B에 정면으로 대향하고 있지 않음을 나타내고 있는 경우라도, 유저 A를 나타내는 아바타를 유저 B에 대하여 정면으로 대향시켜도 된다. 즉, 유저 B와 유저 A의 사이에서 커뮤니케이션이 행해질 것으로 추정되는 경우보다, 유저 B와 유저 A의 사이에서 커뮤니케이션이 행해질 것으로 추정되지 않는 경우보다, 아바타의 방향을 크게 변화시킨다. 이 정면 대향 표시 처리는, 유저 A의 클라이언트(200)에 있어서도, 마찬가지로 실행되어도 된다. 이에 의해, 유저 A와 유저 B의 커뮤니케이션에 있어서의 시선의 불일치를 완화 또는 해소할 수 있다.In view of the above problems, when it is estimated that communication between the user B and the user A will be performed, for example, the user A's gaze on the client 200 of the user B is preferably corrected appropriately. Specifically, the angle formed by the straight line connecting the position of user A and the position of user B in the real space and the direction of the client 200 of user A is decreasing, that is, the user A and the user B face each other. When it is estimated that the user B's client 200, the sensor value acquired by the user A's client 200 indicates that the user A is not facing the user B directly, the user The avatar representing A may be faced to the user B. That is, the direction of the avatar is changed significantly more than the case where communication between the user B and the user A is estimated to be performed, rather than the case where communication between the user B and the user A is not estimated to be performed. This front-facing display process may be similarly executed in the client 200 of user A. As a result, it is possible to alleviate or eliminate the discrepancy in the gaze in communication between the user A and the user B.

(2.4. 변형예)(2.4. Modification)

상기 실시예에 있어서는, 기본적으로 지구 상에 관한 AR 콘텐츠 및 VR 콘텐츠에 대하여 설명하였지만, 본 개시에 관한 서버(100)는, 지구 밖에 관한 AR 콘텐츠 및 VR 콘텐츠의 제공에도 사용될 수 있다. 예를 들어, 달이나 화성과 같은 천체 표면의 지도에 가상 오브젝트를 관련지어, VR 콘텐츠가 작성되어도 된다. 혹은, 3차원적인 우주 공간의 지도를 이용하여 VR 콘텐츠가 작성되어도 된다. 이러한 지구 밖의 콘텐츠는, 예를 들어 우주 비행사의 훈련이나, 민간인에 의한 의사적인 우주 여행의 콘텐츠로서 제공될 수 있다. 혹은, 지구 상에서 이용 가능한 천체 관측 콘텐츠로서 제공될 수 있다.In the above embodiment, the AR content and VR content on the earth have been basically described, but the server 100 according to the present disclosure may also be used to provide AR content and VR content about the outside of the earth. For example, VR content may be created by associating a virtual object with a map on the surface of a celestial body such as the moon or Mars. Alternatively, VR content may be created using a three-dimensional map of outer space. Such extraterrestrial content may be provided, for example, as content for astronaut training or pseudo-space travel by civilians. Alternatively, it may be provided as astronomical observation content available on the earth.

상기 실시예에 있어서는, 콘텐츠를 제작하는 유저가 적절하게 가상 오브젝트를 지도 정보에 배치하는 예를 설명하였다. 일반적으로, 절과 신사, 불각과 같은 에어리어나, 선로 상과 같이 위험성이 높은 에어리어 등에 관해서는, 당해 에어리어를 관리하는 조직(또는 관리인)으로부터 당해 에어리어에서의 AR 콘텐츠의 제공에 대하여 사전에 인가를 받는 것이 바람직하다. 따라서, 유저에 의한 각 콘텐츠의 플레이 에어리어의 설정에 기초하여 플레이 에어리어에 관련된 AR 콘텐츠 관리 조직을, 네트워크를 통하여 검색하고, 검색 결과에 기초하는 인가 관련 정보를 GUI 상에서 유저에게 제시해도 된다. 혹은, 검색 결과에 기초하여 E 메일 등으로 AR 콘텐츠 관리 조직에 자동적으로 인가 신청을 송신하도록 플랫폼이 구성되어도 된다. 또한, 플랫폼이 당해 콘텐츠 제공의 인가를 AR 콘텐츠 관리 조직으로부터 수령하지 않은 경우, 서버(100)로부터 클라이언트(200)로의 AR 콘텐츠의 제공을 금지하도록 서버(100)를 제어해도 된다. 한편, 인가의 검토를 위해, 적어도 AR 콘텐츠 관리 조직에 대한 제작된 VR 콘텐츠의 제공은 허가되어도 된다.In the above embodiment, an example has been described in which a user who creates a content properly places a virtual object on the map information. In general, for areas such as temples, shrines, and temples, or areas with high risk such as on railroad tracks, prior authorization is required for the provision of AR contents in the area from the organization (or manager) that manages the area. It is desirable to receive. Accordingly, the AR content management organization related to the play area may be searched through the network based on the setting of the play area of each content by the user, and authorization-related information based on the search result may be presented to the user on the GUI. Alternatively, the platform may be configured to automatically transmit an authorization application to the AR content management organization by E-mail or the like based on the search result. In addition, when the platform does not receive permission to provide the content from the AR content management organization, the server 100 may be controlled to prohibit the provision of AR content from the server 100 to the client 200. On the other hand, for approval review, provision of produced VR content to at least the AR content management organization may be permitted.

본 개시에 있어서의 플랫폼을 통하여, 복수명의 유저의 클라이언트(200)에 의해 취득된 2D 화상을 사용하여, 특정의 실제 오브젝트의 3D 모델링이 행해져도 된다. AR 콘텐츠를 플레이하는 각 유저는, 예를 들어 「다음에, 봉제 인형을 촬영한다」라는 지시(이벤트)를 받는 경우가 있다. 이 지시에 따라, 각 유저의 클라이언트(200)로부터, 다른 시점, 각도에서 촬영된 봉제 인형을 포함하는 서로 다른 복수의 2D 화상이 서버(100)에 송신된다. 서버(100)는, 이 복수의 2D 화상의 특징점을 해석하여, 봉제 인형의 3D 가상 오브젝트를 생성할 수 있다. 서버(100)는, 수신하는 다수의 2D 화상으로부터, 실제 오브젝트의 3D 모델링에 사용할 2D 화상의 후보를, 2D 화상을 송신한 클라이언트(200)가 진행하고 있던 특정 이벤트 정보, 및 클라이언트(200)의 위치 정보에 기초하여 특정(한정)할 수 있다. 따라서, 서버(100)는, 3D 모델링에 걸리는 해석 부하를 효율적으로 저감할 수 있다. 생성된 3D 가상 오브젝트는, 위치 정보를 부여하여 플랫폼 상에서 공유될 수 있다. 이에 의해, AR 콘텐츠의 제공에 수반하여 AR 콘텐츠에 사용할 수 있는 3D 가상 오브젝트가 수집될 수 있다. 수집된 3D 가상 오브젝트는, 플랫폼 상에서, 예를 들어 VR 콘텐츠 내에서 표시되는 3D 가상 오브젝트로서 적절하게 제공되어도 된다. 또한, 수집된 3D 가상 오브젝트에는, 블록 체인 기술을 이용하여, 2D 화상을 송신하는 복수명의 유저의 클라이언트(200)에 의한 계산 결과로부터 취득되는, 각 유저 또는 클라이언트(200)의 프로퍼티 정보가 부여되어도 된다. 이 프로퍼티 정보는, 적절하게 3D 가상 오브젝트의 생성에 관한 각 유저의 기여율의 계산에 이용되며, 계산된 기여율에 따라 각 유저에게는 보답이 지급되어도 된다. 보답의 지급은, 예를 들어 블록 체인 기술에 기초하는 가상 통화를 포함하는 통화 정보의 부여, 혹은 AR 콘텐츠에 관련된 특전 데이터의 부여에 의해 행해질 수 있다.Through the platform of the present disclosure, 3D modeling of a specific real object may be performed using 2D images acquired by the clients 200 of a plurality of users. Each user who plays AR content may receive an instruction (event) stating "Next, photograph a stuffed toy", for example. In accordance with this instruction, a plurality of different 2D images including a stuffed toy photographed at different viewpoints and angles are transmitted to the server 100 from the client 200 of each user. The server 100 can generate a 3D virtual object of a stuffed toy by analyzing the feature points of the plurality of 2D images. The server 100 determines, from a plurality of 2D images received, candidates for 2D images to be used for 3D modeling of real objects, specific event information that the client 200 that transmitted the 2D image has been progressing, and the client 200 It can be specified (limited) based on location information. Therefore, the server 100 can efficiently reduce the analysis load applied to 3D modeling. The generated 3D virtual object may be shared on the platform by giving location information. Accordingly, 3D virtual objects that can be used for AR content can be collected along with the provision of AR content. The collected 3D virtual object may be appropriately provided as a 3D virtual object displayed on a platform, for example, in VR content. In addition, even if the collected 3D virtual object is given property information of each user or client 200, which is obtained from the calculation result by the client 200 of a plurality of users transmitting 2D images using blockchain technology. do. This property information is suitably used for calculating the contribution rate of each user regarding the generation of the 3D virtual object, and a reward may be provided to each user according to the calculated contribution rate. Payment of the reward can be performed by, for example, provision of currency information including virtual currency based on blockchain technology or provision of privilege data related to AR content.

<3. 마무리><3. Finishing>

이상에서 설명한 바와 같이, 본 개시는 AR 콘텐츠의 제공에 사용되는 정보의 적어도 일부를 사용하여 VR 콘텐츠를 제공 가능한 플랫폼을 제공할 수 있다. 보다 구체적으로는, 본 개시에 관한 서버(100)는, AR 콘텐츠의 제공에 사용되는 정보의 적어도 일부를 사용하여 VR 콘텐츠를 작성할 수 있다. 그리고, 서버(100)는, 작성한 VR 콘텐츠를 클라이언트(200)에 제공할 수 있다. 또한, 서버(100)는, AR 콘텐츠를 작성할 수도 있고, 작성한 AR 콘텐츠를 클라이언트(200)에 제공할 수도 있다.As described above, the present disclosure may provide a platform capable of providing VR content by using at least part of information used for providing AR content. More specifically, the server 100 according to the present disclosure can create VR content by using at least a part of information used to provide AR content. Then, the server 100 may provide the created VR content to the client 200. In addition, the server 100 may create AR content or provide the created AR content to the client 200.

이에 의해, 본 개시는, AR 콘텐츠에 대응하는 VR 콘텐츠를 유저에게 체험시킴으로써, 원래 현지에서만 체험할 수 있었던 AR 콘텐츠에 대한 유저의 흥미를 야기할 수 있어, AR 콘텐츠를 보다 효율적으로 보급시킬 수 있다.Accordingly, the present disclosure allows users to experience VR content corresponding to AR content, thereby causing user interest in AR content that was originally experienced only in the local area, so that AR content can be more efficiently distributed. .

이상, 첨부 도면을 참조하면서 본 개시의 적합한 실시 형태에 대하여 상세하게 설명하였지만, 본 개시의 기술적 범위는 이러한 예에 한정되지 않는다. 본 개시의 기술 분야에 있어서의 통상의 지식을 갖는 자라면, 청구범위에 기재된 기술적 사상의 범주 내에 있어서, 각종 변경예 또는 수정예에 상도할 수 있는 것은 명확하며, 이들에 대해서도, 당연히 본 개시의 기술적 범위에 속하는 것이라고 이해된다.In the above, preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to these examples. It is clear that a person having ordinary knowledge in the technical field of the present disclosure can conceive of various modifications or corrections within the scope of the technical idea described in the claims. It is understood to be within the technical scope.

예를 들어, AR 콘텐츠 및 VR 콘텐츠라고 하는 문맥에서 벗어나, 유저에 의한 소정의 조작(예를 들어, 드래그&드롭 등의 간단한 조작)으로 실공간(또는 실공간에 있어서의 임의의 오브젝트)에 가상 오브젝트를 관련지어, 클라이언트(200)의 종류에 의존하지 않고 당해 가상 오브젝트를 공유 가능한 시스템이 제공되어도 된다. 이에 의해, 예를 들어 유저가, 클라이언트(200)에 표시된 GUI 화면을 사용하여, 가상적인 자재(가상 오브젝트)를 빈 테넌트에 드래그&드롭으로 배치하고, 당해 유저(또는 다른 유저)가 실제로 빈 테넌트에 다다렀을 때 당해 가상 오브젝트를 클라이언트(200)에서 시인한다는 체험이 제공될 수 있다.For example, out of the context of AR content and VR content, a predetermined operation by the user (for example, a simple operation such as drag & drop) can be used in real space (or any object in real space). A system capable of associating objects and sharing the virtual objects regardless of the type of the client 200 may be provided. Thereby, for example, the user uses the GUI screen displayed on the client 200 to place a virtual material (virtual object) in an empty tenant by dragging and dropping, and the user (or another user) is actually an empty tenant. When it reaches to, the experience of recognizing the virtual object in the client 200 may be provided.

또한, 가상 오브젝트로서, 위치 정보와 관련지어진, 크리에이티브ㆍ커먼즈로서 설정된 오브젝트나, 공개 유료 오브젝트, 특정 유저에게만 한정된 오브젝트 등이 적절하게 검색되어, 이용되어도 된다.Further, as a virtual object, an object associated with the positional information and set as a creative common, a public pay object, an object limited only to a specific user, and the like may be appropriately searched and used.

또한, 본 명세서에 기재된 효과는, 어디까지나 설명적 또는 예시적인 것이며 한정적인 것은 아니다. 즉, 본 개시에 관한 기술은, 상기 효과와 함께, 또는 상기 효과 대신에, 본 명세서의 기재로부터 당업자에게는 명확한 다른 효과를 발휘할 수 있다.In addition, the effects described in this specification are illustrative or illustrative to the last, and are not limiting. That is, the technology according to the present disclosure can exhibit other effects that are clear to those skilled in the art from the description of the present specification in addition to or instead of the above effects.

또한, 이하와 같은 구성도 본 개시의 기술적 범위에 속한다.In addition, the following configuration also belongs to the technical scope of the present disclosure.

(1)(One)

가상 오브젝트의 화상 정보 및 실공간에 있어서의 상기 가상 오브젝트의 위치 정보를 포함하고, 상기 실공간을 나타내는 지도 정보에 대하여 부가되는 콘텐츠 정보를 취득하는 취득부와,An acquisition unit that includes image information of a virtual object and position information of the virtual object in real space, and acquires content information added to map information indicating the real space;

상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에, 일인칭 시점에서 시인 가능한 상기 가상 공간의 상에 대하여 중첩되도록 상기 화상 정보를 제1 클라이언트 단말기에 표시시키는 제1 제어부를 구비하는,Based on the content information, a first control unit for displaying the image information on a first client terminal such that the image information is superimposed on a position in the virtual space corresponding to the location information with respect to an image of the virtual space that can be visually recognized from a first-person view. Equipped,

정보 처리 장치.Information processing device.

(2)(2)

상기 가상 공간의 상은, 상기 실공간의 촬상 화상에 기초하는 상기 실공간에 대응하는 상인,The image of the virtual space is a merchant corresponding to the real space based on a captured image of the real space,

상기 (1)에 기재된 정보 처리 장치.The information processing device according to (1) above.

(3)(3)

상기 제1 제어부는, 상기 제1 클라이언트 단말기와는 다른 제2 클라이언트 단말기의 상기 지도 정보에 관한 위치 정보에 기초하여, 상기 제2 클라이언트 단말기에 대응하는 아바타를, 상기 가상 공간의 상에 대하여 중첩되도록 상기 제1 클라이언트 단말기에 표시시키는,The first control unit, based on the location information on the map information of the second client terminal different from the first client terminal, so that the avatar corresponding to the second client terminal overlaps the image of the virtual space. Displaying on the first client terminal,

상기 (2)에 기재된 정보 처리 장치.The information processing device according to (2) above.

(4)(4)

상기 제1 제어부는, 상기 지도 정보에 관한 상기 제1 클라이언트 단말기의 위치 정보, 상기 제2 클라이언트 단말기의 상기 위치 정보, 및 상기 제2 클라이언트 단말기의 자세 정보에 기초하여, 상기 제1 클라이언트 단말기의 유저와 상기 제2 클라이언트 단말기의 유저의 사이에서의 커뮤니케이션이 행해질 것으로 추정된 경우, 상기 커뮤니케이션이 행해질 것으로 추정되지 않는 경우보다, 상기 아바타의 방향을 크게 변화시키는,The first control unit, based on the location information of the first client terminal regarding the map information, the location information of the second client terminal, and the posture information of the second client terminal, the user of the first client terminal When it is estimated that communication between the user of the second client terminal and the second client terminal is to be performed, the direction of the avatar is changed significantly, compared to a case where the communication is not estimated to be performed,

상기 (3)에 기재된 정보 처리 장치.The information processing device according to (3) above.

(5)(5)

상기 콘텐츠 정보는, 상기 가상 오브젝트에 의해 행해질 이벤트에 관한 정보를 더 포함하는,The content information further includes information on an event to be performed by the virtual object,

상기 (1) 내지 (4) 중 어느 한 항에 기재된 정보 처리 장치.The information processing device according to any one of (1) to (4) above.

(6)(6)

상기 콘텐츠 정보는, 상기 가상 오브젝트의 음상 정보를 더 포함하고,The content information further includes sound image information of the virtual object,

상기 제1 제어부는, 상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에서 상기 음상 정보를 출력시키는,The first control unit outputs the sound image information at a location in a virtual space corresponding to the location information based on the content information,

상기 (1) 내지 (5) 중 어느 한 항에 기재된 정보 처리 장치.The information processing device according to any one of (1) to (5) above.

(7)(7)

상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 상기 실공간에 있어서의 위치에, 상기 실공간의 상에 대하여 중첩되도록 상기 화상 정보를 표시시키는 제2 제어부를 더 구비하는,Based on the content information, further comprising a second control unit for displaying the image information so as to overlap the image of the real space at a position in the real space corresponding to the position information,

상기 (1) 내지 (6) 중 어느 한 항에 기재된 정보 처리 장치.The information processing device according to any one of (1) to (6) above.

(8)(8)

유저로부터의 입력에 기초하여 상기 콘텐츠 정보를 작성하는 콘텐츠 작성부를 더 구비하는,Further comprising a content creation unit for creating the content information based on an input from a user,

상기 (1) 내지 (7) 중 어느 한 항에 기재된 정보 처리 장치.The information processing device according to any one of (1) to (7) above.

(9)(9)

상기 콘텐츠 작성부는, AR(Augmented Reality) 콘텐츠, 및 상기 AR 콘텐츠에 대응하는 VR(Virtual Reality) 콘텐츠를 작성하는,The content creation unit creates AR (Augmented Reality) content and VR (Virtual Reality) content corresponding to the AR content,

상기 (8)에 기재된 정보 처리 장치.The information processing device according to (8) above.

(10)(10)

상기 콘텐츠 작성부는, 상기 AR 콘텐츠의 작성에 사용되는 정보의 적어도 일부를 사용하여 상기 VR 콘텐츠를 작성하는,The content creation unit creates the VR content by using at least part of the information used to create the AR content,

상기 (9)에 기재된 정보 처리 장치.The information processing device according to (9) above.

(11)(11)

상기 콘텐츠 작성부는, 상기 입력에 사용되는 GUI 화면을 유저에게 제공하는,The content creation unit provides a user with a GUI screen used for the input,

상기 (8) 내지 (11) 중 어느 한 항에 기재된 정보 처리 장치.The information processing device according to any one of (8) to (11) above.

(12)(12)

상기 콘텐츠 작성부는, 상기 GUI 화면으로서, 상기 화상 정보의 입력 화면, 상기 위치 정보의 입력 화면, 또는 상기 가상 오브젝트에 의해 행해지는 이벤트에 관한 정보의 입력 화면을 상기 유저에게 제공하는,The content creation unit provides the user with, as the GUI screen, an input screen of the image information, an input screen of the location information, or an input screen of information about an event performed by the virtual object,

상기 (11)에 기재된 정보 처리 장치.The information processing device according to (11) above.

(13)(13)

상기 콘텐츠 작성부는,The content creation unit,

상기 유저에 의한 가상 오브젝트에 대한 드래그 조작 정보 및 드롭 조작 정보를 수신하고,Receiving drag operation information and drop operation information for the virtual object by the user,

상기 가상 오브젝트의 프로퍼티와, 상기 드래그 조작 정보에 대응하는 상기 가상 오브젝트의 드롭 위치와, 상기 드롭 위치에 대응하는 상기 지도 정보의 조합이 소정의 조건을 충족한 경우에, 상기 가상 오브젝트의 위치를 지도 정보에 기초하여 자동적으로 조정하고,When a combination of the property of the virtual object, the drop position of the virtual object corresponding to the drag operation information, and the map information corresponding to the drop position satisfies a predetermined condition, the position of the virtual object is mapped Automatically adjust based on information,

상기 조합이 상기 소정의 조건을 충족하지 않은 경우에, 상기 가상 오브젝트의 위치를 유저에 의한 드롭 위치로 설정하는,When the combination does not satisfy the predetermined condition, setting the position of the virtual object as a drop position by the user,

상기 (12)에 기재된 정보 처리 장치.The information processing device according to (12) above.

(14)(14)

상기 콘텐츠 작성부는, AR 콘텐츠를 플레이하는 복수의 클라이언트 단말기로부터 취득되는 복수의 촬상 화상, 상기 복수의 클라이언트 단말기로부터 취득되는 상기 AR 콘텐츠의 콘텐츠 정보, 및 상기 복수의 클라이언트 단말기의 상기 지도 정보에 관한 위치 정보에 기초하여, 상기 실공간에 있는 특정의 실제 오브젝트의 3D 모델링을 행하는,The content creation unit includes a plurality of captured images acquired from a plurality of client terminals that play AR content, content information of the AR content acquired from the plurality of client terminals, and locations of the map information of the plurality of client terminals. Based on the information, performing 3D modeling of a specific real object in the real space,

상기 (8) 내지 (13) 중 어느 한 항에 기재된 정보 처리 장치.The information processing device according to any one of (8) to (13) above.

(15)(15)

가상 오브젝트의 화상 정보 및 실공간에 있어서의 상기 가상 오브젝트의 위치 정보를 포함하고, 상기 실공간을 나타내는 지도 정보에 대하여 부가되는 콘텐츠 정보를 취득하는 것과,Acquiring content information added to map information indicating the real space, including image information of a virtual object and position information of the virtual object in real space;

상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에, 일인칭 시점에서 시인 가능한 상기 가상 공간의 상에 대하여 중첩되도록 상기 화상 정보를 제1 클라이언트 단말기에 표시시키는 것을 갖는,Based on the content information, displaying the image information on a first client terminal such that the image information is superimposed on a position in the virtual space corresponding to the location information with respect to an image of the virtual space that can be visually recognized from a first-person view,

컴퓨터에 의해 실행되는 정보 처리 방법.A method of processing information executed by a computer.

(16)(16)

가상 오브젝트의 화상 정보 및 실공간에 있어서의 상기 가상 오브젝트의 위치 정보를 포함하고, 상기 실공간을 나타내는 지도 정보에 대하여 부가되는 콘텐츠 정보를 취득하는 것과,Acquiring content information added to map information indicating the real space, including image information of a virtual object and position information of the virtual object in real space;

상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에, 일인칭 시점에서 시인 가능한 상기 가상 공간의 상에 대하여 중첩되도록 상기 화상 정보를 제1 클라이언트 단말기에 표시시키는 것Based on the content information, displaying the image information on a first client terminal such that the image information is superimposed on a position in a virtual space corresponding to the location information with respect to an image of the virtual space that can be visually recognized from a first-person view.

을 컴퓨터에 실현시키기 위한 프로그램.Program for realizing the computer.

100: 서버
110: 콘텐츠 작성부
111: 위치 처리부
112: 오브젝트 처리부
113: 이벤트 처리부
114: 콘텐츠 작성 제어부
120: 콘텐츠 제공부
121: 취득부
122: 루트 결정부
123: 콘텐츠 제공 제어부
130: 통신부
140: 기억부
200: 클라이언트
210: 센서부
211: 외향 카메라
212: 내향 카메라
213: 마이크
214: 자이로 센서
215: 가속도 센서
216: 방위 센서
217: 측위부
220: 입력부
230: 제어부
231: 인식 엔진
231a: 헤드부 자세 인식 엔진
231b: Depth 인식 엔진
231c: SLAM 인식 엔진
231d: 시선 인식 엔진
231e: 음성 인식 엔진
231f: 위치 인식 엔진
231g: 행동 인식 엔진
232: 콘텐츠 처리부
240: 출력부
250: 통신부
260: 기억부
100: server
110: content creation unit
111: location processing unit
112: object processing unit
113: event processing unit
114: content creation control unit
120: content provider
121: acquisition unit
122: route decision section
123: content provision control unit
130: communication department
140: memory
200: client
210: sensor unit
211: outward camera
212: introverted camera
213: microphone
214: gyro sensor
215: acceleration sensor
216: orientation sensor
217: positioning portion
220: input unit
230: control unit
231: recognition engine
231a: Head posture recognition engine
231b: Depth recognition engine
231c: SLAM recognition engine
231d: gaze recognition engine
231e: speech recognition engine
231f: location awareness engine
231g: behavior recognition engine
232: content processing unit
240: output
250: communication department
260: memory

Claims (16)

가상 오브젝트의 화상 정보 및 실공간에 있어서의 상기 가상 오브젝트의 위치 정보를 포함하고, 상기 실공간을 나타내는 지도 정보에 대하여 부가되는 콘텐츠 정보를 취득하는 취득부와,
상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에, 일인칭 시점에서 시인 가능한 상기 가상 공간의 상에 대하여 중첩되도록 상기 화상 정보를 제1 클라이언트 단말기에 표시시키는 제1 제어부를 구비하는,
정보 처리 장치.
An acquisition unit that includes image information of a virtual object and position information of the virtual object in real space, and acquires content information added to map information indicating the real space;
Based on the content information, a first control unit for displaying the image information on a first client terminal such that the image information is superimposed on a position in a virtual space corresponding to the location information with respect to an image of the virtual space that can be visually recognized from a first person viewpoint Equipped,
Information processing device.
제1항에 있어서,
상기 가상 공간의 상은, 상기 실공간의 촬상 화상에 기초하는 상기 실공간에 대응하는 상인,
정보 처리 장치.
The method of claim 1,
The image of the virtual space is a merchant corresponding to the real space based on a captured image of the real space,
Information processing device.
제2항에 있어서,
상기 제1 제어부는, 상기 제1 클라이언트 단말기와는 다른 제2 클라이언트 단말기의 상기 지도 정보에 관한 위치 정보에 기초하여, 상기 제2 클라이언트 단말기에 대응하는 아바타를, 상기 가상 공간의 상에 대하여 중첩되도록 상기 제1 클라이언트 단말기에 표시시키는,
정보 처리 장치.
The method of claim 2,
The first control unit, based on the location information on the map information of the second client terminal different from the first client terminal, so that the avatar corresponding to the second client terminal overlaps the image of the virtual space. Displaying on the first client terminal,
Information processing device.
제3항에 있어서,
상기 제1 제어부는, 상기 지도 정보에 관한 상기 제1 클라이언트 단말기의 위치 정보, 상기 제2 클라이언트 단말기의 상기 위치 정보, 및 상기 제2 클라이언트 단말기의 자세 정보에 기초하여, 상기 제1 클라이언트 단말기의 유저와 상기 제2 클라이언트 단말기의 유저의 사이에서의 커뮤니케이션이 행해질 것으로 추정된 경우, 상기 커뮤니케이션이 행해질 것으로 추정되지 않는 경우보다, 상기 아바타의 방향을 크게 변화시키는,
정보 처리 장치.
The method of claim 3,
The first control unit, based on the location information of the first client terminal regarding the map information, the location information of the second client terminal, and the posture information of the second client terminal, the user of the first client terminal When it is estimated that communication between the user of the second client terminal and the second client terminal is to be performed, the direction of the avatar is changed significantly, compared to a case where the communication is not estimated to be performed
Information processing device.
제1항에 있어서,
상기 콘텐츠 정보는, 상기 가상 오브젝트에 의해 행해질 이벤트에 관한 정보를 더 포함하는,
정보 처리 장치.
The method of claim 1,
The content information further includes information on an event to be performed by the virtual object,
Information processing device.
제1항에 있어서,
상기 콘텐츠 정보는, 상기 가상 오브젝트의 음상 정보를 더 포함하고,
상기 제1 제어부는, 상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에서 상기 음상 정보를 출력시키는,
정보 처리 장치.
The method of claim 1,
The content information further includes sound image information of the virtual object,
The first control unit outputs the sound image information at a location in a virtual space corresponding to the location information based on the content information,
Information processing device.
제1항에 있어서,
상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 상기 실공간에 있어서의 위치에, 상기 실공간의 상에 대하여 중첩되도록 상기 화상 정보를 표시시키는 제2 제어부를 더 구비하는,
정보 처리 장치.
The method of claim 1,
Based on the content information, further comprising a second control unit for displaying the image information so as to overlap the image of the real space at a position in the real space corresponding to the position information,
Information processing device.
제1항에 있어서,
유저로부터의 입력에 기초하여 상기 콘텐츠 정보를 작성하는 콘텐츠 작성부를 더 구비하는,
정보 처리 장치.
The method of claim 1,
Further comprising a content creation unit for creating the content information based on an input from a user,
Information processing device.
제8항에 있어서,
상기 콘텐츠 작성부는, AR(Augmented Reality) 콘텐츠, 및 상기 AR 콘텐츠에 대응하는 VR(Virtual Reality) 콘텐츠를 작성하는,
정보 처리 장치.
The method of claim 8,
The content creation unit creates AR (Augmented Reality) content and VR (Virtual Reality) content corresponding to the AR content,
Information processing device.
제9항에 있어서,
상기 콘텐츠 작성부는, 상기 AR 콘텐츠의 작성에 사용되는 정보의 적어도 일부를 사용하여 상기 VR 콘텐츠를 작성하는,
정보 처리 장치.
The method of claim 9,
The content creation unit creates the VR content by using at least part of the information used to create the AR content,
Information processing device.
제8항에 있어서,
상기 콘텐츠 작성부는, 상기 입력에 사용되는 GUI 화면을 유저에게 제공하는,
정보 처리 장치.
The method of claim 8,
The content creation unit provides a user with a GUI screen used for the input,
Information processing device.
제11항에 있어서,
상기 콘텐츠 작성부는, 상기 GUI 화면으로서, 상기 화상 정보의 입력 화면, 상기 위치 정보의 입력 화면, 또는 상기 가상 오브젝트에 의해 행해지는 이벤트에 관한 정보의 입력 화면을 상기 유저에게 제공하는,
정보 처리 장치.
The method of claim 11,
The content creation unit provides the user with, as the GUI screen, an input screen of the image information, an input screen of the location information, or an input screen of information about an event performed by the virtual object,
Information processing device.
제12항에 있어서,
상기 콘텐츠 작성부는,
상기 유저에 의한 가상 오브젝트에 대한 드래그 조작 정보 및 드롭 조작 정보를 수신하고,
상기 가상 오브젝트의 프로퍼티와, 상기 드래그 조작 정보에 대응하는 상기 가상 오브젝트의 드롭 위치와, 상기 드롭 위치에 대응하는 상기 지도 정보의 조합이 소정의 조건을 충족한 경우에, 상기 가상 오브젝트의 위치를 지도 정보에 기초하여 자동적으로 조정하고,
상기 조합이 상기 소정의 조건을 충족하지 않은 경우에, 상기 가상 오브젝트의 위치를 유저에 의한 드롭 위치로 설정하는,
정보 처리 장치.
The method of claim 12,
The content creation unit,
Receiving drag operation information and drop operation information for the virtual object by the user,
When a combination of the property of the virtual object, the drop position of the virtual object corresponding to the drag operation information, and the map information corresponding to the drop position satisfies a predetermined condition, the position of the virtual object is mapped Automatically adjust based on information,
When the combination does not satisfy the predetermined condition, setting the position of the virtual object as a drop position by the user,
Information processing device.
제8항에 있어서,
상기 콘텐츠 작성부는, AR 콘텐츠를 플레이하는 복수의 클라이언트 단말기로부터 취득되는 복수의 촬상 화상, 상기 복수의 클라이언트 단말기로부터 취득되는 상기 AR 콘텐츠의 콘텐츠 정보, 및 상기 복수의 클라이언트 단말기의 상기 지도 정보에 관한 위치 정보에 기초하여, 상기 실공간에 있는 특정의 실제 오브젝트의 3D 모델링을 행하는,
정보 처리 장치.
The method of claim 8,
The content creation unit includes a plurality of captured images acquired from a plurality of client terminals that play AR content, content information of the AR content acquired from the plurality of client terminals, and locations of the map information of the plurality of client terminals. Based on the information, performing 3D modeling of a specific real object in the real space,
Information processing device.
가상 오브젝트의 화상 정보 및 실공간에 있어서의 상기 가상 오브젝트의 위치 정보를 포함하고, 상기 실공간을 나타내는 지도 정보에 대하여 부가되는 콘텐츠 정보를 취득하는 것과,
상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에, 일인칭 시점에서 시인 가능한 상기 가상 공간의 상에 대하여 중첩되도록 상기 화상 정보를 제1 클라이언트 단말기에 표시시키는 것을 갖는,
컴퓨터에 의해 실행되는, 정보 처리 방법.
Acquiring content information added to map information indicating the real space, including image information of a virtual object and position information of the virtual object in real space;
Based on the content information, displaying the image information on a first client terminal such that the image information is superimposed on a position in the virtual space corresponding to the location information with respect to an image of the virtual space that can be visually recognized from a first-person view,
Information processing method executed by a computer.
가상 오브젝트의 화상 정보 및 실공간에 있어서의 상기 가상 오브젝트의 위치 정보를 포함하고, 상기 실공간을 나타내는 지도 정보에 대하여 부가되는 콘텐츠 정보를 취득하는 것과,
상기 콘텐츠 정보에 기초하여, 상기 위치 정보에 대응하는 가상 공간에 있어서의 위치에, 일인칭 시점에서 시인 가능한 상기 가상 공간의 상에 대하여 중첩되도록 상기 화상 정보를 제1 클라이언트 단말기에 표시시키는 것
을 컴퓨터에 실현시키기 위한, 프로그램.
Acquiring content information added to map information indicating the real space, including image information of a virtual object and position information of the virtual object in real space;
Based on the content information, displaying the image information on a first client terminal such that the image information is superimposed on a position in a virtual space corresponding to the location information with respect to an image of the virtual space that can be visually recognized from a first-person view.
Program for realizing the computer.
KR1020207015001A 2017-12-28 2018-11-13 Information processing device, information processing method and program KR20200100046A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017253804 2017-12-28
JPJP-P-2017-253804 2017-12-28
PCT/JP2018/041933 WO2019130864A1 (en) 2017-12-28 2018-11-13 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
KR20200100046A true KR20200100046A (en) 2020-08-25

Family

ID=67067078

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207015001A KR20200100046A (en) 2017-12-28 2018-11-13 Information processing device, information processing method and program

Country Status (5)

Country Link
US (1) US20210375052A1 (en)
JP (1) JPWO2019130864A1 (en)
KR (1) KR20200100046A (en)
DE (1) DE112018006666T5 (en)
WO (1) WO2019130864A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220052676A (en) * 2020-10-21 2022-04-28 주식회사 와이드브레인 Method And Apparatus for Providing AR Game
KR20220150020A (en) * 2021-05-03 2022-11-10 주식회사 와이드브레인 Method And Apparatus for Collecting AR Coordinate by Using Location based game
WO2023200318A1 (en) * 2022-04-15 2023-10-19 주식회사 네모즈랩 Method and device for providing music in virtual space, and non-transitory computer-readable recording medium

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7244541B2 (en) * 2018-12-03 2023-03-22 マクセル株式会社 Augmented reality display device and augmented reality display method
US20230011625A1 (en) * 2019-12-24 2023-01-12 Nec Corporation Information processing device, control method, and storage medium
US11393171B2 (en) * 2020-07-21 2022-07-19 International Business Machines Corporation Mobile device based VR content control
JP7185670B2 (en) * 2020-09-02 2022-12-07 株式会社スクウェア・エニックス Video game processing program and video game processing system
CN114546108A (en) * 2022-01-14 2022-05-27 深圳市大富网络技术有限公司 User operation method, device, system and storage medium based on VR/AR
JP7412497B1 (en) 2022-09-26 2024-01-12 株式会社コロプラ information processing system
JP7413472B1 (en) 2022-09-26 2024-01-15 株式会社コロプラ Information processing systems and programs
JP7354466B1 (en) * 2023-02-02 2023-10-02 株式会社コロプラ Information processing systems and programs

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016087017A (en) 2014-10-31 2016-05-23 株式会社ソニー・コンピュータエンタテインメント Mobile terminal device, game device, game system, game control method and game control program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4048347B2 (en) * 2001-11-09 2008-02-20 ソニー株式会社 Three-dimensional virtual space display method, program, recording medium storing the program, and three-dimensional virtual space control device
JP4078080B2 (en) * 2002-01-15 2008-04-23 キヤノン株式会社 Information processing apparatus and method
JP2003305276A (en) * 2002-02-18 2003-10-28 Space Tag Inc Game system, game apparatus and recording medium
JP4253567B2 (en) * 2003-03-28 2009-04-15 オリンパス株式会社 Data authoring processor
US8839121B2 (en) * 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
US8682879B2 (en) * 2010-04-16 2014-03-25 Bizmodeline Co., Ltd. Marker search system for augmented reality service
JP5987306B2 (en) * 2011-12-06 2016-09-07 ソニー株式会社 Image processing apparatus, image processing method, and program
EP4193906A1 (en) * 2013-03-11 2023-06-14 Magic Leap, Inc. Method for augmented and virtual reality
US9521515B2 (en) * 2015-01-26 2016-12-13 Mobli Technologies 2010 Ltd. Content request by location
JP6404490B2 (en) * 2015-11-27 2018-10-10 株式会社アースビート GAME SYSTEM AND GAME PROGRAM

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016087017A (en) 2014-10-31 2016-05-23 株式会社ソニー・コンピュータエンタテインメント Mobile terminal device, game device, game system, game control method and game control program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220052676A (en) * 2020-10-21 2022-04-28 주식회사 와이드브레인 Method And Apparatus for Providing AR Game
KR20220150020A (en) * 2021-05-03 2022-11-10 주식회사 와이드브레인 Method And Apparatus for Collecting AR Coordinate by Using Location based game
WO2023200318A1 (en) * 2022-04-15 2023-10-19 주식회사 네모즈랩 Method and device for providing music in virtual space, and non-transitory computer-readable recording medium

Also Published As

Publication number Publication date
WO2019130864A1 (en) 2019-07-04
JPWO2019130864A1 (en) 2021-01-28
DE112018006666T5 (en) 2020-09-24
US20210375052A1 (en) 2021-12-02

Similar Documents

Publication Publication Date Title
KR20200100046A (en) Information processing device, information processing method and program
JP7002684B2 (en) Systems and methods for augmented reality and virtual reality
JP6792039B2 (en) Systems and methods for augmented reality and virtual reality
JP6276882B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
CN109792564B (en) Method and system for accessing previously stored gameplay through video recording performed on a game cloud system
JP6281496B2 (en) Information processing apparatus, terminal apparatus, information processing method, and program
JP6281495B2 (en) Information processing apparatus, terminal apparatus, information processing method, and program
US9767524B2 (en) Interaction with virtual objects causing change of legal status
JP2022046670A (en) System, method, and medium for displaying interactive augmented reality presentation
US9286711B2 (en) Representing a location at a previous time period using an augmented reality display
CN103635891B (en) The world is presented in a large amount of digital remotes simultaneously
CN109314801A (en) The method and system executed later for saving the snapshot of Entertainment and for starting the Entertainment that any user carries out when executing on game cloud system
JP2014149712A (en) Information processing device, terminal device, information processing method, and program
CN106716306A (en) Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
CN109314800B (en) Method and system for directing user attention to location-based game play companion application
US20190043263A1 (en) Program executed on a computer for providing vertual space, method and information processing apparatus for executing the program
JP2023143963A (en) Program, information processing method, and information processing device
JP6554139B2 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP7016438B1 (en) Information processing systems, information processing methods and computer programs
US20240179291A1 (en) Generating 3d video using 2d images and audio with background keyed to 2d image-derived metadata
JP7223834B2 (en) Program, information processing method and information processing apparatus
JP7317322B2 (en) Information processing system, information processing method and computer program
JP7357865B1 (en) Program, information processing method, and information processing device
US20240169603A1 (en) Wearable device for displaying visual object for controlling virtual object and method thereof
US20230078189A1 (en) Adaptive rendering of game to capabilities of device

Legal Events

Date Code Title Description
A201 Request for examination