JP2020013236A - Content play back control program - Google Patents

Content play back control program Download PDF

Info

Publication number
JP2020013236A
JP2020013236A JP2018133854A JP2018133854A JP2020013236A JP 2020013236 A JP2020013236 A JP 2020013236A JP 2018133854 A JP2018133854 A JP 2018133854A JP 2018133854 A JP2018133854 A JP 2018133854A JP 2020013236 A JP2020013236 A JP 2020013236A
Authority
JP
Japan
Prior art keywords
content
user
unit
contents
virtual reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018133854A
Other languages
Japanese (ja)
Other versions
JP6480627B1 (en
Inventor
昭人 竹井
Akihito Takei
昭人 竹井
航平 ▲高▼見
航平 ▲高▼見
Kohei Takami
庸平 宮本
Yohei Miyamoto
庸平 宮本
亮介 谷口
Ryosuke Taniguchi
亮介 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Abeam Consulting Ltd
Original Assignee
Abeam Consulting Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Abeam Consulting Ltd filed Critical Abeam Consulting Ltd
Priority to JP2018133854A priority Critical patent/JP6480627B1/en
Application granted granted Critical
Publication of JP6480627B1 publication Critical patent/JP6480627B1/en
Priority to PCT/JP2019/027239 priority patent/WO2020017402A1/en
Publication of JP2020013236A publication Critical patent/JP2020013236A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To provide a program and the like that can grasp need of a user who visits an event such as sport more efficiently and properly than a conventional one.SOLUTION: A user terminal 200 identifies main content CM that a user who views VR content C1 is interested in from a visual line direction of the user and plays back and displays sub content CS related to the identified main content CM (step S1 to step S6). Further, the user terminal 200 identifies sub content CS that the user is interested in from a visual line direction of the user, acquires additional content related to the identified sub content CS from a distribution server 400, and plays back and displays the content (step S7 to step S11).SELECTED DRAWING: Figure 10

Description

本開示は、仮想現実コンテンツの再生を制御するためのプログラムに関する。   The present disclosure relates to a program for controlling reproduction of virtual reality content.

スポーツビジネス分野においては、いかに多くのユーザに会場へ足を運んでもらうか(すなわち、いかに集客するか)が非常に重要である(例えば、特許文献1参照)。   In the sports business field, it is very important how many users go to the venue (that is, how to attract customers) (for example, see Patent Document 1).

例えば、モータスポーツであれば、レース会場に足を運んでくれたユーザに、ファンサービスの一環として、レース前に行われるイベントにおいて、各ドライバーたちと接触できるチャンスを用意したり、各ドライバーの写真やチームロゴなどが入ったサイン入りカード(いわゆる、ヒーローカード)を配布したりといった取り組みが行われている。   For example, in the case of motorsports, as a part of fan service, users who come to the race venue will have the opportunity to contact each driver at an event held before the race, and photos of each driver There are also efforts to distribute autographed cards (so-called hero cards) that include a logo and team logo.

このような取組みを行うことで、新規ユーザを獲得するとともに、実際にレース会場に足を運んで観戦してくれる熱心なユーザを増やすことが可能となるが、レース会場に定期的に足を運んでもらうためには、ユーザのニーズを的確に把握し、より満足度の高いファンサービスを提供していくことが必要となる。   By taking such an approach, it is possible to acquire new users and increase the number of enthusiastic users who actually go to the race venue and watch the game, but regularly visit the race venue. In order to receive such services, it is necessary to accurately grasp the needs of users and provide fan services with higher satisfaction.

特開2014−16770号公報JP 2014-16770 A

現状では、レース会場に足を運んでくれたユーザに紙ベースのアンケートを実施し、アンケート結果を収集・分析することでファンのニーズの把握等を試みているが、必ずしもアンケートの回収率等がよいとはいえず、ユーザのニーズ(ユーザの属性や興味なども含む)を的確に把握することは難しいという問題があった。   At present, we conduct a paper-based questionnaire for users who come to the race venue and try to understand the needs of fans by collecting and analyzing the questionnaire results, but the collection rate of the questionnaire is not necessarily It is not good, and there is a problem that it is difficult to accurately grasp user needs (including user attributes and interests).

本発明は以上説明した事情を鑑みてなされたものであり、従来に比して、スポーツ等のイベントに来場するユーザのニーズを、効率的かつ的確に把握することが可能なプログラム等を提供することを目的とする。   The present invention has been made in view of the circumstances described above, and provides a program and the like capable of efficiently and accurately grasping the needs of a user who visits an event such as a sport, as compared with the related art. The purpose is to:

本開示の一実施形態に係るプログラムは、ユーザ端末による仮想現実コンテンツの再生を制御するためのプログラムであって、前記仮想現実コンテンツを記憶する記憶部を備えた前記ユーザ端末を、ユーザの入力指示に従って、前記仮想現実コンテンツを再生する再生部と、前記仮想現実コンテンツの再生中に、前記ユーザの視線方向を検出する検出部と、検出された前記ユーザの視線方向から、前記ユーザが興味を示した前記仮想現実コンテンツの内容を特定する特定部と、特定された前記仮想現実コンテンツの内容をあらわす情報を、外部サーバに送信する送信部として機能させることを要旨とする。   A program according to an embodiment of the present disclosure is a program for controlling reproduction of virtual reality content by a user terminal, and instructs the user terminal provided with a storage unit that stores the virtual reality content to input a user instruction. A reproducing unit that reproduces the virtual reality content, a detecting unit that detects the direction of the user's line of sight during the reproduction of the virtual reality content, and indicates the user's interest from the detected line of sight of the user. The gist is to function as a specifying unit that specifies the contents of the virtual reality content and a transmitting unit that transmits information representing the contents of the specified virtual reality content to an external server.

本開示の他の実施形態に係るプログラムは、ユーザ端末による仮想現実コンテンツの再生を制御するためのプログラムであって、複数の前記仮想現実コンテンツを記憶する記憶部を備えた前記ユーザ端末を、前記仮想現実コンテンツの再生指示が入力された場合に、周囲環境をあらわす周囲環境情報を検出する周囲環境検出部と、検出された周囲環境情報に基づき、複数の前記仮想現実コンテンツの中から、再生すべき仮想現実コンテンツを選択する選択部と、選択された前記仮想現実コンテンツを再生する再生部として機能させることを要旨とする。   A program according to another embodiment of the present disclosure is a program for controlling reproduction of virtual reality content by a user terminal, the user terminal including a storage unit that stores a plurality of the virtual reality content, When an instruction to reproduce virtual reality content is input, a surrounding environment detecting unit that detects surrounding environment information representing the surrounding environment, and, based on the detected surrounding environment information, performs playback from the plurality of virtual reality contents. The gist is to function as a selection unit that selects a virtual reality content to be played and a playback unit that plays back the selected virtual reality content.

本発明によれば、従来に比して、スポーツ等のイベントに来場するユーザのニーズを、効率的かつ的確に把握することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to grasp | ascertain the needs of the user who visits an event, such as sports, more efficiently and correctly than before.

図1は、実施形態の一態様に係るマーケティングシステムの構成を示す。FIG. 1 illustrates a configuration of a marketing system according to an aspect of the embodiment. 図2は、マーケティングシステムの概要を説明するための概略フローチャートである。FIG. 2 is a schematic flowchart for explaining the outline of the marketing system. 図3は、第1実施形態に係るユーザ端末の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of the user terminal according to the first embodiment. 図4は、VRコンテンツの内容を例示した図である。FIG. 4 is a diagram exemplifying the contents of the VR content. 図5は、VRコンテンツを体験するために必要なVRゴーグルの装着例を示す図である。FIG. 5 is a diagram showing an example of wearing VR goggles necessary for experiencing VR content. 図6は、VRコンテンツC1の再生態様(その1)を例示した図である。FIG. 6 is a diagram exemplifying a reproduction mode (part 1) of the VR content C1. 図7は、VRコンテンツC1の再生態様(その2)を例示した図である。FIG. 7 is a diagram exemplifying a reproduction mode (2) of the VR content C1. 図8は、ユーザ情報DBの登録内容を例示した図である。FIG. 8 is a diagram exemplifying the registered contents of the user information DB. 図9は、追加コンテンツテーブルの登録内容を例示した図である。FIG. 9 is a diagram exemplifying the registered contents of the additional content table. 図10は、VRコンテンツの再生処理を示すフローチャートである。FIG. 10 is a flowchart showing a VR content playback process. 図11は、第2実施形態に係るユーザ端末の機能構成を示すブロック図である。FIG. 11 is a block diagram illustrating a functional configuration of a user terminal according to the second embodiment. 図12は、VRコンテンツの選択再生処理を示すフローチャートである。FIG. 12 is a flowchart showing the VR content selective reproduction process. 図13は、周囲環境に応じて異なるVRコンテンツが再生される様子を示した図である。FIG. 13 is a diagram showing how different VR contents are reproduced according to the surrounding environment.

添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは同一又は同様の構成を有する。   A preferred embodiment of the present invention will be described with reference to the accompanying drawings. In each of the drawings, components denoted by the same reference numerals have the same or similar configurations.

A.第1実施形態
(1)構成
図1を参照し、第1実施形態に係るマーケティングシステム100の構成について説明する。なお、本実施形態に係るマーケティングシステム100は、自動車やオートバイなどのモータスポーツビジネスに適用した場合を想定するが、例えば、野球やサッカー、バスケットボール、アメリカンフットボールやアイスホッケーなど、あらゆるスポーツビジネスに適用可能である。
A. 1. First Embodiment (1) Configuration The configuration of a marketing system 100 according to a first embodiment will be described with reference to FIG. Although the marketing system 100 according to the present embodiment is assumed to be applied to a motor sports business such as an automobile or a motorcycle, for example, it can be applied to any sports business such as baseball, soccer, basketball, American football, and ice hockey. It is.

マーケティングシステム100は、ユーザが操作するユーザ端末200と、各ユーザ端末200を管理する管理サーバ300と、各ユーザ端末200からのリクエストに応じて追加コンテンツを配信する配信サーバ400とを備えて構成される。ユーザ端末200と管理サーバ300と配信サーバ400との間は、ネットワークNを介して相互に通信できるように構成される。   The marketing system 100 includes a user terminal 200 operated by a user, a management server 300 that manages each user terminal 200, and a distribution server 400 that distributes additional content in response to a request from each user terminal 200. You. The user terminal 200, the management server 300, and the distribution server 400 are configured to be able to communicate with each other via the network N.

ネットワークNは、有線であっても無線であってもよく、有線と無線とを組み合わせてもよい。本実施形態では、例示的に、ユーザ端末200と管理サーバ300と配信サーバ400との間は、無線ネットワークを利用することとする。なお、ネットワークNに接続されるユーザ端末200や管理サーバ300、配信サーバ400の数は限定されない。   The network N may be wired or wireless, or a combination of wired and wireless. In the present embodiment, for example, a wireless network is used between the user terminal 200, the management server 300, and the distribution server 400. The number of user terminals 200, management servers 300, and distribution servers 400 connected to the network N is not limited.

(概要)
図2は、第1実施形態に係るマーケティングシステム100の概要を説明するための概略フローチャートである。
マーケティングシステム100の利用に先立ち、ユーザは、本実施形態に特徴的な仮想現実アプリケーション(以下、「VRアプリ」と略称する。)をユーザ端末200にダウンロードする(ステップS1)。
(Overview)
FIG. 2 is a schematic flowchart for explaining the outline of the marketing system 100 according to the first embodiment.
Prior to using the marketing system 100, the user downloads a virtual reality application (hereinafter abbreviated as “VR application”) characteristic of the present embodiment to the user terminal 200 (step S1).

VRアプリは、レース(または試合)などに参加する憧れのドライバー(または選手)と同一空間を共有しているかのような仮想現実体験を提供するアプリケーションである。VRアプリを起動すると、仮想空間内のドライバーが対話形式でユーザに質問し、ユーザはユーザ端末200を操作して回答を入力する(ステップS2)。ユーザ端末200に入力された回答(例えば、年齢、性別、職業、国籍、メールアドレス、趣味、お気に入りのレース会場、応援しているレーシングチームなど)は、ユーザ情報として管理サーバ300に送信・登録される。ユーザは、VRアプリを利用することで、あたかも憧れのドライバーと対話をしているような感覚で、ユーザ情報を入力することができる。このため、従来のごとく、レース会場で配布されるアンケート用紙に、自身のユーザ情報を記入する方法と比較して、アンケートの回答自体を楽しむことができる。   The VR application is an application that provides a virtual reality experience as if sharing the same space with a longing driver (or player) participating in a race (or game) or the like. When the VR application is activated, the driver in the virtual space asks the user in an interactive manner, and the user operates the user terminal 200 and inputs an answer (step S2). The answer (eg, age, gender, occupation, nationality, e-mail address, hobby, favorite race venue, supporting racing team, etc.) input to the user terminal 200 is transmitted and registered as user information to the management server 300. You. By using the VR application, the user can input user information as if he were interacting with a longing driver. For this reason, it is possible to enjoy the answer to the questionnaire itself as compared with the conventional method in which the user's own information is entered in the questionnaire distributed at the race venue.

さらに、レース会場にて配布されるヒーローカードを、VRアプリがインストールされたユーザ端末200でスキャンすると(ステップS3)、ヒーローカードを取得したユーザ専用の特別な仮想現実コンテンツ(以下、「VRコンテンツ」と略称する。)を体験することができる(ステップS3)。詳細は後に明らかにするが、VRコンテンツを体験する際には、まず、ユーザ端末200をVRゴーグルにセットし、ユーザの頭部に装着する。これにより、ユーザは、クオリティの高い特別なVRコンテンツを楽しむことが可能となる。   Further, when the hero card distributed at the race venue is scanned by the user terminal 200 in which the VR application is installed (step S3), special virtual reality content (hereinafter, "VR content") dedicated to the user who has acquired the hero card Can be experienced (step S3). As will be described in detail later, when experiencing VR content, first, the user terminal 200 is set on VR goggles and worn on the head of the user. This allows the user to enjoy high quality special VR content.

<ユーザ端末200>
ユーザ端末200は、例えばスマートフォンやタブレット端末などであり、物理的な構成として、CPU及びメモリを含む制御ユニット、記憶装置、通信装置、表示装置等を備えて構成される。
<User terminal 200>
The user terminal 200 is, for example, a smartphone or a tablet terminal, and has a physical configuration including a control unit including a CPU and a memory, a storage device, a communication device, a display device, and the like.

図3は、ユーザ端末200の機能構成を示すブロック図である。
ユーザ端末200は、記憶装置に記憶されている各種ソフトウェアと制御ユニット等のハードウェア資源とが協働することによって、図3に示す記憶部21、入力部22、アンケート実施部23、再生部24、検出部25、特定部26、取得部27、通信部28の各機能を実現する。
FIG. 3 is a block diagram showing a functional configuration of the user terminal 200.
The user terminal 200 includes a storage unit 21, an input unit 22, a questionnaire execution unit 23, and a reproduction unit 24 shown in FIG. 3 by cooperation of various software stored in the storage device and hardware resources such as a control unit. , The detection unit 25, the identification unit 26, the acquisition unit 27, and the communication unit 28.

記憶部21は、メモリなどにより構成され、VRアプリAP1、VRコンテンツC1などを記憶する。
VRアプリAP1は、前述したように、レースに参加する憧れのドライバーと同一空間を共有しているかのような仮想現実体験を提供するアプリケーションである。
具体的には、VRアプリAP1は、仮想空間内でドライバーと対話しながらユーザ情報を入力する機能、さらには、ヒーローカードをユーザ端末200でスキャンすることで、ヒーローカードを取得したユーザ専用の特別なVRコンテンツを提供する機能などを実現する。
The storage unit 21 is configured by a memory or the like, and stores the VR application AP1, the VR content C1, and the like.
As described above, the VR application AP1 is an application that provides a virtual reality experience as if sharing the same space with a longing driver who participates in a race.
More specifically, the VR application AP1 has a function of inputting user information while interacting with a driver in a virtual space, and further scans a hero card with the user terminal 200 to obtain a special hero card dedicated to the user who has acquired the hero card. And the like to provide various VR contents.

VRコンテンツC1は、ドライバーに関連する様々なコンテンツを含んで構成される。詳細は後述するが、VRコンテンツC1は、例えば、ドライバーのレース中の映像(コンテンツ)や、ドライバーのプライベートな映像(コンテンツ)などを含む。VRコンテンツC1は、取得可能なヒーローカードに対応する全てのドライバーに関連するコンテンツを含む構成でもよいが、特定のドライバー(単数または複数)に関連するコンテンツを含む構成であってもよい。   The VR content C1 includes various contents related to the driver. Although the details will be described later, the VR content C1 includes, for example, a video (content) during the race of the driver, a video (content) private to the driver, and the like. The VR content C1 may be configured to include content related to all drivers corresponding to the hero card that can be obtained, or may be configured to include content related to a specific driver (single or multiple).

なお、VRアプリAP1やVRコンテンツC1は、マーケティングシステム100の利用に先立ち、ユーザ登録を行うことでダウンロード可能となっている。具体的には、ユーザ端末200を利用して管理サーバ300等にユーザ登録(ユーザID、パスワードなど)を行うと、VRアプリAP1やVRコンテンツC1がユーザ端末200にダウンロードされ、記憶部21に記憶される。   Note that the VR application AP1 and the VR content C1 can be downloaded by performing user registration before using the marketing system 100. Specifically, when user registration (user ID, password, etc.) is performed in the management server 300 or the like using the user terminal 200, the VR application AP1 and the VR content C1 are downloaded to the user terminal 200 and stored in the storage unit 21. Is done.

入力部22は、タッチパネルや各種操作ボタンなどにより構成されている。ユーザは、入力部22を適宜操作することで、VRアプリAP1の起動指示(入力指示)などを行う。なお、タッチパネルの操作やQRコード(登録商標)のスキャンなど、直接的な入力指示に従ってVRコンテンツC1を再生してもよいが、例えばユーザが特定方向に視線を動かしたことや、ユーザ端末200がユーザの頭部に装着されたことを契機としてVRコンテンツC1を再生する態様(すなわち、間接的な入力指示に従ってVRコンテンツを再生する態様)であってもよい。   The input unit 22 includes a touch panel, various operation buttons, and the like. By appropriately operating the input unit 22, the user issues a start instruction (input instruction) for the VR application AP1 and the like. Note that the VR content C1 may be reproduced according to a direct input instruction such as an operation on a touch panel or scanning of a QR code (registered trademark). However, for example, when the user moves his / her eyes in a specific direction, or when the user terminal 200 A mode in which the VR content C1 is reproduced upon being worn on the user's head (that is, a mode in which the VR content is reproduced in accordance with an indirect input instruction) may be employed.

アンケート実施部23は、VRアプリAP1を用いて、仮想空間内でのドライバーとユーザとの対話形式のアンケートを実施する。アンケートに対する回答を示す回答情報は、ユーザ情報として通信部28から管理サーバ300に送信される。   The questionnaire implementation unit 23 performs an interactive questionnaire between the driver and the user in the virtual space using the VR application AP1. The answer information indicating the answer to the questionnaire is transmitted from the communication unit 28 to the management server 300 as user information.

再生部24は、ユーザによる入力指示に従い、所望のドライバーのVRコンテンツC1などを再生する。
図4は、VRコンテンツC1の内容を例示した図である。
図4に示すVRコンテンツC1は、2つのメインコンテンツCM1及びCM2と、4つのサブコンテンツCS1−1、CS1−2、CS2−1、CS2−2を含んで構成される。サブコンテンツCS1−1及びCS1−2は、メインコンテンツCM1に関連する内容(メインコンテンツCM1の補足情報)であり、サブコンテンツCS2−1及びCS2−2は、メインコンテンツCM2に関連する内容(メインコンテンツCM2の補足情報)となっている。本実施形態では、ユーザが注視しているメインコンテンツを特定することで、当該ユーザが興味を示すと思われるサブコンテンツ(すなわち、メインコンテンツに関連するサブコンテンツ)を切り替え再生する。なお、以下の説明において、メインコンテンツ及びサブコンテンツのそれぞれについて、特に区別する必要がない場合には、メインコンテンツCM及びサブコンテンツCSと呼ぶ。また、メインコンテンツCMの数やサブコンテンツCSの数は、2つや4つに限定する趣旨ではなく、VRコンテンツの設計等に応じて適宜設定可能である。また、サブコンテンツは、メインコンテンツに関連していればよく、メインコンテンツに関連する広告映像などであってもよい。
The reproduction unit 24 reproduces the VR content C1 or the like of a desired driver according to an input instruction from the user.
FIG. 4 is a diagram exemplifying the contents of the VR content C1.
The VR content C1 illustrated in FIG. 4 includes two main contents CM1 and CM2 and four sub-contents CS1-1, CS1-2, CS2-1, and CS2-2. The sub contents CS1-1 and CS1-2 are contents related to the main content CM1 (supplementary information of the main content CM1), and the sub contents CS2-1 and CS2-2 are contents related to the main content CM2 (supplementary information of the main content CM2). ). In the present embodiment, by specifying the main content that the user is gazing at, the sub content that the user is likely to be interested in (that is, the sub content related to the main content) is switched and reproduced. In the following description, the main content and the sub-content are referred to as a main content CM and a sub-content CS, respectively, unless it is particularly necessary to distinguish them. Further, the number of main contents CM and the number of sub-contents CS are not limited to two or four, but can be set as appropriate according to the design of VR content. Further, the sub-content may be related to the main content, and may be an advertisement image related to the main content.

図5は、VRコンテンツC1を体験するために必要なVRゴーグルGの装着例を示す図である。
ユーザは、VRコンテンツC1の再生に先立ち、ユーザ端末200をVRゴーグルGにセットする。ユーザは、ユーザ端末200のセットされたVRゴーグルGを頭部に装着(VRゴーグルGを手で支持する態様も含む)することで、VRコンテンツC1を体験(視聴)することが可能となる。
FIG. 5 is a diagram showing an example of wearing VR goggles G required to experience the VR content C1.
The user sets the user terminal 200 to the VR goggles G before playing the VR content C1. The user can experience (view / view) the VR content C1 by wearing the VR goggles G set on the user terminal 200 on the head (including a mode in which the VR goggles G are supported by hands).

図6は、VRコンテンツC1の再生態様(その1)を例示した図である。
図6に示す例では、ユーザから見て左側LsにメインコンテンツCM1が再生・表示され、右側RsにメインコンテンツCM2が再生・表示される。ユーザは、頭部に装着したVRゴーグルGを介してメインコンテンツCMを視聴する。例えば、ドライバーのプライベートの映像に興味があるユーザであれば、矢印方向に顔を向け、メインコンテンツCM2を注視する。
FIG. 6 is a diagram exemplifying a reproduction mode (part 1) of the VR content C1.
In the example shown in FIG. 6, the main content CM1 is reproduced and displayed on the left side Ls when viewed from the user, and the main content CM2 is reproduced and displayed on the right side Rs. The user watches the main content CM via the VR goggles G attached to the head. For example, if the user is interested in the driver's private video, he turns his face in the direction of the arrow and watches the main content CM2.

検出部25は、VRゴーグルGを頭部に装着したユーザの顔の向きを検出する。検出部25は、例えば加速度センサやジャイロセンサ(角速度センサ)などにより構成され、VRゴーグルGにセットされたユーザ端末200の傾きや傾いている時間(傾き時間)を検知し、検知結果をもとに、ユーザの視線方向を検出する。検出部25は、検出したユーザの視線方向をあらわす視線情報を生成し、特定部26に出力する。図6を例に説明すると、検出部25は、ユーザが右側(図6に示す矢印方向参照)に顔を傾けていることをあらわす視線情報を生成し、特定部26に送る。なお、ユーザの顔の向きを検出する方法は、これに限る趣旨ではなく、例えば光学センサや画像センサを用いてユーザの眼球の向きを検知し、検知した眼球の向きからユーザの視線方向を検出するようにしてもよい。   The detection unit 25 detects the direction of the face of the user wearing the VR goggles G on the head. The detection unit 25 is configured by, for example, an acceleration sensor or a gyro sensor (angular velocity sensor), detects the inclination of the user terminal 200 set in the VR goggles G and the time during which the user terminal 200 is inclined (inclination time), and based on the detection result. Next, the gaze direction of the user is detected. The detecting unit 25 generates line-of-sight information indicating the detected line-of-sight direction of the user, and outputs the generated line-of-sight information to the specifying unit 26. 6, the detection unit 25 generates line-of-sight information indicating that the user is tilting his / her face to the right (see the arrow direction shown in FIG. 6), and sends the line-of-sight information to the identification unit 26. Note that the method of detecting the direction of the user's face is not limited to this.For example, the direction of the user's eyeball is detected using an optical sensor or an image sensor, and the user's line of sight is detected from the detected direction of the eyeball. You may make it.

特定部26は、検出部25から受け取る視線情報に基づき、ユーザが興味を示したメインコンテンツCMを特定する。図6を例に説明すると、特定部26は、受け取った視線情報から、ドライバーのプライベートの映像をあらわすメインコンテンツCM2を特定する。特定部26は、ユーザが注視するメインコンテンツCMを特定すると、特定したメインコンテンツCMを示すメインコンテンツ情報を再生部24に送るとともに、通信部28を介して管理サーバ300に送信する。   The specifying unit 26 specifies the main content CM to which the user is interested based on the line-of-sight information received from the detecting unit 25. Referring to FIG. 6 as an example, the specifying unit 26 specifies, from the received line-of-sight information, a main content CM2 representing a private video of the driver. When specifying the main content CM that the user gazes at, the specifying unit 26 sends main content information indicating the specified main content CM to the reproduction unit 24 and transmits the main content information to the management server 300 via the communication unit 28.

再生部24は、メインコンテンツ情報をもとに、当該メインコンテンツCMに関連するサブコンテンツCSを読み出し、再生する。   The reproduction unit 24 reads out and reproduces the sub-contents CS related to the main content CM based on the main content information.

図7は、VRコンテンツC1の再生態様(その2)を例示した図である。
図7に示す例では、ユーザから見て中央側Csに、ユーザが興味を示したメインコンテンツCM2に関連するサブコンテンツ(ここではサブコンテンツCS2−1及びCS2−2)が再生・表示される。ユーザは、頭部に装着したVRゴーグルGを介していずれかのサブコンテンツCSを視聴する。例えば、ドライバーの食生活に興味があるユーザであれば、ユーザの中央手前側(図7に示す矢印方向参照)に顔を向け、サブコンテンツCS2−2を注視する。
FIG. 7 is a diagram exemplifying a reproduction mode (2) of the VR content C1.
In the example illustrated in FIG. 7, sub-contents (here, sub-contents CS2-1 and CS2-2) related to the main content CM2 in which the user is interested are reproduced and displayed on the center side Cs as viewed from the user. The user watches one of the sub-contents CS via the VR goggles G attached to the head. For example, if the user is interested in the driver's eating habits, he / she turns his / her face toward the center in front of the user (see the direction of the arrow shown in FIG. 7) and watches the sub-contents CS2-2.

検出部25は、ユーザ端末200の傾きや傾き時間の検知結果をもとに、ユーザの視線方向が、メインコンテンツCM(ここではメインコンテンツCM2)から、いずれかのサブコンテンツ(ここではサブコンテンツCS2−2)に切り替わったことを検出すると、検出したユーザの視線方向をあらわす視線情報を取得部27に送る。   Based on the detection result of the inclination and the inclination time of the user terminal 200, the detection unit 25 changes the line of sight of the user from the main content CM (here, the main content CM2) to any one of the sub-contents (here, the sub-content CS2-2). ) Is detected, the sight line information indicating the detected sight line direction of the user is sent to the acquisition unit 27.

取得部27は、検出部25から受け取る視線情報に基づき、ユーザが注視したサブコンテンツCS(別言すれば、ユーザが興味を示したサブコンテンツCS)を特定し、特定したサブコンテンツCSに関連する追加コンテンツの配信要求を、配信サーバ400に送る。さらに、取得部27は、通信部28を介して、ユーザが興味を示したサブコンテンツを示すサブコンテンツ情報を管理サーバ300に送信する。   The acquisition unit 27 specifies the sub-contents CS that the user has watched (in other words, the sub-contents CS that the user has shown interest) based on the line-of-sight information received from the detection unit 25, and relates to the specified sub-contents CS. A distribution request for the additional content is sent to distribution server 400. Further, the acquisition unit 27 transmits, via the communication unit 28, sub-contents information indicating sub-contents of interest to the user to the management server 300.

図7に示す例では、ユーザは、特にドライバーの食生活に興味があると推測されることから、ドライバーの食生活に関連する追加コンテンツ(例えば、体調管理や練習内容をあらわすコンテンツ)を要求する(詳細は後述)。配信サーバ400は、ユーザ端末200からの配信要求のあった追加コンテンツを、ユーザ端末200に送信する。ユーザ端末200は、通信部28を介して追加コンテンツを受け取ると、再生部24に送る。再生部24は、例えばサブコンテンツCSの代わりに、体調管理や練習内容をあらわす追加コンテンツを再生・表示する。追加コンテンツの再生・表示方法等については、システム設計等に応じて任意に設定・変更可能である。例えば、サブコンテンツCSではなく、メインコンテンツCMの代わりに追加コンテンツを再生・表示する、あるいは、ユーザが興味を示さなかったサブコンテンツ(すなわちユーザの視線方向にないサブコンテンツ)の代わりに、追加コンテンツを再生・表示してもよい。   In the example illustrated in FIG. 7, since the user is presumed to be particularly interested in the diet of the driver, the user requests additional content related to the diet of the driver (for example, content representing physical condition management and practice content). (Details will be described later). The distribution server 400 transmits the additional content requested to be distributed from the user terminal 200 to the user terminal 200. Upon receiving the additional content via the communication unit 28, the user terminal 200 sends the additional content to the playback unit 24. The reproduction unit 24 reproduces and displays, for example, additional contents representing physical condition management and practice contents instead of the sub-contents CS. The method of reproducing / displaying the additional content can be arbitrarily set / changed according to the system design or the like. For example, instead of the sub-contents CS, the additional content is reproduced and displayed instead of the main content CM, or the additional content is replaced with the sub-content not showing interest by the user (that is, the sub-content not in the user's line of sight). It may be reproduced / displayed.

通信部28は、各種通信インタフェースなどを備え、管理サーバ300や配信サーバ400との間で様々な情報の授受を行う。   The communication unit 28 includes various communication interfaces and the like, and exchanges various information with the management server 300 and the distribution server 400.

<管理サーバ300>
管理サーバ(外部サーバ)300は、マーケティングシステム100を利用する各ユーザのユーザ情報を管理するサーバであり、ユーザ情報データベース(DB)310を備えている。
<Management server 300>
The management server (external server) 300 is a server that manages user information of each user who uses the marketing system 100, and includes a user information database (DB) 310.

図8は、ユーザ情報DB310の登録内容を例示した図である。
図8に示すように、ユーザ情報は、ユーザを識別するためのユーザID、パスワード、回答情報、メインコンテンツ情報、サブコンテンツ情報などを含んで構成される。すでに説明したように、回答情報は、仮想空間内でのドライバーとユーザとの対話形式のアンケートに対する回答を示す情報であり、メインコンテンツ情報は、ユーザが注視した(すなわちユーザが興味を示した)メインコンテンツを示す情報であり、サブコンテンツ情報は、ユーザが注視した(すなわちユーザが興味を示した)サブコンテンツを示す情報である。
FIG. 8 is a diagram exemplifying the registered contents of the user information DB 310.
As shown in FIG. 8, the user information includes a user ID for identifying the user, a password, answer information, main content information, sub-content information, and the like. As described above, the answer information is information indicating an answer to the interactive questionnaire between the driver and the user in the virtual space, and the main content information is the main content that the user has watched (ie, the user has shown interest in). The sub-contents information is information indicating sub-contents watched by the user (that is, the user has shown interest).

このように、VRアプリAP1を用いて対話形式のアンケートを実施することで、アンケートの回収率の向上を把握することができる。また、VRコンテンツC1を視聴するユーザの視線方向から、興味を示すコンテンツ内容を特定し、ユーザ情報を収集することで、紙ベースでアンケート等を実施していた従来に比して、スポーツ等のイベントに来場するユーザのニーズ等を、効率的かつ的確に把握することが可能となる。   As described above, by performing the interactive questionnaire using the VR application AP1, it is possible to grasp the improvement of the questionnaire collection rate. In addition, by identifying content contents indicating interest from the viewing direction of the user who views the VR content C1 and collecting user information, it is possible to perform sports and the like in comparison with the related art in which a questionnaire and the like are conducted on a paper basis. It is possible to efficiently and accurately grasp the needs of the user who visits the event.

また、管理サーバ300が収集したユーザ情報を活用する一環として、VRコンテンツC1上に広告枠を設け、当該ユーザの特性に応じた広告やクーポンを出し分けるにようにしてもよい。例えば、メインコンテンツ情報やサブコンテンツ情報などから、当該ユーザが今、どの分野に一番興味をもっているのか等を推測し、当該ユーザが再生するVRコンテンツC1上の広告枠に、推測結果に基づく最適な広告やクーポン(例えば、航空チケットなど)を出すようにしてもよい。   In addition, as a part of utilizing the user information collected by the management server 300, an advertisement space may be provided on the VR content C1, and advertisements and coupons may be distributed according to the characteristics of the user. For example, from the main content information and the sub content information, it is guessed which field the user is currently most interested in, etc., and an optimal space based on the guess result is provided in the advertisement space on the VR content C1 reproduced by the user. An advertisement or a coupon (for example, an air ticket) may be issued.

<配信サーバ400>
配信サーバ400は、ユーザ端末200からの配信要求のあった追加コンテンツを、ユーザ端末200に送信するサーバであり、追加コンテンツテーブル410を備えている。
<Distribution server 400>
The distribution server 400 is a server that transmits, to the user terminal 200, additional content requested to be distributed from the user terminal 200, and includes the additional content table 410.

図9は、追加コンテンツテーブル410の登録内容を例示した図である。
図9に示すように、追加コンテンツテーブル410には、ドライバーを特定するドライバーID(例えば、「D0001」)と、追加コンテンツを特定するためのキーワード(例えば、「食事」)と、キーワードに対応する追加コンテンツ(例えば、「体調管理コンテンツ」、「練習内容コンテンツ」)が対応づけて登録されている。ユーザ端末200から送信される配信要求には、ドライバーIDとキーワードが含まれる。配信サーバ400は、ユーザ端末200から配信要求を受け取ると、ドライバーIDとキーワードを検索キーとして追加コンテンツテーブル410を検索し、配信すべき追加コンテンツを決定する。配信サーバ400は、決定した追加コンテンツを追加コンテンツテーブル410から読み出し、配信要求のあったユーザ端末200に返信する。この結果、ユーザは、サブコンテンツでは視聴不可能であった、憧れのドライバーの体調管理や練習内容などの追加コンテンツを視聴することが可能となる。
FIG. 9 is a diagram exemplifying the registered contents of the additional content table 410.
As shown in FIG. 9, the additional content table 410 includes a driver ID (for example, “D0001”) for specifying a driver, a keyword (for example, “meal”) for specifying the additional content, and a keyword. Additional contents (for example, “physical condition management content” and “practice content”) are registered in association with each other. The distribution request transmitted from the user terminal 200 includes the driver ID and the keyword. Upon receiving the distribution request from the user terminal 200, the distribution server 400 searches the additional content table 410 using the driver ID and the keyword as search keys, and determines additional content to be distributed. The distribution server 400 reads the determined additional content from the additional content table 410 and returns it to the user terminal 200 that has requested the distribution. As a result, the user can view additional contents such as physical condition management and practice contents of a longing driver, which could not be viewed with the sub-contents.

このように、VRコンテンツC1を視聴するユーザの視線方向から、まず、興味を示すメインコンテンツCMを特定し、特定したメインコンテンツCMに関連するサブコンテンツCSを再生・表示する。さらに、ユーザの視線方向から、興味を示すサブコンテンツCSを特定し、特定したサブコンテンツCSに関連する追加コンテンツを、配信サーバ400から取得し、再生・表示する。サブコンテンツや追加コンテンツといった補足情報を動的に変更することで、ユーザの詳細なニーズ(興味など)等を探ることが可能となる。   As described above, first, the main content CM indicating the interest is specified from the line of sight of the user who views the VR content C1, and the sub-contents CS related to the specified main content CM is reproduced and displayed. Further, the sub-contents CS indicating the interest are specified from the user's line of sight, the additional content related to the specified sub-contents CS is acquired from the distribution server 400, and is reproduced / displayed. By dynamically changing supplementary information such as sub-contents and additional contents, it is possible to search for detailed needs (interest, etc.) of the user.

(2)動作説明
以下、VRコンテンツの再生処理について説明する。
図10は、VRコンテンツの再生処理を示すフローチャートである。
ユーザ端末200の入力部22は、ユーザ端末200によって所望のドライバーのヒーローカードに印字されたコード情報(例えば、QRコード(登録商標)など)がスキャンされると、VRコンテンツの再生指示が入力されたことを検知する(ステップS1)。
(2) Description of Operation Hereinafter, a process of reproducing VR content will be described.
FIG. 10 is a flowchart showing a VR content playback process.
When the user terminal 200 scans code information (for example, a QR code (registered trademark)) printed on the hero card of a desired driver by the user terminal 200, a reproduction instruction of VR content is input. Is detected (step S1).

再生部(第1再生部)24は、VRコンテンツの再生指示が入力されると、入力指示に従って所望のドライバーのメインコンテンツCMを再生する(ステップS2;図6参照)。   Upon receiving a VR content playback instruction, the playback unit (first playback unit) 24 plays back the desired driver's main content CM in accordance with the input instruction (step S2; see FIG. 6).

一方、検出部25は、メインコンテンツCMの再生にあわせて、ユーザの顔の向き(視線方向)の検出を開始する(ステップS3)。視線方向の具体的な検出方法については、すでに説明したため詳細は割愛するが、VRゴーグルGにセットされたユーザ端末200の傾きや傾き時間などを検知し、検知結果をもとにユーザの視線方向を検出(推定)する。検出部25は、検出したユーザの視線方向をあらわす視線情報を生成し、特定部26に出力する。   On the other hand, the detection unit 25 starts detecting the direction of the user's face (gaze direction) in accordance with the reproduction of the main content CM (step S3). Although a specific method of detecting the gaze direction has already been described, the details are omitted, but the inclination and the inclination time of the user terminal 200 set on the VR goggles G are detected, and the gaze direction of the user is detected based on the detection result. Is detected (estimated). The detecting unit 25 generates line-of-sight information indicating the detected line-of-sight direction of the user, and outputs the generated line-of-sight information to the specifying unit 26.

特定部26は、検出部25から受け取る視線情報に基づき、ユーザが興味を示したメインコンテンツCMがあるか否かを判定する(ステップS4)。特定部26は、例えばユーザの視線方向が頻繁に変化しており、特に興味を示したメインコンテンツCMがないと判断すると(ステップS4;NO)、メインコンテンツCMの再生が終了するまで、ステップS4の処理を繰り返し実行する。   The identification unit 26 determines whether there is any main content CM in which the user is interested based on the line-of-sight information received from the detection unit 25 (Step S4). For example, when the gaze direction of the user frequently changes and it is determined that there is no main content CM showing an interest (step S4; NO), the specifying unit 26 performs the process of step S4 until the reproduction of the main content CM ends. Is repeatedly executed.

一方、特定部26は、例えばユーザの視線方向が固定され、興味を示したメインコンテンツCMがあると判断すると(ステップS4;YES)、視線方向にあるメインコンテンツCMを、ユーザが興味を示したメインコンテンツCMとして特定し、特定したメインコンテンツCMをあらわすメインコンテンツ情報を生成する。そして、特定部26は、生成したメインコンテンツ情報を再生部24に送るととともに、通信部28を介して管理サーバ300に送信する(ステップS5)。   On the other hand, when the identifying unit 26 determines that, for example, the user's line of sight is fixed and there is a main content CM indicating interest (step S4; YES), the identifying unit 26 replaces the main content CM in the line of sight with the main content CM indicating user's interest. And generates main content information indicating the specified main content CM. Then, the specifying unit 26 transmits the generated main content information to the reproducing unit 24 and also transmits the generated main content information to the management server 300 via the communication unit 28 (Step S5).

再生部(第2再生部)24は、特定部26から供給されるメインコンテンツ情報をもとに、当該メインコンテンツに関連するサブコンテンツCSを記憶部21から読み出し、再生する(ステップS6;図7参照)。   The reproducing unit (second reproducing unit) 24 reads the sub-contents CS related to the main content from the storage unit 21 based on the main content information supplied from the specifying unit 26, and reproduces the sub-contents CS (Step S6; see FIG. 7). .

サブコンテンツCSの再生が開始されると、検出部25は、サブコンテンツCSの再生にあわせて、ユーザの顔の向き(視線方向)の検出を開始する(ステップS7)。そして、検出部25は、ステップS3で説明したと同様に、検出したユーザの視線方向をあらわす視線情報を生成し、取得部27に出力する。   When the reproduction of the sub-contents CS is started, the detection unit 25 starts detecting the direction of the user's face (gaze direction) in accordance with the reproduction of the sub-contents CS (step S7). Then, the detection unit 25 generates line-of-sight information indicating the detected line-of-sight direction of the user in the same manner as described in step S3, and outputs the generated line-of-sight information to the acquisition unit 27.

取得部27は、検出部25から受け取る視線情報に基づき、ユーザが興味を示したサブコンテンツCSがあるか否かを判定する(ステップS8)。取得部27は、例えばユーザの視線方向が頻繁に変化し、特に興味を示したサブコンテンツCSがないと判断すると(ステップS8;NO)、サブコンテンツCSの再生が終了するまで、ステップS8の処理を繰り返し実行する。   The acquisition unit 27 determines whether there is any sub-contents CS in which the user is interested based on the line-of-sight information received from the detection unit 25 (Step S8). For example, if the acquisition unit 27 determines that the user's line of sight frequently changes and there is no sub-content CS that has shown particular interest (step S8; NO), the processing in step S8 is performed until the reproduction of the sub-content CS ends. Is repeatedly executed.

一方、取得部27は、例えばユーザの視線方向が固定され、興味を示したサブコンテンツCSがあると判断すると(ステップS8;YES)、視線方向にあるサブコンテンツCSを、ユーザが興味を示したサブコンテンツCSとして特定し、特定したサブコンテンツCSをあらわすサブコンテンツ情報を生成する。そして、取得部27は、生成したサブコンテンツ情報を、通信部28を介して管理サーバ300に送信する(ステップS9)。さらに、取得部27は、特定したサブコンテンツCSに関連する追加コンテンツの配信要求を、配信サーバ400に送る(ステップS10)。   On the other hand, when the acquisition unit 27 determines that, for example, the user's line of sight is fixed and there is a sub-content CS showing interest (step S8; YES), the user indicates interest in the sub-contents CS in the line-of-sight direction. It specifies the sub-contents CS and generates sub-contents information indicating the specified sub-contents CS. Then, the acquisition unit 27 transmits the generated sub-content information to the management server 300 via the communication unit 28 (Step S9). Further, the acquisition unit 27 sends a distribution request for additional content related to the specified sub-contents CS to the distribution server 400 (Step S10).

その後、ユーザ端末200は、配信サーバ400から通信部28を介して追加コンテンツを受け取ると、再生部24に送る。再生部(第3再生部)24は、例えばサブコンテンツCSの代わりに、追加コンテンツを再生し(ステップS11)、処理を終了する。
なお、本実施形態では、ヒーローカードがスキャンされると、常にVRコンテンツが再生される態様を例示したが、これに限定する趣旨ではない。例えば、「当たりカードの仕組み」を取り入れ、特定のヒーローカード(別言すれば、「当たりのヒーローカード」)がスキャンされた場合にのみ、VRコンテンツが再生される態様であってもよい。
Thereafter, when receiving the additional content from the distribution server 400 via the communication unit 28, the user terminal 200 sends the additional content to the reproduction unit 24. The playback unit (third playback unit) 24 plays back the additional content instead of, for example, the sub-contents CS (step S11), and ends the process.
In the present embodiment, an example has been described in which the VR content is always reproduced when the hero card is scanned, but the present invention is not limited to this. For example, a mode may be adopted in which the VR content is reproduced only when a specific hero card (in other words, a “hit hero card”) is scanned by incorporating a “winning card mechanism”.

B.第2実施形態
図11は、第2実施形態に係るユーザ端末200の機能構成を示すブロック図である。第2実施形態に係るユーザ端末200は、周囲環境検出部25a及び選択部26aを備えている点で、図3に示す第1実施形態に係るユーザ端末200と異なる。その他の構成について、図3と対応する部分には同一符号を付し、詳細な説明は割愛する。
B. Second Embodiment FIG. 11 is a block diagram illustrating a functional configuration of a user terminal 200 according to a second embodiment. The user terminal 200 according to the second embodiment is different from the user terminal 200 according to the first embodiment shown in FIG. 3 in that the user terminal 200 includes a surrounding environment detection unit 25a and a selection unit 26a. Regarding other configurations, the same reference numerals are given to portions corresponding to FIG. 3 and detailed description is omitted.

第2実施形態に係るユーザ端末200は、VRアプリAP1を起動する周囲環境に応じて、VRコンテンツC1を出し分ける点に特徴がある。   The user terminal 200 according to the second embodiment is characterized in that the VR content C1 is distributed according to the surrounding environment in which the VR application AP1 is activated.

周囲環境検出部25aは、現在位置をあらわす位置情報を取得するためのGPSセンサ、日時情報を取得するためのタイマなどを備え、検出した位置情報、日時情報を含む周囲環境情報を生成し、選択部26aに送る。なお、周囲環境検出部25aは、GPSセンサやタイマのほか、周囲の環境音を検知し、環境音情報を生成する集音装置などを含む構成であってもよい。   The surrounding environment detection unit 25a includes a GPS sensor for acquiring position information representing the current position, a timer for acquiring date and time information, and the like, and generates and selects surrounding environment information including the detected position information and date and time information. Sent to the unit 26a. In addition, the surrounding environment detection part 25a may be configured to include, in addition to the GPS sensor and the timer, a sound collection device that detects surrounding environment sound and generates environment sound information.

選択部26aは、周囲環境検出部25aから供給される周囲環境情報に基づき、複数のVRコンテンツの中から、再生すべきVRコンテンツを選択する。   The selection unit 26a selects a VR content to be reproduced from a plurality of VR contents based on the surrounding environment information supplied from the surrounding environment detection unit 25a.

図12は、VRコンテンツの選択再生処理を示すフローチャートであり、図13は、周囲環境に応じて異なるVRコンテンツが再生される様子を示した図である。
ユーザ端末200の入力部22は、ユーザ端末200によってヒーローカードに印字されたコード情報(例えば、QRコード(登録商標)など)がスキャンされると、VRコンテンツの再生指示が入力されたことを検知する(ステップSa1)。
FIG. 12 is a flowchart showing a VR content selective reproduction process, and FIG. 13 is a diagram showing how different VR contents are reproduced according to the surrounding environment.
When the user terminal 200 scans code information (for example, a QR code (registered trademark)) printed on the hero card by the user terminal 200, the input unit 22 detects that an instruction to reproduce VR content has been input. (Step Sa1).

周囲環境検出部25aは、VRコンテンツの再生指示が入力されると、GPSセンサやタイマなどを利用して周囲環境を検出する(ステップSa2)。周囲環境検出部25aは、検出結果に基づき、周囲環境情報を生成し、選択部26aに送る。一例として、周囲環境検出部25aは、現在地が「自宅」または「レース会場」である旨の位置情報を含む周囲環境情報を生成する、あるいは、現在の日時が「レース前」または「レース後」である旨の日時情報を含む周囲環境情報を生成する。   When a VR content playback instruction is input, the surrounding environment detection unit 25a detects the surrounding environment using a GPS sensor, a timer, or the like (step Sa2). The surrounding environment detection unit 25a generates the surrounding environment information based on the detection result, and sends it to the selection unit 26a. As an example, the surrounding environment detection unit 25a generates the surrounding environment information including the position information indicating that the current location is “home” or “race venue”, or the current date and time is “before the race” or “after the race”. Ambient environment information including date and time information indicating that

選択部26aは、周囲環境情報に基づき、再生すべきVRコンテンツを選択する(ステップSa3)。例えば、現在位置が「自宅」の場合には、ドライバーの「プライベートを示すVRコンテンツ」を選択する一方(図13に示すA参照)、現在位置が「レース会場」の場合には、ドライバーの「練習風景を示すVRコンテンツ」を選択する(図13に示すB参照)。また、現在の日時が「レース前」の場合には、ドライバーの「レースへの意気込みを示すVRコンテンツ」を選択する一方(図13に示すC参照)、現在の日時が「レース後」である場合には、ドライバーの「レースの感想を示すVRコンテンツ」を選択する(図13に示すD参照)。選択部26aは、このようにして選択したVRコンテンツを再生部24に供給する。なお、選択部26aは、周囲環境情報に含まれる1つのパラメータに基づき、再生すべきVRコンテンツを選択するだけでなく、周囲環境情報に含まれる複数のパラメータの組み合わせに基づき、再生すべきコンテンツを選択してもよい。例えば、現在位置が「自宅」であり、現在の日時が「次レースから1か前以上前」である場合には、ドライバーの「余暇の過ごし方を示すVRコンテンツ」を選択等してもよい。   The selection unit 26a selects VR content to be reproduced based on the surrounding environment information (Step Sa3). For example, when the current location is “home”, the driver selects “VR content indicating private” (see A in FIG. 13), while when the current location is “race venue”, the driver selects “VR content”. VR content showing practice scenery "is selected (see B shown in FIG. 13). When the current date and time is “before the race”, the driver selects “VR content indicating the enthusiasm for the race” (see C in FIG. 13), while the current date and time is “after the race”. In this case, the driver selects "VR content indicating the impression of the race" (see D shown in FIG. 13). The selection unit 26a supplies the VR content selected in this way to the playback unit 24. The selecting unit 26a not only selects VR content to be reproduced based on one parameter included in the surrounding environment information, but also selects content to be reproduced based on a combination of a plurality of parameters included in the surrounding environment information. You may choose. For example, when the current position is “home” and the current date and time is “one or more times before the next race”, the driver may select “VR content indicating how to spend leisure time”. .

再生部24は、選択部26aから供給されるVRコンテンツを再生し(ステップSa4)、処理を終了する。   The reproduction unit 24 reproduces the VR content supplied from the selection unit 26a (Step Sa4), and ends the processing.

このように、VRアプリAP1を起動する周囲環境に応じて、VRコンテンツを出し分けることで、ユーザは様々なVRコンテンツを体験することが可能となる。ユーザは、レース会場においてヒーローカードを入手することができれば、レース中はもちろん、レース終了後も、さらにはレース会場を離れた自宅においても、その周囲環境に応じた様々なVRコンテンツを楽しむことができるため、従来に比べてヒーローカード自体の価値が上がり、結果としてレース会場に足を運ぶ動機づけの一助となり得る。
なお、本実施形態も第1実施形態と同様、「当たりカードの仕組み」を取り入れ、特定のヒーローカード(別言すれば、「当たりのヒーローカード」)がスキャンされた場合にのみ、VRコンテンツが再生されるようにしてもよい。
As described above, the VR content is divided according to the surrounding environment in which the VR application AP1 is started, so that the user can experience various VR contents. If the user can obtain the hero card at the race venue, the user can enjoy various VR contents according to the surrounding environment during the race, after the race, and even at home away from the race venue. Because of this, the value of the hero card itself is higher than before, and as a result, it can help to motivate to go to the race venue.
Note that, similarly to the first embodiment, the present embodiment also adopts the “winning card mechanism”, and the VR content is only displayed when a specific hero card (in other words, “winning hero card”) is scanned. It may be reproduced.

100…マーケティングシステム、200…ユーザ端末、21…記憶部、22…入力部、23…アンケート実施部、24…再生部、25…検出部、25a…周囲環境検出部、26…特定部、26a…選択部、27…取得部、28…通信部、AP1…VRアプリ、C1…VRコンテンツ、CM…メインコンテンツ、CS…サブコンテンツ、G…VRゴーグル、300…管理サーバ、310…ユーザ情報データベース、410…追加コンテンツテーブル。 100 marketing system, 200 user terminal, 21 storage unit, 22 input unit, 23 questionnaire execution unit, 24 reproduction unit, 25 detection unit, 25a ambient environment detection unit, 26 identification unit, 26a Selection unit 27 acquisition unit 28 communication unit AP1 VR application C1 VR content CM main content CS sub-content G VR goggles 300 management server 310 user information database 410 Additional content table.

Claims (9)

ユーザ端末による仮想現実コンテンツの再生を制御するためのプログラムであって、
前記仮想現実コンテンツを記憶する記憶部を備えた前記ユーザ端末を、
ユーザの入力指示に従って、前記仮想現実コンテンツを再生する再生部と、
前記仮想現実コンテンツの再生中に、前記ユーザの視線方向を検出する検出部と、
検出された前記ユーザの視線方向から、前記ユーザが興味を示した前記仮想現実コンテンツの内容を特定する特定部と、
特定された前記仮想現実コンテンツの内容をあらわす情報を、外部サーバに送信する送信部と
して機能させるためのプログラム。
A program for controlling reproduction of virtual reality content by a user terminal,
The user terminal including a storage unit that stores the virtual reality content,
A reproducing unit that reproduces the virtual reality content according to a user input instruction;
During the reproduction of the virtual reality content, a detection unit that detects the gaze direction of the user,
From the detected gaze direction of the user, a specifying unit that specifies the contents of the virtual reality content that the user has shown interest,
A program for causing the information representing the content of the specified virtual reality content to function as a transmission unit that transmits the information to an external server.
前記検出部は、前記ユーザ端末の傾き及び傾き時間を検知し、検知結果をもとに前記ユーザの視線方向を検出する、請求項1に記載のプログラム。   The program according to claim 1, wherein the detection unit detects a tilt and a tilt time of the user terminal, and detects a gaze direction of the user based on a detection result. 特定の場所で配布されるカードのうち、当たりカードに印字されたコード情報を、前記ユーザ端末が読み取ることで、前記仮想現実コンテンツの再生指示が入力される、請求項1に記載のプログラム。   The program according to claim 1, wherein, among the cards distributed at a specific place, the user terminal reads the code information printed on the winning card, thereby inputting a reproduction instruction of the virtual reality content. 前記仮想現実コンテンツは、少なくとも2以上のメインコンテンツ及び前記各メインコンテンツに関連するサブコンテンツを含み、
前記特定部は、
検出された前記ユーザの視線方向から、前記ユーザが興味を示した前記メインコンテンツを特定し、
前記再生部は、
前記ユーザの入力指示に従って前記メインコンテンツを再生する第1再生部と、特定された前記メインコンテンツに関連する前記サブコンテンツを、前記記憶部から読み出し、読み出した前記サブコンテンツを再生する第2再生部とを含む、請求項1に記載のプログラム。
The virtual reality content includes at least two or more main contents and sub-contents related to each of the main contents,
The identification unit is
From the detected line of sight of the user, identify the main content that the user is interested in,
The playback unit includes:
A first playback unit that plays back the main content in accordance with the user's input instruction; and a second playback unit that reads the sub content related to the identified main content from the storage unit and plays back the read sub content. The program according to claim 1, comprising:
前記ユーザ端末の記憶部には、前記メインコンテンツごとに、関連するサブコンテンツが複数記憶され、
前記第2再生部は、特定された前記メインコンテンツに関連する複数の前記サブコンテンツを、前記記憶部から読み出し、読み出した複数の前記サブコンテンツを再生する、請求項4に記載のプログラム。
In the storage unit of the user terminal, a plurality of related sub-contents are stored for each of the main content,
The program according to claim 4, wherein the second playback unit reads a plurality of the sub-contents related to the identified main content from the storage unit, and plays the plurality of the read sub-contents.
さらに、前記ユーザ端末を、
推定した前記ユーザの視線方向から、いずれかの前記メインコンテンツに関連する前記サブコンテンツに、前記ユーザが興味を示しているか否かを判定する判定部と、
前記ユーザがいずれかの前記サブコンテンツに興味を示していると判定した場合に、当該サブコンテンツに関連する追加コンテンツの配信要求を、配信サーバに送る取得部として機能させ、
前記再生部は、
前記配信サーバから受信する前記追加コンテンツを再生する第3再生部をさらに含む、請求項4に記載のプログラム。
Further, the user terminal
From the estimated line-of-sight direction of the user, a determination unit that determines whether the user is interested in the sub-contents related to any of the main contents,
When determining that the user is interested in any of the sub-contents, a distribution request for additional content related to the sub-contents, functioning as an acquisition unit that sends the distribution server,
The playback unit includes:
The program according to claim 4, further comprising a third playback unit that plays back the additional content received from the distribution server.
ユーザ端末による仮想現実コンテンツの再生を制御するためのプログラムであって、
複数の前記仮想現実コンテンツを記憶する記憶部を備えた前記ユーザ端末を、
前記仮想現実コンテンツの再生指示が入力された場合に、周囲環境をあらわす周囲環境情報を検出する周囲環境検出部と、
検出された周囲環境情報に基づき、複数の前記仮想現実コンテンツの中から、再生すべき仮想現実コンテンツを選択する選択部と、
選択された前記仮想現実コンテンツを再生する再生部と
して機能させるためのプログラム。
A program for controlling reproduction of virtual reality content by a user terminal,
The user terminal including a storage unit that stores a plurality of the virtual reality content,
When a reproduction instruction of the virtual reality content is input, an ambient environment detecting unit that detects ambient environment information representing the ambient environment,
A selection unit that selects a virtual reality content to be reproduced from a plurality of the virtual reality contents based on the detected surrounding environment information;
A program for functioning as a reproducing unit for reproducing the selected virtual reality content.
前記周囲環境情報には、現在位置をあらわす位置情報、または日時をあらわす日時情報の少なくともいずれかが含まれる、請求項7に記載のプログラム。   The program according to claim 7, wherein the surrounding environment information includes at least one of position information indicating a current position and date and time information indicating a date and time. 特定の場所で配布されるカードのうち、当たりカードに印字されたコード情報を、前記ユーザ端末が読み取ることで、前記仮想現実コンテンツの再生指示が入力される、請求項7または8に記載のプログラム。   9. The program according to claim 7, wherein the user terminal reads code information printed on a winning card out of cards distributed at a specific place, thereby inputting an instruction to reproduce the virtual reality content. 10. .
JP2018133854A 2018-07-17 2018-07-17 Content playback control program Active JP6480627B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018133854A JP6480627B1 (en) 2018-07-17 2018-07-17 Content playback control program
PCT/JP2019/027239 WO2020017402A1 (en) 2018-07-17 2019-07-10 Content playback control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018133854A JP6480627B1 (en) 2018-07-17 2018-07-17 Content playback control program

Publications (2)

Publication Number Publication Date
JP6480627B1 JP6480627B1 (en) 2019-03-13
JP2020013236A true JP2020013236A (en) 2020-01-23

Family

ID=65718199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018133854A Active JP6480627B1 (en) 2018-07-17 2018-07-17 Content playback control program

Country Status (2)

Country Link
JP (1) JP6480627B1 (en)
WO (1) WO2020017402A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023163376A1 (en) * 2022-02-25 2023-08-31 계명대학교 산학협력단 Virtual collaboration non-contact real-time remote experimental system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039599A (en) * 2014-08-11 2016-03-22 セイコーエプソン株式会社 Head mounted display, information system, control method for head mounted display, and computer program
JP2017208676A (en) * 2016-05-17 2017-11-24 株式会社コロプラ Method of providing virtual space, program, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039599A (en) * 2014-08-11 2016-03-22 セイコーエプソン株式会社 Head mounted display, information system, control method for head mounted display, and computer program
JP2017208676A (en) * 2016-05-17 2017-11-24 株式会社コロプラ Method of providing virtual space, program, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023163376A1 (en) * 2022-02-25 2023-08-31 계명대학교 산학협력단 Virtual collaboration non-contact real-time remote experimental system

Also Published As

Publication number Publication date
WO2020017402A1 (en) 2020-01-23
JP6480627B1 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
US10616655B2 (en) Systems and methods for transmitting media associated with a measure of quality based on level of game play in an interactive video gaming environment
US11872490B2 (en) Gaming environment having advertisements based on player physiology
US9838752B2 (en) Advertisement distribution system
EP2438758B1 (en) Addition of supplemental multimedia content and interactive capability at the client
US10130890B2 (en) Game device
US8498722B2 (en) Systems and methods for generating media based on player action in an interactive video gaming environment
US20210065421A1 (en) Moving image distribution system, moving image distribution method, and moving image distribution program
KR20130089921A (en) Operating method and content providing system
JP6978630B1 (en) Video distribution device, video distribution method, and video distribution program
WO2020017402A1 (en) Content playback control program
KR101197630B1 (en) System and method of providing augmented contents related to currently-provided common contents to personal terminals
JP2011134199A (en) System, method and program for providing content
JP2009282697A (en) Network system, content reproduction unit, and image processing method
WO2022070908A1 (en) Video distribution device, video distribution method, and recording medium
AU2010222921B2 (en) System and method for sponsorship recognition
JP7231771B1 (en) Information processing device and information processing method
JP7288990B2 (en) Video distribution system, video distribution method and video distribution program
JP6853910B1 (en) Image processing equipment, image processing methods and programs
JP7194239B2 (en) Video distribution system, video distribution method and video distribution program
JP2022134399A (en) Information processing device, information processing method, and program
JP2022074618A (en) Video distribution system, video distribution method, and video distribution program
KR20220031052A (en) Server device, control method of server device, distribution system, and computer program
CN117396254A (en) Providing personalized content for a non-interfering online gaming experience
EP3760288A2 (en) Systems and methods for generating media based on player action in an interactive video gaming environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180717

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180717

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190207

R150 Certificate of patent or registration of utility model

Ref document number: 6480627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350