JP7302945B2 - Information processing device, information processing method and information processing program - Google Patents

Information processing device, information processing method and information processing program Download PDF

Info

Publication number
JP7302945B2
JP7302945B2 JP2017237049A JP2017237049A JP7302945B2 JP 7302945 B2 JP7302945 B2 JP 7302945B2 JP 2017237049 A JP2017237049 A JP 2017237049A JP 2017237049 A JP2017237049 A JP 2017237049A JP 7302945 B2 JP7302945 B2 JP 7302945B2
Authority
JP
Japan
Prior art keywords
user
reaction
information processing
virtual space
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017237049A
Other languages
Japanese (ja)
Other versions
JP2019105931A (en
Inventor
潤一 安川
梓 角田
真理亜 若林
優 青野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017237049A priority Critical patent/JP7302945B2/en
Publication of JP2019105931A publication Critical patent/JP2019105931A/en
Application granted granted Critical
Publication of JP7302945B2 publication Critical patent/JP7302945B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

従来、ユーザの視野を覆い、両眼視差に基づく仮想現実(VR:Virtual Reality)空間の映像を提供するHMD(Head Mounted Device)等により、仮想空間における注視領域以外の視界領域や非視界領域にコンテンツを配信する技術が提供されている。例えば、非視界領域にも広告コンテンツを配信する技術が知られている。 Conventionally, HMDs (Head Mounted Devices) that cover the user's field of vision and provide images in virtual reality (VR) space based on binocular parallax have been used to cover the visual field and non-visual field other than the gaze area in the virtual space. Techniques for distributing content have been provided. For example, there is known a technique for distributing advertising content even in non-viewable areas.

特許第5961736号公報Japanese Patent No. 5961736

しかしながら、上記の従来技術では、コンテンツの訴求効果を向上させることができるとは限らない。例えば、上記の従来技術では、非視界領域にも広告コンテンツを配信するに過ぎず、コンテンツの訴求効果を向上させることができるとは限らない。 However, the conventional technology described above cannot always improve the appealing effect of content. For example, the conventional technology described above only distributes advertising content to the non-visual area, and does not necessarily improve the appealing effect of the content.

本願は、上記に鑑みてなされたものであって、コンテンツの訴求効果を向上させることができる情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide an information processing apparatus, an information processing method, and an information processing program capable of improving the appealing effect of content.

本願に係る情報処理装置は、映像によって形成される仮想空間を体験するユーザの反応であって、前記仮想空間内の変化に対するユーザの反応に関する反応情報を取得する取得部と、前記取得部によって取得された反応情報に基づいて、コンテンツを出力する出力部と、を備えたことを特徴とする。 An information processing apparatus according to the present application includes an acquisition unit that acquires reaction information about a user's reaction to a change in the virtual space, which is a reaction of a user experiencing a virtual space formed by an image, and acquisition by the acquisition unit. and an output unit for outputting the content based on the received reaction information.

実施形態の一態様によれば、コンテンツの訴求効果を向上させることができるという効果を奏する。 According to one aspect of the embodiment, it is possible to improve the appealing effect of content.

図1は、実施形態に係る情報処理装置が実行する出力処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of output processing executed by an information processing apparatus according to an embodiment; 図2は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing apparatus according to the embodiment; 図3は、実施形態に係るVR空間構成要素情報記憶部の一例を示す図である。FIG. 3 is a diagram illustrating an example of a VR space component information storage unit according to the embodiment; 図4は、実施形態に係る広告オブジェクト記憶部の一例を示す図である。4 is a diagram illustrating an example of an advertising object storage unit according to the embodiment; FIG. 図5は、実施形態に係る情報処理装置が実行する出力処理の流れの一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of the flow of output processing executed by the information processing apparatus according to the embodiment; 図6は、変形例に係る情報処理装置が実行する出力処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of output processing executed by an information processing apparatus according to a modification; 図7は、変形例に係る広告オブジェクト記憶部の一例を示す図である。FIG. 7 is a diagram illustrating an example of an advertising object storage unit according to a modification; 図8は、変形例に係る情報処理装置が実行する出力処理の一例を示す図である。FIG. 8 is a diagram illustrating an example of output processing performed by an information processing apparatus according to a modification; 図9は、変形例に係る広告オブジェクト記憶部の一例を示す図である。FIG. 9 is a diagram illustrating an example of an advertising object storage unit according to a modification; 図10は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 10 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing apparatus.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムの実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes for carrying out an information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described in detail with reference to the drawings. The information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. Further, each embodiment can be appropriately combined within a range that does not contradict the processing contents. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

〔1.情報処理装置が示す出力処理の一例〕
図1を用いて、実施形態に係る情報処理装置が実行する出力処理の一例について説明する。図1は、実施形態に係る情報処理装置が実行する出力処理の一例を示す図である。図1では、情報処理装置100により出力処理が実行される例を示す。
[1. Example of output processing indicated by information processing apparatus]
An example of output processing executed by the information processing apparatus according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of output processing executed by an information processing apparatus according to an embodiment; FIG. 1 shows an example in which an information processing apparatus 100 executes output processing.

図1に示すように、情報処理システム1は、広告主端末10と、HMD20と、情報処理装置100とを含む。広告主端末10、HMD20及び情報処理装置100は、図示しない所定の通信網を介して、有線又は無線により通信可能に接続される。なお、図1に示す情報処理システム1には、複数台の広告主端末10や、複数台のHMD20や、複数台の情報処理装置100が含まれてもよい。 As shown in FIG. 1 , the information processing system 1 includes an advertiser terminal 10 , an HMD 20 and an information processing device 100 . The advertiser terminal 10, the HMD 20, and the information processing device 100 are communicably connected by wire or wirelessly via a predetermined communication network (not shown). The information processing system 1 shown in FIG. 1 may include multiple advertiser terminals 10 , multiple HMDs 20 , and multiple information processing apparatuses 100 .

広告主端末10は、広告主によって利用される情報処理装置である。例えば、広告主端末10は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)等である。また、広告主端末10は、広告主による操作に従って、広告オブジェクトを情報処理装置100に入稿する。 The advertiser terminal 10 is an information processing device used by advertisers. For example, the advertiser terminal 10 is a desktop PC (Personal Computer), a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), or the like. Also, the advertiser terminal 10 submits an advertisement object to the information processing apparatus 100 according to an operation by the advertiser.

なお、広告主は、広告オブジェクトの入稿を代理店に依頼する場合がある。この場合、情報処理装置100に広告オブジェクトを入稿するのは代理店となる。以下では、「広告主」といった表記は、広告主だけでなく代理店を含む概念であり、「広告主端末」といった表記は、広告主端末10だけでなく代理店によって利用される代理店装置を含む概念であるものとする。 Note that the advertiser may request an agency to submit the advertisement object. In this case, the agency submits the advertisement object to the information processing apparatus 100 . Hereinafter, the notation "advertiser" is a concept that includes not only the advertiser but also the agency, and the notation "advertiser terminal" refers not only to the advertiser terminal 10 but also to the agency device used by the agency. It shall be a concept that includes

HMD20は、ユーザが装着するウェアラブルデバイスであり、ユーザの視野内に情報処理装置100から出力される静止画像や動画像といった各種の映像を表示する。このことにより、HMD20は、ユーザがあたかもVR空間内に居住するといった感覚を提供し、ユーザにVR空間を体験させる。また、HMD20は、情報処理装置100から出力された音声やBGM(Background Music)等を出力する機能を有していてもよい。 The HMD 20 is a wearable device worn by the user, and displays various images such as still images and moving images output from the information processing apparatus 100 within the field of view of the user. As a result, the HMD 20 provides the user with the sensation of living in the VR space, allowing the user to experience the VR space. The HMD 20 may also have a function of outputting audio, background music (BGM), etc. output from the information processing apparatus 100 .

例えば、HMD20は、情報処理装置100によって出力されたVR空間の映像と音声及びBGMとを組み合わせたVR空間の映像をユーザに提供する。また、例えば、HMD20は、ユーザの向きが変更した場合に、ユーザが変更した向きに対応するVR空間の映像をユーザに提供する。なお、HMD20の処理は、例えば、3D(Dimension)モデルの自動変形等に関する各種の周知技術や、3Dモデルのレンダリングに関する各種の周知技術により実現可能である。 For example, the HMD 20 provides the user with a VR space video that is a combination of the VR space video, audio, and BGM output by the information processing apparatus 100 . Also, for example, when the orientation of the user is changed, the HMD 20 provides the user with an image in the VR space corresponding to the orientation changed by the user. The processing of the HMD 20 can be realized, for example, by various well-known techniques related to automatic deformation of 3D (Dimension) models and various well-known techniques related to rendering of 3D models.

情報処理装置100は、HMD20にVR空間の映像を出力する情報処理装置であり、例えば、サーバ装置やクラウドシステム、ゲーム機等により実現される。具体的には、情報処理装置100は、VR空間内の所定のオブジェクトに対するユーザの反応に基づいて、VR空間内に広告オブジェクトを含む映像をHMD20に出力する。 The information processing device 100 is an information processing device that outputs video in a VR space to the HMD 20, and is realized by, for example, a server device, a cloud system, a game machine, and the like. Specifically, the information processing apparatus 100 outputs an image including an advertisement object in the VR space to the HMD 20 based on the user's reaction to a predetermined object in the VR space.

以下、図1を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。 An example of an advertisement object output process by the information processing apparatus 100 will be described below along the flow with reference to FIG. 1 .

まず、図1に示すように、広告主端末10は、広告主の操作に従って、広告オブジェクトを情報処理装置100に入稿する(ステップS1)。例えば、広告主が、花専門の小売り業者であるとする。この場合、広告主端末10は、広告オブジェクトとして、花束の料金に関するクーポン等を入稿する。 First, as shown in FIG. 1, the advertiser terminal 10 submits an advertisement object to the information processing device 100 according to the advertiser's operation (step S1). For example, suppose an advertiser is a retailer that specializes in flowers. In this case, the advertiser terminal 10 submits a coupon or the like regarding the price of the bouquet as an advertisement object.

情報処理装置100は、HMD20からVR空間の映像の取得要求があった場合に、HMD20にVR空間VR1の映像を出力する(ステップS2)。これにより、HMD20は、例えば、両眼視差に基づくVR空間VR1の映像と音声及びBGMとを組み合わせたVR空間VR1をユーザに体験させる。図1の例では、ユーザは、小道の両脇に大きな街路樹が植えられている並木道を歩いている感覚を体験する。 The information processing apparatus 100 outputs the video of the VR space VR1 to the HMD 20 when the HMD 20 requests acquisition of the video of the VR space (step S2). Thereby, the HMD 20 allows the user to experience a VR space VR1 in which, for example, video, audio, and BGM in the VR space VR1 based on binocular parallax are combined. In the example of FIG. 1, the user experiences the sensation of walking along a tree-lined street with large trees planted on both sides of the path.

続いて、ユーザは、VR空間内の変化として花オブジェクトOD1が出現し、振り返る動作とともに花オブジェクトOD1を視認する(ステップS3)。この場合、情報処理装置100は、HMD20に出力されたVR空間VR1の映像に変化を起こさせる。例えば、情報処理装置100は、VR空間内の変化として花オブジェクトOD1を出現させ、ユーザが振り返る動作とともに花オブジェクトOD1を視認させる。また、例えば、図1に示すように、ユーザは、ふと振り返ることで、HMD20によってVR空間VR1の映像が切り替わり、背景が道の両脇に草原が生い茂った小道と変化することで、かかる小道を歩いている感覚を体験する。そして、ユーザは、小道を歩いている最中に、小道のわきに突然出現した花オブジェクトOD1を視認する。なお、ここでは、ユーザは、VR空間VR1内の変化として花オブジェクトOD1が出現したことを知覚して、ユーザが振り返る動作とともに花オブジェクトOD1を視認し、花オブジェクトOD1に対して反応したものとする。この場合、HMD20は、花オブジェクトOD1に対して振り返るユーザの動作を、ユーザの反応に関する反応情報として情報処理装置100に送信する。これにより、情報処理装置100は、VR空間VR1内のユーザが花オブジェクトOD1に対するユーザの反応に関する反応情報をHMD20から取得する(ステップS4)。 Subsequently, the flower object OD1 appears as a change in the VR space, and the user visually recognizes the flower object OD1 while looking back (step S3). In this case, the information processing device 100 changes the video in the VR space VR1 output to the HMD 20 . For example, the information processing apparatus 100 causes a flower object OD1 to appear as a change in the VR space, and visually recognizes the flower object OD1 as the user turns around. Further, for example, as shown in FIG. 1, when the user suddenly turns around, the HMD 20 switches the image of the VR space VR1, and the background changes to a path with grasslands on both sides of the road. Experience the feeling of walking. Then, while the user is walking along the path, the user visually recognizes the flower object OD1 that suddenly appears on the side of the path. Here, it is assumed that the user perceives the appearance of the flower object OD1 as a change in the VR space VR1, visually recognizes the flower object OD1 as the user turns around, and reacts to the flower object OD1. . In this case, the HMD 20 transmits the action of the user looking back toward the flower object OD1 to the information processing apparatus 100 as reaction information regarding the user's reaction. As a result, the information processing apparatus 100 acquires from the HMD 20 the reaction information about the user's reaction to the flower object OD1 by the user in the VR space VR1 (step S4).

続いて、情報処理装置100は、ユーザの反応に基づいて、VR空間内に広告オブジェクトC1を含むVR空間VR2の映像をHMD20に出力する(ステップS5)。例えば、ユーザがVR空間内に出現した花オブジェクトOD1に対して行った振り返る動作に関する広告オブジェクトC1が花束に関するクーポンであるとする。この場合、情報処理装置100は、ユーザが反応した際に起こした振り返る動作に関する反応情報に基づいて、「今なら花束が10%OFF!!」というクーポンを含むVR空間VR2の映像をHMD20に出力する。そして、HMD20は、広告オブジェクトC1を含むVR空間VR2の映像をユーザに提供する。これにより、HMD20は、例えば、両眼視差に基づくVR空間VR2の映像と音声及びBGMとを組み合わせたVR空間VR2をユーザに再度体験させる。この場合、図1の例では、ユーザは、背景が道の両脇に草原が生い茂った小道のわきに表示された花束に関するクーポンC1を視認する。 Subsequently, the information processing apparatus 100 outputs the video of the VR space VR2 including the advertising object C1 in the VR space to the HMD 20 based on the user's reaction (step S5). For example, it is assumed that an advertisement object C1 related to the action of turning around the flower object OD1 that has appeared in the VR space by the user is a coupon related to a bouquet. In this case, the information processing apparatus 100 outputs to the HMD 20 the image of the VR space VR2 including the coupon "Bouquet is 10% off now!" do. The HMD 20 then provides the user with an image of the VR space VR2 including the advertisement object C1. As a result, the HMD 20 allows the user to re-experience the VR space VR2 in which, for example, video, audio, and BGM in the VR space VR2 based on binocular parallax are combined. In this case, in the example of FIG. 1, the user sees a coupon C1 relating to a bouquet of flowers displayed beside a path whose background is overgrown with grass on both sides of the road.

このように、実施形態に係る情報処理装置100は、VR空間VR1内の変化に対するユーザの反応情報を取得し、かかる反応情報に基づいて、VR空間内に広告オブジェクトC1を含むVR空間VR2の映像を出力する。これにより、実施形態に係る情報処理装置100は、広告オブジェクトの訴求効果を向上させることができる。図1の例を用いて説明すると、ユーザが花オブジェクトOD1に対して振り向く動作に関する広告オブジェクトを提供することで、コンテンツの訴求効果を効率的に向上させることができると考えられる。これにより、情報処理装置100は、ユーザがVR空間内の変化に対して行った動作に関する広告オブジェクトを含むVR空間の映像を出力する。したがって、ユーザがVR空間内のオブジェクトに対して起こした注視する動作やオブジェクトに対して振り向くような興味を示す動作を反応情報から推測することができるので、情報処理装置100が出力するVR空間に含まれるコンテンツの訴求効果を高めることができる。 As described above, the information processing apparatus 100 according to the embodiment acquires the user's reaction information to changes in the VR space VR1, and based on the reaction information, displays the image of the VR space VR2 including the advertising object C1 in the VR space. to output Thereby, the information processing apparatus 100 according to the embodiment can improve the appealing effect of the advertisement object. To explain using the example of FIG. 1, it is conceivable that the appealing effect of the content can be efficiently improved by providing an advertisement object related to the user's action of turning to the flower object OD1. As a result, the information processing apparatus 100 outputs the video of the VR space including the advertisement object related to the action performed by the user in response to the change in the VR space. Therefore, it is possible to infer from the reaction information the user's gazing action with respect to the object in the VR space or the action of showing interest in turning around to the object. The appealing effect of the included content can be enhanced.

〔2.情報処理装置の構成〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[2. Configuration of Information Processing Device]
Next, the configuration of the information processing apparatus 100 according to the embodiment will be described using FIG. FIG. 2 is a diagram illustrating a configuration example of the information processing apparatus 100 according to the embodiment. As shown in FIG. 2, the information processing apparatus 100 has a communication section 110, a storage section 120, and a control section .

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線又は無線で接続され、広告主端末10と、HMD20との間で情報の送受信を行う。
(Regarding communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to a network by wire or wirelessly, and transmits and receives information between the advertiser terminal 10 and the HMD 20 .

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、VR空間構成要素情報記憶部121と、広告オブジェクト記憶部122とを有する。
(Regarding storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 has a VR space component information storage unit 121 and an advertising object storage unit 122 .

(VR空間構成要素情報記憶部121について)
実施形態に係るVR空間構成要素情報記憶部121は、VR空間に映し出される各種オブジェクトに関する情報を記憶する。ここで、図3に、実施形態に係るVR空間構成要素情報記憶部121の一例を示す。図3に示した例では、VR空間構成要素情報記憶部121は、「VR空間構成要素ID(Identifier)」、「背景情報」、「オブジェクト情報」、「オブジェクト配置位置情報」といった項目を有する。
(Regarding the VR space component information storage unit 121)
The VR space component information storage unit 121 according to the embodiment stores information about various objects displayed in the VR space. Here, FIG. 3 shows an example of the VR space component information storage unit 121 according to the embodiment. In the example shown in FIG. 3, the VR space component information storage unit 121 has items such as "VR space component ID (Identifier)", "background information", "object information", and "object placement position information".

「VR空間構成要素ID」は、VR空間構成要素を識別する識別子である。「背景情報」は、「VR空間構成要素ID」と対応付けられたVR空間の背景に関する情報である。「オブジェクト情報」は、「VR空間構成要素ID」と対応付けられたオブジェクトに関する情報であり、オブジェクトの形状やテクスチャ等の情報である。「オブジェクト配置位置情報」は、「VR空間構成要素ID」と対応付けられたオブジェクトが配置されたVR空間内の位置に関する情報である。例えば、図3では、VR空間構成要素IDによって識別される「E1」は、背景情報が「小道」であり、オブジェクト情報が「花オブジェクト」であり、オブジェクト配置位置情報が「OP1」である。 “VR space component ID” is an identifier that identifies a VR space component. “Background information” is information about the background of the VR space associated with the “VR space component ID”. "Object information" is information about an object associated with the "VR space component ID", and is information such as the shape and texture of the object. "Object placement position information" is information about the position in the VR space where the object associated with the "VR space component ID" is placed. For example, in FIG. 3, 'E1' identified by the VR space component ID has background information of 'path', object information of 'flower object', and object placement position information of 'OP1'.

なお、VR空間構成要素情報記憶部121は、上記に限らず、VR空間を実現するための種々の情報を記憶してもよい。例えば、VR空間構成要素情報記憶部121は、VR空間を実現するための音声及びBGMや映像データ等を記憶してもよい。 Note that the VR space component information storage unit 121 may store various types of information for realizing the VR space, not limited to the above. For example, the VR space component information storage unit 121 may store audio, BGM, video data, and the like for realizing the VR space.

(広告オブジェクト記憶部122について)
実施形態に係る広告オブジェクト記憶部122は、広告主によって入稿された広告オブジェクトを記憶する。ここで、図4に、実施形態に係る広告オブジェクト記憶部122の一例を示す。図4に示した例では、広告オブジェクト記憶部122は、「広告主ID」、「広告オブジェクト」、「ユーザの部位」、「ユーザの動作」といった項目を有する。
(Regarding the advertisement object storage unit 122)
The advertising object storage unit 122 according to the embodiment stores advertising objects submitted by advertisers. Here, FIG. 4 shows an example of the advertising object storage unit 122 according to the embodiment. In the example shown in FIG. 4, the advertising object storage unit 122 has items such as "advertiser ID", "advertising object", "user's part", and "user's action".

「広告主ID」は、広告主を識別するための識別情報を示す。「広告オブジェクト」は、広告主によって入稿された広告オブジェクトを示す。「ユーザの部位」は、広告主によって設定されたユーザの体の部位を示す。また、「ユーザの部位」は、広告主によって設定された所定の条件であり、「ユーザの部位」が動くことで所定の条件が満たされたと判定された場合、広告オブジェクトを含むVR空間が出力される。「ユーザの動作」は、広告主によって設定されたユーザの動作を示す。また、「ユーザの動作」は、広告主によって設定された所定の条件であり、「ユーザの動作」が所定の条件として満たされたと判定された場合、広告オブジェクトを含むVR空間が出力される。例えば、図4では、広告主IDによって識別される「CL1」によって入稿された広告オブジェクト「花束に関するクーポン」であり、「CL1」によって設定されたユーザの体の部位「頭」を示す。また、広告主IDによって識別される「CL1」によって設定されたユーザの動作「振り返る」を示す。 "Advertiser ID" indicates identification information for identifying an advertiser. "Advertising object" indicates an advertising object submitted by an advertiser. "User's part" indicates the part of the user's body set by the advertiser. Also, the "user's body part" is a predetermined condition set by the advertiser, and when it is determined that the predetermined condition is satisfied by moving the "user's body part", the VR space including the advertisement object is output. be done. "User action" indicates the user action set by the advertiser. Also, the "user's action" is a predetermined condition set by the advertiser, and when it is determined that the "user's action" is satisfied as the predetermined condition, the VR space including the advertisement object is output. For example, in FIG. 4, the advertisement object "coupon about bouquet" submitted by "CL1" identified by the advertiser ID indicates the user's body part "head" set by "CL1". It also shows the user action "look back" set by "CL1" identified by the advertiser ID.

なお、広告オブジェクト記憶部122は、上記に限らず、広告主によって設定された条件に関する種々の情報を記憶してもよい。例えば、広告オブジェクト記憶部122は、オブジェクト、VR空間内の変化、ユーザの反応のタイミング、ユーザの反応等を記憶してもよい。この点について、変形例で詳述する。 Note that the advertisement object storage unit 122 may store various information related to conditions set by the advertiser, not limited to the above. For example, the advertisement object storage unit 122 may store objects, changes in the VR space, user reaction timings, user reactions, and the like. This point will be described in detail in a modified example.

(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Regarding the control unit 130)
The control unit 130 is a controller, and for example, various programs (information processing programs) stored in a storage device inside the information processing apparatus 100 are controlled by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. (equivalent to one example) is implemented by executing the RAM as a work area. Also, the control unit 130 is a controller, and is implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図2に示すように、制御部130は、入稿受付部131と、取得部132と、出力部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 2, the control unit 130 includes a manuscript reception unit 131, an acquisition unit 132, and an output unit 133, and implements or executes information processing functions and actions described below. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 2, and may be another configuration as long as it performs the information processing described later. Moreover, the connection relationship between the processing units of the control unit 130 is not limited to the connection relationship shown in FIG. 2, and may be another connection relationship.

(入稿受付部131について)
入稿受付部131は、広告主端末10から広告オブジェクトの入稿を受け付ける。具体的には、入稿受付部131は、広告主端末10から広告オブジェクトの入稿を受け付け、かかる広告オブジェクトを広告オブジェクト記憶部122に格納する。また、入稿受付部131は、広告主によって設定された所定の条件を受け付け、かかる所定の条件を広告オブジェクト記憶部122に格納する。具体的には、入稿受付部131は、所定の条件として、ユーザの部位、ユーザの動作等を受け付け、かかる所定の条件を広告オブジェクト記憶部122に格納する。
(Regarding the manuscript receiving unit 131)
The submitted manuscript reception unit 131 receives a submitted advertisement object from the advertiser terminal 10 . Specifically, the submission reception unit 131 receives submission of an advertisement object from the advertiser terminal 10 and stores the advertisement object in the advertisement object storage unit 122 . Also, the submission reception unit 131 receives predetermined conditions set by the advertiser, and stores the predetermined conditions in the advertisement object storage unit 122 . Specifically, the submission reception unit 131 receives a user's body part, a user's motion, and the like as predetermined conditions, and stores the predetermined conditions in the advertisement object storage unit 122 .

(取得部132について)
取得部132は、映像によって形成される仮想空間(VR空間に相当)を体験するユーザの反応であって、VR空間内の変化に対するユーザの反応に関する反応情報を取得する。具体的には、取得部132は、HMD20によって提供されたVR空間内の変化に対応するユーザの反応をHMD20から反応情報として取得する。例えば、ユーザが振り向く動作とともに、花オブジェクトを視認したとする。この場合、取得部132は、HMD20によって送信されたユーザの動作に関する反応情報に基づいて、VR空間内のユーザが花オブジェクトに対して行った動作に関する反応情報をHMD20から取得する。
(Regarding the acquisition unit 132)
The acquisition unit 132 acquires reaction information about a user's reaction to a change in the VR space, which is a user's reaction to experiencing a virtual space (corresponding to a VR space) formed by video. Specifically, the acquisition unit 132 acquires from the HMD 20 the user's reaction to the change in the VR space provided by the HMD 20 as reaction information. For example, assume that the user visually recognizes a flower object while turning around. In this case, the acquisition unit 132 acquires from the HMD 20 the reaction information regarding the action performed by the user on the flower object in the VR space based on the reaction information regarding the user's action transmitted from the HMD 20 .

また、ここでいうユーザの反応とは、動的な反応と静的な反応を含む。動的な反応とは、行動を伴った反応であり、小走りとともに楽しい反応、両手を挙げる動作とともに驚いた反応、足で地面を何度も踏みつける悔しい反応、片手を高々と上げる動作とともにうれしい反応等の喜怒哀楽を含む感情を表現する行動を伴った反応を示す。一方、静的な反応とは、行動を伴わない反応であり、ユーザの顔が鬼気迫る表情を伴った怒る反応、ユーザの顔が歪む表情を伴った悲しい反応、ユーザの顔がほほ笑む表情を伴った楽しい反応、ユーザの顔の表情がなくなる驚いた反応等の喜怒哀楽を含む感情を伴った表情の変化を示す。 Moreover, the user's reaction here includes a dynamic reaction and a static reaction. A dynamic reaction is a reaction accompanied by action, such as a joyful reaction with a short run, a surprised reaction with the movement of raising both hands, a frustrating reaction with the foot repeatedly stamping on the ground, and a happy reaction with the movement of raising one hand. show reactions with behaviors that express emotions, including emotions. On the other hand, a static reaction is a reaction that does not involve any action, such as an angry reaction with a ghastly expression on the user's face, a sad reaction with a distorted expression on the user's face, and a smiling expression on the user's face. It shows a change in facial expression accompanied by emotions including emotions such as a happy reaction and a surprised reaction where the user's facial expression disappears.

なお、取得部132の処理は、例えば、ユーザがオブジェクトを所定の時間、凝視することを検出するセンサー等の各種の周知技術や、ユーザの体の部位にセンサーをつけて表情や動作を読み取る各種の周知技術や、ユーザの心拍数を計測することで落ち着いているか慌てているかを区別する各種の周辺技術により実現可能である。 Note that the processing of the acquisition unit 132 includes, for example, various well-known technologies such as sensors that detect that the user is staring at an object for a predetermined time, and various sensors that read facial expressions and actions by attaching sensors to parts of the user's body. and various peripheral technologies for distinguishing whether the user is calm or panicked by measuring the user's heart rate.

(出力部133について)
出力部133は、取得部132によって取得された反応情報に基づいて、コンテンツ(広告オブジェクトに相当)を出力する。具体的には、出力部133は、VR空間構成要素情報記憶部121に基づいて、ユーザの操作に伴う向きの変更、各種オブジェクトの配置位置等に応じて、VR空間におけるユーザの視野に対応する映像をHMD20に出力する。また、具体的には、出力部133は、取得部132によって取得された反応情報が広告オブジェクト記憶部122に記憶される所定の条件を満たす場合に、広告オブジェクト記憶部122に記憶される広告オブジェクトが含まれるVR空間の映像を出力する。
(Regarding the output unit 133)
The output unit 133 outputs content (corresponding to an advertisement object) based on the reaction information acquired by the acquisition unit 132 . Specifically, based on the VR space component information storage unit 121, the output unit 133 corresponds to the user's field of view in the VR space according to the change in orientation caused by the user's operation, the arrangement position of various objects, and the like. Images are output to the HMD 20 . Moreover, specifically, the output unit 133 stores the advertisement object in the advertisement object storage unit 122 when the reaction information acquired by the acquisition unit 132 satisfies a predetermined condition to be stored in the advertisement object storage unit 122 . Outputs the video of the VR space including

より具体的には、図1の例では、出力部133は、広告オブジェクト記憶部122に記憶される所定の条件であるユーザの部位とユーザの動作が共に満たされた場合に、VR空間内の所定のオブジェクトの代わりに、広告オブジェクト記憶部122に記憶される花束に関するクーポンを表示させたVR空間VR2の映像をHMD20に出力する。例えば、ユーザが振り返る動作を行ったとする。この場合、出力部133は、ユーザが振り返る動作を行ったことで、所定の条件としてユーザの部位とユーザの動作とが共に満たされたと判定する。そして、出力部133は、VR空間VR1内の花オブジェクトOD1の代わりに、広告オブジェクト記憶部122に記憶される花束に関するクーポンC1を表示させたVR空間VR2の映像をHMD20に出力する。また、出力部133は、適宜、VR空間内に変化を与え、かかるVR空間の映像をHMD20に出力する。例えば、図1の例では、出力部133は、10分に1回等の割合で定期的にVR空間内に変化として花オブジェクトOD1を小道のわき等に出現させ、かかる花オブジェクトOD1を含むVR空間の映像をHMD20に出力する。 More specifically, in the example of FIG. 1, the output unit 133 outputs an image in the VR space when both the user's body part and the user's motion, which are predetermined conditions stored in the advertisement object storage unit 122, are satisfied. An image of the VR space VR2 in which the coupon related to the bouquet stored in the advertising object storage unit 122 is displayed instead of the predetermined object is output to the HMD20. For example, assume that the user performs an action of looking back. In this case, the output unit 133 determines that both the user's body part and the user's motion are satisfied as the predetermined condition by the user's turning motion. Then, the output unit 133 outputs to the HMD 20 an image of the VR space VR2 in which the coupon C1 related to the bouquet stored in the advertisement object storage unit 122 is displayed instead of the flower object OD1 in the VR space VR1. In addition, the output unit 133 appropriately changes the VR space and outputs the video in the VR space to the HMD 20 . For example, in the example of FIG. 1, the output unit 133 causes the flower object OD1 to appear on the side of a path or the like as a change in the VR space periodically at a rate such as once every 10 minutes, and the VR space including the flower object OD1 appears. A spatial image is output to the HMD 20 .

なお、上記では、所定の条件として、ユーザの部位とユーザの動作が共に満たされた場合の出力処理について説明したが、出力部133は、所定の条件の片方が満たされた場合でも、広告オブジェクトが含まれるVR空間の映像をHMD20に出力してもよい。例えば、図1の例では、出力部133は、ユーザの部位、あるいはユーザの動作のみ満たされる場合でも、VR空間VR1内の花オブジェクトOD1の代わりに、広告オブジェクト記憶部122に記憶される花束に関するクーポンC1を表示させたVR空間VR2の映像をHMD20に出力してもよい。 In the above description, the output processing is performed when both the user's body part and the user's motion are satisfied as predetermined conditions. may be output to the HMD 20 in the VR space. For example, in the example of FIG. 1, the output unit 133 outputs the bouquet stored in the advertisement object storage unit 122 instead of the flower object OD1 in the VR space VR1 even if only the user's body parts or the user's actions are satisfied. You may output the image|video of VR space VR2 which displayed the coupon C1 to HMD20.

〔3.出力処理のフローチャート〕
次に、図5を用いて、実施形態に係る情報処理装置100が実行する出力処理の手順について説明する。図5は、実施形態に係る情報処理装置が実行する出力処理の流れの一例を示すフローチャートである。
[3. Flowchart of output processing]
Next, a procedure of output processing executed by the information processing apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of the flow of output processing executed by the information processing apparatus according to the embodiment;

図5に示すように、出力部133は、VR空間の映像をHMD20に出力する(ステップS101)。そして、取得部132は、VR空間を体験するユーザの反応が広告主によって設定された所定の条件を満たす場合にユーザの反応に関する反応情報を取得する(ステップS102)。そして、取得部132は、ユーザの反応が所定の条件を満たさない場合(ステップS102;No)、所定の条件を満たすユーザの反応に関する反応情報が取得されるまで待機する。 As shown in FIG. 5, the output unit 133 outputs the video in the VR space to the HMD 20 (step S101). Then, the acquiring unit 132 acquires reaction information about the reaction of the user when the reaction of the user experiencing the VR space satisfies a predetermined condition set by the advertiser (step S102). Then, if the user's reaction does not satisfy the predetermined condition (step S102; No), the acquisition unit 132 waits until reaction information about the user's reaction that satisfies the predetermined condition is acquired.

一方、取得部132がユーザの反応が所定の条件を満たす場合(ステップS102;Yes)、出力部133は、VR空間内に広告オブジェクトを含む映像をHMD20に出力する(ステップS103)。 On the other hand, if the acquisition unit 132 determines that the user's reaction satisfies the predetermined condition (step S102; Yes), the output unit 133 outputs an image including the advertisement object in the VR space to the HMD 20 (step S103).

〔4.変形例〕
上述した情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[4. Modification]
The information processing apparatus 100 described above may be embodied in various forms other than the above embodiment. Therefore, other embodiments of the information processing apparatus 100 will be described below.

〔4-1.出力処理(1)〕
上記実施形態では、情報処理装置100の出力部133がユーザの反応に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、出力部133は、ユーザがVR空間内の変化に反応した後に行う行動によって異なる広告オブジェクトを含むVR空間の映像を出力してもよい。例えば、ユーザがVR空間内の変化に反応した後に、じっと一点を見つめるような落ち着いた行動を起こすとする。この場合、出力部133は、取得部132によって取得された反応情報が、ユーザがVR空間内の変化に反応した後にユーザの反応が落ち着いたと示す場合に、ユーザの反応が落ち着いたと示す反応情報に対応する広告オブジェクトを含むVR空間の映像をHMD20に出力してもよい。一方、ユーザがVR空間内の変化に反応した後に、きょろきょろと視線を様々な方向に向けるような慌てた行動を起こすとする。この場合、出力部133は、取得部132によって取得された反応情報が、ユーザがVR空間内の変化に反応した後にユーザの反応が慌てていたと示す場合に、ユーザの反応が慌てていたと示す反応情報に対応する広告オブジェクトを含むVR空間の映像をHMD20に出力しない。
[4-1. Output processing (1)]
In the above-described embodiment, an example of output processing in which the output unit 133 of the information processing apparatus 100 outputs a VR space video including an advertisement object based on the user's reaction has been described. An image of the VR space including different advertising objects may be output depending on the action taken after reacting to the change in the VR space. For example, suppose a user reacts to a change in the VR space and then takes a calm action such as staring at a point. In this case, if the reaction information acquired by the acquisition unit 132 indicates that the user's reaction has calmed down after the user reacted to the change in the VR space, the output unit 133 converts the reaction information to the reaction information indicating that the user's reaction has calmed down. You may output the image|video of VR space containing a corresponding advertising object to HMD20. On the other hand, after the user reacts to the change in the VR space, the user takes a hasty action such as looking around and looking in various directions. In this case, when the reaction information acquired by the acquisition unit 132 indicates that the user's reaction was flustered after the user reacted to the change in the VR space, the output unit 133 outputs a reaction indicating that the user's reaction was flustered. The video in the VR space including the advertisement object corresponding to the information is not output to the HMD 20.

図6を用いて、変形例に係る情報処理装置が実行する出力処理の一例について説明する。図6は、変形例に係る情報処理装置が実行する出力処理の一例を示す図である。以下、図6を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。 An example of output processing executed by the information processing apparatus according to the modification will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of output processing performed by an information processing apparatus according to a modification; An example of an advertisement object output process by the information processing apparatus 100 will be described below along the flow with reference to FIG. 6 .

まず、図6に示すように、ユーザは、花オブジェクトOD1を視認し、花オブジェクトOD1に対して驚いた反応をする(ステップS21)。この場合、情報処理装置100は、HMD20によって提供されたVR空間VR1の映像に変化を起こさせる。例えば、情報処理装置100は、所定のオブジェクトOD1である花オブジェクトを出現させ、ユーザに花オブジェクトに対して反応させる。また、例えば、図6の例では、はじめ、ユーザは、小道の両脇に大きな街路樹が植えられている並木道を歩いている感覚を体験する。そして、ユーザは、ふと振り返ることで、HMD20によって提供されるVR空間VR1の映像が切り替わり、背景が道の両脇に草原が生い茂った小道と変化することで、かかる小道を歩いている感覚を体験する。そして、ユーザは、小道を歩いている最中に、小道のわきに突然出現した花オブジェクトOD1を視認する。なお、ここでは、ユーザは、VR空間VR1内の変化として花オブジェクトOD1が出現したことを知覚して、ユーザが振り返る動作とともに花オブジェクトOD1を視認し、花オブジェクトOD1に対して驚く反応をするとする。続いて、ユーザが落ち着く動作を示す(ステップS22)。例えば、ユーザは、花オブジェクトOD1に対して驚く反応を行った後に、ほっと落ち着く動作を行うものとする。そして、情報処理装置100は、ユーザの反応が落ち着いたと示す反応情報に対応する広告オブジェクトC1を含むVR空間VR2の映像をHMD20に出力する(ステップS23)。例えば、ユーザの反応が落ち着いたと示す反応情報に対応する広告オブジェクトC1が温泉の入浴料に関するクーポンであるとする。この場合、情報処理装置100は、ユーザの反応が落ち着いたと示す反応情報を取得し、「今、入浴なら15%OFF」というクーポンを含むVR空間VR2をHMD20に出力してもよい。したがって、ユーザは、ユーザの反応が落ち着いたと示す場合に、広告オブジェクトをゆっくりと読むことができ、広告オブジェクトに対して興味を持つ機会が高まる。 First, as shown in FIG. 6, the user visually recognizes the flower object OD1 and reacts in surprise to the flower object OD1 (step S21). In this case, the information processing apparatus 100 changes the video in the VR space VR1 provided by the HMD 20. FIG. For example, the information processing apparatus 100 causes a flower object, which is the predetermined object OD1, to appear and causes the user to react to the flower object. Also, for example, in the example of FIG. 6, the user first experiences the sensation of walking along a tree-lined street with large trees planted on both sides of the path. Then, when the user suddenly turns around, the image of the VR space VR1 provided by the HMD 20 is switched, and the background changes to a path with grasslands growing on both sides of the road, thereby experiencing the sensation of walking along such a path. do. Then, while the user is walking along the path, the user visually recognizes the flower object OD1 that suddenly appears on the side of the path. Here, it is assumed that the user perceives the appearance of the flower object OD1 as a change in the VR space VR1, visually recognizes the flower object OD1 as the user turns around, and reacts in surprise to the flower object OD1. . Subsequently, the user shows an action of calming down (step S22). For example, it is assumed that the user reacts to the flower object OD1 in surprise and then makes a calming action. Then, the information processing apparatus 100 outputs to the HMD 20 the video of the VR space VR2 including the advertisement object C1 corresponding to the reaction information indicating that the user's reaction has calmed down (step S23). For example, it is assumed that the advertising object C1 corresponding to the reaction information indicating that the user's reaction has calmed down is a coupon related to hot spring bathing fees. In this case, the information processing apparatus 100 may acquire reaction information indicating that the user's reaction has calmed down, and output to the HMD 20 the VR space VR2 including the coupon "15% off if you take a bath now." Therefore, the user can read the advertising object slowly when the user's reaction indicates calmness, and the chances of getting interested in the advertising object are increased.

これにより、実施形態に係る情報処理装置100の出力部133は、ユーザがVR空間内のオブジェクトに対して反応した後に行う行動によって異なる広告オブジェクトを含むVR空間の映像を出力することができるので、広告オブジェクトを効率的に提供することができる。 As a result, the output unit 133 of the information processing apparatus 100 according to the embodiment can output VR space video including advertising objects that differ depending on the user's behavior after reacting to the object in the VR space. Advertising objects can be served efficiently.

〔4-2.出力処理(2)〕
上記実施形態では、情報処理装置100の出力部133がユーザの反応に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、出力部133は、ユーザが反応したVR空間内の変化の種別によって異なる広告オブジェクトを含むVR空間の映像を出力してもよい。具体的には、出力部133は、図7に示した広告オブジェクト記憶部123に基づいて、広告主によって設定されたVR空間内の変化に対応する広告オブジェクトを含むVR空間の映像をHMD20に出力してもよい。例えば、ユーザが広告オブジェクトを前後に装着しているキャラクターオブジェクト(以下、サンドイッチマン広告オブジェクトと表記する)に対して凝視する等の反応をしたとする。この場合、取得部132は、VR空間内に映し出されたサンドイッチマン広告オブジェクトの行動変化に対するユーザの反応に関する情報を取得し、出力部133は、ユーザが反応したサンドイッチマン広告オブジェクトに含まれる広告オブジェクトをHMD20に出力してもよい。
[4-2. Output processing (2)]
In the above-described embodiment, an example of output processing in which the output unit 133 of the information processing device 100 outputs a VR space image including an advertising object based on the user's reaction has been described. A video of the VR space including different advertising objects may be output according to the type of change in the VR space. Specifically, the output unit 133 outputs to the HMD 20 the video of the VR space including the advertisement object corresponding to the change in the VR space set by the advertiser, based on the advertisement object storage unit 123 shown in FIG. You may For example, it is assumed that the user reacts by staring at a character object (hereinafter referred to as a sandwich man advertisement object) having advertisement objects attached to the front and back of the character object. In this case, the acquisition unit 132 acquires information about the user's reaction to the behavior change of the Sandwichman advertisement object displayed in the VR space, and the output unit 133 outputs the information regarding the advertisement object included in the Sandwichman advertisement object reacted by the user. may be output to the HMD 20.

図8を用いて、変形例に係る情報処理装置が実行する出力処理の一例について説明する。図8は、変形例に係る情報処理装置が実行する出力処理の一例を示す図である。以下、図8を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。 An example of output processing executed by the information processing apparatus according to the modification will be described with reference to FIG. 8 . FIG. 8 is a diagram illustrating an example of output processing performed by an information processing apparatus according to a modification; An example of an advertisement object output process by the information processing apparatus 100 will be described below along the flow with reference to FIG. 8 .

まず、図8に示すように、ユーザは、サンドイッチマン広告オブジェクトOD2を視認する(ステップS31)。この場合、情報処理装置100は、HMD20によって提供されたVR空間VR1の映像に変化を起こさせる。例えば、情報処理装置100は、サンドイッチマン広告オブジェクトOD2を出現させ、ユーザにサンドイッチマン広告オブジェクトOD2を視認させる。また、例えば、図8の例では、はじめ、ユーザは、小道の両脇に大きな街路樹が植えられている並木道を歩いている感覚を体験する。そして、サンドイッチマン広告オブジェクトOD2は、はじめは小さく表示され、そして、VR空間VR1内の街路樹周辺をふらふら動き回るとする。ユーザは、このような特徴的な行動を示すサンドイッチマン広告オブジェクトOD2が気になり、サンドイッチマン広告オブジェクトOD2を視認する。続いて、情報処理装置100は、サンドイッチマン広告オブジェクトOD2に含まれる広告オブジェクトの内容が拡大表示されたVR空間VR2の映像をHMD20に出力する(ステップS32)。例えば、サンドイッチマン広告オブジェクトOD2に含まれる広告オブジェクトの内容がカラオケの料金に関するクーポンであるとする。この場合、情報処理装置100は、ユーザがサンドイッチマン広告オブジェクトOD2を視認する行動を示す反応情報を取得し、サンドイッチマン広告オブジェクトOD2に含まれる広告オブジェクトである「AA館 1時間 50%OFF」が拡大表示されたVR空間VR2の映像をHMD20に出力してもよい。 First, as shown in FIG. 8, the user visually recognizes the Sandwichman advertisement object OD2 (step S31). In this case, the information processing apparatus 100 changes the video in the VR space VR1 provided by the HMD 20. FIG. For example, the information processing device 100 causes the Sandwichman advertisement object OD2 to appear and allows the user to visually recognize the Sandwichman advertisement object OD2. Also, for example, in the example of FIG. 8, the user first experiences the sensation of walking along a tree-lined street with large trees planted on both sides of the path. The Sandwichman advertisement object OD2 is initially displayed in a small size, and then wanders around the street trees in the VR space VR1. The user is interested in the Sandwichman advertisement object OD2 showing such a characteristic behavior, and visually recognizes the Sandwichman advertisement object OD2. Subsequently, the information processing device 100 outputs to the HMD 20 the video of the VR space VR2 in which the content of the advertisement object included in the Sandwichman advertisement object OD2 is enlarged and displayed (step S32). For example, it is assumed that the content of the advertising object included in the Sandwichman advertising object OD2 is a coupon for karaoke fees. In this case, the information processing apparatus 100 acquires the reaction information indicating the behavior of the user viewing the Sandwichman advertisement object OD2, and the advertisement object "AA building 1 hour 50% off" included in the Sandwichman advertisement object OD2 is displayed. You may output the image|video of VR space VR2 displayed enlarged to HMD20.

これにより、実施形態に係る情報処理装置100の出力部133は、ユーザが反応したVR空間内の変化の種別によって異なる広告オブジェクトを含むVR空間の映像を出力することができるので、広告オブジェクトの訴求効果を向上させることができる。 As a result, the output unit 133 of the information processing apparatus 100 according to the embodiment can output video of the VR space including different advertising objects depending on the type of change in the VR space to which the user has reacted. You can improve the effect.

〔4-3.出力処理(3)〕
上記実施形態では、情報処理装置100の出力部133がユーザの反応に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、出力部133は、広告主によって設定された所定の条件が満たされた場合に、広告オブジェクトを含むVR空間の映像を出力してもよい。具体的には、出力部133は、図9に示した広告オブジェクト記憶部124に記憶される広告主によって設定されたユーザの反応のタイミング、VR空間内の変化、ユーザの反応のいずれか1つが所定の条件として満たされた場合に、広告オブジェクトを含むVR空間の映像をHMD20に出力する。例えば、広告主によって設定された所定の条件がユーザの反応のタイミングであったとする。この場合、出力部133は、ユーザが所定のオブジェクトにすぐ反応した場合、広告オブジェクトとして花束に関するクーポンを含むVR空間をHMD20に出力してもよい。一方、出力部133は、ユーザが所定のオブジェクトにゆっくり反応した場合、広告オブジェクトとして映画の鑑賞料金に関するクーポンを含むVR空間をHMD20に出力してもよい。
[4-3. Output processing (3)]
In the above-described embodiment, an example of output processing in which the output unit 133 of the information processing device 100 outputs a VR space video including an advertising object based on the user's reaction has been described. A video of the VR space including the advertisement object may be output when the predetermined condition is satisfied. Specifically, the output unit 133 outputs any one of the user reaction timing set by the advertiser, the change in the VR space, and the user reaction stored in the advertisement object storage unit 124 shown in FIG. When a predetermined condition is satisfied, the video of the VR space including the advertisement object is output to the HMD 20. FIG. For example, assume that the predetermined condition set by the advertiser is the timing of the user's reaction. In this case, the output unit 133 may output to the HMD 20 the VR space including the coupon regarding the bouquet as the advertisement object when the user immediately responds to the predetermined object. On the other hand, the output unit 133 may output, to the HMD 20, a VR space including a coupon related to movie viewing fees as an advertisement object when the user reacts slowly to a predetermined object.

これにより、実施形態に係る情報処理装置100の出力部133は、広告主によって設定された所定の条件が満たされた場合に広告オブジェクトを含むVR空間の映像を出力することができるので、広告主にとって有益な広告オブジェクトの提供が実現できる。 As a result, the output unit 133 of the information processing apparatus 100 according to the embodiment can output the video of the VR space including the advertisement object when the predetermined condition set by the advertiser is satisfied. It is possible to provide advertisement objects beneficial to

〔4-4.広告オブジェクト〕
上記実施形態では、広告オブジェクトの代わりに、静止画像、動画像等を適用できる。また、情報処理装置100は、広告オブジェクトに限らず、各種のコンテンツオブジェクトを含むVR空間の映像を出力してもよい。例えば、情報処理装置100は、広告目的でないコンテンツオブジェクト(例えば、コンテンツオブジェクトに含まれる記事等)を含むVR空間の映像をHMD20に出力してもよい。
[4-4. Ad Object]
In the above embodiments, still images, moving images, etc. can be applied instead of advertising objects. Further, the information processing apparatus 100 may output video in the VR space including various content objects, not limited to advertisement objects. For example, the information processing apparatus 100 may output to the HMD 20 a video in the VR space including a content object (for example, an article or the like included in the content object) that is not intended for advertisement.

〔4-5.VR空間内の変化に対応する広告オブジェクト〕
上記実施形態では、情報処理装置100がユーザの反応に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、VR空間内の変化の種別によって異なる広告オブジェクトとして、音声又はBGMの変化に対応する広告オブジェクト、VR空間内に映し出されたオブジェクトの色彩の変化に対応する広告オブジェクト、VR空間内の明暗の変化に対応する広告オブジェクト、VR空間内に映し出されたオブジェクトの行動変化に対応する広告オブジェクト等を出力してもよい。
[4-5. Advertisement objects corresponding to changes in the VR space]
In the above embodiment, an example of the output processing in which the information processing apparatus 100 outputs a VR space video including an advertisement object based on the user's reaction has been described. Advertisement object corresponding to changes in voice or BGM, Advertisement object corresponding to change in color of object projected in VR space, Advertisement object corresponding to change in brightness within VR space, Object projected within VR space You may output the advertisement object etc. which respond|correspond to the behavior change of.

〔4-6.仮想空間〕
上記実施形態では、情報処理装置100がユーザの反応に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、情報処理装置100は、VR空間の映像を出力することに限定されるものではない。例えば、情報処理装置100は、ユーザの反応に基づいて、広告オブジェクトを含む拡張現実等の仮想空間の映像を出力してもよい。
[4-6. Virtual space〕
In the above embodiment, an example of the output process in which the information processing apparatus 100 outputs a VR space image including an advertising object based on the user's reaction has been described, but the information processing apparatus 100 outputs a VR space image. It is not limited to this. For example, the information processing apparatus 100 may output an image of a virtual space such as augmented reality including an advertisement object based on the user's reaction.

〔4-7.情報処理装置(1)〕
上記実施形態では、情報処理装置100がユーザの反応に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、情報処理装置100は、これに限定されるものではない。例えば、情報処理装置100が実行する取得処理及び出力処理は、HMD20がスタンドアローンで実行してもよい。
[4-7. Information processing device (1)]
In the above embodiment, an example of the output processing in which the information processing apparatus 100 outputs a video of the VR space including the advertisement object based on the user's reaction has been described, but the information processing apparatus 100 is not limited to this. do not have. For example, the acquisition process and the output process executed by the information processing apparatus 100 may be executed by the HMD 20 in a stand-alone manner.

〔4-8.情報処理装置(2)〕
上記実施形態では、情報処理装置100が広告主端末10から広告オブジェクトを受け付ける処理の一例を説明したが、情報処理装置100の入稿受付部131は、情報処理装置100と異なるサーバ装置等であってもよい。例えば、情報処理装置100は、入稿受付部131が広告主によって受け付けた広告オブジェクトを参照してもよい。
[4-8. Information processing device (2)]
In the above-described embodiment, an example of the processing in which the information processing device 100 receives an advertisement object from the advertiser terminal 10 has been described. may For example, the information processing apparatus 100 may refer to an advertisement object received by the advertiser by the submission receiving unit 131 .

〔5.ハードウェア構成〕
また、上述してきた実施形態に係る広告主端末10、HMD20、情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図10は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
Also, the advertiser terminal 10, the HMD 20, and the information processing device 100 according to the above-described embodiments are implemented by a computer 1000 configured as shown in FIG. 10, for example. The information processing apparatus 100 will be described below as an example. FIG. 10 is a hardware configuration diagram showing an example of a computer 1000 that implements the functions of the information processing apparatus 100. As shown in FIG. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, a HDD (Hard Disk Drive) 1400, a communication interface (I/F) 1500, an input/output interface (I/F) 1600, and a media interface (I/F). ) 1700.

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100がネットワークNを介して生成したデータを他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. Communication interface 1500 receives data from other devices via network N, sends the data to CPU 1100, and transmits data generated by CPU 1100 via network N to other devices.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。 The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/output interface 1600 . CPU 1100 acquires data from an input device via input/output interface 1600 . Also, CPU 1100 outputs the generated data to an output device via input/output interface 1600 .

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200 . CPU 1100 loads such a program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing apparatus 100 according to the embodiment, the CPU 1100 of the computer 1000 implements the functions of the control unit 130 by executing programs loaded on the RAM 1200 . In addition, the data in storage unit 120 is stored in HDD 1400 . The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired via the network N from another device.

〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. others〕
Further, among the processes described in the above embodiments and modifications, all or part of the processes described as being performed automatically can be performed manually, or described as being performed manually. All or part of the processing can also be performed automatically by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Also, the above-described embodiments and modifications can be appropriately combined within a range that does not contradict the processing content.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as acquisition means or an acquisition circuit.

〔7.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部132と、出力部133とを有する。取得部132は、映像によって形成される仮想空間(VR空間に相当)を体験するユーザの反応であって、仮想空間内の変化に対するユーザの反応に関する反応情報を取得する。出力部133は、取得部132によって取得された反応情報に基づいて、コンテンツ(広告オブジェクトに相当)を出力する。
[7. effect〕
As described above, the information processing apparatus 100 according to the embodiment has the acquisition unit 132 and the output unit 133 . The acquisition unit 132 acquires reaction information about the user's reaction to changes in the virtual space, which is the reaction of the user experiencing the virtual space (corresponding to the VR space) formed by the video. The output unit 133 outputs content (corresponding to an advertisement object) based on the reaction information acquired by the acquisition unit 132 .

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内の興味を示すオブジェクトに対する反応情報を取得することができるので、情報処理装置100が出力するVR空間に含まれる広告オブジェクトの訴求効果を高めることができる。 As a result, the information processing apparatus 100 according to the embodiment can acquire the reaction information to the object that the user is interested in in the VR space. You can increase the effect.

また、実施形態に係る情報処理装置100において、取得部132は、仮想空間内の変化に対するユーザの反応に基づく行動に関する反応情報を取得し、出力部133は、ユーザの反応に基づく行動によって異なるコンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, the acquisition unit 132 acquires reaction information regarding behavior based on the user's reaction to changes in the virtual space, and the output unit 133 outputs content that differs depending on the behavior based on the user's reaction. to output

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して起こした動作に関する反応情報に基づいて、かかる動作に関する広告オブジェクトを含むVR空間の映像を出力することができるので、広告オブジェクトの訴求効果を向上させることができる。 As a result, the information processing apparatus 100 according to the embodiment can output a video of the VR space including the advertisement object related to the action performed by the user on the object in the VR space based on the reaction information. Therefore, the appealing effect of the advertisement object can be improved.

また、実施形態に係る情報処理装置100において、取得部132は、ユーザが反応した際に行動を起こしたユーザの部位に関する反応情報を取得し、出力部133は、行動を起こしたユーザの部位によって異なるコンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, the acquisition unit 132 acquires the reaction information related to the part of the user who has taken action when the user reacts, and the output unit 133 outputs the reaction information based on the part of the user who has taken the action. Output different content.

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して起こしたユーザの部位の動作に関する反応情報に基づいて、かかるユーザの部位の動作に関する広告オブジェクトを含むVR空間の映像を出力することができるので、広告オブジェクトの訴求効果を向上させることができる。 As a result, the information processing apparatus 100 according to the embodiment, based on the reaction information related to the user's body part motion caused by the user to the object in the VR space, creates a VR space containing the advertising object related to the user's body part motion. image can be output, the appealing effect of the advertising object can be improved.

また、実施形態に係る情報処理装置100において、取得部132は、ユーザが仮想空間内の変化に反応した後に行う行動に関する反応情報を取得し、出力部133は、ユーザが仮想空間内の変化に反応した後に行う行動によって異なるコンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, the acquisition unit 132 acquires reaction information related to actions performed by the user after reacting to changes in the virtual space, and the output unit 133 outputs Different contents are output depending on the action taken after reacting.

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して反応した後に行う行動によって異なる広告オブジェクトを含むVR空間の映像を出力することができるので、広告オブジェクトを効率的に提供することができる。 As a result, the information processing apparatus 100 according to the embodiment can output video in the VR space that includes different advertising objects depending on the user's behavior after reacting to the object in the VR space. can be provided in a timely manner.

また、実施形態に係る情報処理装置100において、出力部133は、取得部132によって取得された反応情報が、仮想空間内の変化に反応した後にユーザが落ち着いたことを示す場合に、反応情報に対応するコンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, when the reaction information acquired by the acquisition unit 132 indicates that the user has calmed down after reacting to the change in the virtual space, the output unit 133 Output the corresponding content.

また、実施形態に係る情報処理装置100において、出力部133は、取得部132によって取得された反応情報が、仮想空間内の変化に反応した後にユーザが慌てていたことを示す場合に、反応情報に対応するコンテンツを出力しない。 Further, in the information processing apparatus 100 according to the embodiment, the output unit 133 outputs the reaction information when the reaction information acquired by the acquisition unit 132 indicates that the user panicked after reacting to the change in the virtual space. Do not output content corresponding to .

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して反応した後に行う行動によって広告オブジェクトを含むVR空間の映像を出力するか否かを決定することができるので、広告オブジェクトを効率的に提供することができる。 Accordingly, the information processing apparatus 100 according to the embodiment can determine whether or not to output the video of the VR space including the advertisement object based on the user's action after reacting to the object in the VR space. , the advertising object can be served efficiently.

また、実施形態に係る情報処理装置100において、出力部133は、ユーザが反応した仮想空間内の変化の種別によって異なるコンテンツを出力する。 In addition, in the information processing apparatus 100 according to the embodiment, the output unit 133 outputs different content depending on the type of change in the virtual space to which the user reacts.

また、実施形態に係る情報処理装置100において、出力部133は、仮想空間内の変化として、音声又はBGMの変化、仮想空間内に映し出されたオブジェクトの色彩の変化、仮想空間内の明暗の変化、仮想空間内に映し出されたオブジェクトの行動変化のいずれか1つに対応するコンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, the output unit 133 outputs, as changes in the virtual space, changes in voice or BGM, changes in the colors of objects projected in the virtual space, changes in brightness in the virtual space. , outputs content corresponding to any one of behavioral changes of the object projected in the virtual space.

これにより、実施形態に係る情報処理装置100は、ユーザが反応したVR空間内の変化の種別によって異なる広告オブジェクトを含むVR空間の映像を出力することができるので、広告オブジェクトの訴求効果を向上させることができる。 As a result, the information processing apparatus 100 according to the embodiment can output video of the VR space including different advertising objects depending on the type of change in the VR space to which the user reacts, thereby improving the appealing effect of the advertising object. be able to.

また、実施形態に係る情報処理装置100において、出力部133は、コンテンツ提供主(広告主に相当)によって設定された所定の条件が満たされた場合に、コンテンツを出力する。 In addition, in the information processing apparatus 100 according to the embodiment, the output unit 133 outputs content when a predetermined condition set by a content provider (corresponding to an advertiser) is satisfied.

また、実施形態に係る情報処理装置100において、出力部133は、所定の条件として、仮想空間内の変化、ユーザの反応、ユーザの反応のタイミングのいずれか1つが満たされた場合に、コンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, the output unit 133 outputs the content when any one of a change in the virtual space, a reaction of the user, and the timing of the reaction of the user is satisfied as a predetermined condition. Output.

これにより、実施形態に係る情報処理装置100は、広告主によって設定された所定の条件が満たされた場合に広告オブジェクトを含むVR空間の映像を出力することができるので、広告主にとって有益な広告オブジェクトの提供が実現できる。 As a result, the information processing apparatus 100 according to the embodiment can output a video in the VR space including the advertisement object when a predetermined condition set by the advertiser is satisfied. object can be provided.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.

1 情報処理システム
10 広告主端末
20 HMD
100 情報処理装置
110 通信部
120 記憶部
121 VR空間構成要素情報記憶部
122 広告オブジェクト記憶部
123 広告オブジェクト記憶部
124 広告オブジェクト記憶部
130 制御部
131 入稿受付部
132 取得部
133 出力部
1 Information Processing System 10 Advertiser Terminal 20 HMD
100 information processing device 110 communication unit 120 storage unit 121 VR space component information storage unit 122 advertisement object storage unit 123 advertisement object storage unit 124 advertisement object storage unit 130 control unit 131 submission reception unit 132 acquisition unit 133 output unit

Claims (12)

映像によって形成される仮想空間を体験するユーザの反応であって、前記仮想空間内の変化に対するユーザの反応に関する反応情報を取得する取得部と、
前記取得部によって取得された反応情報が示す前記ユーザの反応と関連するコンテンツであって、前記仮想空間内の変化によって生じた対象を訴求するコンテンツを出力する出力部と、
を備え
前記取得部は、
前記仮想空間内の変化に対する前記ユーザの反応に基づく行動に関する反応情報を取得し、
前記出力部は、
前記ユーザの反応に基づく行動によって異なるコンテンツを出力する、
ことを特徴とする情報処理装置。
an acquisition unit that acquires reaction information about a user's reaction to a change in the virtual space, which is a reaction of the user experiencing the virtual space formed by the video;
an output unit that outputs content related to the reaction of the user indicated by the reaction information acquired by the acquisition unit, the content appealing to an object caused by a change in the virtual space;
with
The acquisition unit
Acquiring reaction information regarding actions based on the user's reaction to changes in the virtual space;
The output unit
outputting different content depending on actions based on the user's reaction;
An information processing device characterized by:
前記出力部は、
前記ユーザが前記仮想空間内の変化に対して反応した後に、前記コンテンツを出力する、
ことを特徴とする請求項1に記載の情報処理装置。
The output unit
outputting the content after the user reacts to a change in the virtual space;
The information processing apparatus according to claim 1, characterized by:
前記取得部は、
前記ユーザが反応した際に行動を起こしたユーザの部位に関する反応情報を取得し、
前記出力部は、
前記行動を起こしたユーザの部位によって異なるコンテンツを出力する、
ことを特徴とする請求項1又は2に記載の情報処理装置。
The acquisition unit
Acquiring reaction information related to a part of the user who took action when the user reacted,
The output unit
outputting different content depending on the part of the user who has taken the action;
3. The information processing apparatus according to claim 1 , wherein:
前記取得部は、
前記ユーザが前記仮想空間内の変化に反応した後に行う行動に関する反応情報を取得し、
前記出力部は、
前記ユーザが前記仮想空間内の変化に反応した後に行う行動によって異なるコンテンツを出力する、
ことを特徴とする請求項1~のいずれか1つに記載の情報処理装置。
The acquisition unit
Acquiring reaction information about an action performed by the user after reacting to a change in the virtual space;
The output unit
outputting different contents depending on the actions performed by the user after reacting to changes in the virtual space;
The information processing apparatus according to any one of claims 1 to 3 , characterized by:
前記出力部は、
前記取得部によって取得された反応情報が、前記仮想空間内の変化に反応した後に前記ユーザが落ち着いたことを示す場合に、前記反応情報に対応するコンテンツを出力する、
ことを特徴とする請求項1~のいずれか1つに記載の情報処理装置。
The output unit
outputting content corresponding to the reaction information when the reaction information acquired by the acquisition unit indicates that the user has calmed down after reacting to a change in the virtual space;
The information processing apparatus according to any one of claims 1 to 4 , characterized in that:
前記出力部は、
前記取得部によって取得された反応情報が、前記仮想空間内の変化に反応した後に前記ユーザが慌てていたことを示す場合に、前記反応情報に対応するコンテンツを出力しない、
ことを特徴とする請求項1~のいずれか1つに記載の情報処理装置。
The output unit
not outputting content corresponding to the reaction information when the reaction information acquired by the acquisition unit indicates that the user panicked after reacting to a change in the virtual space;
The information processing apparatus according to any one of claims 1 to 5 , characterized by:
前記出力部は、
前記ユーザが反応した前記仮想空間内の変化の種別によって異なるコンテンツを出力する、
ことを特徴とする請求項1~のいずれか1つに記載の情報処理装置。
The output unit
outputting different content according to the type of change in the virtual space to which the user reacted;
The information processing apparatus according to any one of claims 1 to 6 , characterized in that:
前記出力部は、
前記仮想空間内の変化として、音声又はBGM(Background Music)の変化、前記仮想空間内に映し出されたオブジェクトの色彩の変化、前記仮想空間内の明暗の変化、前記仮想空間内に映し出されたオブジェクトの行動変化のいずれか1つに対応するコンテンツを出力する、
ことを特徴とする請求項1~のいずれか1つに記載の情報処理装置。
The output unit
Changes in the virtual space include changes in voice or background music (BGM), changes in color of objects projected in the virtual space, changes in brightness in the virtual space, and objects projected in the virtual space. to output content corresponding to any one of the behavioral changes of
The information processing apparatus according to any one of claims 1 to 7 , characterized by:
前記出力部は、
コンテンツ提供主によって設定された所定の条件が満たされた場合に、前記コンテンツを出力する、
ことを特徴とする請求項1~のいずれか1つに記載の情報処理装置。
The output unit
outputting the content when a predetermined condition set by a content provider is satisfied;
The information processing apparatus according to any one of claims 1 to 8 , characterized by:
前記出力部は、
前記所定の条件として、仮想空間内の変化、ユーザの反応、ユーザの反応のタイミングのいずれか1つが満たされた場合に、前記コンテンツを出力する、
ことを特徴とする請求項に記載の情報処理装置。
The output unit
outputting the content when any one of a change in the virtual space, a user's reaction, and a timing of the user's reaction is satisfied as the predetermined condition;
10. The information processing apparatus according to claim 9 , characterized by:
コンピュータが実行する情報処理方法であって、
映像によって形成される仮想空間を体験するユーザの反応であって、前記仮想空間内の変化に対するユーザの反応に関する反応情報を取得する取得工程と、
前記取得工程によって取得された反応情報が示す前記ユーザの反応と関連するコンテンツであって、前記仮想空間内の変化によって生じた対象を訴求するコンテンツを出力する出力工程と、
を含み、
前記取得工程は、
前記仮想空間内の変化に対する前記ユーザの反応に基づく行動に関する反応情報を取得し、
前記出力工程は、
前記ユーザの反応に基づく行動によって異なるコンテンツを出力する、
ことを特徴とする情報処理方法。
A computer-executed information processing method comprising:
an acquiring step of acquiring reaction information about a user's reaction to a change in the virtual space, which is a reaction of the user experiencing the virtual space formed by the video;
an output step of outputting content related to the reaction of the user indicated by the reaction information obtained in the obtaining step, the content appealing to an object caused by a change in the virtual space;
including
The obtaining step includes
Acquiring reaction information regarding actions based on the user's reaction to changes in the virtual space;
The output step includes
outputting different content depending on actions based on the user's reaction;
An information processing method characterized by:
映像によって形成される仮想空間を体験するユーザの反応であって、前記仮想空間内の変化に対するユーザの反応に関する反応情報を取得する取得手順と、
前記取得手順によって取得された反応情報が示す前記ユーザの反応と関連するコンテンツであって、前記仮想空間内の変化によって生じた対象を訴求するコンテンツを出力する出力手順と、
をコンピュータに実行させ
前記取得手順は、
前記仮想空間内の変化に対する前記ユーザの反応に基づく行動に関する反応情報を取得し、
前記出力手順は、
前記ユーザの反応に基づく行動によって異なるコンテンツを出力する、
ことを特徴とする情報処理プログラム。
an acquisition procedure for acquiring reaction information about a user's reaction to a change in the virtual space, which is a reaction of the user experiencing the virtual space formed by the video;
an output step of outputting content related to the reaction of the user indicated by the reaction information obtained by the obtaining step, the content appealing to an object caused by a change in the virtual space;
on the computer , and
The acquisition procedure includes:
Acquiring reaction information regarding actions based on the user's reaction to changes in the virtual space;
The output procedure includes:
outputting different content depending on actions based on the user's reaction;
An information processing program characterized by:
JP2017237049A 2017-12-11 2017-12-11 Information processing device, information processing method and information processing program Active JP7302945B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017237049A JP7302945B2 (en) 2017-12-11 2017-12-11 Information processing device, information processing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017237049A JP7302945B2 (en) 2017-12-11 2017-12-11 Information processing device, information processing method and information processing program

Publications (2)

Publication Number Publication Date
JP2019105931A JP2019105931A (en) 2019-06-27
JP7302945B2 true JP7302945B2 (en) 2023-07-04

Family

ID=67061255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017237049A Active JP7302945B2 (en) 2017-12-11 2017-12-11 Information processing device, information processing method and information processing program

Country Status (1)

Country Link
JP (1) JP7302945B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005237561A (en) 2004-02-25 2005-09-08 Canon Inc Information processing device and method
JP2008257603A (en) 2007-04-06 2008-10-23 Ntt Docomo Inc Server device and program
JP2014115897A (en) 2012-12-11 2014-06-26 Fujitsu Ltd Information processor, management device, information processing method, controlling method, information processing program, controlling program, and content providing system
JP5961736B1 (en) 2015-08-17 2016-08-02 株式会社コロプラ Method and program for controlling head mounted display system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3743893B2 (en) * 1995-05-09 2006-02-08 温 松下 Speech complementing method and system for creating a sense of reality in a virtual space of still images
JP2009032056A (en) * 2007-07-27 2009-02-12 Mitsuba Corp Communication system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005237561A (en) 2004-02-25 2005-09-08 Canon Inc Information processing device and method
JP2008257603A (en) 2007-04-06 2008-10-23 Ntt Docomo Inc Server device and program
JP2014115897A (en) 2012-12-11 2014-06-26 Fujitsu Ltd Information processor, management device, information processing method, controlling method, information processing program, controlling program, and content providing system
JP5961736B1 (en) 2015-08-17 2016-08-02 株式会社コロプラ Method and program for controlling head mounted display system

Also Published As

Publication number Publication date
JP2019105931A (en) 2019-06-27

Similar Documents

Publication Publication Date Title
US10169897B1 (en) Systems and methods for character composition
WO2019234879A1 (en) Information processing system, information processing method and computer program
Bridger Neuro design: Neuromarketing insights to boost engagement and profitability
US9483771B2 (en) Methods, systems, and products for personalized haptic emulations
JP2019512793A (en) Head mounted display system configured to exchange biometric information
US11386474B2 (en) System and method for generating a product recommendation in a virtual try-on session
JP6930704B2 (en) Methods, devices and computer programs for presenting advertisements in virtualized environments
JP2020109935A (en) Video delivery system, video delivery method, video delivery program, information processing terminal, and video viewing program
CN110300994A (en) Image processing apparatus, image processing method and picture system
WO2021210585A1 (en) Computer program, server device, terminal device, and method
US20230219003A1 (en) Advertising display system
WO2012135797A2 (en) Targeted marketing system and method
JP7302945B2 (en) Information processing device, information processing method and information processing program
US8856061B2 (en) User experience adjustment in controllable events
JP7017919B2 (en) Information processing equipment, information processing methods and information processing programs
JP2023038207A (en) Video distribution system, video distribution method, video distribution program, and server
JP2023008860A (en) Automated purchase of content of digital wish list based on threshold set by user
JP7329217B2 (en) Computer program, server device, terminal device, and method
JP6135463B2 (en) Simulation system, simulation method, program, and recording medium
JP7509436B2 (en) Computer program, server device, terminal device, and method
US20240087002A1 (en) Processing device, processing method, and processing program
JP7171964B1 (en) Content delivery system, content delivery method, and content delivery program
WO2023175700A1 (en) Information processing system, information processing method, and program
US20230316662A1 (en) Systems and methods for creating a custom secondary content for a primary content based on interactive data
JP7132373B2 (en) Computer program, method and server

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211215

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211215

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211223

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220104

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220121

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220125

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220517

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221011

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230622

R150 Certificate of patent or registration of utility model

Ref document number: 7302945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350