JP2019105932A - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP2019105932A
JP2019105932A JP2017237050A JP2017237050A JP2019105932A JP 2019105932 A JP2019105932 A JP 2019105932A JP 2017237050 A JP2017237050 A JP 2017237050A JP 2017237050 A JP2017237050 A JP 2017237050A JP 2019105932 A JP2019105932 A JP 2019105932A
Authority
JP
Japan
Prior art keywords
user
information processing
action
processing apparatus
predetermined object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017237050A
Other languages
Japanese (ja)
Other versions
JP7017919B2 (en
Inventor
潤一 安川
Junichi Yasukawa
潤一 安川
梓 角田
Azusa Tsunoda
梓 角田
真理亜 若林
Maria Wakabayashi
真理亜 若林
優 青野
Masaru Aono
優 青野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017237050A priority Critical patent/JP7017919B2/en
Publication of JP2019105932A publication Critical patent/JP2019105932A/en
Application granted granted Critical
Publication of JP7017919B2 publication Critical patent/JP7017919B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To allow for providing content with high appealing effect.SOLUTION: An information processing device comprises a detection unit and an output unit. The detection unit detects an action of a user experiencing the virtual space formed of a video, the action physically changing a prescribed object projected in the virtual space. The output unit outputs content on the basis of the results detected by the detection unit. For example, the detection unit detects an action of a user, the action changing the user himself or herself and the prescribed object. The output unit outputs content which differs depending on the changes.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and an information processing program.

従来、ユーザの視野を覆い、両眼視差に基づく仮想現実(VR:Virtual Reality)空間の映像を提供するHMD(Head Mounted Device)等により、VRを含む仮想空間上でユーザに対して触覚及び感触を体験させる技術が提供されている。例えば、拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成する技術が知られている。   Conventionally, HMD (Head Mounted Device) or the like, which covers the user's field of view and provides images of a virtual reality (VR) space based on binocular parallax, senses touch and feel to the user on the virtual space including VR The technology to make you experience is provided. For example, techniques for generating haptically enhanced objects for augmentation and virtual reality applications are known.

特開2016−126772号公報JP, 2016-126772, A

しかしながら、上記の従来技術では、訴求効果の高いコンテンツを提供することができるとは限らない。例えば、上記の従来技術では、拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するに過ぎず、訴求効果の高いコンテンツを提供することができるとは限らない。   However, the above-mentioned prior art can not always provide highly appealing content. For example, the prior art described above only creates haptically enhanced objects for augmented and virtual reality applications, and may not be able to provide highly appealing content.

本願は、上記に鑑みてなされたものであって、訴求効果の高いコンテンツを提供することができる情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。   The present application has been made in view of the above, and an object of the present invention is to provide an information processing apparatus, an information processing method, and an information processing program capable of providing content with high appealing effect.

本願に係る情報処理装置は、映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出部と、前記検出部によって検出された結果に基づいて、コンテンツを出力する出力部と、を備えたことを特徴とする。   An information processing apparatus according to the present application detects an action of a user who experiences a virtual space formed by video and detects the action of the user who physically changes the predetermined object displayed in the virtual space. And an output unit that outputs content based on the result detected by the detection unit.

実施形態の一態様によれば、訴求効果の高いコンテンツを提供することができるという効果を奏する。   According to one aspect of the embodiment, it is possible to provide content with a high appealing effect.

図1は、実施形態に係る情報処理装置が実行する出力処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of an output process performed by the information processing apparatus according to the embodiment. 図2は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 2 is a diagram illustrating an exemplary configuration of the information processing apparatus according to the embodiment. 図3は、実施形態に係るVR空間構成要素情報記憶部の一例を示す図である。FIG. 3 is a diagram showing an example of a VR space component information storage unit according to the embodiment. 図4は、実施形態に係る広告オブジェクト記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of an advertisement object storage unit according to the embodiment. 図5は、実施形態に係る情報処理装置が実行する出力処理の流れの一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of the flow of output processing performed by the information processing apparatus according to the embodiment. 図6は、変形例に係る情報処理装置が実行する検出処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of detection processing performed by the information processing apparatus according to the modification. 図7は、変形例に係る広告オブジェクト記憶部の一例を示す図である。FIG. 7 is a diagram illustrating an example of an advertisement object storage unit according to a modification. 図8は、変形例に係る情報処理装置が実行する出力処理の一例を示す図である。FIG. 8 is a diagram illustrating an example of an output process performed by the information processing apparatus according to the modification. 図9は、変形例に係る広告オブジェクト記憶部の一例を示す図である。FIG. 9 is a diagram illustrating an example of an advertisement object storage unit according to a modification. 図10は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 10 is a hardware configuration diagram showing an example of a computer for realizing the function of the information processing apparatus.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムの実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, an information processing apparatus, an information processing method, and a mode for implementing an information processing program according to the present application (hereinafter, referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the information processing apparatus, the information processing method, and the information processing program according to the present application are not limited by the embodiment. Moreover, it is possible to combine each embodiment suitably in the range which does not make process contents contradictory. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.

〔1.情報処理装置が示す出力処理の一例〕
図1を用いて、実施形態に係る情報処理装置が実行する出力処理の一例について説明する。図1は、実施形態に係る情報処理装置が実行する出力処理の一例を示す図である。図1では、情報処理装置100により出力処理が実行される例を示す。
[1. Example of output processing indicated by information processing device]
An example of the output process performed by the information processing apparatus according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of an output process performed by the information processing apparatus according to the embodiment. FIG. 1 shows an example in which the information processing apparatus 100 performs output processing.

図1に示すように、情報処理システム1は、広告主端末10と、HMD20と、情報処理装置100とを含む。広告主端末10、HMD20及び情報処理装置100は、図示しない所定の通信網を介して、有線又は無線により通信可能に接続される。なお、図1に示す情報処理システム1には、複数台の広告主端末10や、複数台のHMD20や、複数台の情報処理装置100が含まれてもよい。   As shown in FIG. 1, the information processing system 1 includes an advertiser terminal 10, an HMD 20, and an information processing apparatus 100. The advertiser terminal 10, the HMD 20, and the information processing apparatus 100 are communicably connected by wire or wireless via a predetermined communication network (not shown). Note that the information processing system 1 illustrated in FIG. 1 may include a plurality of advertiser terminals 10, a plurality of HMDs 20, and a plurality of information processing apparatuses 100.

広告主端末10は、広告主によって利用される情報処理装置である。例えば、広告主端末10は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)等である。また、広告主端末10は、広告主による操作に従って、広告オブジェクトを情報処理装置100に入稿する。   The advertiser terminal 10 is an information processing apparatus used by an advertiser. For example, the advertiser terminal 10 is a desktop PC (Personal Computer), a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), or the like. Further, the advertiser terminal 10 submits an advertisement object to the information processing apparatus 100 according to an operation by the advertiser.

なお、広告主は、広告オブジェクトの入稿を代理店に依頼する場合がある。この場合、情報処理装置100に広告オブジェクトを入稿するのは代理店となる。以下では、「広告主」といった表記は、広告主だけでなく代理店を含む概念であり、「広告主端末」といった表記は、広告主端末10だけでなく代理店によって利用される代理店装置を含む概念であるものとする。   An advertiser may request an agency to submit an advertisement object. In this case, it is the agency that submits the advertisement object to the information processing apparatus 100. In the following, the expression "advertiser" is a concept including not only the advertiser but also the agency, and the expression "advertiser terminal" means the agency device used by the agency as well as the advertiser terminal 10. It is an included concept.

HMD20は、ユーザが装着するウェアラブルデバイスであり、ユーザの視野内に情報処理装置100から出力される静止画像や動画像といった各種の映像を表示する。このことにより、HMD20は、ユーザがあたかもVR空間内に居住するといった感覚を提供し、ユーザにVR空間を体験させる。また、HMD20は、情報処理装置100から出力された音声やBGM(Background Music)等を出力する機能を有していてもよい。   The HMD 20 is a wearable device worn by the user, and displays various images such as a still image and a moving image output from the information processing apparatus 100 within the field of view of the user. By this, the HMD 20 provides a feeling that the user is as if in the VR space, and makes the user experience the VR space. In addition, the HMD 20 may have a function of outputting a voice output from the information processing apparatus 100, BGM (Background Music), and the like.

例えば、HMD20は、情報処理装置100によって出力されたVR空間の映像と音声及びBGMとを組み合わせたVR空間の映像をユーザに提供する。また、例えば、HMD20は、ユーザの向きが変更した場合に、ユーザが変更した向きに対応するVR空間の映像をユーザに提供する。なお、HMD20の処理は、例えば、3D(Dimension)モデルの自動変形等に関する各種の周知技術や、3Dモデルのレンダリングに関する各種の周知技術により実現可能である。   For example, the HMD 20 provides the user with a video in the VR space obtained by combining the video in the VR space output by the information processing apparatus 100 with the audio and the BGM. In addition, for example, when the direction of the user is changed, the HMD 20 provides the user with an image of the VR space corresponding to the direction changed by the user. Note that the processing of the HMD 20 can be realized by, for example, various well-known techniques related to automatic deformation of a 3D (Dimension) model, and various well-known techniques related to rendering of a 3D model.

情報処理装置100は、HMD20にVR空間の映像を出力する情報処理装置であり、例えば、サーバ装置やクラウドシステム、ゲーム機等により実現される。具体的には、情報処理装置100は、ユーザとオブジェクトとの接触態様に基づいて、VR空間内に広告オブジェクトを含む映像をHMD20に出力する。   The information processing apparatus 100 is an information processing apparatus that outputs an image in the VR space to the HMD 20, and is realized by, for example, a server apparatus, a cloud system, a game machine, or the like. Specifically, the information processing apparatus 100 outputs an image including an advertisement object in the VR space to the HMD 20 based on the contact mode between the user and the object.

以下、図1を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。   Hereinafter, an example of output processing of an advertisement object by the information processing apparatus 100 will be described along the flow using FIG. 1.

まず、図1に示すように、広告主端末10は、広告主の操作に従って、広告オブジェクトを情報処理装置100に入稿する(ステップS1)。例えば、広告主が、花専門の小売り業者であるとする。この場合、広告主端末10は、広告オブジェクトとして、花束の料金に関するクーポン等を入稿する。そして、情報処理装置100は、VR空間VR1の映像をHMD20に出力する(ステップS2)。これにより、HMD20は、例えば、両眼視差に基づくVR空間VR1であるVR空間内に所定のオブジェクトとして花オブジェクトOD1が配置された映像と音声及びBGMとを組み合わせたVR空間VR1をユーザに体験させる。この場合、図1の例では、ユーザは、小道の両脇に大きな街路樹が植えられている並木道を歩いている感覚を体験する。   First, as shown in FIG. 1, the advertiser terminal 10 submits an advertisement object to the information processing apparatus 100 according to the operation of the advertiser (step S1). For example, suppose that the advertiser is a flower retailer. In this case, the advertiser terminal 10 submits a coupon or the like regarding the charge of the bouquet as an advertisement object. Then, the information processing apparatus 100 outputs the video of the VR space VR1 to the HMD 20 (step S2). Thus, the HMD 20 causes the user to experience the VR space VR1 in which the video and audio and BGM in which the flower object OD1 is disposed as the predetermined object is combined as a predetermined object in the VR space which is the VR space VR1 based on binocular parallax, for example. . In this case, in the example of FIG. 1, the user experiences the feeling of walking along a tree-lined road where large roadside trees are planted on both sides of the path.

そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を視認し、花オブジェクトOD1に触れるものとする(ステップS3)。例えば、図1に示すように、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を凝視するものとする。この場合、HMD20は、花オブジェクトOD1が拡大表示されたVR空間VR1の映像を情報処理装置100がHMD20に出力することで、VR空間VR1の映像を切り替える。そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1に触れるものとする。そして、HMD20は、ユーザが花オブジェクトOD1に触れた行動に関する情報を情報処理装置100に送信する。なお、HMD20は、定期的にVR空間VR1内で行ったユーザの様々な行動に関する情報を情報処理装置100に送信する。続いて、情報処理装置100は、ユーザの行動のうち、ユーザが花オブジェクトOD1に触れた行動を検出する(ステップS4)。例えば、情報処理装置100は、HMD20によって送信されたユーザの行動に関する情報に基づいて、ユーザが花オブジェクトOD1に触れた行動を検出する。   Then, the user visually recognizes the flower object OD1 blooming at the root of the street tree, and touches the flower object OD1 (step S3). For example, as shown in FIG. 1, the user gazes at the flower object OD1 blooming at the root of the street tree. In this case, the HMD 20 switches the video of the VR space VR1 by the information processing apparatus 100 outputting the video of the VR space VR1 in which the flower object OD1 is enlarged and displayed to the HMD 20. Then, the user touches the flower object OD1 blooming at the root of the street tree. Then, the HMD 20 transmits, to the information processing apparatus 100, information related to the action of the user touching the flower object OD1. Note that the HMD 20 periodically transmits, to the information processing apparatus 100, information on various actions of the user performed in the VR space VR1. Subsequently, the information processing apparatus 100 detects an action in which the user touches the flower object OD1 among the actions of the user (step S4). For example, the information processing apparatus 100 detects an action in which the user touches the flower object OD1 based on the information on the action of the user transmitted by the HMD 20.

続いて、情報処理装置100は、検出結果に基づいて、VR空間内に広告オブジェクトC1を含むVR空間の映像を出力する(ステップS5)。例えば、ユーザの行動に関する広告オブジェクトC1が花束に関するクーポンであるとする。この場合、情報処理装置100は、ユーザが花オブジェクトOD1に触れた行動を検出した検出結果に基づいて、ユーザによって触れられた花オブジェクトOD1の代わりに「今なら花束が10%OFF!!」というクーポンを含むVR空間の映像をHMD20に出力する。そして、HMD20は、広告オブジェクトC1として花束に関するクーポンC1を含むVR空間VR2の映像をユーザに提供する。これにより、HMD20は、例えば、両眼視差に基づくVR空間VR2の映像と音声及びBGMとを組み合わせたVR空間VR2をユーザに再度体験させる。この場合、図1の例では、ユーザは、背景が街路樹の根元に表示された花束に関するクーポンC1を視認する。   Subsequently, the information processing apparatus 100 outputs an image of the VR space including the advertisement object C1 in the VR space based on the detection result (step S5). For example, it is assumed that the advertisement object C1 related to the user's action is a coupon related to a bouquet. In this case, the information processing apparatus 100 indicates that “the bouquet is now 10% OFF !!” instead of the flower object OD1 touched by the user based on the detection result of detecting the action in which the user touched the flower object OD1. The video of the VR space including the coupon is output to the HMD 20. Then, the HMD 20 provides the user with an image of the VR space VR2 including the coupon C1 regarding the bouquet as the advertisement object C1. Thus, the HMD 20 causes the user to experience again the VR space VR2 in which the video of the VR space VR2 based on the binocular parallax is combined with audio and BGM, for example. In this case, in the example of FIG. 1, the user visually recognizes coupon C1 regarding the bouquet in which the background is displayed at the root of the street tree.

このように、実施形態に係る情報処理装置100は、ユーザがVR空間VR1内の花オブジェクトOD1に触れる行動を検出し、かかる検出結果に基づいて、VR空間内に広告オブジェクトC1を含むVR空間の映像をHMD20に出力する。これにより、実施形態に係る情報処理装置100は、広告オブジェクトの訴求効果を向上させることができる。図1の例を用いて説明すると、ユーザは、花オブジェクトOD1に触れるということから、花オブジェクトOD1に興味があると考えられる。この場合、情報処理装置100は、ユーザがVR空間内で所定のオブジェクトに触れる行動に関する広告オブジェクトを含むVR空間の映像をHMD20に出力する。したがって、情報処理装置100は、ユーザのオブジェクトに触れるという動作から、ユーザの興味関心があるコンテンツを特定することができるので、コンテンツの訴求効果を効率的に向上させることができる。   Thus, the information processing apparatus 100 according to the embodiment detects an action in which the user touches the flower object OD1 in the VR space VR1, and based on the detection result, in the VR space including the advertisement object C1 in the VR space. Output the video to the HMD 20. Thereby, the information processing apparatus 100 according to the embodiment can improve the appeal effect of the advertisement object. Describing using the example of FIG. 1, the user is considered to be interested in the flower object OD1 because the user touches the flower object OD1. In this case, the information processing apparatus 100 outputs, to the HMD 20, an image of the VR space including an advertisement object related to an action in which the user touches a predetermined object in the VR space. Therefore, since the information processing apparatus 100 can identify the content of interest to the user from the operation of touching the object of the user, the appeal effect of the content can be efficiently improved.

〔2.情報処理装置の構成〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[2. Configuration of information processing apparatus]
Next, the configuration of the information processing apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an exemplary configuration of the information processing apparatus 100 according to the embodiment. As shown in FIG. 2, the information processing apparatus 100 includes a communication unit 110, a storage unit 120, and a control unit 130.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線又は無線で接続され、広告主端末10と、HMD20との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC). The communication unit 110 is connected to the network by wire or wirelessly, and transmits and receives information between the advertiser terminal 10 and the HMD 20.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、VR空間構成要素情報記憶部121と、広告オブジェクト記憶部122とを有する。
(About storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 includes a VR space component information storage unit 121 and an advertisement object storage unit 122.

(VR空間構成要素情報記憶部121について)
実施形態に係るVR空間構成要素情報記憶部121は、VR空間に映し出される各種オブジェクトに関する情報を記憶する。ここで、図3に、実施形態に係るVR空間構成要素情報記憶部121の一例を示す。図3に示した例では、VR空間構成要素情報記憶部121は、「VR空間構成要素ID(Identifier)」、「背景情報」、「オブジェクト情報」、「オブジェクト配置位置情報」といった項目を有する。
(Regarding the VR space component information storage unit 121)
The VR space component information storage unit 121 according to the embodiment stores information on various objects displayed in the VR space. Here, FIG. 3 illustrates an example of the VR space component information storage unit 121 according to the embodiment. In the example illustrated in FIG. 3, the VR space component information storage unit 121 has items such as “VR space component ID (Identifier)”, “background information”, “object information”, and “object arrangement position information”.

「VR空間構成要素ID」は、VR空間構成要素を識別する識別子である。「背景情報」は、「VR空間構成要素ID」と対応付けられたVR空間の背景に関する情報である。「オブジェクト情報」は、「VR空間構成要素ID」と対応付けられたオブジェクトに関する情報であり、オブジェクトの形状やテクスチャ等の情報である。「オブジェクト配置位置情報」は、「VR空間構成要素ID」と対応付けられたオブジェクトが配置されたVR空間内の位置に関する情報である。例えば、図3では、VR空間構成要素IDによって識別される「E1」は、背景情報が「小道」であり、オブジェクト情報が「花オブジェクト」であり、オブジェクト配置位置情報が「OP1」である。   “VR space component ID” is an identifier that identifies a VR space component. The “background information” is information on the background of the VR space associated with the “VR space component ID”. "Object information" is information on an object associated with "VR space component ID", and is information such as the shape or texture of the object. The “object placement position information” is information on the position in the VR space where the object associated with the “VR space component ID” is placed. For example, in FIG. 3, “E1” identified by the VR space component ID has “Background” as background information, “Flower object” as object information, and “OP1” as object arrangement position information.

なお、VR空間構成要素情報記憶部121は、上記に限らず、VR空間を実現するための種々の情報を記憶してもよい。例えば、VR空間構成要素情報記憶部121は、VR空間を実現するための音声及びBGMや映像データ等を記憶してもよい。   The VR space component information storage unit 121 is not limited to the above, and may store various information for realizing the VR space. For example, the VR space component information storage unit 121 may store audio, BGM, video data, and the like for realizing the VR space.

(広告オブジェクト記憶部122について)
実施形態に係る広告オブジェクト記憶部122は、広告主によって入稿された広告オブジェクトを記憶する。ここで、図4に、実施形態に係る広告オブジェクト記憶部122の一例を示す。図4に示した例では、広告オブジェクト記憶部122は、「広告主ID」、「広告オブジェクト」といった項目を有する。
(About advertisement object storage unit 122)
The advertisement object storage unit 122 according to the embodiment stores the advertisement object submitted by the advertiser. Here, FIG. 4 illustrates an example of the advertisement object storage unit 122 according to the embodiment. In the example illustrated in FIG. 4, the advertisement object storage unit 122 has items such as “advertiser ID” and “advertisement object”.

「広告主ID」は、広告主を識別するための識別情報を示す。「広告オブジェクト」は、広告主によって入稿された広告オブジェクトを示す。例えば、図4では、広告主IDによって識別される「CL1」によって入稿された広告オブジェクト「花束に関するクーポン」を示す。   "Advertiser ID" indicates identification information for identifying an advertiser. "Ad object" indicates an advertisement object submitted by an advertiser. For example, FIG. 4 shows the advertisement object “coupon for bouquet” submitted by “CL1” identified by the advertiser ID.

なお、広告オブジェクト記憶部122は、上記に限らず、広告主によって設定された条件に関する種々の情報を記憶してもよい。例えば、広告オブジェクト記憶部122は、オブジェクト、ユーザとオブジェクトとの接触態様等を記憶してもよい。この点について、変形例で詳述する。   Advertising object storage part 122 may memorize not only the above but various information about the conditions set up by the advertiser. For example, the advertisement object storage unit 122 may store an object, a contact mode between the user and the object, and the like. This point will be described in detail in a modified example.

(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About the control unit 130)
The control unit 130 is a controller, and for example, various programs (information processing programs) stored in a storage device in the information processing apparatus 100 by a central processing unit (CPU), a micro processing unit (MPU), or the like. (Corresponding to an example) is realized by executing the RAM as a work area. The control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

図2に示すように、制御部130は、入稿受付部131と、ユーザ行動受付部132と、検出部133と、出力部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。   As shown in FIG. 2, the control unit 130 includes a manuscript reception unit 131, a user action reception unit 132, a detection unit 133, and an output unit 134, and functions and functions of the information processing described below. Realize or execute. Note that the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 2, and any other configuration may be used as long as the information processing described later is performed. Moreover, the connection relation of each processing unit included in the control unit 130 is not limited to the connection relation illustrated in FIG. 2, and may be another connection relation.

(入稿受付部131について)
入稿受付部131は、広告主端末10から広告オブジェクトの入稿を受け付ける。具体的には、入稿受付部131は、広告主端末10から広告オブジェクトの入稿を受け付け、かかる広告オブジェクトを広告オブジェクト記憶部122に格納する。また、入稿受付部131は、広告主によって設定された所定の条件を受け付け、かかる所定の条件を広告オブジェクト記憶部122に格納する。例えば、入稿受付部131は、所定の条件として、オブジェクト、ユーザとオブジェクトとの接触態様等を受け付け、かかる所定の条件を広告オブジェクト記憶部122に格納する。
(About the submission acceptance unit 131)
The submission acceptance unit 131 accepts submission of an advertisement object from the advertiser terminal 10. Specifically, the submission acceptance unit 131 accepts submission of an advertisement object from the advertiser terminal 10, and stores the advertisement object in the advertisement object storage unit 122. Further, the submission acceptance unit 131 accepts a predetermined condition set by the advertiser, and stores the predetermined condition in the advertisement object storage unit 122. For example, the submission receiving unit 131 receives an object or a contact mode between the user and the object as a predetermined condition, and stores the predetermined condition in the advertisement object storage unit 122.

(ユーザ行動受付部132について)
ユーザ行動受付部132は、VR空間におけるユーザの行動を示す操作等をHMD20から受け付ける。例えば、ユーザ行動受付部132は、HMD20によって送信されたユーザの行動に関する情報に基づいて、ユーザの行動を受け付ける。また、ここでいうユーザの行動とは、オブジェクトを摘まむ、オブジェクトを蹴る、オブジェクトを踏む、オブジェクトを手のひらで温める、オブジェクトを持ったときにユーザの体温が上がる、オブジェクトを叩く、オブジェクトを投擲する等の行動を示す。なお、ユーザ行動受付部132の処理は、例えば、ユーザの体の各部位に各種センサーをつけて動作及び体温を読み取る各種の周知技術により実現可能である。
(About the user action acceptance unit 132)
The user behavior receiving unit 132 receives, from the HMD 20, an operation indicating a user's behavior in the VR space. For example, the user behavior receiving unit 132 receives the user's behavior based on the information on the user's behavior transmitted by the HMD 20. In addition, the user's action here means picking the object, kicking the object, stepping on the object, warming the object with the palm, raising the temperature of the user when holding the object, striking the object, throwing the object Show the action of Note that the processing of the user behavior reception unit 132 can be realized by, for example, various known techniques for attaching various sensors to each part of the user's body and reading operation and body temperature.

(検出部133について)
検出部133は、映像によって形成される仮想空間(VR空間に相当)を体験するユーザの行動であって、VR空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。具体的には、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが接触することで、VR空間内の所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。例えば、所定のオブジェクトが花オブジェクトであるとする。この場合、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが花オブジェクトに触るユーザの行動を検出する。一方、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが花オブジェクトに触らないユーザの行動を検出しない。
(About the detection unit 133)
The detection unit 133 detects the action of the user who exerts a physical change on a predetermined object displayed in the VR space, which is the action of the user who experiences the virtual space (corresponding to the VR space) formed by the video. Do. Specifically, of the user's actions accepted by the user action accepting unit 132, the detecting unit 133 causes the user to physically change a predetermined object in the VR space when the user contacts. Detect behavior. For example, assume that a predetermined object is a flower object. In this case, the detection unit 133 detects an action of the user touching the flower object among the actions of the user accepted by the user action accepting unit 132. On the other hand, the detection unit 133 does not detect, among the user's actions accepted by the user action accepting unit 132, the action of the user who does not touch the flower object.

(出力部134について)
出力部134は、検出部133によって検出された検出結果に基づいて、コンテンツ(広告オブジェクトに相当)を出力する。具体的には、出力部134は、VR空間構成要素情報記憶部121に基づいて、ユーザの操作に伴う向きの変更、各種オブジェクトの配置位置等に応じて、VR空間におけるユーザの視野に対応する映像をHMD20に出力する。また、具体的には、出力部134は、検出部133によって検出された検出結果に基づいて、VR空間内の所定のオブジェクトの代わりに、広告オブジェクト記憶部122に記憶される広告オブジェクトを表示させたVR空間の映像をHMD20に出力する。例えば、図1の例では、出力部134は、検出部133によって検出された検出結果に基づいて、VR空間VR1内の花オブジェクトOD1の代わりに、広告オブジェクト記憶部122に記憶される花束に関するクーポンC1を表示させたVR空間VR2の映像をHMD20に出力する。
(About the output unit 134)
The output unit 134 outputs content (corresponding to an advertisement object) based on the detection result detected by the detection unit 133. Specifically, based on the VR space component information storage unit 121, the output unit 134 corresponds to the field of view of the user in the VR space according to the change in orientation accompanying the user's operation, the arrangement position of various objects, etc. Output the video to the HMD 20. Also, specifically, based on the detection result detected by the detection unit 133, the output unit 134 causes the advertisement object stored in the advertisement object storage unit 122 to be displayed instead of the predetermined object in the VR space. The video of the VR space is output to the HMD 20. For example, in the example of FIG. 1, the output unit 134 is a coupon related to a bouquet stored in the advertisement object storage unit 122 instead of the flower object OD1 in the VR space VR1 based on the detection result detected by the detection unit 133. An image of the VR space VR2 displaying C1 is output to the HMD 20.

〔3.出力処理のフローチャート〕
次に、図5を用いて、実施形態に係る情報処理装置100が実行する出力処理の手順について説明する。図5は、実施形態に係る情報処理装置が実行する出力処理の流れの一例を示すフローチャートである。
[3. Flow chart of output processing]
Next, the procedure of the output process performed by the information processing apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of the flow of output processing performed by the information processing apparatus according to the embodiment.

図5に示すように、出力部134は、VR空間の映像をHMD20に出力する(ステップS101)。そして、ユーザ行動受付部132は、ユーザの行動を受け付ける(ステップS102)。そして、検出部133は、ユーザが花オブジェクトに触れる行動を検出する(ステップS103)。そして、検出部133は、ユーザが花オブジェクトに触れる行動を検出しない場合(ステップS103;No)、ユーザが花オブジェクトに触れる行動を検出するまで待機する。   As shown in FIG. 5, the output unit 134 outputs an image in the VR space to the HMD 20 (step S101). Then, the user behavior receiving unit 132 receives the user's behavior (step S102). Then, the detection unit 133 detects an action in which the user touches the flower object (step S103). Then, when the user does not detect an action of touching the flower object (Step S103; No), the detection unit 133 stands by until an action of the user touching the flower object is detected.

一方、検出部133は、ユーザが花オブジェクトに触れる行動を検出する場合(ステップS103;Yes)、出力部134は、VR空間内に広告オブジェクトを含む映像をHMD20に出力する(ステップS104)。   On the other hand, when the detection unit 133 detects an action in which the user touches the flower object (step S103; Yes), the output unit 134 outputs an image including an advertisement object in the VR space to the HMD 20 (step S104).

〔4.変形例〕
上述した情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[4. Modified example]
The information processing apparatus 100 described above may be implemented in various different forms other than the above embodiment. Therefore, another embodiment of the information processing apparatus 100 will be described below.

〔4−1.検出処理(1)〕
上記実施形態では、情報処理装置100の検出部133が花オブジェクトに触れるユーザの行動を検出する検出処理の一例を説明したが、検出部133は、ユーザが所定のオブジェクトを用いて行動することで、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させるユーザの行動を検出してもよい。具体的には、検出部133は、ユーザが所定のオブジェクトを投擲することで、所定のオブジェクト以外の他のオブジェクトに衝突させるユーザの行動を検出する。例えば、ユーザが池オブジェクトに向かって石オブジェクトを投擲することで水切りを行うとする。この場合、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが石オブジェクトを池オブジェクトに向かって投擲することで、池オブジェクトの水面と石オブジェクトとが衝突したと示す場合に、石オブジェクトと池オブジェクトの水面とを接触させるユーザの行動を検出してもよい。
[4-1. Detection process (1)]
In the above embodiment, an example of the detection process in which the detection unit 133 of the information processing apparatus 100 detects the action of the user touching the flower object has been described, but the detection unit 133 causes the user to act by using a predetermined object. The action of the user may be detected which brings the predetermined object into contact with another object other than the predetermined object. Specifically, the detection unit 133 detects an action of the user caused to collide with another object other than the predetermined object by the user throwing the predetermined object. For example, it is assumed that the user performs drainage by throwing a stone object toward a pond object. In this case, the detecting unit 133 determines that the water surface of the pond object and the stone object collide due to the user throwing a stone object toward the pond object among the user's actions accepted by the user action accepting unit 132. In the case of showing, it is possible to detect the action of the user bringing the stone object into contact with the water surface of the pond object.

図6を用いて、変形例に係る情報処理装置が実行する検出処理の一例について説明する。図6は、変形例に係る情報処理装置が実行する検出処理の一例を示す図である。以下、図6を用いて、情報処理装置100によるユーザの行動の検出処理の一例を流れに沿って説明する。   An example of the detection process performed by the information processing apparatus according to the modification will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of detection processing performed by the information processing apparatus according to the modification. Hereinafter, an example of the process of detecting the user's action by the information processing apparatus 100 will be described along the flow with reference to FIG.

まず、図6に示すように、ユーザが所定のオブジェクトである池オブジェクトOD2を視認し、ユーザが所定のオブジェクトである石オブジェクトOD3を池オブジェクトOD2に向かって投擲する行動を行う(ステップS21)。例えば、図6に示すように、ユーザは、背景である森林の中に所在する池オブジェクトOD2を視認する。そして、ユーザは、池オブジェクトOD2の周辺に落ちている石オブジェクトOD3を拾う体験をする。そして、ユーザは、石オブジェクトOD3を池オブジェクトOD2に向かって投擲することで水切りを行う体験をする。これにより、ユーザは、ユーザが石オブジェクトOD3を池オブジェクトOD2に向かって投擲することで、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させる行動を行う。続いて、ユーザが池オブジェクトOD2に向かって石オブジェクトOD3を投擲する行動に関する広告オブジェクトC1を含むVR空間をHMD20に出力する(ステップS22)。例えば、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させるユーザの行動に対応する広告オブジェクトC1が石オブジェクトOD3で形成されたアクセサリーに関するクーポンであるとする。この場合、情報処理装置100は、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させるユーザの行動を検出し、「今ならアクセサリー15%OFF!!」というクーポンを含むVR空間VR2の映像をHMD20に出力してもよい。   First, as shown in FIG. 6, the user visually recognizes the pond object OD2 which is a predetermined object, and the user performs an action of throwing a stone object OD3 which is the predetermined object toward the pond object OD2 (step S21). For example, as shown in FIG. 6, the user visually recognizes the pond object OD2 located in the forest which is the background. The user then experiences picking up the stone object OD3 falling around the pond object OD2. Then, the user experiences water drainage by throwing the stone object OD3 toward the pond object OD2. Thereby, the user performs an action of bringing the stone object OD3 into contact with the water surface of the pond object OD2 by throwing the stone object OD3 toward the pond object OD2. Subsequently, the VR space including the advertisement object C1 regarding the action of the user throwing the stone object OD3 toward the pond object OD2 is output to the HMD 20 (step S22). For example, it is assumed that the advertisement object C1 corresponding to the user's action of bringing the stone object OD3 into contact with the water surface of the pond object OD2 is a coupon related to an accessory formed of the stone object OD3. In this case, the information processing apparatus 100 detects the user's action of bringing the stone object OD3 into contact with the water surface of the pond object OD2, and the HMD 20 displays an image of the VR space VR2 including a coupon of "Now accessories 15% OFF !!" It may be output to

これにより、実施形態に係る情報処理装置100の検出部133は、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させる間接的なユーザの行動を検出することができるので、網羅的なユーザに関する行動の検出を行うことができる。   As a result, the detection unit 133 of the information processing apparatus 100 according to the embodiment can detect an indirect user action of causing the predetermined object and an object other than the predetermined object to be in contact with each other. It is possible to detect the action on the user.

〔4−2.出力処理(1)〕
上記実施形態では、情報処理装置100の出力部134が花オブジェクトに触れるユーザの行動に基づいて広告オブジェクトを出力する出力処理の一例を説明したが、出力部134は、変化によって異なる広告オブジェクトを含むVR空間の映像を出力してもよい。具体的には、出力部134は、図7に示した広告オブジェクト記憶部123に記憶される所定の条件としてユーザ自身又は所定のオブジェクトに対して変化を及ぼすユーザの行動に伴うユーザ又は所定のオブジェクトの変化に基づいて、かかる変化によって異なる広告オブジェクトを含むVR空間の映像をHMD20に出力する。例えば、ユーザが花オブジェクトを摘まむ行動を起こすとする。この場合、出力部134は、検出部133によって検出された花オブジェクトを摘まむユーザの行動に基づいて、広告オブジェクトとして花束に関するクーポンを含むVR空間の映像をHMD20に出力してもよい。
[4-2. Output process (1)]
Although the above-mentioned embodiment explained an example of the output processing which outputs an advertising object based on a user's action which an output part 134 of information processing device 100 touches a flower object, output part 134 contains an advertising object which changes with changes. You may output the image | video of VR space. Specifically, the output unit 134 is a user or a predetermined object associated with an action of the user who exerts a change on the user itself or a predetermined object as the predetermined condition stored in the advertisement object storage unit 123 illustrated in FIG. 7. The video of the VR space including the advertisement object different according to the change is output to the HMD 20 based on the change of. For example, assume that the user takes an action of picking a flower object. In this case, the output unit 134 may output, to the HMD 20, an image of the VR space including a coupon related to a bouquet as an advertisement object based on the user's action of picking the flower object detected by the detection unit 133.

図8を用いて、変形例に係る情報処理装置が実行する出力処理の一例について説明する。図8は、変形例に係る情報処理装置が実行する出力処理の一例を示す図である。以下、図8を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。   An example of the output process performed by the information processing apparatus according to the modification will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of an output process performed by the information processing apparatus according to the modification. Hereinafter, an example of the output process of the advertisement object by the information processing apparatus 100 will be described along the flow with reference to FIG.

まず、図8に示すように、ユーザが所定のオブジェクトである花オブジェクトOD1を視認し、花オブジェクトOD1を摘まむ行動を行う(ステップS31)。例えば、図8に示すように、HMD20は、ユーザが街路樹の根元に咲いている花オブジェクトOD1を凝視することで、VR空間VR1の映像を花オブジェクトOD1が拡大表示されたVR空間VR1の映像に切り替える。そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を摘まむ行動を行うものとする。続いて、情報処理装置100は、ユーザが花オブジェクトOD1を摘まむ行動に関する広告オブジェクトC1を含むVR空間VR2の映像をHMD20に出力する(ステップS32)。例えば、ユーザが花オブジェクトOD1を摘まむ行動に関する広告オブジェクトC1が花束に関するクーポンであるとする。この場合、情報処理装置100は、ユーザが花オブジェクトOD1を摘まむ行動を検出し、「今なら花束が15%OFF!!」というクーポンを含むVR空間VR2の映像をHMD20に出力してもよい。   First, as shown in FIG. 8, the user visually recognizes the flower object OD1 which is a predetermined object, and performs an action of picking the flower object OD1 (step S31). For example, as shown in FIG. 8, the HMD 20 causes the user to stare at the flower object OD1 blooming at the root of the street tree, and thereby the image of the VR space VR1 is enlarged and the image of the VR space VR1 is displayed. Switch to Then, the user performs an action of picking the flower object OD1 blooming at the root of the street tree. Subsequently, the information processing apparatus 100 outputs, to the HMD 20, an image of the VR space VR2 including the advertisement object C1 related to the action of the user picking the flower object OD1 (step S32). For example, it is assumed that an advertisement object C1 related to an action in which the user picks a flower object OD1 is a coupon related to a bouquet. In this case, the information processing apparatus 100 may detect an action in which the user picks the flower object OD1, and may output an image of the VR space VR2 including a coupon “now bouquet is 15% OFF !!” to the HMD 20. .

これにより、実施形態に係る情報処理装置100の出力部134は、ユーザが花オブジェクトを摘まむ行動に対応する広告オブジェクトを含むVR空間の映像を出力することができるので、訴求効果の高い広告オブジェクトを提供することができる。   As a result, the output unit 134 of the information processing apparatus 100 according to the embodiment can output an image of the VR space including the advertisement object corresponding to the user's action of picking the flower object, so the advertisement object with high appealing effect Can be provided.

〔4−3.出力処理(2)〕
上記実施形態では、情報処理装置100の出力部134がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、出力部134は、広告主によって設定された所定の条件が満たされた場合に、広告オブジェクトを出力してもよい。具体的には、出力部134は、図9に示した広告オブジェクト記憶部124に記憶される広告主によって設定されたオブジェクト又はユーザとオブジェクトとの接触態様が所定の条件として満たされた場合に、広告オブジェクトを含むVR空間の映像をHMD20に出力する。例えば、広告主によって設定された所定の条件がユーザとオブジェクトとの接触態様であるとする。この場合、出力部134は、ユーザが花オブジェクトを摘まんだ場合、広告オブジェクトとして花束に関するクーポンを含むVR空間をHMD20に出力してもよい。
[4-3. Output process (2)]
In the above embodiment, an example of the output process in which the output unit 134 of the information processing apparatus 100 outputs an image of the VR space including the advertisement object based on the action of the user has been described. However, the output unit 134 is set by the advertiser The advertisement object may be output when the predetermined condition is satisfied. Specifically, when the output unit 134 is satisfied with the object set by the advertiser stored in the advertisement object storage unit 124 shown in FIG. 9 or the contact mode between the user and the object as a predetermined condition, The video of the VR space including the advertisement object is output to the HMD 20. For example, it is assumed that the predetermined condition set by the advertiser is the contact mode between the user and the object. In this case, when the user picks a flower object, the output unit 134 may output a VR space including a coupon related to a bouquet as the advertisement object to the HMD 20.

これにより、実施形態に係る情報処理装置100の出力部134は、広告主によって設定された所定の条件が満たされた場合に広告オブジェクトを含むVR空間の映像を出力することができるので、広告主にとって有益な広告オブジェクトの提供が実現できる。   As a result, the output unit 134 of the information processing apparatus 100 according to the embodiment can output an image of the VR space including the advertisement object when the predetermined condition set by the advertiser is satisfied. It is possible to realize provision of ad objects useful for

〔4−4.広告オブジェクト〕
上記実施形態では、広告オブジェクトの代わりに、静止画像、動画像等を適用できる。また、情報処理装置100は、広告オブジェクトに限らず、各種のコンテンツオブジェクトを含むVR空間の映像を出力してもよい。例えば、情報処理装置100は、広告目的でないコンテンツオブジェクト(例えば、コンテンツオブジェクトに含まれる記事等)を含むVR空間の映像をHMD20に出力してもよい。
[4-4. Advertising object]
In the above embodiment, a still image, a moving image or the like can be applied instead of the advertisement object. Further, the information processing apparatus 100 may output a video in a VR space including various content objects in addition to the advertisement object. For example, the information processing apparatus 100 may output, to the HMD 20, an image in the VR space including a content object (for example, an article included in the content object) which is not for advertising.

〔4−5.接触態様に対応するユーザ行動〕
上記実施形態では、情報処理装置100が花オブジェクトに触るユーザの行動を検出する一例を説明したが、接触態様に対応するユーザの行動として、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動、ユーザが所定のオブジェクトを触る行動、ユーザが所定のオブジェクトを摘まむ行動、ユーザが所定のオブジェクトを蹴る行動、ユーザが所定のオブジェクトを踏む行動、ユーザが所定のオブジェクトを用いてユーザの身体的変化を伴う行動等を検出してもよい。
[4-5. User behavior corresponding to contact mode]
In the above embodiment, an example in which the information processing apparatus 100 detects the action of the user touching the flower object has been described. However, the user corresponding to the contact mode in which the user contacts the predetermined object as the user action corresponding to the contact mode Action of the user, the action of the user touching the predetermined object, the action of the user picking the predetermined object, the action of the user kicking the predetermined object, the action of the user stepping on the predetermined object, the user using the predetermined object You may detect the action etc. with a physical change.

〔4−6.仮想空間〕
上記実施形態では、情報処理装置100がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、情報処理装置100は、VR空間の映像を出力することに限定されるものではない。例えば、情報処理装置100は、ユーザの行動に基づいて、広告オブジェクトを含む拡張現実等の仮想空間の映像を出力してもよい。
[4-6. Virtual space〕
In the above embodiment, an example of the output process in which the information processing apparatus 100 outputs an image of the VR space including the advertisement object based on the action of the user has been described. However, the information processing apparatus 100 outputs an image of the VR space It is not limited to anything. For example, the information processing apparatus 100 may output an image of a virtual space such as augmented reality including an advertisement object based on the action of the user.

〔4−7.情報処理装置(1)〕
上記実施形態では、情報処理装置100がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、情報処理装置100は、これに限定されるものではない。例えば、情報処理装置100が実行する検出処理及び出力処理は、HMD20がスタンドアローンで実行してもよい。
[4-7. Information processing apparatus (1)]
Although the above-mentioned embodiment explained an example of output processing which outputs a picture of VR space containing an advertising object based on a user's action, information processing apparatus 100 was limited to this. Absent. For example, the HMD 20 may execute the detection process and the output process performed by the information processing apparatus 100 in a stand-alone manner.

〔4−8.情報処理装置(2)〕
上記実施形態では、情報処理装置100が広告主端末10から広告オブジェクトを受け付ける処理の一例を説明したが、情報処理装置100の入稿受付部131は、情報処理装置100と異なるサーバ装置等であってもよい。例えば、情報処理装置100は、入稿受付部131が広告主によって受け付けた広告オブジェクトを参照してもよい。
[4-8. Information processing apparatus (2)]
In the above embodiment, an example of the process in which the information processing apparatus 100 receives an advertisement object from the advertiser terminal 10 has been described, but the submission reception unit 131 of the information processing apparatus 100 is a server apparatus or the like different from the information processing apparatus 100. May be For example, the information processing apparatus 100 may refer to the advertisement object accepted by the advertiser by the submission accepting unit 131.

〔5.ハードウェア構成〕
また、上述してきた実施形態に係る広告主端末10、HMD20、情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図10は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
The advertiser terminal 10, the HMD 20, and the information processing apparatus 100 according to the embodiment described above are realized by, for example, a computer 1000 configured as shown in FIG. Hereinafter, the information processing apparatus 100 will be described as an example. FIG. 10 is a hardware configuration diagram showing an example of a computer 1000 for realizing the functions of the information processing apparatus 100. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F). ) 1700.

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 to control each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 starts up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100がネットワークNを介して生成したデータを他の機器へ送信する。   The HDD 1400 stores a program executed by the CPU 1100, data used by the program, and the like. The communication interface 1500 receives data from another device via the network N and sends it to the CPU 1100, and transmits data generated by the CPU 1100 via the network N to the other device.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。   The CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from an input device via the input / output interface 1600. The CPU 1100 also outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the CPU 1100 with the program via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700 and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a digital versatile disc (DVD) or a phase change rewritable disc (PD), a magneto-optical recording medium such as a magneto-optical disk (MO), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the information processing apparatus 100 according to the embodiment, the CPU 1100 of the computer 1000 realizes the function of the control unit 130 by executing a program loaded on the RAM 1200. Further, data in the storage unit 120 is stored in the HDD 1400. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via the network N.

〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. Other]
Further, among the processes described in the embodiment and the modification, all or part of the process described as being automatically performed can be manually performed, or it is described as manually performed. All or part of the treatment may be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to the illustrated one, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Moreover, it is possible to combine suitably the embodiment and modification which were mentioned above in the range which does not make process content contradictory.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、出力部は、出力手段や出力回路に読み替えることができる。   In addition, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the output unit can be read as an output means or an output circuit.

〔7.効果〕
上述してきたように、実施形態に係る情報処理装置100は、検出部133と、出力部134とを有する。検出部133は、映像によって形成される仮想空間(VR空間に相当)を体験するユーザの行動であって、仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。出力部134は、検出部133によって検出された結果に基づいて、コンテンツ(広告オブジェクト)を出力する。
[7. effect〕
As described above, the information processing apparatus 100 according to the embodiment includes the detection unit 133 and the output unit 134. The detection unit 133 detects the action of the user who exerts a physical change on a predetermined object displayed in the virtual space, which is the action of the user who experiences the virtual space (corresponding to the VR space) formed by the video. Do. The output unit 134 outputs the content (advertisement object) based on the result detected by the detection unit 133.

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内の興味を示すオブジェクトに触れたユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。   Thereby, the information processing apparatus 100 according to the embodiment can detect the action of the user who has touched the object indicating the interest in the VR space, so the video of the VR space including the advertisement object with high appealing effect can be detected. Can be provided.

また、実施形態に係る情報処理装置100において、検出部133は、ユーザが仮想空間に映し出される所定のオブジェクトに接触するユーザの行動を検出する。   In addition, in the information processing apparatus 100 according to the embodiment, the detection unit 133 detects an action of the user in which the user touches a predetermined object displayed in the virtual space.

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して起こしたユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。   As a result, the information processing apparatus 100 according to the embodiment can detect the user's behavior caused to the object in the VR space, thereby providing the image of the VR space including the advertisement object with high appealing effect. can do.

また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトを用いて行動することで、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させるユーザの行動を検出する。   In addition, in the information processing apparatus 100 according to the embodiment, the detection unit 133 causes the user to cause the user to bring the predetermined object into contact with another object other than the predetermined object by acting using the predetermined object. To detect.

また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトを投擲することで、所定のオブジェクト以外の他のオブジェクトに衝突させるユーザの行動を検出する。   In addition, in the information processing apparatus 100 according to the embodiment, the detection unit 133 detects an action of the user caused to collide with an object other than the predetermined object by the user throwing the predetermined object.

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して起こした間接的なユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。   Thereby, the information processing apparatus 100 according to the embodiment can detect an indirect user action caused to the object in the VR space by the user, so that the VR space including the advertisement object with high appealing effect can be obtained. It can provide a picture.

また、実施形態に係る情報処理装置100において、検出部133は、ユーザ自身又は所定のオブジェクトに対して変化を及ぼすユーザの行動に伴うユーザ又は所定のオブジェクトの変化を検出し、出力部134は、変化によって異なるコンテンツを出力する。   Further, in the information processing apparatus 100 according to the embodiment, the detection unit 133 detects a change in the user or the predetermined object accompanying the user's own or a change in the predetermined object, and the output unit 134 Output different content depending on the change.

これにより、実施形態に係る情報処理装置100は、ユーザ自身やオブジェクトに対する変化を及ぼすユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。   Thus, the information processing apparatus 100 according to the embodiment can detect the user's own action or the action of the user exerting a change on the object, and can provide a video of the VR space including the advertisement object with high appealing effect. .

また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動を検出し、出力部134は、接触態様によって異なるコンテンツを出力する。   In addition, in the information processing apparatus 100 according to the embodiment, the detection unit 133 detects the action of the user corresponding to the contact mode in which the user touches the predetermined object, and the output unit 134 outputs different content depending on the contact mode. .

また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動として、ユーザが所定のオブジェクトを触る行動、ユーザが所定のオブジェクトを摘まむ行動、ユーザが所定のオブジェクトを蹴る行動、ユーザが所定のオブジェクトを踏む行動、ユーザが所定のオブジェクトを用いてユーザの身体的変化を伴う行動のいずれか1つを検出する。   In addition, in the information processing apparatus 100 according to the embodiment, the detection unit 133 detects the action of the user touching the predetermined object or the user of the predetermined object as the action of the user corresponding to the contact mode in which the user touches the predetermined object. The action of picking, the action of the user kicking a predetermined object, the action of the user stepping on the predetermined object, or the action of the user accompanied by the physical change of the user using the predetermined object is detected.

これにより、実施形態に係る情報処理装置100は、ユーザがオブジェクトに接触する接触態様に対応する様々なユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。   As a result, the information processing apparatus 100 according to the embodiment can detect various user actions corresponding to the contact mode in which the user touches the object, so the image of the VR space including the advertisement object with high appealing effect can be detected. Can be provided.

また、実施形態に係る情報処理装置100において、出力部134は、コンテンツ提供主(広告主に相当)によって設定された所定の条件が満たされた場合に、コンテンツを出力する。   Further, in the information processing apparatus 100 according to the embodiment, the output unit 134 outputs the content when the predetermined condition set by the content provider (corresponding to the advertiser) is satisfied.

また、実施形態に係る情報処理装置100において、出力部134は、所定の条件として、所定のオブジェクト又はユーザと所定のオブジェクトとの接触態様が満たされた場合に、コンテンツを出力する。   Further, in the information processing apparatus 100 according to the embodiment, the output unit 134 outputs the content when the contact condition between the predetermined object or the user and the predetermined object is satisfied as the predetermined condition.

これにより、実施形態に係る情報処理装置100は、広告主によって設定された所定の条件が満たされた場合に広告オブジェクトを含むVR空間の映像を出力することできるので、広告主にとって有益な広告オブジェクトの提供が実現できる。   Thus, the information processing apparatus 100 according to the embodiment can output an image of the VR space including the advertisement object when the predetermined condition set by the advertiser is satisfied, so the advertisement object useful for the advertiser Can be realized.

また、実施形態に係る情報処理装置100において、出力部134は、コンテンツとして、ユーザの行動に関連するコンテンツを出力する。   Further, in the information processing apparatus 100 according to the embodiment, the output unit 134 outputs, as the content, content related to the user's action.

これにより、実施形態に係る情報処理装置100は、広告オブジェクトとして様々な形態の情報を提供することができるので、広告主にとって有益な広告オブジェクトの提供が実現でき、かつ、ユーザにとってもユーザの趣向に合致した広告オブジェクトの提供が実現できる。   Thereby, the information processing apparatus 100 according to the embodiment can provide various types of information as an advertisement object, so that provision of an advertisement object useful for an advertiser can be realized, and the user's preference also for the user Provision of an advertisement object that conforms to

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   Although some of the embodiments of the present application have been described above in detail based on the drawings, these are only examples, and various modifications can be made based on the knowledge of those skilled in the art, including the aspects described in the section of the description of the invention. It is possible to implement the invention in other improved forms.

1 情報処理システム
10 広告主端末
20 HMD
100 情報処理装置
110 通信部
120 記憶部
121 VR空間構成要素情報記憶部
122 広告オブジェクト記憶部
123 広告オブジェクト記憶部
124 広告オブジェクト記憶部
130 制御部
131 入稿受付部
132 ユーザ行動受付部
133 検出部
134 出力部
1 information processing system 10 advertiser terminal 20 HMD
100 information processing apparatus 110 communication unit 120 storage unit 121 VR space component information storage unit 122 advertisement object storage unit 123 advertisement object storage unit 124 advertisement object storage unit 130 control unit 131 entry acceptance unit 132 user behavior reception unit 133 detection unit 134 Output unit

Claims (12)

映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出部と、
前記検出部によって検出された結果に基づいて、コンテンツを出力する出力部と、
を備えたことを特徴とする情報処理装置。
A detection unit that detects an action of a user who exerts a physical change on a predetermined object displayed in the virtual space, which is an action of a user who experiences a virtual space formed by an image;
An output unit that outputs content based on the result detected by the detection unit;
An information processing apparatus comprising:
前記検出部は、
前記ユーザが前記仮想空間に映し出される所定のオブジェクトに接触する前記ユーザの行動を検出する、
ことを特徴とする請求項1に記載の情報処理装置。
The detection unit is
Detecting an action of the user touching the predetermined object displayed in the virtual space;
An information processing apparatus according to claim 1, characterized in that.
前記検出部は、
前記ユーザが前記所定のオブジェクトを用いて行動することで、前記所定のオブジェクトと前記所定のオブジェクト以外の他のオブジェクトとを接触させる前記ユーザの行動を検出する、
ことを特徴とする請求項1又は2に記載の情報処理装置。
The detection unit is
The user acts by using the predetermined object, thereby detecting an action of the user causing the predetermined object and another object other than the predetermined object to come into contact with each other.
The information processing apparatus according to claim 1 or 2, characterized in that:
前記検出部は、
前記ユーザが前記所定のオブジェクトを投擲することで、前記所定のオブジェクト以外の他のオブジェクトに衝突させる前記ユーザの行動を検出する、
ことを特徴とする請求項1〜3のいずれか1つに記載の情報処理装置。
The detection unit is
The user throws the predetermined object, thereby detecting an action of the user to collide with another object other than the predetermined object.
The information processing apparatus according to any one of claims 1 to 3, characterized in that:
前記検出部は、
前記ユーザ自身又は前記所定のオブジェクトに対して変化を及ぼすユーザの行動に伴う前記ユーザ又は前記所定のオブジェクトの変化を検出し、
前記出力部は、
前記変化によって異なるコンテンツを出力する、
ことを特徴とする請求項1〜4のいずれか1つに記載の情報処理装置。
The detection unit is
Detecting a change of the user or the predetermined object accompanying an action of the user who exerts a change on the user or the predetermined object;
The output unit is
Output different content according to the change,
The information processing apparatus according to any one of claims 1 to 4, characterized in that:
前記検出部は、
前記ユーザの行動として、前記ユーザが前記所定のオブジェクトに接触する接触態様を検出し、
前記出力部は、
前記接触態様によって異なるコンテンツを出力する、
ことを特徴とする請求項1〜5のいずれか1つに記載の情報処理装置。
The detection unit is
Detecting a touch mode in which the user touches the predetermined object as the action of the user;
The output unit is
Output different content depending on the contact mode,
The information processing apparatus according to any one of claims 1 to 5, characterized in that:
前記検出部は、
前記ユーザが前記所定のオブジェクトに接触する接触態様に対応するユーザの行動として、前記ユーザが前記所定のオブジェクトを触る行動、前記ユーザが前記所定のオブジェクトを摘まむ行動、前記ユーザが前記所定のオブジェクトを蹴る行動、前記ユーザが前記所定のオブジェクトを踏む行動、前記ユーザが前記所定のオブジェクトを用いて前記ユーザの身体的変化を伴う行動のいずれか1つを検出する、
ことを特徴とする請求項1〜6のいずれか1つに記載の情報処理装置。
The detection unit is
The action of the user touching the predetermined object, the action of the user picking the predetermined object, and the action of the user touching the predetermined object as the action of the user corresponding to the contact mode in which the user touches the predetermined object Detecting any one of an action of kicking the user, an action of the user stepping on the predetermined object, and an action accompanied by a physical change of the user using the predetermined object.
The information processing apparatus according to any one of claims 1 to 6, characterized in that:
前記出力部は、
コンテンツ提供主によって設定された所定の条件が満たされた場合に、前記コンテンツを出力する、
ことを特徴とする請求項1〜7のいずれか1つに記載の情報処理装置。
The output unit is
Outputting the content when a predetermined condition set by the content provider is satisfied,
The information processing apparatus according to any one of claims 1 to 7, characterized in that:
前記出力部は、
前記所定の条件として、前記所定のオブジェクト又は前記ユーザと前記所定のオブジェクトとの接触態様が満たされた場合に、前記コンテンツを出力する、
ことを特徴とする請求項1〜8のいずれか1つに記載の情報処理装置。
The output unit is
When the contact condition between the predetermined object or the user and the predetermined object is satisfied as the predetermined condition, the content is output.
The information processing apparatus according to any one of claims 1 to 8, characterized in that:
前記出力部は、
前記コンテンツとして、前記ユーザの行動に関連するコンテンツを出力する、
ことを特徴とする請求項1〜9のいずれか1つに記載の情報処理装置。
The output unit is
Output content related to the action of the user as the content
The information processing apparatus according to any one of claims 1 to 9, characterized in that:
コンピュータが実行する情報処理方法であって、
映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出工程と、
前記検出工程によって検出された結果に基づいて、コンテンツを出力する出力工程と、
を備えたことを特徴とする情報処理方法。
An information processing method executed by a computer,
Detecting the user's behavior of exerting a physical change on a predetermined object displayed in the virtual space, the user's behavior experiencing a virtual space formed by video;
An output step of outputting content based on the result detected by the detection step;
An information processing method comprising:
映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出手順と、
前記検出手順によって検出された結果に基づいて、コンテンツを出力する出力手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
A detection procedure for detecting an action of a user who exerts a physical change on a predetermined object shown in the virtual space, the action of the user experiencing a virtual space formed by an image;
An output procedure for outputting content based on a result detected by the detection procedure;
An information processing program characterized by causing a computer to execute.
JP2017237050A 2017-12-11 2017-12-11 Information processing equipment, information processing methods and information processing programs Active JP7017919B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017237050A JP7017919B2 (en) 2017-12-11 2017-12-11 Information processing equipment, information processing methods and information processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017237050A JP7017919B2 (en) 2017-12-11 2017-12-11 Information processing equipment, information processing methods and information processing programs

Publications (2)

Publication Number Publication Date
JP2019105932A true JP2019105932A (en) 2019-06-27
JP7017919B2 JP7017919B2 (en) 2022-02-09

Family

ID=67061347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017237050A Active JP7017919B2 (en) 2017-12-11 2017-12-11 Information processing equipment, information processing methods and information processing programs

Country Status (1)

Country Link
JP (1) JP7017919B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6842582B1 (en) * 2020-03-31 2021-03-17 エイベックス・テクノロジーズ株式会社 Augmented reality system
JP2021068103A (en) * 2019-10-21 2021-04-30 株式会社Interior Haraguchi Marketing system and marketing method in commercial facility
JP2021179652A (en) * 2020-05-11 2021-11-18 株式会社アルファコード Image display control apparatus, image display control method, and image display control program
JP7524264B2 (en) 2022-09-27 2024-07-29 株式会社コロプラ Program and information processing system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130342572A1 (en) * 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
JP2014085723A (en) * 2012-10-19 2014-05-12 Toyota Motor Corp Information providing device and information providing method
JP2015152940A (en) * 2014-02-10 2015-08-24 ソニー株式会社 Presentation control device, method of controlling presentation, and program
JP2016062277A (en) * 2014-09-18 2016-04-25 泰章 岩井 Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method
JP2016527651A (en) * 2013-08-12 2016-09-08 エアバータイズ エルエルシー Augmented reality device
JP6093473B1 (en) * 2016-08-19 2017-03-08 株式会社コロプラ Information processing method and program for causing computer to execute information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130342572A1 (en) * 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
JP2014085723A (en) * 2012-10-19 2014-05-12 Toyota Motor Corp Information providing device and information providing method
JP2016527651A (en) * 2013-08-12 2016-09-08 エアバータイズ エルエルシー Augmented reality device
JP2015152940A (en) * 2014-02-10 2015-08-24 ソニー株式会社 Presentation control device, method of controlling presentation, and program
JP2016062277A (en) * 2014-09-18 2016-04-25 泰章 岩井 Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method
JP6093473B1 (en) * 2016-08-19 2017-03-08 株式会社コロプラ Information processing method and program for causing computer to execute information processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068103A (en) * 2019-10-21 2021-04-30 株式会社Interior Haraguchi Marketing system and marketing method in commercial facility
JP6842582B1 (en) * 2020-03-31 2021-03-17 エイベックス・テクノロジーズ株式会社 Augmented reality system
JP2021163288A (en) * 2020-03-31 2021-10-11 エイベックス・テクノロジーズ株式会社 Augmented reality system
JP2021179652A (en) * 2020-05-11 2021-11-18 株式会社アルファコード Image display control apparatus, image display control method, and image display control program
JP7524264B2 (en) 2022-09-27 2024-07-29 株式会社コロプラ Program and information processing system

Also Published As

Publication number Publication date
JP7017919B2 (en) 2022-02-09

Similar Documents

Publication Publication Date Title
CN108615055B (en) Similarity calculation method and device and computer readable storage medium
CN107294838B (en) Animation generation method, device and system for social application and terminal
KR101794493B1 (en) Mobile devices and methods employing haptics
JP5281063B2 (en) How to play browser-based games with alternative controllers and interfaces
JP2019105932A (en) Information processing device, information processing method, and information processing program
US20160155256A1 (en) Avatar personalization in a virtual environment
US10908773B2 (en) Home screen settings for information processing device and information processing system, and recording medium therefor
US10126917B2 (en) Information processing device, information processing system, and recording medium
KR20130089921A (en) Operating method and content providing system
US20160062629A1 (en) Information processing device, information processing system, and recording medium
US11675439B2 (en) Method and arrangement for handling haptic feedback
CN110246110A (en) Image evaluation method, device and storage medium
EP2669819A1 (en) Information processing system, computer program product, information processing device, and display method
US9338198B2 (en) Information processing system, storing medium, information processing device, and display method
US11429265B2 (en) Output device control
CN112823528B (en) Information processing device, information processing method, and information processing program
JP5814422B1 (en) Distribution device, display control device, display control method, and display control program
CN109299355B (en) Recommended book list display method and device and storage medium
CN110213307B (en) Multimedia data pushing method and device, storage medium and equipment
JP5485276B2 (en) Information processing apparatus, information processing method, information storage medium, and program
JP7302945B2 (en) Information processing device, information processing method and information processing program
JP6068942B2 (en) Information processing system, information processing apparatus, information processing program, and information processing method
WO2016029705A1 (en) Method and device for inserting webpage toolbar, and storage medium
JP2020115285A (en) Calculation device, calculation method, and calculation program
JP2024079331A (en) Information provision device, information processing system, information provision method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211115

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220128

R150 Certificate of patent or registration of utility model

Ref document number: 7017919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250