JP7017919B2 - Information processing equipment, information processing methods and information processing programs - Google Patents

Information processing equipment, information processing methods and information processing programs Download PDF

Info

Publication number
JP7017919B2
JP7017919B2 JP2017237050A JP2017237050A JP7017919B2 JP 7017919 B2 JP7017919 B2 JP 7017919B2 JP 2017237050 A JP2017237050 A JP 2017237050A JP 2017237050 A JP2017237050 A JP 2017237050A JP 7017919 B2 JP7017919 B2 JP 7017919B2
Authority
JP
Japan
Prior art keywords
user
information processing
predetermined object
processing apparatus
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017237050A
Other languages
Japanese (ja)
Other versions
JP2019105932A (en
Inventor
潤一 安川
梓 角田
真理亜 若林
優 青野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017237050A priority Critical patent/JP7017919B2/en
Publication of JP2019105932A publication Critical patent/JP2019105932A/en
Application granted granted Critical
Publication of JP7017919B2 publication Critical patent/JP7017919B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method and an information processing program.

従来、ユーザの視野を覆い、両眼視差に基づく仮想現実(VR:Virtual Reality)空間の映像を提供するHMD(Head Mounted Device)等により、VRを含む仮想空間上でユーザに対して触覚及び感触を体験させる技術が提供されている。例えば、拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成する技術が知られている。 Conventionally, an HMD (Head Mounted Device) that covers the user's field of view and provides an image of a virtual reality (VR) space based on binocular disparity, etc., gives the user a sense of touch and feel in the virtual space including VR. The technology to experience is provided. For example, techniques are known to generate tactilely enhanced objects for extended and virtual reality applications.

特開2016-126772号公報Japanese Unexamined Patent Publication No. 2016-126772

しかしながら、上記の従来技術では、訴求効果の高いコンテンツを提供することができるとは限らない。例えば、上記の従来技術では、拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するに過ぎず、訴求効果の高いコンテンツを提供することができるとは限らない。 However, the above-mentioned prior art may not always be able to provide highly appealing content. For example, the prior art described above may only generate tactilely enhanced objects for extended and virtual reality applications and may not always be able to provide highly appealing content.

本願は、上記に鑑みてなされたものであって、訴求効果の高いコンテンツを提供することができる情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide an information processing apparatus, an information processing method, and an information processing program capable of providing highly appealing contents.

本願に係る情報処理装置は、映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出部と、前記検出部によって検出された結果に基づいて、コンテンツを出力する出力部と、を備えたことを特徴とする。 The information processing device according to the present application is a detection that detects a user's behavior that experiences a virtual space formed by an image and exerts a physical change on a predetermined object projected on the virtual space. It is characterized by including a unit and an output unit that outputs content based on the result detected by the detection unit.

実施形態の一態様によれば、訴求効果の高いコンテンツを提供することができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that content having a high appeal effect can be provided.

図1は、実施形態に係る情報処理装置が実行する出力処理の一例を示す図である。FIG. 1 is a diagram showing an example of output processing executed by the information processing apparatus according to the embodiment. 図2は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 2 is a diagram showing a configuration example of the information processing apparatus according to the embodiment. 図3は、実施形態に係るVR空間構成要素情報記憶部の一例を示す図である。FIG. 3 is a diagram showing an example of a VR space component information storage unit according to an embodiment. 図4は、実施形態に係る広告オブジェクト記憶部の一例を示す図である。FIG. 4 is a diagram showing an example of an advertisement object storage unit according to an embodiment. 図5は、実施形態に係る情報処理装置が実行する出力処理の流れの一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the flow of output processing executed by the information processing apparatus according to the embodiment. 図6は、変形例に係る情報処理装置が実行する検出処理の一例を示す図である。FIG. 6 is a diagram showing an example of a detection process executed by the information processing apparatus according to the modified example. 図7は、変形例に係る広告オブジェクト記憶部の一例を示す図である。FIG. 7 is a diagram showing an example of an advertisement object storage unit according to a modified example. 図8は、変形例に係る情報処理装置が実行する出力処理の一例を示す図である。FIG. 8 is a diagram showing an example of output processing executed by the information processing apparatus according to the modified example. 図9は、変形例に係る広告オブジェクト記憶部の一例を示す図である。FIG. 9 is a diagram showing an example of an advertisement object storage unit according to a modified example. 図10は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 10 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device.

以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムの実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, an information processing apparatus, an information processing method, and an embodiment for implementing an information processing program (hereinafter referred to as “embodiments”) according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the information processing apparatus, information processing method, and information processing program according to the present application. In addition, each embodiment can be appropriately combined as long as the processing contents do not contradict each other. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate explanations are omitted.

〔1.情報処理装置が示す出力処理の一例〕
図1を用いて、実施形態に係る情報処理装置が実行する出力処理の一例について説明する。図1は、実施形態に係る情報処理装置が実行する出力処理の一例を示す図である。図1では、情報処理装置100により出力処理が実行される例を示す。
[1. An example of output processing shown by an information processing device]
An example of output processing executed by the information processing apparatus according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of output processing executed by the information processing apparatus according to the embodiment. FIG. 1 shows an example in which output processing is executed by the information processing apparatus 100.

図1に示すように、情報処理システム1は、広告主端末10と、HMD20と、情報処理装置100とを含む。広告主端末10、HMD20及び情報処理装置100は、図示しない所定の通信網を介して、有線又は無線により通信可能に接続される。なお、図1に示す情報処理システム1には、複数台の広告主端末10や、複数台のHMD20や、複数台の情報処理装置100が含まれてもよい。 As shown in FIG. 1, the information processing system 1 includes an advertiser terminal 10, an HMD 20, and an information processing device 100. The advertiser terminal 10, the HMD 20, and the information processing apparatus 100 are communicably connected by wire or wirelessly via a predetermined communication network (not shown). The information processing system 1 shown in FIG. 1 may include a plurality of advertiser terminals 10, a plurality of HMDs 20, and a plurality of information processing devices 100.

広告主端末10は、広告主によって利用される情報処理装置である。例えば、広告主端末10は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)等である。また、広告主端末10は、広告主による操作に従って、広告オブジェクトを情報処理装置100に入稿する。 The advertiser terminal 10 is an information processing device used by the advertiser. For example, the advertiser terminal 10 is a desktop PC (Personal Computer), a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), or the like. Further, the advertiser terminal 10 submits the advertisement object to the information processing apparatus 100 according to the operation by the advertiser.

なお、広告主は、広告オブジェクトの入稿を代理店に依頼する場合がある。この場合、情報処理装置100に広告オブジェクトを入稿するのは代理店となる。以下では、「広告主」といった表記は、広告主だけでなく代理店を含む概念であり、「広告主端末」といった表記は、広告主端末10だけでなく代理店によって利用される代理店装置を含む概念であるものとする。 In addition, the advertiser may request the agency to upload the advertisement object. In this case, it is the agency that submits the advertisement object to the information processing device 100. In the following, the notation "advertiser" is a concept that includes not only the advertiser but also the agency, and the notation "advertiser terminal" refers to the agency device used not only by the advertiser terminal 10 but also by the agency. It shall be a concept that includes.

HMD20は、ユーザが装着するウェアラブルデバイスであり、ユーザの視野内に情報処理装置100から出力される静止画像や動画像といった各種の映像を表示する。このことにより、HMD20は、ユーザがあたかもVR空間内に居住するといった感覚を提供し、ユーザにVR空間を体験させる。また、HMD20は、情報処理装置100から出力された音声やBGM(Background Music)等を出力する機能を有していてもよい。 The HMD 20 is a wearable device worn by the user, and displays various images such as still images and moving images output from the information processing apparatus 100 in the user's field of view. As a result, the HMD 20 provides a feeling that the user lives in the VR space, and allows the user to experience the VR space. Further, the HMD 20 may have a function of outputting voice, BGM (Background Music), or the like output from the information processing apparatus 100.

例えば、HMD20は、情報処理装置100によって出力されたVR空間の映像と音声及びBGMとを組み合わせたVR空間の映像をユーザに提供する。また、例えば、HMD20は、ユーザの向きが変更した場合に、ユーザが変更した向きに対応するVR空間の映像をユーザに提供する。なお、HMD20の処理は、例えば、3D(Dimension)モデルの自動変形等に関する各種の周知技術や、3Dモデルのレンダリングに関する各種の周知技術により実現可能である。 For example, the HMD 20 provides a user with a VR space video that is a combination of a VR space video output by the information processing apparatus 100, audio, and BGM. Further, for example, when the orientation of the user is changed, the HMD 20 provides the user with an image of the VR space corresponding to the orientation changed by the user. The processing of the HMD 20 can be realized by, for example, various well-known techniques related to automatic deformation of a 3D (Dimension) model and various well-known techniques related to rendering of a 3D model.

情報処理装置100は、HMD20にVR空間の映像を出力する情報処理装置であり、例えば、サーバ装置やクラウドシステム、ゲーム機等により実現される。具体的には、情報処理装置100は、ユーザとオブジェクトとの接触態様に基づいて、VR空間内に広告オブジェクトを含む映像をHMD20に出力する。 The information processing device 100 is an information processing device that outputs an image of VR space to the HMD 20, and is realized by, for example, a server device, a cloud system, a game machine, or the like. Specifically, the information processing apparatus 100 outputs a video including an advertising object in the VR space to the HMD 20 based on the contact mode between the user and the object.

以下、図1を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。 Hereinafter, an example of the output processing of the advertisement object by the information processing apparatus 100 will be described along the flow with reference to FIG. 1.

まず、図1に示すように、広告主端末10は、広告主の操作に従って、広告オブジェクトを情報処理装置100に入稿する(ステップS1)。例えば、広告主が、花専門の小売り業者であるとする。この場合、広告主端末10は、広告オブジェクトとして、花束の料金に関するクーポン等を入稿する。そして、情報処理装置100は、VR空間VR1の映像をHMD20に出力する(ステップS2)。これにより、HMD20は、例えば、両眼視差に基づくVR空間VR1であるVR空間内に所定のオブジェクトとして花オブジェクトOD1が配置された映像と音声及びBGMとを組み合わせたVR空間VR1をユーザに体験させる。この場合、図1の例では、ユーザは、小道の両脇に大きな街路樹が植えられている並木道を歩いている感覚を体験する。 First, as shown in FIG. 1, the advertiser terminal 10 submits an advertisement object to the information processing apparatus 100 according to the operation of the advertiser (step S1). For example, suppose the advertiser is a retailer specializing in flowers. In this case, the advertiser terminal 10 uploads a coupon or the like related to the price of the bouquet as an advertising object. Then, the information processing apparatus 100 outputs the image of the VR space VR1 to the HMD 20 (step S2). Thereby, for example, the HMD 20 allows the user to experience the VR space VR1 which is a combination of video, audio, and BGM in which the flower object OD1 is arranged as a predetermined object in the VR space which is the VR space VR1 based on binocular disparity. .. In this case, in the example of FIG. 1, the user experiences the sensation of walking on a tree-lined road with large roadside trees planted on both sides of the path.

そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を視認し、花オブジェクトOD1に触れるものとする(ステップS3)。例えば、図1に示すように、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を凝視するものとする。この場合、HMD20は、花オブジェクトOD1が拡大表示されたVR空間VR1の映像を情報処理装置100がHMD20に出力することで、VR空間VR1の映像を切り替える。そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1に触れるものとする。そして、HMD20は、ユーザが花オブジェクトOD1に触れた行動に関する情報を情報処理装置100に送信する。なお、HMD20は、定期的にVR空間VR1内で行ったユーザの様々な行動に関する情報を情報処理装置100に送信する。続いて、情報処理装置100は、ユーザの行動のうち、ユーザが花オブジェクトOD1に触れた行動を検出する(ステップS4)。例えば、情報処理装置100は、HMD20によって送信されたユーザの行動に関する情報に基づいて、ユーザが花オブジェクトOD1に触れた行動を検出する。 Then, the user visually recognizes the flower object OD1 blooming at the root of the roadside tree and touches the flower object OD1 (step S3). For example, as shown in FIG. 1, the user shall stare at the flower object OD1 blooming at the root of the roadside tree. In this case, the HMD 20 switches the image of the VR space VR1 by outputting the image of the VR space VR1 in which the flower object OD1 is enlarged and displayed to the HMD 20 by the information processing apparatus 100. Then, the user shall touch the flower object OD1 blooming at the base of the roadside tree. Then, the HMD 20 transmits information regarding the behavior of the user touching the flower object OD1 to the information processing apparatus 100. The HMD 20 periodically transmits information about various actions of the user performed in the VR space VR1 to the information processing apparatus 100. Subsequently, the information processing apparatus 100 detects the behavior of the user touching the flower object OD1 among the behaviors of the user (step S4). For example, the information processing apparatus 100 detects the behavior of the user touching the flower object OD1 based on the information regarding the behavior of the user transmitted by the HMD 20.

続いて、情報処理装置100は、検出結果に基づいて、VR空間内に広告オブジェクトC1を含むVR空間の映像を出力する(ステップS5)。例えば、ユーザの行動に関する広告オブジェクトC1が花束に関するクーポンであるとする。この場合、情報処理装置100は、ユーザが花オブジェクトOD1に触れた行動を検出した検出結果に基づいて、ユーザによって触れられた花オブジェクトOD1の代わりに「今なら花束が10%OFF!!」というクーポンを含むVR空間の映像をHMD20に出力する。そして、HMD20は、広告オブジェクトC1として花束に関するクーポンC1を含むVR空間VR2の映像をユーザに提供する。これにより、HMD20は、例えば、両眼視差に基づくVR空間VR2の映像と音声及びBGMとを組み合わせたVR空間VR2をユーザに再度体験させる。この場合、図1の例では、ユーザは、背景が街路樹の根元に表示された花束に関するクーポンC1を視認する。 Subsequently, the information processing apparatus 100 outputs an image in the VR space including the advertisement object C1 in the VR space based on the detection result (step S5). For example, assume that the advertising object C1 relating to the user's behavior is a coupon relating to a bouquet. In this case, the information processing apparatus 100 says, "Now, the bouquet is 10% off !!" instead of the flower object OD1 touched by the user, based on the detection result of detecting the behavior of the user touching the flower object OD1. The image of the VR space including the coupon is output to the HMD 20. Then, the HMD 20 provides the user with an image of the VR space VR2 including the coupon C1 related to the bouquet as the advertising object C1. As a result, the HMD 20 allows the user to experience the VR space VR2, which is a combination of the video, audio, and BGM of the VR space VR2 based on binocular parallax, for example. In this case, in the example of FIG. 1, the user visually recognizes the coupon C1 relating to the bouquet whose background is displayed at the root of the roadside tree.

このように、実施形態に係る情報処理装置100は、ユーザがVR空間VR1内の花オブジェクトOD1に触れる行動を検出し、かかる検出結果に基づいて、VR空間内に広告オブジェクトC1を含むVR空間の映像をHMD20に出力する。これにより、実施形態に係る情報処理装置100は、広告オブジェクトの訴求効果を向上させることができる。図1の例を用いて説明すると、ユーザは、花オブジェクトOD1に触れるということから、花オブジェクトOD1に興味があると考えられる。この場合、情報処理装置100は、ユーザがVR空間内で所定のオブジェクトに触れる行動に関する広告オブジェクトを含むVR空間の映像をHMD20に出力する。したがって、情報処理装置100は、ユーザのオブジェクトに触れるという動作から、ユーザの興味関心があるコンテンツを特定することができるので、コンテンツの訴求効果を効率的に向上させることができる。 As described above, the information processing apparatus 100 according to the embodiment detects the behavior of the user touching the flower object OD1 in the VR space VR1, and based on the detection result, the VR space including the advertisement object C1 in the VR space. The video is output to the HMD 20. As a result, the information processing apparatus 100 according to the embodiment can improve the appealing effect of the advertising object. Explaining with reference to the example of FIG. 1, it is considered that the user is interested in the flower object OD1 because he / she touches the flower object OD1. In this case, the information processing apparatus 100 outputs to the HMD 20 an image of the VR space including an advertisement object related to the behavior of the user touching a predetermined object in the VR space. Therefore, since the information processing apparatus 100 can identify the content of interest to the user from the operation of touching the object of the user, the appealing effect of the content can be efficiently improved.

〔2.情報処理装置の構成〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[2. Information processing device configuration]
Next, the configuration of the information processing apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the information processing apparatus 100 according to the embodiment. As shown in FIG. 2, the information processing apparatus 100 includes a communication unit 110, a storage unit 120, and a control unit 130.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線又は無線で接続され、広告主端末10と、HMD20との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network by wire or wirelessly, and transmits / receives information between the advertiser terminal 10 and the HMD 20.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、VR空間構成要素情報記憶部121と、広告オブジェクト記憶部122とを有する。
(About the storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. The storage unit 120 includes a VR space component information storage unit 121 and an advertisement object storage unit 122.

(VR空間構成要素情報記憶部121について)
実施形態に係るVR空間構成要素情報記憶部121は、VR空間に映し出される各種オブジェクトに関する情報を記憶する。ここで、図3に、実施形態に係るVR空間構成要素情報記憶部121の一例を示す。図3に示した例では、VR空間構成要素情報記憶部121は、「VR空間構成要素ID(Identifier)」、「背景情報」、「オブジェクト情報」、「オブジェクト配置位置情報」といった項目を有する。
(About VR space component information storage unit 121)
The VR space component information storage unit 121 according to the embodiment stores information about various objects projected in the VR space. Here, FIG. 3 shows an example of the VR space component information storage unit 121 according to the embodiment. In the example shown in FIG. 3, the VR space component information storage unit 121 has items such as "VR space component ID (Identifier)", "background information", "object information", and "object placement position information".

「VR空間構成要素ID」は、VR空間構成要素を識別する識別子である。「背景情報」は、「VR空間構成要素ID」と対応付けられたVR空間の背景に関する情報である。「オブジェクト情報」は、「VR空間構成要素ID」と対応付けられたオブジェクトに関する情報であり、オブジェクトの形状やテクスチャ等の情報である。「オブジェクト配置位置情報」は、「VR空間構成要素ID」と対応付けられたオブジェクトが配置されたVR空間内の位置に関する情報である。例えば、図3では、VR空間構成要素IDによって識別される「E1」は、背景情報が「小道」であり、オブジェクト情報が「花オブジェクト」であり、オブジェクト配置位置情報が「OP1」である。 The "VR space component ID" is an identifier that identifies the VR space component. The "background information" is information regarding the background of the VR space associated with the "VR space component ID". The "object information" is information about an object associated with the "VR space component ID", and is information such as the shape and texture of the object. The "object placement position information" is information regarding the position in the VR space in which the object associated with the "VR space component ID" is placed. For example, in FIG. 3, "E1" identified by the VR space component ID has background information of "path", object information of "flower object", and object placement position information of "OP1".

なお、VR空間構成要素情報記憶部121は、上記に限らず、VR空間を実現するための種々の情報を記憶してもよい。例えば、VR空間構成要素情報記憶部121は、VR空間を実現するための音声及びBGMや映像データ等を記憶してもよい。 The VR space component information storage unit 121 is not limited to the above, and may store various information for realizing the VR space. For example, the VR space component information storage unit 121 may store audio, BGM, video data, and the like for realizing the VR space.

(広告オブジェクト記憶部122について)
実施形態に係る広告オブジェクト記憶部122は、広告主によって入稿された広告オブジェクトを記憶する。ここで、図4に、実施形態に係る広告オブジェクト記憶部122の一例を示す。図4に示した例では、広告オブジェクト記憶部122は、「広告主ID」、「広告オブジェクト」といった項目を有する。
(About the advertisement object storage unit 122)
The advertisement object storage unit 122 according to the embodiment stores the advertisement object submitted by the advertiser. Here, FIG. 4 shows an example of the advertisement object storage unit 122 according to the embodiment. In the example shown in FIG. 4, the advertisement object storage unit 122 has items such as "advertiser ID" and "advertisement object".

「広告主ID」は、広告主を識別するための識別情報を示す。「広告オブジェクト」は、広告主によって入稿された広告オブジェクトを示す。例えば、図4では、広告主IDによって識別される「CL1」によって入稿された広告オブジェクト「花束に関するクーポン」を示す。 The "advertiser ID" indicates identification information for identifying the advertiser. "Advertising object" refers to an advertising object submitted by an advertiser. For example, FIG. 4 shows an advertising object “coupon related to a bouquet” submitted by “CL1” identified by the advertiser ID.

なお、広告オブジェクト記憶部122は、上記に限らず、広告主によって設定された条件に関する種々の情報を記憶してもよい。例えば、広告オブジェクト記憶部122は、オブジェクト、ユーザとオブジェクトとの接触態様等を記憶してもよい。この点について、変形例で詳述する。 The advertising object storage unit 122 is not limited to the above, and may store various information regarding the conditions set by the advertiser. For example, the advertisement object storage unit 122 may store the object, the contact mode between the user and the object, and the like. This point will be described in detail in a modified example.

(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About control unit 130)
The control unit 130 is a controller, and for example, various programs (information processing programs) stored in a storage device inside the information processing device 100 by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. (Corresponding to one example) is realized by executing RAM as a work area. Further, the control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図2に示すように、制御部130は、入稿受付部131と、ユーザ行動受付部132と、検出部133と、出力部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 2, the control unit 130 includes a trafficking reception unit 131, a user action reception unit 132, a detection unit 133, and an output unit 134, and has functions and operations of information processing described below. Realize or execute. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 2, and may be any other configuration as long as it is configured to perform information processing described later. Further, the connection relationship of each processing unit included in the control unit 130 is not limited to the connection relationship shown in FIG. 2, and may be another connection relationship.

(入稿受付部131について)
入稿受付部131は、広告主端末10から広告オブジェクトの入稿を受け付ける。具体的には、入稿受付部131は、広告主端末10から広告オブジェクトの入稿を受け付け、かかる広告オブジェクトを広告オブジェクト記憶部122に格納する。また、入稿受付部131は、広告主によって設定された所定の条件を受け付け、かかる所定の条件を広告オブジェクト記憶部122に格納する。例えば、入稿受付部131は、所定の条件として、オブジェクト、ユーザとオブジェクトとの接触態様等を受け付け、かかる所定の条件を広告オブジェクト記憶部122に格納する。
(About the submission reception section 131)
The submission reception unit 131 accepts submission of an advertisement object from the advertiser terminal 10. Specifically, the submission receiving unit 131 accepts the submission of the advertisement object from the advertiser terminal 10, and stores the advertisement object in the advertisement object storage unit 122. Further, the submission receiving unit 131 accepts a predetermined condition set by the advertiser, and stores the predetermined condition in the advertisement object storage unit 122. For example, the submission receiving unit 131 accepts an object, a contact mode between a user and an object, and the like as predetermined conditions, and stores the predetermined conditions in the advertisement object storage unit 122.

(ユーザ行動受付部132について)
ユーザ行動受付部132は、VR空間におけるユーザの行動を示す操作等をHMD20から受け付ける。例えば、ユーザ行動受付部132は、HMD20によって送信されたユーザの行動に関する情報に基づいて、ユーザの行動を受け付ける。また、ここでいうユーザの行動とは、オブジェクトを摘まむ、オブジェクトを蹴る、オブジェクトを踏む、オブジェクトを手のひらで温める、オブジェクトを持ったときにユーザの体温が上がる、オブジェクトを叩く、オブジェクトを投擲する等の行動を示す。なお、ユーザ行動受付部132の処理は、例えば、ユーザの体の各部位に各種センサーをつけて動作及び体温を読み取る各種の周知技術により実現可能である。
(About user behavior reception unit 132)
The user action receiving unit 132 receives an operation or the like indicating a user's action in the VR space from the HMD 20. For example, the user action receiving unit 132 receives the user's action based on the information about the user's action transmitted by the HMD 20. Also, the user's actions here are picking the object, kicking the object, stepping on the object, warming the object with the palm of the hand, raising the user's body temperature when holding the object, hitting the object, throwing the object. Show actions such as. The process of the user action receiving unit 132 can be realized by, for example, various well-known techniques of attaching various sensors to each part of the user's body to read the operation and the body temperature.

(検出部133について)
検出部133は、映像によって形成される仮想空間(VR空間に相当)を体験するユーザの行動であって、VR空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。具体的には、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが接触することで、VR空間内の所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。例えば、所定のオブジェクトが花オブジェクトであるとする。この場合、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが花オブジェクトに触るユーザの行動を検出する。一方、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが花オブジェクトに触らないユーザの行動を検出しない。
(About detection unit 133)
The detection unit 133 detects the behavior of the user who experiences the virtual space (corresponding to the VR space) formed by the image, and which causes a physical change to a predetermined object projected in the VR space. do. Specifically, the detection unit 133 is a user's behavior received by the user behavior reception unit 132, which causes a physical change to a predetermined object in the VR space when the user comes into contact with the user's behavior. Detect behavior. For example, suppose a given object is a flower object. In this case, the detection unit 133 detects the user's behavior that the user touches the flower object among the user's behaviors received by the user behavior reception unit 132. On the other hand, the detection unit 133 does not detect the user's behavior that the user does not touch the flower object among the user's behaviors received by the user behavior reception unit 132.

(出力部134について)
出力部134は、検出部133によって検出された検出結果に基づいて、コンテンツ(広告オブジェクトに相当)を出力する。具体的には、出力部134は、VR空間構成要素情報記憶部121に基づいて、ユーザの操作に伴う向きの変更、各種オブジェクトの配置位置等に応じて、VR空間におけるユーザの視野に対応する映像をHMD20に出力する。また、具体的には、出力部134は、検出部133によって検出された検出結果に基づいて、VR空間内の所定のオブジェクトの代わりに、広告オブジェクト記憶部122に記憶される広告オブジェクトを表示させたVR空間の映像をHMD20に出力する。例えば、図1の例では、出力部134は、検出部133によって検出された検出結果に基づいて、VR空間VR1内の花オブジェクトOD1の代わりに、広告オブジェクト記憶部122に記憶される花束に関するクーポンC1を表示させたVR空間VR2の映像をHMD20に出力する。
(About output unit 134)
The output unit 134 outputs content (corresponding to an advertising object) based on the detection result detected by the detection unit 133. Specifically, the output unit 134 corresponds to the user's field of view in the VR space based on the VR space component information storage unit 121 according to the change of orientation accompanying the user's operation, the arrangement position of various objects, and the like. The video is output to the HMD 20. Further, specifically, the output unit 134 causes the advertisement object stored in the advertisement object storage unit 122 to be displayed instead of the predetermined object in the VR space based on the detection result detected by the detection unit 133. The image of the VR space is output to the HMD 20. For example, in the example of FIG. 1, the output unit 134 is a coupon for a bouquet stored in the advertisement object storage unit 122 instead of the flower object OD1 in the VR space VR1 based on the detection result detected by the detection unit 133. The image of the VR space VR2 displaying C1 is output to the HMD 20.

〔3.出力処理のフローチャート〕
次に、図5を用いて、実施形態に係る情報処理装置100が実行する出力処理の手順について説明する。図5は、実施形態に係る情報処理装置が実行する出力処理の流れの一例を示すフローチャートである。
[3. Flowchart of output processing]
Next, a procedure of output processing executed by the information processing apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing an example of the flow of output processing executed by the information processing apparatus according to the embodiment.

図5に示すように、出力部134は、VR空間の映像をHMD20に出力する(ステップS101)。そして、ユーザ行動受付部132は、ユーザの行動を受け付ける(ステップS102)。そして、検出部133は、ユーザが花オブジェクトに触れる行動を検出する(ステップS103)。そして、検出部133は、ユーザが花オブジェクトに触れる行動を検出しない場合(ステップS103;No)、ユーザが花オブジェクトに触れる行動を検出するまで待機する。 As shown in FIG. 5, the output unit 134 outputs an image in the VR space to the HMD 20 (step S101). Then, the user action receiving unit 132 receives the user's action (step S102). Then, the detection unit 133 detects the behavior of the user touching the flower object (step S103). Then, when the detection unit 133 does not detect the action of the user touching the flower object (step S103; No), the detection unit 133 waits until the action of the user touching the flower object is detected.

一方、検出部133は、ユーザが花オブジェクトに触れる行動を検出する場合(ステップS103;Yes)、出力部134は、VR空間内に広告オブジェクトを含む映像をHMD20に出力する(ステップS104)。 On the other hand, when the detection unit 133 detects the behavior of the user touching the flower object (step S103; Yes), the output unit 134 outputs the video including the advertisement object in the VR space to the HMD 20 (step S104).

〔4.変形例〕
上述した情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[4. Modification example]
The information processing apparatus 100 described above may be implemented in various different forms other than the above-described embodiment. Therefore, another embodiment of the information processing apparatus 100 will be described below.

〔4-1.検出処理(1)〕
上記実施形態では、情報処理装置100の検出部133が花オブジェクトに触れるユーザの行動を検出する検出処理の一例を説明したが、検出部133は、ユーザが所定のオブジェクトを用いて行動することで、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させるユーザの行動を検出してもよい。具体的には、検出部133は、ユーザが所定のオブジェクトを投擲することで、所定のオブジェクト以外の他のオブジェクトに衝突させるユーザの行動を検出する。例えば、ユーザが池オブジェクトに向かって石オブジェクトを投擲することで水切りを行うとする。この場合、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが石オブジェクトを池オブジェクトに向かって投擲することで、池オブジェクトの水面と石オブジェクトとが衝突したと示す場合に、石オブジェクトと池オブジェクトの水面とを接触させるユーザの行動を検出してもよい。
[4-1. Detection process (1)]
In the above embodiment, an example of the detection process in which the detection unit 133 of the information processing apparatus 100 detects the behavior of the user who touches the flower object has been described, but the detection unit 133 describes the behavior by the user using a predetermined object. , The user's behavior of contacting a predetermined object with an object other than the predetermined object may be detected. Specifically, the detection unit 133 detects the user's behavior of colliding with an object other than the predetermined object by throwing a predetermined object. For example, suppose a user throws a stone object at a pond object to drain it. In this case, the detection unit 133 states that among the user's actions received by the user action reception unit 132, the user throws the stone object toward the pond object, and the water surface of the pond object collides with the stone object. When indicated, the user's behavior of bringing the stone object into contact with the water surface of the pond object may be detected.

図6を用いて、変形例に係る情報処理装置が実行する検出処理の一例について説明する。図6は、変形例に係る情報処理装置が実行する検出処理の一例を示す図である。以下、図6を用いて、情報処理装置100によるユーザの行動の検出処理の一例を流れに沿って説明する。 An example of the detection process executed by the information processing apparatus according to the modified example will be described with reference to FIG. FIG. 6 is a diagram showing an example of a detection process executed by the information processing apparatus according to the modified example. Hereinafter, an example of the user behavior detection process by the information processing apparatus 100 will be described along the flow with reference to FIG.

まず、図6に示すように、ユーザが所定のオブジェクトである池オブジェクトOD2を視認し、ユーザが所定のオブジェクトである石オブジェクトOD3を池オブジェクトOD2に向かって投擲する行動を行う(ステップS21)。例えば、図6に示すように、ユーザは、背景である森林の中に所在する池オブジェクトOD2を視認する。そして、ユーザは、池オブジェクトOD2の周辺に落ちている石オブジェクトOD3を拾う体験をする。そして、ユーザは、石オブジェクトOD3を池オブジェクトOD2に向かって投擲することで水切りを行う体験をする。これにより、ユーザは、ユーザが石オブジェクトOD3を池オブジェクトOD2に向かって投擲することで、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させる行動を行う。続いて、ユーザが池オブジェクトOD2に向かって石オブジェクトOD3を投擲する行動に関する広告オブジェクトC1を含むVR空間をHMD20に出力する(ステップS22)。例えば、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させるユーザの行動に対応する広告オブジェクトC1が石オブジェクトOD3で形成されたアクセサリーに関するクーポンであるとする。この場合、情報処理装置100は、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させるユーザの行動を検出し、「今ならアクセサリー15%OFF!!」というクーポンを含むVR空間VR2の映像をHMD20に出力してもよい。 First, as shown in FIG. 6, the user visually recognizes the pond object OD2 which is a predetermined object, and the user throws the stone object OD3 which is a predetermined object toward the pond object OD2 (step S21). For example, as shown in FIG. 6, the user visually recognizes the pond object OD2 located in the background forest. Then, the user has an experience of picking up the stone object OD3 that has fallen around the pond object OD2. Then, the user experiences draining by throwing the stone object OD3 toward the pond object OD2. As a result, the user throws the stone object OD3 toward the pond object OD2 to bring the stone object OD3 into contact with the water surface of the pond object OD2. Subsequently, the VR space including the advertisement object C1 relating to the action of the user throwing the stone object OD3 toward the pond object OD2 is output to the HMD 20 (step S22). For example, assume that the advertising object C1 corresponding to the user's action of bringing the stone object OD3 into contact with the water surface of the pond object OD2 is a coupon for an accessory formed by the stone object OD3. In this case, the information processing apparatus 100 detects the behavior of the user who brings the stone object OD3 and the water surface of the pond object OD2 into contact with each other, and displays the image of the VR space VR2 including the coupon "Now, accessories 15% OFF !!" It may be output to.

これにより、実施形態に係る情報処理装置100の検出部133は、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させる間接的なユーザの行動を検出することができるので、網羅的なユーザに関する行動の検出を行うことができる。 As a result, the detection unit 133 of the information processing apparatus 100 according to the embodiment can detect indirect user actions that bring a predetermined object into contact with another object other than the predetermined object, and thus is comprehensive. It is possible to detect actions related to the user.

〔4-2.出力処理(1)〕
上記実施形態では、情報処理装置100の出力部134が花オブジェクトに触れるユーザの行動に基づいて広告オブジェクトを出力する出力処理の一例を説明したが、出力部134は、変化によって異なる広告オブジェクトを含むVR空間の映像を出力してもよい。具体的には、出力部134は、図7に示した広告オブジェクト記憶部123に記憶される所定の条件としてユーザ自身又は所定のオブジェクトに対して変化を及ぼすユーザの行動に伴うユーザ又は所定のオブジェクトの変化に基づいて、かかる変化によって異なる広告オブジェクトを含むVR空間の映像をHMD20に出力する。例えば、ユーザが花オブジェクトを摘まむ行動を起こすとする。この場合、出力部134は、検出部133によって検出された花オブジェクトを摘まむユーザの行動に基づいて、広告オブジェクトとして花束に関するクーポンを含むVR空間の映像をHMD20に出力してもよい。
[4-2. Output processing (1)]
In the above embodiment, an example of output processing in which the output unit 134 of the information processing apparatus 100 outputs an advertisement object based on the behavior of the user who touches the flower object has been described, but the output unit 134 includes an advertisement object that differs depending on the change. The image of the VR space may be output. Specifically, the output unit 134 is a user or a predetermined object associated with the user's behavior that changes the user himself / herself or a predetermined object as a predetermined condition stored in the advertisement object storage unit 123 shown in FIG. Based on the change of, the image of the VR space including the advertisement object different by the change is output to the HMD 20. For example, suppose a user takes an action of picking a flower object. In this case, the output unit 134 may output a VR space image including a coupon for a bouquet as an advertising object to the HMD 20 based on the user's action of picking the flower object detected by the detection unit 133.

図8を用いて、変形例に係る情報処理装置が実行する出力処理の一例について説明する。図8は、変形例に係る情報処理装置が実行する出力処理の一例を示す図である。以下、図8を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。 An example of output processing executed by the information processing apparatus according to the modified example will be described with reference to FIG. FIG. 8 is a diagram showing an example of output processing executed by the information processing apparatus according to the modified example. Hereinafter, an example of the output processing of the advertisement object by the information processing apparatus 100 will be described along the flow with reference to FIG.

まず、図8に示すように、ユーザが所定のオブジェクトである花オブジェクトOD1を視認し、花オブジェクトOD1を摘まむ行動を行う(ステップS31)。例えば、図8に示すように、HMD20は、ユーザが街路樹の根元に咲いている花オブジェクトOD1を凝視することで、VR空間VR1の映像を花オブジェクトOD1が拡大表示されたVR空間VR1の映像に切り替える。そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を摘まむ行動を行うものとする。続いて、情報処理装置100は、ユーザが花オブジェクトOD1を摘まむ行動に関する広告オブジェクトC1を含むVR空間VR2の映像をHMD20に出力する(ステップS32)。例えば、ユーザが花オブジェクトOD1を摘まむ行動に関する広告オブジェクトC1が花束に関するクーポンであるとする。この場合、情報処理装置100は、ユーザが花オブジェクトOD1を摘まむ行動を検出し、「今なら花束が15%OFF!!」というクーポンを含むVR空間VR2の映像をHMD20に出力してもよい。 First, as shown in FIG. 8, the user visually recognizes the flower object OD1 which is a predetermined object, and performs an action of picking the flower object OD1 (step S31). For example, as shown in FIG. 8, in the HMD 20, the user stares at the flower object OD1 blooming at the root of the roadside tree, so that the image of the VR space VR1 is enlarged and displayed as the image of the flower object OD1. Switch to. Then, the user shall perform an action of picking the flower object OD1 blooming at the root of the roadside tree. Subsequently, the information processing apparatus 100 outputs the image of the VR space VR2 including the advertisement object C1 relating to the action of the user picking the flower object OD1 to the HMD 20 (step S32). For example, assume that the advertising object C1 relating to the action of the user picking the flower object OD1 is a coupon relating to a bouquet. In this case, the information processing apparatus 100 may detect the behavior of the user picking the flower object OD1 and output the image of the VR space VR2 including the coupon "Now the bouquet is 15% OFF !!" to the HMD 20. ..

これにより、実施形態に係る情報処理装置100の出力部134は、ユーザが花オブジェクトを摘まむ行動に対応する広告オブジェクトを含むVR空間の映像を出力することができるので、訴求効果の高い広告オブジェクトを提供することができる。 As a result, the output unit 134 of the information processing apparatus 100 according to the embodiment can output an image of the VR space including the advertisement object corresponding to the action of the user picking the flower object, so that the advertisement object having a high appeal effect. Can be provided.

〔4-3.出力処理(2)〕
上記実施形態では、情報処理装置100の出力部134がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、出力部134は、広告主によって設定された所定の条件が満たされた場合に、広告オブジェクトを出力してもよい。具体的には、出力部134は、図9に示した広告オブジェクト記憶部124に記憶される広告主によって設定されたオブジェクト又はユーザとオブジェクトとの接触態様が所定の条件として満たされた場合に、広告オブジェクトを含むVR空間の映像をHMD20に出力する。例えば、広告主によって設定された所定の条件がユーザとオブジェクトとの接触態様であるとする。この場合、出力部134は、ユーザが花オブジェクトを摘まんだ場合、広告オブジェクトとして花束に関するクーポンを含むVR空間をHMD20に出力してもよい。
[4-3. Output processing (2)]
In the above embodiment, an example of the output process in which the output unit 134 of the information processing apparatus 100 outputs the image of the VR space including the advertisement object based on the behavior of the user has been described, but the output unit 134 is set by the advertiser. The advertisement object may be output when the predetermined conditions are satisfied. Specifically, the output unit 134 is set when the object or the contact mode between the user and the object set by the advertiser stored in the advertisement object storage unit 124 shown in FIG. 9 is satisfied as a predetermined condition. The image of the VR space including the advertisement object is output to the HMD 20. For example, it is assumed that a predetermined condition set by the advertiser is a contact mode between the user and the object. In this case, when the user picks the flower object, the output unit 134 may output the VR space including the coupon related to the bouquet as an advertising object to the HMD 20.

これにより、実施形態に係る情報処理装置100の出力部134は、広告主によって設定された所定の条件が満たされた場合に広告オブジェクトを含むVR空間の映像を出力することができるので、広告主にとって有益な広告オブジェクトの提供が実現できる。 As a result, the output unit 134 of the information processing apparatus 100 according to the embodiment can output the image of the VR space including the advertisement object when the predetermined condition set by the advertiser is satisfied, so that the advertiser can output the image. It is possible to provide advertising objects that are useful to the public.

〔4-4.広告オブジェクト〕
上記実施形態では、広告オブジェクトの代わりに、静止画像、動画像等を適用できる。また、情報処理装置100は、広告オブジェクトに限らず、各種のコンテンツオブジェクトを含むVR空間の映像を出力してもよい。例えば、情報処理装置100は、広告目的でないコンテンツオブジェクト(例えば、コンテンツオブジェクトに含まれる記事等)を含むVR空間の映像をHMD20に出力してもよい。
[4-4. Advertising object]
In the above embodiment, a still image, a moving image, or the like can be applied instead of the advertisement object. Further, the information processing apparatus 100 may output not only an advertisement object but also a VR space image including various content objects. For example, the information processing apparatus 100 may output a video in VR space including a content object (for example, an article included in the content object) that is not for advertising purposes to the HMD 20.

〔4-5.接触態様に対応するユーザ行動〕
上記実施形態では、情報処理装置100が花オブジェクトに触るユーザの行動を検出する一例を説明したが、接触態様に対応するユーザの行動として、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動、ユーザが所定のオブジェクトを触る行動、ユーザが所定のオブジェクトを摘まむ行動、ユーザが所定のオブジェクトを蹴る行動、ユーザが所定のオブジェクトを踏む行動、ユーザが所定のオブジェクトを用いてユーザの身体的変化を伴う行動等を検出してもよい。
[4-5. User behavior corresponding to the contact mode]
In the above embodiment, an example in which the information processing apparatus 100 detects the behavior of the user who touches the flower object has been described, but as the behavior of the user corresponding to the contact mode, the user corresponding to the contact mode in which the user touches a predetermined object. Behavior, user touching a predetermined object, user picking a predetermined object, user kicking a predetermined object, user stepping on a predetermined object, user using a predetermined object Behaviors and the like that accompany physical changes may be detected.

〔4-6.仮想空間〕
上記実施形態では、情報処理装置100がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、情報処理装置100は、VR空間の映像を出力することに限定されるものではない。例えば、情報処理装置100は、ユーザの行動に基づいて、広告オブジェクトを含む拡張現実等の仮想空間の映像を出力してもよい。
[4-6. Virtual space〕
In the above embodiment, an example of the output process in which the information processing device 100 outputs the image of the VR space including the advertisement object based on the behavior of the user has been described, but the information processing device 100 outputs the image of the VR space. It is not limited to that. For example, the information processing device 100 may output an image of a virtual space such as augmented reality including an advertisement object based on the user's behavior.

〔4-7.情報処理装置(1)〕
上記実施形態では、情報処理装置100がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、情報処理装置100は、これに限定されるものではない。例えば、情報処理装置100が実行する検出処理及び出力処理は、HMD20がスタンドアローンで実行してもよい。
[4-7. Information processing device (1)]
In the above embodiment, an example of output processing in which the information processing device 100 outputs an image in a VR space including an advertisement object based on a user's behavior has been described, but the information processing device 100 is not limited to this. do not have. For example, the detection process and the output process executed by the information processing apparatus 100 may be executed standalone by the HMD 20.

〔4-8.情報処理装置(2)〕
上記実施形態では、情報処理装置100が広告主端末10から広告オブジェクトを受け付ける処理の一例を説明したが、情報処理装置100の入稿受付部131は、情報処理装置100と異なるサーバ装置等であってもよい。例えば、情報処理装置100は、入稿受付部131が広告主によって受け付けた広告オブジェクトを参照してもよい。
[4-8. Information processing device (2)]
In the above embodiment, an example of the process in which the information processing device 100 receives an advertisement object from the advertiser terminal 10 has been described, but the submission receiving unit 131 of the information processing device 100 is a server device or the like different from the information processing device 100. You may. For example, the information processing apparatus 100 may refer to an advertisement object received by the advertiser by the submission reception unit 131.

〔5.ハードウェア構成〕
また、上述してきた実施形態に係る広告主端末10、HMD20、情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図10は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
Further, the advertiser terminal 10, the HMD 20, and the information processing apparatus 100 according to the above-described embodiment are realized by, for example, a computer 1000 having a configuration as shown in FIG. Hereinafter, the information processing apparatus 100 will be described as an example. FIG. 10 is a hardware configuration diagram showing an example of a computer 1000 that realizes the functions of the information processing apparatus 100. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F). ) Has 1700.

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100がネットワークNを介して生成したデータを他の機器へ送信する。 The HDD 1400 stores a program executed by the CPU 1100, data used by such a program, and the like. The communication interface 1500 receives data from another device via the network N and sends the data to the CPU 1100, and the CPU 1100 transmits the data generated by the CPU 1100 to the other device via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。 The CPU 1100 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the data generated via the input / output interface 1600 to the output device.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing apparatus 100 according to the embodiment, the CPU 1100 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the RAM 1200. Further, the data in the storage unit 120 is stored in the HDD 1400. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be acquired from another device via the network N.

〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. others〕
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or are described as being manually performed. It is also possible to automatically perform all or part of the performed processing by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in any unit according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、出力部は、出力手段や出力回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the output unit can be read as an output means or an output circuit.

〔7.効果〕
上述してきたように、実施形態に係る情報処理装置100は、検出部133と、出力部134とを有する。検出部133は、映像によって形成される仮想空間(VR空間に相当)を体験するユーザの行動であって、仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。出力部134は、検出部133によって検出された結果に基づいて、コンテンツ(広告オブジェクト)を出力する。
[7. effect〕
As described above, the information processing apparatus 100 according to the embodiment includes a detection unit 133 and an output unit 134. The detection unit 133 detects the behavior of the user who experiences the virtual space (corresponding to the VR space) formed by the image, and which causes a physical change to a predetermined object projected in the virtual space. do. The output unit 134 outputs the content (advertising object) based on the result detected by the detection unit 133.

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内の興味を示すオブジェクトに触れたユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。 As a result, the information processing apparatus 100 according to the embodiment can detect the behavior of the user who touches the object showing interest in the VR space, so that the image of the VR space including the advertisement object having a high appeal effect can be obtained. Can be provided.

また、実施形態に係る情報処理装置100において、検出部133は、ユーザが仮想空間に映し出される所定のオブジェクトに接触するユーザの行動を検出する。 Further, in the information processing apparatus 100 according to the embodiment, the detection unit 133 detects the user's behavior in contact with a predetermined object projected in the virtual space.

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して起こしたユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。 As a result, the information processing apparatus 100 according to the embodiment can detect the user's action caused by the user with respect to the object in the VR space, so that the image of the VR space including the advertisement object having a high appeal effect is provided. can do.

また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトを用いて行動することで、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させるユーザの行動を検出する。 Further, in the information processing apparatus 100 according to the embodiment, the detection unit 133 performs the user's action of bringing the predetermined object into contact with another object other than the predetermined object by the user acting using the predetermined object. To detect.

また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトを投擲することで、所定のオブジェクト以外の他のオブジェクトに衝突させるユーザの行動を検出する。 Further, in the information processing apparatus 100 according to the embodiment, the detection unit 133 detects the user's behavior of colliding with an object other than the predetermined object by throwing the predetermined object.

これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して起こした間接的なユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。 As a result, the information processing apparatus 100 according to the embodiment can detect the indirect user action caused by the user with respect to the object in the VR space, so that the information processing device 100 including the advertising object having a high appeal effect can be detected. Images can be provided.

また、実施形態に係る情報処理装置100において、検出部133は、ユーザ自身又は所定のオブジェクトに対して変化を及ぼすユーザの行動に伴うユーザ又は所定のオブジェクトの変化を検出し、出力部134は、変化によって異なるコンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, the detection unit 133 detects a change in the user or a predetermined object due to the behavior of the user who causes a change in the user himself / herself or a predetermined object, and the output unit 134 detects a change in the user or a predetermined object. Output different content depending on the change.

これにより、実施形態に係る情報処理装置100は、ユーザ自身やオブジェクトに対する変化を及ぼすユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。 As a result, the information processing apparatus 100 according to the embodiment can detect the user's behavior that causes a change to the user himself / herself or the object, so that it is possible to provide an image of the VR space including the advertisement object having a high appeal effect. ..

また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動を検出し、出力部134は、接触態様によって異なるコンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, the detection unit 133 detects the user's behavior corresponding to the contact mode in which the user contacts a predetermined object, and the output unit 134 outputs different contents depending on the contact mode. ..

また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動として、ユーザが所定のオブジェクトを触る行動、ユーザが所定のオブジェクトを摘まむ行動、ユーザが所定のオブジェクトを蹴る行動、ユーザが所定のオブジェクトを踏む行動、ユーザが所定のオブジェクトを用いてユーザの身体的変化を伴う行動のいずれか1つを検出する。 Further, in the information processing apparatus 100 according to the embodiment, the detection unit 133 uses an action of the user to touch a predetermined object and a user to perform a predetermined object as the user's action corresponding to the contact mode in which the user touches the predetermined object. One of the behavior of picking, the behavior of the user kicking a predetermined object, the behavior of the user stepping on a predetermined object, and the behavior of the user using the predetermined object with physical changes of the user are detected.

これにより、実施形態に係る情報処理装置100は、ユーザがオブジェクトに接触する接触態様に対応する様々なユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。 As a result, the information processing apparatus 100 according to the embodiment can detect various user actions corresponding to the contact mode in which the user contacts the object, so that the image in the VR space including the advertisement object having a high appeal effect can be obtained. Can be provided.

また、実施形態に係る情報処理装置100において、出力部134は、コンテンツ提供主(広告主に相当)によって設定された所定の条件が満たされた場合に、コンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, the output unit 134 outputs the content when the predetermined condition set by the content provider (corresponding to the advertiser) is satisfied.

また、実施形態に係る情報処理装置100において、出力部134は、所定の条件として、所定のオブジェクト又はユーザと所定のオブジェクトとの接触態様が満たされた場合に、コンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, the output unit 134 outputs the content when the contact mode between the predetermined object or the user and the predetermined object is satisfied as a predetermined condition.

これにより、実施形態に係る情報処理装置100は、広告主によって設定された所定の条件が満たされた場合に広告オブジェクトを含むVR空間の映像を出力することできるので、広告主にとって有益な広告オブジェクトの提供が実現できる。 As a result, the information processing apparatus 100 according to the embodiment can output the image of the VR space including the advertisement object when the predetermined condition set by the advertiser is satisfied, so that the advertisement object is useful for the advertiser. Can be provided.

また、実施形態に係る情報処理装置100において、出力部134は、コンテンツとして、ユーザの行動に関連するコンテンツを出力する。 Further, in the information processing apparatus 100 according to the embodiment, the output unit 134 outputs the content related to the user's behavior as the content.

これにより、実施形態に係る情報処理装置100は、広告オブジェクトとして様々な形態の情報を提供することができるので、広告主にとって有益な広告オブジェクトの提供が実現でき、かつ、ユーザにとってもユーザの趣向に合致した広告オブジェクトの提供が実現できる。 As a result, the information processing apparatus 100 according to the embodiment can provide various forms of information as an advertisement object, so that it is possible to provide an advertisement object that is useful to the advertiser, and the user's taste is also to the user. It is possible to provide an advertising object that matches the above.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.

1 情報処理システム
10 広告主端末
20 HMD
100 情報処理装置
110 通信部
120 記憶部
121 VR空間構成要素情報記憶部
122 広告オブジェクト記憶部
123 広告オブジェクト記憶部
124 広告オブジェクト記憶部
130 制御部
131 入稿受付部
132 ユーザ行動受付部
133 検出部
134 出力部
1 Information processing system 10 Advertiser terminal 20 HMD
100 Information processing device 110 Communication unit 120 Storage unit 121 VR space component Information storage unit 122 Advertising object storage unit 123 Advertising object storage unit 124 Advertising object storage unit 130 Control unit 131 Submission reception unit 132 User action reception unit 133 Detection unit 134 Output section

Claims (12)

映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出部と、
前記検出部によって検出された結果に基づいて、前記所定のオブジェクトと、当該所定のオブジェクトが示す対象を訴求するコンテンツとが入れ替わるよう当該コンテンツを出力する出力部と、
を備えたことを特徴とする情報処理装置。
A detection unit that detects a user's behavior that experiences a virtual space formed by an image and exerts a physical change on a predetermined object projected on the virtual space.
Based on the result detected by the detection unit, an output unit that outputs the content so that the predetermined object and the content appealing to the target indicated by the predetermined object are interchanged .
An information processing device characterized by being equipped with.
前記検出部は、
前記ユーザが前記仮想空間に映し出される所定のオブジェクトに接触する前記ユーザの行動を検出する、
ことを特徴とする請求項1に記載の情報処理装置。
The detection unit
Detecting the user's behavior in contact with a predetermined object projected in the virtual space.
The information processing apparatus according to claim 1.
前記検出部は、
前記ユーザが前記所定のオブジェクトを用いて行動することで、前記所定のオブジェクトと前記所定のオブジェクト以外の他のオブジェクトとを接触させる前記ユーザの行動を検出する、
ことを特徴とする請求項1又は2に記載の情報処理装置。
The detection unit
When the user acts using the predetermined object, the action of the user who brings the predetermined object into contact with another object other than the predetermined object is detected.
The information processing apparatus according to claim 1 or 2.
前記検出部は、
前記ユーザが前記所定のオブジェクトを投擲することで、前記所定のオブジェクト以外の他のオブジェクトに衝突させる前記ユーザの行動を検出する、
ことを特徴とする請求項1~3のいずれか1つに記載の情報処理装置。
The detection unit
By throwing the predetermined object, the user detects the behavior of the user to collide with an object other than the predetermined object.
The information processing apparatus according to any one of claims 1 to 3.
前記検出部は、
前記ユーザ自身又は前記所定のオブジェクトに対して変化を及ぼすユーザの行動に伴う前記ユーザ又は前記所定のオブジェクトの変化を検出し、
前記出力部は、
前記変化によって異なるコンテンツを出力する、
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。
The detection unit
Detecting changes in the user or the predetermined object due to the behavior of the user or the user who causes a change in the predetermined object.
The output unit is
Output different contents due to the above changes,
The information processing apparatus according to any one of claims 1 to 4.
前記検出部は、
前記ユーザの行動として、前記ユーザが前記所定のオブジェクトに接触する接触態様を検出し、
前記出力部は、
前記接触態様によって異なるコンテンツを出力する、
ことを特徴とする請求項1~5のいずれか1つに記載の情報処理装置。
The detection unit
As the user's behavior, the contact mode in which the user contacts the predetermined object is detected, and the user's behavior is detected.
The output unit is
Output different contents depending on the contact mode.
The information processing apparatus according to any one of claims 1 to 5.
前記検出部は、
前記ユーザが前記所定のオブジェクトに接触する接触態様に対応するユーザの行動として、前記ユーザが前記所定のオブジェクトを触る行動、前記ユーザが前記所定のオブジェクトを摘まむ行動、前記ユーザが前記所定のオブジェクトを蹴る行動、前記ユーザが前記所定のオブジェクトを踏む行動、前記ユーザが前記所定のオブジェクトを用いて前記ユーザの身体的変化を伴う行動のいずれか1つを検出する、
ことを特徴とする請求項1~6のいずれか1つに記載の情報処理装置。
The detection unit
The user's behavior corresponding to the contact mode in which the user touches the predetermined object includes the behavior of the user touching the predetermined object, the behavior of the user picking the predetermined object, and the behavior of the user picking the predetermined object. The user detects one of an action of kicking, an action of the user stepping on the predetermined object, and an action of the user using the predetermined object with a physical change of the user.
The information processing apparatus according to any one of claims 1 to 6, wherein the information processing apparatus is characterized.
前記出力部は、
コンテンツ提供主によって設定された所定の条件が満たされた場合に、前記コンテンツを出力する、
ことを特徴とする請求項1~7のいずれか1つに記載の情報処理装置。
The output unit is
Outputs the content when a predetermined condition set by the content provider is satisfied.
The information processing apparatus according to any one of claims 1 to 7.
前記出力部は、
前記所定の条件として、前記所定のオブジェクト又は前記ユーザと前記所定のオブジェクトとの接触態様が満たされた場合に、前記コンテンツを出力する、
ことを特徴とする請求項1~8のいずれか1つに記載の情報処理装置。
The output unit is
As the predetermined condition, the content is output when the contact mode between the predetermined object or the user and the predetermined object is satisfied.
The information processing apparatus according to any one of claims 1 to 8.
前記出力部は、
前記コンテンツとして、前記ユーザの行動に関連するコンテンツを出力する、
ことを特徴とする請求項1~9のいずれか1つに記載の情報処理装置。
The output unit is
As the content, the content related to the behavior of the user is output.
The information processing apparatus according to any one of claims 1 to 9, wherein the information processing apparatus is characterized.
コンピュータが実行する情報処理方法であって、
映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出工程と、
前記検出工程によって検出された結果に基づいて、前記所定のオブジェクトと、当該所定のオブジェクトが示す対象を訴求するコンテンツとが入れ替わるよう当該コンテンツを出力する出力工程と、
を備えたことを特徴とする情報処理方法。
It is an information processing method executed by a computer.
A detection process for detecting a user's behavior that experiences a virtual space formed by an image and exerts a physical change on a predetermined object projected on the virtual space.
An output step of outputting the content so that the predetermined object and the content appealing to the target indicated by the predetermined object are interchanged based on the result detected by the detection step.
An information processing method characterized by being equipped with.
映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出手順と、
前記検出手順によって検出された結果に基づいて、前記所定のオブジェクトと、当該所定のオブジェクトが示す対象を訴求するコンテンツとが入れ替わるよう当該コンテンツを出力する出力手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
A detection procedure for detecting a user's behavior that experiences a virtual space formed by an image and exerts a physical change on a predetermined object projected on the virtual space, and a detection procedure.
Based on the result detected by the detection procedure, an output procedure for outputting the content so that the predetermined object and the content appealing to the target indicated by the predetermined object are interchanged , and an output procedure.
An information processing program characterized by having a computer execute.
JP2017237050A 2017-12-11 2017-12-11 Information processing equipment, information processing methods and information processing programs Active JP7017919B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017237050A JP7017919B2 (en) 2017-12-11 2017-12-11 Information processing equipment, information processing methods and information processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017237050A JP7017919B2 (en) 2017-12-11 2017-12-11 Information processing equipment, information processing methods and information processing programs

Publications (2)

Publication Number Publication Date
JP2019105932A JP2019105932A (en) 2019-06-27
JP7017919B2 true JP7017919B2 (en) 2022-02-09

Family

ID=67061347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017237050A Active JP7017919B2 (en) 2017-12-11 2017-12-11 Information processing equipment, information processing methods and information processing programs

Country Status (1)

Country Link
JP (1) JP7017919B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6836254B1 (en) * 2019-10-21 2021-02-24 株式会社Interior Haraguchi Marketing system and marketing method in commercial facilities
JP6842582B1 (en) * 2020-03-31 2021-03-17 エイベックス・テクノロジーズ株式会社 Augmented reality system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130342572A1 (en) 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
JP2014085723A (en) 2012-10-19 2014-05-12 Toyota Motor Corp Information providing device and information providing method
JP2015152940A (en) 2014-02-10 2015-08-24 ソニー株式会社 Presentation control device, method of controlling presentation, and program
JP2016062277A (en) 2014-09-18 2016-04-25 泰章 岩井 Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method
JP2016527651A (en) 2013-08-12 2016-09-08 エアバータイズ エルエルシー Augmented reality device
JP6093473B1 (en) 2016-08-19 2017-03-08 株式会社コロプラ Information processing method and program for causing computer to execute information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130342572A1 (en) 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
JP2014085723A (en) 2012-10-19 2014-05-12 Toyota Motor Corp Information providing device and information providing method
JP2016527651A (en) 2013-08-12 2016-09-08 エアバータイズ エルエルシー Augmented reality device
JP2015152940A (en) 2014-02-10 2015-08-24 ソニー株式会社 Presentation control device, method of controlling presentation, and program
JP2016062277A (en) 2014-09-18 2016-04-25 泰章 岩井 Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method
JP6093473B1 (en) 2016-08-19 2017-03-08 株式会社コロプラ Information processing method and program for causing computer to execute information processing method

Also Published As

Publication number Publication date
JP2019105932A (en) 2019-06-27

Similar Documents

Publication Publication Date Title
US10203838B2 (en) Avatar personalization in a virtual environment
KR101794493B1 (en) Mobile devices and methods employing haptics
JP6013642B2 (en) Campaign optimization for experience content datasets
JP2019165495A (en) User interaction analysis module
US20160292966A1 (en) System and method of providing a virtual shopping experience
JP6190035B2 (en) Content delivery segmentation
JP6197952B2 (en) Product information output method, product information output program and control device
JP2011086293A (en) Method for playing browser based game with alternative control and interface
US11750873B2 (en) Video distribution device, video distribution method, and video distribution process
WO2013095416A1 (en) Interactive streaming video
JP7017919B2 (en) Information processing equipment, information processing methods and information processing programs
US20170228034A1 (en) Method and apparatus for providing interactive content
KR20180013892A (en) Reactive animation for virtual reality
JP6522205B1 (en) Game program, method, and information processing apparatus
US20200201437A1 (en) Haptically-enabled media
US9338198B2 (en) Information processing system, storing medium, information processing device, and display method
KR20210129714A (en) Interactive method, apparatus, device and recording medium
CN106730834B (en) Game data processing method and device
CN106331689B (en) Object apparatus is positioned when positioning object method and VR video playings when VR video playings
JP5485276B2 (en) Information processing apparatus, information processing method, information storage medium, and program
WO2023093329A1 (en) Information output method, head-mounted display device and readable storage medium
JP2023008860A (en) Automated purchase of content of digital wish list based on threshold set by user
JP2021185551A (en) Marketing information use device, marketing information use method and program
US9654457B2 (en) Information processing system, information processing apparatus, storage medium and information processing method
JP7302945B2 (en) Information processing device, information processing method and information processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211115

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220128

R150 Certificate of patent or registration of utility model

Ref document number: 7017919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350