JP7017919B2 - Information processing equipment, information processing methods and information processing programs - Google Patents
Information processing equipment, information processing methods and information processing programs Download PDFInfo
- Publication number
- JP7017919B2 JP7017919B2 JP2017237050A JP2017237050A JP7017919B2 JP 7017919 B2 JP7017919 B2 JP 7017919B2 JP 2017237050 A JP2017237050 A JP 2017237050A JP 2017237050 A JP2017237050 A JP 2017237050A JP 7017919 B2 JP7017919 B2 JP 7017919B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information processing
- predetermined object
- processing apparatus
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 135
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000001514 detection method Methods 0.000 claims description 57
- 230000009471 action Effects 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 27
- 230000008859 change Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 15
- 230000006399 behavior Effects 0.000 description 55
- 238000010586 diagram Methods 0.000 description 14
- 239000004575 stone Substances 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- MMOXZBCLCQITDF-UHFFFAOYSA-N N,N-diethyl-m-toluamide Chemical compound CCN(CC)C(=O)C1=CC=CC(C)=C1 MMOXZBCLCQITDF-UHFFFAOYSA-N 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 238000010792 warming Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method and an information processing program.
従来、ユーザの視野を覆い、両眼視差に基づく仮想現実(VR:Virtual Reality)空間の映像を提供するHMD(Head Mounted Device)等により、VRを含む仮想空間上でユーザに対して触覚及び感触を体験させる技術が提供されている。例えば、拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成する技術が知られている。 Conventionally, an HMD (Head Mounted Device) that covers the user's field of view and provides an image of a virtual reality (VR) space based on binocular disparity, etc., gives the user a sense of touch and feel in the virtual space including VR. The technology to experience is provided. For example, techniques are known to generate tactilely enhanced objects for extended and virtual reality applications.
しかしながら、上記の従来技術では、訴求効果の高いコンテンツを提供することができるとは限らない。例えば、上記の従来技術では、拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するに過ぎず、訴求効果の高いコンテンツを提供することができるとは限らない。 However, the above-mentioned prior art may not always be able to provide highly appealing content. For example, the prior art described above may only generate tactilely enhanced objects for extended and virtual reality applications and may not always be able to provide highly appealing content.
本願は、上記に鑑みてなされたものであって、訴求効果の高いコンテンツを提供することができる情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide an information processing apparatus, an information processing method, and an information processing program capable of providing highly appealing contents.
本願に係る情報処理装置は、映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出部と、前記検出部によって検出された結果に基づいて、コンテンツを出力する出力部と、を備えたことを特徴とする。 The information processing device according to the present application is a detection that detects a user's behavior that experiences a virtual space formed by an image and exerts a physical change on a predetermined object projected on the virtual space. It is characterized by including a unit and an output unit that outputs content based on the result detected by the detection unit.
実施形態の一態様によれば、訴求効果の高いコンテンツを提供することができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that content having a high appeal effect can be provided.
以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムの実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, an information processing apparatus, an information processing method, and an embodiment for implementing an information processing program (hereinafter referred to as “embodiments”) according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the information processing apparatus, information processing method, and information processing program according to the present application. In addition, each embodiment can be appropriately combined as long as the processing contents do not contradict each other. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate explanations are omitted.
〔1.情報処理装置が示す出力処理の一例〕
図1を用いて、実施形態に係る情報処理装置が実行する出力処理の一例について説明する。図1は、実施形態に係る情報処理装置が実行する出力処理の一例を示す図である。図1では、情報処理装置100により出力処理が実行される例を示す。
[1. An example of output processing shown by an information processing device]
An example of output processing executed by the information processing apparatus according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of output processing executed by the information processing apparatus according to the embodiment. FIG. 1 shows an example in which output processing is executed by the
図1に示すように、情報処理システム1は、広告主端末10と、HMD20と、情報処理装置100とを含む。広告主端末10、HMD20及び情報処理装置100は、図示しない所定の通信網を介して、有線又は無線により通信可能に接続される。なお、図1に示す情報処理システム1には、複数台の広告主端末10や、複数台のHMD20や、複数台の情報処理装置100が含まれてもよい。
As shown in FIG. 1, the
広告主端末10は、広告主によって利用される情報処理装置である。例えば、広告主端末10は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)等である。また、広告主端末10は、広告主による操作に従って、広告オブジェクトを情報処理装置100に入稿する。
The
なお、広告主は、広告オブジェクトの入稿を代理店に依頼する場合がある。この場合、情報処理装置100に広告オブジェクトを入稿するのは代理店となる。以下では、「広告主」といった表記は、広告主だけでなく代理店を含む概念であり、「広告主端末」といった表記は、広告主端末10だけでなく代理店によって利用される代理店装置を含む概念であるものとする。
In addition, the advertiser may request the agency to upload the advertisement object. In this case, it is the agency that submits the advertisement object to the
HMD20は、ユーザが装着するウェアラブルデバイスであり、ユーザの視野内に情報処理装置100から出力される静止画像や動画像といった各種の映像を表示する。このことにより、HMD20は、ユーザがあたかもVR空間内に居住するといった感覚を提供し、ユーザにVR空間を体験させる。また、HMD20は、情報処理装置100から出力された音声やBGM(Background Music)等を出力する機能を有していてもよい。
The HMD 20 is a wearable device worn by the user, and displays various images such as still images and moving images output from the
例えば、HMD20は、情報処理装置100によって出力されたVR空間の映像と音声及びBGMとを組み合わせたVR空間の映像をユーザに提供する。また、例えば、HMD20は、ユーザの向きが変更した場合に、ユーザが変更した向きに対応するVR空間の映像をユーザに提供する。なお、HMD20の処理は、例えば、3D(Dimension)モデルの自動変形等に関する各種の周知技術や、3Dモデルのレンダリングに関する各種の周知技術により実現可能である。
For example, the HMD 20 provides a user with a VR space video that is a combination of a VR space video output by the
情報処理装置100は、HMD20にVR空間の映像を出力する情報処理装置であり、例えば、サーバ装置やクラウドシステム、ゲーム機等により実現される。具体的には、情報処理装置100は、ユーザとオブジェクトとの接触態様に基づいて、VR空間内に広告オブジェクトを含む映像をHMD20に出力する。
The
以下、図1を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。
Hereinafter, an example of the output processing of the advertisement object by the
まず、図1に示すように、広告主端末10は、広告主の操作に従って、広告オブジェクトを情報処理装置100に入稿する(ステップS1)。例えば、広告主が、花専門の小売り業者であるとする。この場合、広告主端末10は、広告オブジェクトとして、花束の料金に関するクーポン等を入稿する。そして、情報処理装置100は、VR空間VR1の映像をHMD20に出力する(ステップS2)。これにより、HMD20は、例えば、両眼視差に基づくVR空間VR1であるVR空間内に所定のオブジェクトとして花オブジェクトOD1が配置された映像と音声及びBGMとを組み合わせたVR空間VR1をユーザに体験させる。この場合、図1の例では、ユーザは、小道の両脇に大きな街路樹が植えられている並木道を歩いている感覚を体験する。
First, as shown in FIG. 1, the
そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を視認し、花オブジェクトOD1に触れるものとする(ステップS3)。例えば、図1に示すように、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を凝視するものとする。この場合、HMD20は、花オブジェクトOD1が拡大表示されたVR空間VR1の映像を情報処理装置100がHMD20に出力することで、VR空間VR1の映像を切り替える。そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1に触れるものとする。そして、HMD20は、ユーザが花オブジェクトOD1に触れた行動に関する情報を情報処理装置100に送信する。なお、HMD20は、定期的にVR空間VR1内で行ったユーザの様々な行動に関する情報を情報処理装置100に送信する。続いて、情報処理装置100は、ユーザの行動のうち、ユーザが花オブジェクトOD1に触れた行動を検出する(ステップS4)。例えば、情報処理装置100は、HMD20によって送信されたユーザの行動に関する情報に基づいて、ユーザが花オブジェクトOD1に触れた行動を検出する。
Then, the user visually recognizes the flower object OD1 blooming at the root of the roadside tree and touches the flower object OD1 (step S3). For example, as shown in FIG. 1, the user shall stare at the flower object OD1 blooming at the root of the roadside tree. In this case, the HMD 20 switches the image of the VR space VR1 by outputting the image of the VR space VR1 in which the flower object OD1 is enlarged and displayed to the
続いて、情報処理装置100は、検出結果に基づいて、VR空間内に広告オブジェクトC1を含むVR空間の映像を出力する(ステップS5)。例えば、ユーザの行動に関する広告オブジェクトC1が花束に関するクーポンであるとする。この場合、情報処理装置100は、ユーザが花オブジェクトOD1に触れた行動を検出した検出結果に基づいて、ユーザによって触れられた花オブジェクトOD1の代わりに「今なら花束が10%OFF!!」というクーポンを含むVR空間の映像をHMD20に出力する。そして、HMD20は、広告オブジェクトC1として花束に関するクーポンC1を含むVR空間VR2の映像をユーザに提供する。これにより、HMD20は、例えば、両眼視差に基づくVR空間VR2の映像と音声及びBGMとを組み合わせたVR空間VR2をユーザに再度体験させる。この場合、図1の例では、ユーザは、背景が街路樹の根元に表示された花束に関するクーポンC1を視認する。
Subsequently, the
このように、実施形態に係る情報処理装置100は、ユーザがVR空間VR1内の花オブジェクトOD1に触れる行動を検出し、かかる検出結果に基づいて、VR空間内に広告オブジェクトC1を含むVR空間の映像をHMD20に出力する。これにより、実施形態に係る情報処理装置100は、広告オブジェクトの訴求効果を向上させることができる。図1の例を用いて説明すると、ユーザは、花オブジェクトOD1に触れるということから、花オブジェクトOD1に興味があると考えられる。この場合、情報処理装置100は、ユーザがVR空間内で所定のオブジェクトに触れる行動に関する広告オブジェクトを含むVR空間の映像をHMD20に出力する。したがって、情報処理装置100は、ユーザのオブジェクトに触れるという動作から、ユーザの興味関心があるコンテンツを特定することができるので、コンテンツの訴求効果を効率的に向上させることができる。
As described above, the
〔2.情報処理装置の構成〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[2. Information processing device configuration]
Next, the configuration of the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線又は無線で接続され、広告主端末10と、HMD20との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network by wire or wirelessly, and transmits / receives information between the
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、VR空間構成要素情報記憶部121と、広告オブジェクト記憶部122とを有する。
(About the storage unit 120)
The
(VR空間構成要素情報記憶部121について)
実施形態に係るVR空間構成要素情報記憶部121は、VR空間に映し出される各種オブジェクトに関する情報を記憶する。ここで、図3に、実施形態に係るVR空間構成要素情報記憶部121の一例を示す。図3に示した例では、VR空間構成要素情報記憶部121は、「VR空間構成要素ID(Identifier)」、「背景情報」、「オブジェクト情報」、「オブジェクト配置位置情報」といった項目を有する。
(About VR space component information storage unit 121)
The VR space component
「VR空間構成要素ID」は、VR空間構成要素を識別する識別子である。「背景情報」は、「VR空間構成要素ID」と対応付けられたVR空間の背景に関する情報である。「オブジェクト情報」は、「VR空間構成要素ID」と対応付けられたオブジェクトに関する情報であり、オブジェクトの形状やテクスチャ等の情報である。「オブジェクト配置位置情報」は、「VR空間構成要素ID」と対応付けられたオブジェクトが配置されたVR空間内の位置に関する情報である。例えば、図3では、VR空間構成要素IDによって識別される「E1」は、背景情報が「小道」であり、オブジェクト情報が「花オブジェクト」であり、オブジェクト配置位置情報が「OP1」である。 The "VR space component ID" is an identifier that identifies the VR space component. The "background information" is information regarding the background of the VR space associated with the "VR space component ID". The "object information" is information about an object associated with the "VR space component ID", and is information such as the shape and texture of the object. The "object placement position information" is information regarding the position in the VR space in which the object associated with the "VR space component ID" is placed. For example, in FIG. 3, "E1" identified by the VR space component ID has background information of "path", object information of "flower object", and object placement position information of "OP1".
なお、VR空間構成要素情報記憶部121は、上記に限らず、VR空間を実現するための種々の情報を記憶してもよい。例えば、VR空間構成要素情報記憶部121は、VR空間を実現するための音声及びBGMや映像データ等を記憶してもよい。
The VR space component
(広告オブジェクト記憶部122について)
実施形態に係る広告オブジェクト記憶部122は、広告主によって入稿された広告オブジェクトを記憶する。ここで、図4に、実施形態に係る広告オブジェクト記憶部122の一例を示す。図4に示した例では、広告オブジェクト記憶部122は、「広告主ID」、「広告オブジェクト」といった項目を有する。
(About the advertisement object storage unit 122)
The advertisement
「広告主ID」は、広告主を識別するための識別情報を示す。「広告オブジェクト」は、広告主によって入稿された広告オブジェクトを示す。例えば、図4では、広告主IDによって識別される「CL1」によって入稿された広告オブジェクト「花束に関するクーポン」を示す。 The "advertiser ID" indicates identification information for identifying the advertiser. "Advertising object" refers to an advertising object submitted by an advertiser. For example, FIG. 4 shows an advertising object “coupon related to a bouquet” submitted by “CL1” identified by the advertiser ID.
なお、広告オブジェクト記憶部122は、上記に限らず、広告主によって設定された条件に関する種々の情報を記憶してもよい。例えば、広告オブジェクト記憶部122は、オブジェクト、ユーザとオブジェクトとの接触態様等を記憶してもよい。この点について、変形例で詳述する。
The advertising
(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About control unit 130)
The control unit 130 is a controller, and for example, various programs (information processing programs) stored in a storage device inside the
図2に示すように、制御部130は、入稿受付部131と、ユーザ行動受付部132と、検出部133と、出力部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 2, the control unit 130 includes a trafficking reception unit 131, a user
(入稿受付部131について)
入稿受付部131は、広告主端末10から広告オブジェクトの入稿を受け付ける。具体的には、入稿受付部131は、広告主端末10から広告オブジェクトの入稿を受け付け、かかる広告オブジェクトを広告オブジェクト記憶部122に格納する。また、入稿受付部131は、広告主によって設定された所定の条件を受け付け、かかる所定の条件を広告オブジェクト記憶部122に格納する。例えば、入稿受付部131は、所定の条件として、オブジェクト、ユーザとオブジェクトとの接触態様等を受け付け、かかる所定の条件を広告オブジェクト記憶部122に格納する。
(About the submission reception section 131)
The submission reception unit 131 accepts submission of an advertisement object from the
(ユーザ行動受付部132について)
ユーザ行動受付部132は、VR空間におけるユーザの行動を示す操作等をHMD20から受け付ける。例えば、ユーザ行動受付部132は、HMD20によって送信されたユーザの行動に関する情報に基づいて、ユーザの行動を受け付ける。また、ここでいうユーザの行動とは、オブジェクトを摘まむ、オブジェクトを蹴る、オブジェクトを踏む、オブジェクトを手のひらで温める、オブジェクトを持ったときにユーザの体温が上がる、オブジェクトを叩く、オブジェクトを投擲する等の行動を示す。なお、ユーザ行動受付部132の処理は、例えば、ユーザの体の各部位に各種センサーをつけて動作及び体温を読み取る各種の周知技術により実現可能である。
(About user behavior reception unit 132)
The user
(検出部133について)
検出部133は、映像によって形成される仮想空間(VR空間に相当)を体験するユーザの行動であって、VR空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。具体的には、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが接触することで、VR空間内の所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。例えば、所定のオブジェクトが花オブジェクトであるとする。この場合、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが花オブジェクトに触るユーザの行動を検出する。一方、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが花オブジェクトに触らないユーザの行動を検出しない。
(About detection unit 133)
The
(出力部134について)
出力部134は、検出部133によって検出された検出結果に基づいて、コンテンツ(広告オブジェクトに相当)を出力する。具体的には、出力部134は、VR空間構成要素情報記憶部121に基づいて、ユーザの操作に伴う向きの変更、各種オブジェクトの配置位置等に応じて、VR空間におけるユーザの視野に対応する映像をHMD20に出力する。また、具体的には、出力部134は、検出部133によって検出された検出結果に基づいて、VR空間内の所定のオブジェクトの代わりに、広告オブジェクト記憶部122に記憶される広告オブジェクトを表示させたVR空間の映像をHMD20に出力する。例えば、図1の例では、出力部134は、検出部133によって検出された検出結果に基づいて、VR空間VR1内の花オブジェクトOD1の代わりに、広告オブジェクト記憶部122に記憶される花束に関するクーポンC1を表示させたVR空間VR2の映像をHMD20に出力する。
(About output unit 134)
The
〔3.出力処理のフローチャート〕
次に、図5を用いて、実施形態に係る情報処理装置100が実行する出力処理の手順について説明する。図5は、実施形態に係る情報処理装置が実行する出力処理の流れの一例を示すフローチャートである。
[3. Flowchart of output processing]
Next, a procedure of output processing executed by the
図5に示すように、出力部134は、VR空間の映像をHMD20に出力する(ステップS101)。そして、ユーザ行動受付部132は、ユーザの行動を受け付ける(ステップS102)。そして、検出部133は、ユーザが花オブジェクトに触れる行動を検出する(ステップS103)。そして、検出部133は、ユーザが花オブジェクトに触れる行動を検出しない場合(ステップS103;No)、ユーザが花オブジェクトに触れる行動を検出するまで待機する。
As shown in FIG. 5, the
一方、検出部133は、ユーザが花オブジェクトに触れる行動を検出する場合(ステップS103;Yes)、出力部134は、VR空間内に広告オブジェクトを含む映像をHMD20に出力する(ステップS104)。
On the other hand, when the
〔4.変形例〕
上述した情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[4. Modification example]
The
〔4-1.検出処理(1)〕
上記実施形態では、情報処理装置100の検出部133が花オブジェクトに触れるユーザの行動を検出する検出処理の一例を説明したが、検出部133は、ユーザが所定のオブジェクトを用いて行動することで、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させるユーザの行動を検出してもよい。具体的には、検出部133は、ユーザが所定のオブジェクトを投擲することで、所定のオブジェクト以外の他のオブジェクトに衝突させるユーザの行動を検出する。例えば、ユーザが池オブジェクトに向かって石オブジェクトを投擲することで水切りを行うとする。この場合、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが石オブジェクトを池オブジェクトに向かって投擲することで、池オブジェクトの水面と石オブジェクトとが衝突したと示す場合に、石オブジェクトと池オブジェクトの水面とを接触させるユーザの行動を検出してもよい。
[4-1. Detection process (1)]
In the above embodiment, an example of the detection process in which the
図6を用いて、変形例に係る情報処理装置が実行する検出処理の一例について説明する。図6は、変形例に係る情報処理装置が実行する検出処理の一例を示す図である。以下、図6を用いて、情報処理装置100によるユーザの行動の検出処理の一例を流れに沿って説明する。
An example of the detection process executed by the information processing apparatus according to the modified example will be described with reference to FIG. FIG. 6 is a diagram showing an example of a detection process executed by the information processing apparatus according to the modified example. Hereinafter, an example of the user behavior detection process by the
まず、図6に示すように、ユーザが所定のオブジェクトである池オブジェクトOD2を視認し、ユーザが所定のオブジェクトである石オブジェクトOD3を池オブジェクトOD2に向かって投擲する行動を行う(ステップS21)。例えば、図6に示すように、ユーザは、背景である森林の中に所在する池オブジェクトOD2を視認する。そして、ユーザは、池オブジェクトOD2の周辺に落ちている石オブジェクトOD3を拾う体験をする。そして、ユーザは、石オブジェクトOD3を池オブジェクトOD2に向かって投擲することで水切りを行う体験をする。これにより、ユーザは、ユーザが石オブジェクトOD3を池オブジェクトOD2に向かって投擲することで、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させる行動を行う。続いて、ユーザが池オブジェクトOD2に向かって石オブジェクトOD3を投擲する行動に関する広告オブジェクトC1を含むVR空間をHMD20に出力する(ステップS22)。例えば、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させるユーザの行動に対応する広告オブジェクトC1が石オブジェクトOD3で形成されたアクセサリーに関するクーポンであるとする。この場合、情報処理装置100は、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させるユーザの行動を検出し、「今ならアクセサリー15%OFF!!」というクーポンを含むVR空間VR2の映像をHMD20に出力してもよい。
First, as shown in FIG. 6, the user visually recognizes the pond object OD2 which is a predetermined object, and the user throws the stone object OD3 which is a predetermined object toward the pond object OD2 (step S21). For example, as shown in FIG. 6, the user visually recognizes the pond object OD2 located in the background forest. Then, the user has an experience of picking up the stone object OD3 that has fallen around the pond object OD2. Then, the user experiences draining by throwing the stone object OD3 toward the pond object OD2. As a result, the user throws the stone object OD3 toward the pond object OD2 to bring the stone object OD3 into contact with the water surface of the pond object OD2. Subsequently, the VR space including the advertisement object C1 relating to the action of the user throwing the stone object OD3 toward the pond object OD2 is output to the HMD 20 (step S22). For example, assume that the advertising object C1 corresponding to the user's action of bringing the stone object OD3 into contact with the water surface of the pond object OD2 is a coupon for an accessory formed by the stone object OD3. In this case, the
これにより、実施形態に係る情報処理装置100の検出部133は、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させる間接的なユーザの行動を検出することができるので、網羅的なユーザに関する行動の検出を行うことができる。
As a result, the
〔4-2.出力処理(1)〕
上記実施形態では、情報処理装置100の出力部134が花オブジェクトに触れるユーザの行動に基づいて広告オブジェクトを出力する出力処理の一例を説明したが、出力部134は、変化によって異なる広告オブジェクトを含むVR空間の映像を出力してもよい。具体的には、出力部134は、図7に示した広告オブジェクト記憶部123に記憶される所定の条件としてユーザ自身又は所定のオブジェクトに対して変化を及ぼすユーザの行動に伴うユーザ又は所定のオブジェクトの変化に基づいて、かかる変化によって異なる広告オブジェクトを含むVR空間の映像をHMD20に出力する。例えば、ユーザが花オブジェクトを摘まむ行動を起こすとする。この場合、出力部134は、検出部133によって検出された花オブジェクトを摘まむユーザの行動に基づいて、広告オブジェクトとして花束に関するクーポンを含むVR空間の映像をHMD20に出力してもよい。
[4-2. Output processing (1)]
In the above embodiment, an example of output processing in which the
図8を用いて、変形例に係る情報処理装置が実行する出力処理の一例について説明する。図8は、変形例に係る情報処理装置が実行する出力処理の一例を示す図である。以下、図8を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。
An example of output processing executed by the information processing apparatus according to the modified example will be described with reference to FIG. FIG. 8 is a diagram showing an example of output processing executed by the information processing apparatus according to the modified example. Hereinafter, an example of the output processing of the advertisement object by the
まず、図8に示すように、ユーザが所定のオブジェクトである花オブジェクトOD1を視認し、花オブジェクトOD1を摘まむ行動を行う(ステップS31)。例えば、図8に示すように、HMD20は、ユーザが街路樹の根元に咲いている花オブジェクトOD1を凝視することで、VR空間VR1の映像を花オブジェクトOD1が拡大表示されたVR空間VR1の映像に切り替える。そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を摘まむ行動を行うものとする。続いて、情報処理装置100は、ユーザが花オブジェクトOD1を摘まむ行動に関する広告オブジェクトC1を含むVR空間VR2の映像をHMD20に出力する(ステップS32)。例えば、ユーザが花オブジェクトOD1を摘まむ行動に関する広告オブジェクトC1が花束に関するクーポンであるとする。この場合、情報処理装置100は、ユーザが花オブジェクトOD1を摘まむ行動を検出し、「今なら花束が15%OFF!!」というクーポンを含むVR空間VR2の映像をHMD20に出力してもよい。
First, as shown in FIG. 8, the user visually recognizes the flower object OD1 which is a predetermined object, and performs an action of picking the flower object OD1 (step S31). For example, as shown in FIG. 8, in the
これにより、実施形態に係る情報処理装置100の出力部134は、ユーザが花オブジェクトを摘まむ行動に対応する広告オブジェクトを含むVR空間の映像を出力することができるので、訴求効果の高い広告オブジェクトを提供することができる。
As a result, the
〔4-3.出力処理(2)〕
上記実施形態では、情報処理装置100の出力部134がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、出力部134は、広告主によって設定された所定の条件が満たされた場合に、広告オブジェクトを出力してもよい。具体的には、出力部134は、図9に示した広告オブジェクト記憶部124に記憶される広告主によって設定されたオブジェクト又はユーザとオブジェクトとの接触態様が所定の条件として満たされた場合に、広告オブジェクトを含むVR空間の映像をHMD20に出力する。例えば、広告主によって設定された所定の条件がユーザとオブジェクトとの接触態様であるとする。この場合、出力部134は、ユーザが花オブジェクトを摘まんだ場合、広告オブジェクトとして花束に関するクーポンを含むVR空間をHMD20に出力してもよい。
[4-3. Output processing (2)]
In the above embodiment, an example of the output process in which the
これにより、実施形態に係る情報処理装置100の出力部134は、広告主によって設定された所定の条件が満たされた場合に広告オブジェクトを含むVR空間の映像を出力することができるので、広告主にとって有益な広告オブジェクトの提供が実現できる。
As a result, the
〔4-4.広告オブジェクト〕
上記実施形態では、広告オブジェクトの代わりに、静止画像、動画像等を適用できる。また、情報処理装置100は、広告オブジェクトに限らず、各種のコンテンツオブジェクトを含むVR空間の映像を出力してもよい。例えば、情報処理装置100は、広告目的でないコンテンツオブジェクト(例えば、コンテンツオブジェクトに含まれる記事等)を含むVR空間の映像をHMD20に出力してもよい。
[4-4. Advertising object]
In the above embodiment, a still image, a moving image, or the like can be applied instead of the advertisement object. Further, the
〔4-5.接触態様に対応するユーザ行動〕
上記実施形態では、情報処理装置100が花オブジェクトに触るユーザの行動を検出する一例を説明したが、接触態様に対応するユーザの行動として、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動、ユーザが所定のオブジェクトを触る行動、ユーザが所定のオブジェクトを摘まむ行動、ユーザが所定のオブジェクトを蹴る行動、ユーザが所定のオブジェクトを踏む行動、ユーザが所定のオブジェクトを用いてユーザの身体的変化を伴う行動等を検出してもよい。
[4-5. User behavior corresponding to the contact mode]
In the above embodiment, an example in which the
〔4-6.仮想空間〕
上記実施形態では、情報処理装置100がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、情報処理装置100は、VR空間の映像を出力することに限定されるものではない。例えば、情報処理装置100は、ユーザの行動に基づいて、広告オブジェクトを含む拡張現実等の仮想空間の映像を出力してもよい。
[4-6. Virtual space〕
In the above embodiment, an example of the output process in which the
〔4-7.情報処理装置(1)〕
上記実施形態では、情報処理装置100がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、情報処理装置100は、これに限定されるものではない。例えば、情報処理装置100が実行する検出処理及び出力処理は、HMD20がスタンドアローンで実行してもよい。
[4-7. Information processing device (1)]
In the above embodiment, an example of output processing in which the
〔4-8.情報処理装置(2)〕
上記実施形態では、情報処理装置100が広告主端末10から広告オブジェクトを受け付ける処理の一例を説明したが、情報処理装置100の入稿受付部131は、情報処理装置100と異なるサーバ装置等であってもよい。例えば、情報処理装置100は、入稿受付部131が広告主によって受け付けた広告オブジェクトを参照してもよい。
[4-8. Information processing device (2)]
In the above embodiment, an example of the process in which the
〔5.ハードウェア構成〕
また、上述してきた実施形態に係る広告主端末10、HMD20、情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図10は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
Further, the
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100がネットワークNを介して生成したデータを他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. others〕
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or are described as being manually performed. It is also possible to automatically perform all or part of the performed processing by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in any unit according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、出力部は、出力手段や出力回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the output unit can be read as an output means or an output circuit.
〔7.効果〕
上述してきたように、実施形態に係る情報処理装置100は、検出部133と、出力部134とを有する。検出部133は、映像によって形成される仮想空間(VR空間に相当)を体験するユーザの行動であって、仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。出力部134は、検出部133によって検出された結果に基づいて、コンテンツ(広告オブジェクト)を出力する。
[7. effect〕
As described above, the
これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内の興味を示すオブジェクトに触れたユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザが仮想空間に映し出される所定のオブジェクトに接触するユーザの行動を検出する。
Further, in the
これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して起こしたユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトを用いて行動することで、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させるユーザの行動を検出する。
Further, in the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトを投擲することで、所定のオブジェクト以外の他のオブジェクトに衝突させるユーザの行動を検出する。
Further, in the
これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して起こした間接的なユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザ自身又は所定のオブジェクトに対して変化を及ぼすユーザの行動に伴うユーザ又は所定のオブジェクトの変化を検出し、出力部134は、変化によって異なるコンテンツを出力する。
Further, in the
これにより、実施形態に係る情報処理装置100は、ユーザ自身やオブジェクトに対する変化を及ぼすユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動を検出し、出力部134は、接触態様によって異なるコンテンツを出力する。
Further, in the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動として、ユーザが所定のオブジェクトを触る行動、ユーザが所定のオブジェクトを摘まむ行動、ユーザが所定のオブジェクトを蹴る行動、ユーザが所定のオブジェクトを踏む行動、ユーザが所定のオブジェクトを用いてユーザの身体的変化を伴う行動のいずれか1つを検出する。
Further, in the
これにより、実施形態に係る情報処理装置100は、ユーザがオブジェクトに接触する接触態様に対応する様々なユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、出力部134は、コンテンツ提供主(広告主に相当)によって設定された所定の条件が満たされた場合に、コンテンツを出力する。
Further, in the
また、実施形態に係る情報処理装置100において、出力部134は、所定の条件として、所定のオブジェクト又はユーザと所定のオブジェクトとの接触態様が満たされた場合に、コンテンツを出力する。
Further, in the
これにより、実施形態に係る情報処理装置100は、広告主によって設定された所定の条件が満たされた場合に広告オブジェクトを含むVR空間の映像を出力することできるので、広告主にとって有益な広告オブジェクトの提供が実現できる。
As a result, the
また、実施形態に係る情報処理装置100において、出力部134は、コンテンツとして、ユーザの行動に関連するコンテンツを出力する。
Further, in the
これにより、実施形態に係る情報処理装置100は、広告オブジェクトとして様々な形態の情報を提供することができるので、広告主にとって有益な広告オブジェクトの提供が実現でき、かつ、ユーザにとってもユーザの趣向に合致した広告オブジェクトの提供が実現できる。
As a result, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.
1 情報処理システム
10 広告主端末
20 HMD
100 情報処理装置
110 通信部
120 記憶部
121 VR空間構成要素情報記憶部
122 広告オブジェクト記憶部
123 広告オブジェクト記憶部
124 広告オブジェクト記憶部
130 制御部
131 入稿受付部
132 ユーザ行動受付部
133 検出部
134 出力部
1
100 Information processing device 110
Claims (12)
前記検出部によって検出された結果に基づいて、前記所定のオブジェクトと、当該所定のオブジェクトが示す対象を訴求するコンテンツとが入れ替わるように当該コンテンツを出力する出力部と、
を備えたことを特徴とする情報処理装置。 A detection unit that detects a user's behavior that experiences a virtual space formed by an image and exerts a physical change on a predetermined object projected on the virtual space.
Based on the result detected by the detection unit, an output unit that outputs the content so that the predetermined object and the content appealing to the target indicated by the predetermined object are interchanged .
An information processing device characterized by being equipped with.
前記ユーザが前記仮想空間に映し出される所定のオブジェクトに接触する前記ユーザの行動を検出する、
ことを特徴とする請求項1に記載の情報処理装置。 The detection unit
Detecting the user's behavior in contact with a predetermined object projected in the virtual space.
The information processing apparatus according to claim 1.
前記ユーザが前記所定のオブジェクトを用いて行動することで、前記所定のオブジェクトと前記所定のオブジェクト以外の他のオブジェクトとを接触させる前記ユーザの行動を検出する、
ことを特徴とする請求項1又は2に記載の情報処理装置。 The detection unit
When the user acts using the predetermined object, the action of the user who brings the predetermined object into contact with another object other than the predetermined object is detected.
The information processing apparatus according to claim 1 or 2.
前記ユーザが前記所定のオブジェクトを投擲することで、前記所定のオブジェクト以外の他のオブジェクトに衝突させる前記ユーザの行動を検出する、
ことを特徴とする請求項1~3のいずれか1つに記載の情報処理装置。 The detection unit
By throwing the predetermined object, the user detects the behavior of the user to collide with an object other than the predetermined object.
The information processing apparatus according to any one of claims 1 to 3.
前記ユーザ自身又は前記所定のオブジェクトに対して変化を及ぼすユーザの行動に伴う前記ユーザ又は前記所定のオブジェクトの変化を検出し、
前記出力部は、
前記変化によって異なるコンテンツを出力する、
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。 The detection unit
Detecting changes in the user or the predetermined object due to the behavior of the user or the user who causes a change in the predetermined object.
The output unit is
Output different contents due to the above changes,
The information processing apparatus according to any one of claims 1 to 4.
前記ユーザの行動として、前記ユーザが前記所定のオブジェクトに接触する接触態様を検出し、
前記出力部は、
前記接触態様によって異なるコンテンツを出力する、
ことを特徴とする請求項1~5のいずれか1つに記載の情報処理装置。 The detection unit
As the user's behavior, the contact mode in which the user contacts the predetermined object is detected, and the user's behavior is detected.
The output unit is
Output different contents depending on the contact mode.
The information processing apparatus according to any one of claims 1 to 5.
前記ユーザが前記所定のオブジェクトに接触する接触態様に対応するユーザの行動として、前記ユーザが前記所定のオブジェクトを触る行動、前記ユーザが前記所定のオブジェクトを摘まむ行動、前記ユーザが前記所定のオブジェクトを蹴る行動、前記ユーザが前記所定のオブジェクトを踏む行動、前記ユーザが前記所定のオブジェクトを用いて前記ユーザの身体的変化を伴う行動のいずれか1つを検出する、
ことを特徴とする請求項1~6のいずれか1つに記載の情報処理装置。 The detection unit
The user's behavior corresponding to the contact mode in which the user touches the predetermined object includes the behavior of the user touching the predetermined object, the behavior of the user picking the predetermined object, and the behavior of the user picking the predetermined object. The user detects one of an action of kicking, an action of the user stepping on the predetermined object, and an action of the user using the predetermined object with a physical change of the user.
The information processing apparatus according to any one of claims 1 to 6, wherein the information processing apparatus is characterized.
コンテンツ提供主によって設定された所定の条件が満たされた場合に、前記コンテンツを出力する、
ことを特徴とする請求項1~7のいずれか1つに記載の情報処理装置。 The output unit is
Outputs the content when a predetermined condition set by the content provider is satisfied.
The information processing apparatus according to any one of claims 1 to 7.
前記所定の条件として、前記所定のオブジェクト又は前記ユーザと前記所定のオブジェクトとの接触態様が満たされた場合に、前記コンテンツを出力する、
ことを特徴とする請求項1~8のいずれか1つに記載の情報処理装置。 The output unit is
As the predetermined condition, the content is output when the contact mode between the predetermined object or the user and the predetermined object is satisfied.
The information processing apparatus according to any one of claims 1 to 8.
前記コンテンツとして、前記ユーザの行動に関連するコンテンツを出力する、
ことを特徴とする請求項1~9のいずれか1つに記載の情報処理装置。 The output unit is
As the content, the content related to the behavior of the user is output.
The information processing apparatus according to any one of claims 1 to 9, wherein the information processing apparatus is characterized.
映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出工程と、
前記検出工程によって検出された結果に基づいて、前記所定のオブジェクトと、当該所定のオブジェクトが示す対象を訴求するコンテンツとが入れ替わるように当該コンテンツを出力する出力工程と、
を備えたことを特徴とする情報処理方法。 It is an information processing method executed by a computer.
A detection process for detecting a user's behavior that experiences a virtual space formed by an image and exerts a physical change on a predetermined object projected on the virtual space.
An output step of outputting the content so that the predetermined object and the content appealing to the target indicated by the predetermined object are interchanged based on the result detected by the detection step.
An information processing method characterized by being equipped with.
前記検出手順によって検出された結果に基づいて、前記所定のオブジェクトと、当該所定のオブジェクトが示す対象を訴求するコンテンツとが入れ替わるように当該コンテンツを出力する出力手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。 A detection procedure for detecting a user's behavior that experiences a virtual space formed by an image and exerts a physical change on a predetermined object projected on the virtual space, and a detection procedure.
Based on the result detected by the detection procedure, an output procedure for outputting the content so that the predetermined object and the content appealing to the target indicated by the predetermined object are interchanged , and an output procedure.
An information processing program characterized by having a computer execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017237050A JP7017919B2 (en) | 2017-12-11 | 2017-12-11 | Information processing equipment, information processing methods and information processing programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017237050A JP7017919B2 (en) | 2017-12-11 | 2017-12-11 | Information processing equipment, information processing methods and information processing programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019105932A JP2019105932A (en) | 2019-06-27 |
JP7017919B2 true JP7017919B2 (en) | 2022-02-09 |
Family
ID=67061347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017237050A Active JP7017919B2 (en) | 2017-12-11 | 2017-12-11 | Information processing equipment, information processing methods and information processing programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7017919B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6836254B1 (en) * | 2019-10-21 | 2021-02-24 | 株式会社Interior Haraguchi | Marketing system and marketing method in commercial facilities |
JP6842582B1 (en) * | 2020-03-31 | 2021-03-17 | エイベックス・テクノロジーズ株式会社 | Augmented reality system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130342572A1 (en) | 2012-06-26 | 2013-12-26 | Adam G. Poulos | Control of displayed content in virtual environments |
JP2014085723A (en) | 2012-10-19 | 2014-05-12 | Toyota Motor Corp | Information providing device and information providing method |
JP2015152940A (en) | 2014-02-10 | 2015-08-24 | ソニー株式会社 | Presentation control device, method of controlling presentation, and program |
JP2016062277A (en) | 2014-09-18 | 2016-04-25 | 泰章 岩井 | Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method |
JP2016527651A (en) | 2013-08-12 | 2016-09-08 | エアバータイズ エルエルシー | Augmented reality device |
JP6093473B1 (en) | 2016-08-19 | 2017-03-08 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
-
2017
- 2017-12-11 JP JP2017237050A patent/JP7017919B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130342572A1 (en) | 2012-06-26 | 2013-12-26 | Adam G. Poulos | Control of displayed content in virtual environments |
JP2014085723A (en) | 2012-10-19 | 2014-05-12 | Toyota Motor Corp | Information providing device and information providing method |
JP2016527651A (en) | 2013-08-12 | 2016-09-08 | エアバータイズ エルエルシー | Augmented reality device |
JP2015152940A (en) | 2014-02-10 | 2015-08-24 | ソニー株式会社 | Presentation control device, method of controlling presentation, and program |
JP2016062277A (en) | 2014-09-18 | 2016-04-25 | 泰章 岩井 | Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method |
JP6093473B1 (en) | 2016-08-19 | 2017-03-08 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2019105932A (en) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10203838B2 (en) | Avatar personalization in a virtual environment | |
KR101794493B1 (en) | Mobile devices and methods employing haptics | |
JP6013642B2 (en) | Campaign optimization for experience content datasets | |
JP2019165495A (en) | User interaction analysis module | |
US20160292966A1 (en) | System and method of providing a virtual shopping experience | |
JP6190035B2 (en) | Content delivery segmentation | |
JP6197952B2 (en) | Product information output method, product information output program and control device | |
JP2011086293A (en) | Method for playing browser based game with alternative control and interface | |
US11750873B2 (en) | Video distribution device, video distribution method, and video distribution process | |
WO2013095416A1 (en) | Interactive streaming video | |
JP7017919B2 (en) | Information processing equipment, information processing methods and information processing programs | |
US20170228034A1 (en) | Method and apparatus for providing interactive content | |
KR20180013892A (en) | Reactive animation for virtual reality | |
JP6522205B1 (en) | Game program, method, and information processing apparatus | |
US20200201437A1 (en) | Haptically-enabled media | |
US9338198B2 (en) | Information processing system, storing medium, information processing device, and display method | |
KR20210129714A (en) | Interactive method, apparatus, device and recording medium | |
CN106730834B (en) | Game data processing method and device | |
CN106331689B (en) | Object apparatus is positioned when positioning object method and VR video playings when VR video playings | |
JP5485276B2 (en) | Information processing apparatus, information processing method, information storage medium, and program | |
WO2023093329A1 (en) | Information output method, head-mounted display device and readable storage medium | |
JP2023008860A (en) | Automated purchase of content of digital wish list based on threshold set by user | |
JP2021185551A (en) | Marketing information use device, marketing information use method and program | |
US9654457B2 (en) | Information processing system, information processing apparatus, storage medium and information processing method | |
JP7302945B2 (en) | Information processing device, information processing method and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211104 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20211104 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20211115 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20211116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7017919 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |