JP2019105932A - Information processing device, information processing method, and information processing program - Google Patents
Information processing device, information processing method, and information processing program Download PDFInfo
- Publication number
- JP2019105932A JP2019105932A JP2017237050A JP2017237050A JP2019105932A JP 2019105932 A JP2019105932 A JP 2019105932A JP 2017237050 A JP2017237050 A JP 2017237050A JP 2017237050 A JP2017237050 A JP 2017237050A JP 2019105932 A JP2019105932 A JP 2019105932A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information processing
- action
- processing apparatus
- predetermined object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 132
- 238000003672 processing method Methods 0.000 title claims description 7
- 230000009471 action Effects 0.000 claims abstract description 104
- 238000001514 detection method Methods 0.000 claims abstract description 54
- 238000000034 method Methods 0.000 claims description 33
- 230000008859 change Effects 0.000 claims description 21
- 230000000694 effects Effects 0.000 abstract description 12
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 14
- 239000004575 stone Substances 0.000 description 13
- 230000006399 behavior Effects 0.000 description 12
- 230000004048 modification Effects 0.000 description 11
- 238000012986 modification Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 6
- MMOXZBCLCQITDF-UHFFFAOYSA-N N,N-diethyl-m-toluamide Chemical compound CCN(CC)C(=O)C1=CC=CC(C)=C1 MMOXZBCLCQITDF-UHFFFAOYSA-N 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008094 contradictory effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000010792 warming Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and an information processing program.
従来、ユーザの視野を覆い、両眼視差に基づく仮想現実(VR:Virtual Reality)空間の映像を提供するHMD(Head Mounted Device)等により、VRを含む仮想空間上でユーザに対して触覚及び感触を体験させる技術が提供されている。例えば、拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成する技術が知られている。 Conventionally, HMD (Head Mounted Device) or the like, which covers the user's field of view and provides images of a virtual reality (VR) space based on binocular parallax, senses touch and feel to the user on the virtual space including VR The technology to make you experience is provided. For example, techniques for generating haptically enhanced objects for augmentation and virtual reality applications are known.
しかしながら、上記の従来技術では、訴求効果の高いコンテンツを提供することができるとは限らない。例えば、上記の従来技術では、拡張及び仮想現実アプリケーションのための触覚的に向上されたオブジェクトを生成するに過ぎず、訴求効果の高いコンテンツを提供することができるとは限らない。 However, the above-mentioned prior art can not always provide highly appealing content. For example, the prior art described above only creates haptically enhanced objects for augmented and virtual reality applications, and may not be able to provide highly appealing content.
本願は、上記に鑑みてなされたものであって、訴求効果の高いコンテンツを提供することができる情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object of the present invention is to provide an information processing apparatus, an information processing method, and an information processing program capable of providing content with high appealing effect.
本願に係る情報処理装置は、映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出部と、前記検出部によって検出された結果に基づいて、コンテンツを出力する出力部と、を備えたことを特徴とする。 An information processing apparatus according to the present application detects an action of a user who experiences a virtual space formed by video and detects the action of the user who physically changes the predetermined object displayed in the virtual space. And an output unit that outputs content based on the result detected by the detection unit.
実施形態の一態様によれば、訴求効果の高いコンテンツを提供することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to provide content with a high appealing effect.
以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムの実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, an information processing apparatus, an information processing method, and a mode for implementing an information processing program according to the present application (hereinafter, referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the information processing apparatus, the information processing method, and the information processing program according to the present application are not limited by the embodiment. Moreover, it is possible to combine each embodiment suitably in the range which does not make process contents contradictory. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.
〔1.情報処理装置が示す出力処理の一例〕
図1を用いて、実施形態に係る情報処理装置が実行する出力処理の一例について説明する。図1は、実施形態に係る情報処理装置が実行する出力処理の一例を示す図である。図1では、情報処理装置100により出力処理が実行される例を示す。
[1. Example of output processing indicated by information processing device]
An example of the output process performed by the information processing apparatus according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of an output process performed by the information processing apparatus according to the embodiment. FIG. 1 shows an example in which the
図1に示すように、情報処理システム1は、広告主端末10と、HMD20と、情報処理装置100とを含む。広告主端末10、HMD20及び情報処理装置100は、図示しない所定の通信網を介して、有線又は無線により通信可能に接続される。なお、図1に示す情報処理システム1には、複数台の広告主端末10や、複数台のHMD20や、複数台の情報処理装置100が含まれてもよい。
As shown in FIG. 1, the information processing system 1 includes an
広告主端末10は、広告主によって利用される情報処理装置である。例えば、広告主端末10は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)等である。また、広告主端末10は、広告主による操作に従って、広告オブジェクトを情報処理装置100に入稿する。
The
なお、広告主は、広告オブジェクトの入稿を代理店に依頼する場合がある。この場合、情報処理装置100に広告オブジェクトを入稿するのは代理店となる。以下では、「広告主」といった表記は、広告主だけでなく代理店を含む概念であり、「広告主端末」といった表記は、広告主端末10だけでなく代理店によって利用される代理店装置を含む概念であるものとする。
An advertiser may request an agency to submit an advertisement object. In this case, it is the agency that submits the advertisement object to the
HMD20は、ユーザが装着するウェアラブルデバイスであり、ユーザの視野内に情報処理装置100から出力される静止画像や動画像といった各種の映像を表示する。このことにより、HMD20は、ユーザがあたかもVR空間内に居住するといった感覚を提供し、ユーザにVR空間を体験させる。また、HMD20は、情報処理装置100から出力された音声やBGM(Background Music)等を出力する機能を有していてもよい。
The HMD 20 is a wearable device worn by the user, and displays various images such as a still image and a moving image output from the
例えば、HMD20は、情報処理装置100によって出力されたVR空間の映像と音声及びBGMとを組み合わせたVR空間の映像をユーザに提供する。また、例えば、HMD20は、ユーザの向きが変更した場合に、ユーザが変更した向きに対応するVR空間の映像をユーザに提供する。なお、HMD20の処理は、例えば、3D(Dimension)モデルの自動変形等に関する各種の周知技術や、3Dモデルのレンダリングに関する各種の周知技術により実現可能である。
For example, the HMD 20 provides the user with a video in the VR space obtained by combining the video in the VR space output by the
情報処理装置100は、HMD20にVR空間の映像を出力する情報処理装置であり、例えば、サーバ装置やクラウドシステム、ゲーム機等により実現される。具体的には、情報処理装置100は、ユーザとオブジェクトとの接触態様に基づいて、VR空間内に広告オブジェクトを含む映像をHMD20に出力する。
The
以下、図1を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。
Hereinafter, an example of output processing of an advertisement object by the
まず、図1に示すように、広告主端末10は、広告主の操作に従って、広告オブジェクトを情報処理装置100に入稿する(ステップS1)。例えば、広告主が、花専門の小売り業者であるとする。この場合、広告主端末10は、広告オブジェクトとして、花束の料金に関するクーポン等を入稿する。そして、情報処理装置100は、VR空間VR1の映像をHMD20に出力する(ステップS2)。これにより、HMD20は、例えば、両眼視差に基づくVR空間VR1であるVR空間内に所定のオブジェクトとして花オブジェクトOD1が配置された映像と音声及びBGMとを組み合わせたVR空間VR1をユーザに体験させる。この場合、図1の例では、ユーザは、小道の両脇に大きな街路樹が植えられている並木道を歩いている感覚を体験する。
First, as shown in FIG. 1, the
そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を視認し、花オブジェクトOD1に触れるものとする(ステップS3)。例えば、図1に示すように、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を凝視するものとする。この場合、HMD20は、花オブジェクトOD1が拡大表示されたVR空間VR1の映像を情報処理装置100がHMD20に出力することで、VR空間VR1の映像を切り替える。そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1に触れるものとする。そして、HMD20は、ユーザが花オブジェクトOD1に触れた行動に関する情報を情報処理装置100に送信する。なお、HMD20は、定期的にVR空間VR1内で行ったユーザの様々な行動に関する情報を情報処理装置100に送信する。続いて、情報処理装置100は、ユーザの行動のうち、ユーザが花オブジェクトOD1に触れた行動を検出する(ステップS4)。例えば、情報処理装置100は、HMD20によって送信されたユーザの行動に関する情報に基づいて、ユーザが花オブジェクトOD1に触れた行動を検出する。
Then, the user visually recognizes the flower object OD1 blooming at the root of the street tree, and touches the flower object OD1 (step S3). For example, as shown in FIG. 1, the user gazes at the flower object OD1 blooming at the root of the street tree. In this case, the HMD 20 switches the video of the VR space VR1 by the
続いて、情報処理装置100は、検出結果に基づいて、VR空間内に広告オブジェクトC1を含むVR空間の映像を出力する(ステップS5)。例えば、ユーザの行動に関する広告オブジェクトC1が花束に関するクーポンであるとする。この場合、情報処理装置100は、ユーザが花オブジェクトOD1に触れた行動を検出した検出結果に基づいて、ユーザによって触れられた花オブジェクトOD1の代わりに「今なら花束が10%OFF!!」というクーポンを含むVR空間の映像をHMD20に出力する。そして、HMD20は、広告オブジェクトC1として花束に関するクーポンC1を含むVR空間VR2の映像をユーザに提供する。これにより、HMD20は、例えば、両眼視差に基づくVR空間VR2の映像と音声及びBGMとを組み合わせたVR空間VR2をユーザに再度体験させる。この場合、図1の例では、ユーザは、背景が街路樹の根元に表示された花束に関するクーポンC1を視認する。
Subsequently, the
このように、実施形態に係る情報処理装置100は、ユーザがVR空間VR1内の花オブジェクトOD1に触れる行動を検出し、かかる検出結果に基づいて、VR空間内に広告オブジェクトC1を含むVR空間の映像をHMD20に出力する。これにより、実施形態に係る情報処理装置100は、広告オブジェクトの訴求効果を向上させることができる。図1の例を用いて説明すると、ユーザは、花オブジェクトOD1に触れるということから、花オブジェクトOD1に興味があると考えられる。この場合、情報処理装置100は、ユーザがVR空間内で所定のオブジェクトに触れる行動に関する広告オブジェクトを含むVR空間の映像をHMD20に出力する。したがって、情報処理装置100は、ユーザのオブジェクトに触れるという動作から、ユーザの興味関心があるコンテンツを特定することができるので、コンテンツの訴求効果を効率的に向上させることができる。
Thus, the
〔2.情報処理装置の構成〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[2. Configuration of information processing apparatus]
Next, the configuration of the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線又は無線で接続され、広告主端末10と、HMD20との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC). The communication unit 110 is connected to the network by wire or wirelessly, and transmits and receives information between the
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、VR空間構成要素情報記憶部121と、広告オブジェクト記憶部122とを有する。
(About storage unit 120)
The
(VR空間構成要素情報記憶部121について)
実施形態に係るVR空間構成要素情報記憶部121は、VR空間に映し出される各種オブジェクトに関する情報を記憶する。ここで、図3に、実施形態に係るVR空間構成要素情報記憶部121の一例を示す。図3に示した例では、VR空間構成要素情報記憶部121は、「VR空間構成要素ID(Identifier)」、「背景情報」、「オブジェクト情報」、「オブジェクト配置位置情報」といった項目を有する。
(Regarding the VR space component information storage unit 121)
The VR space component
「VR空間構成要素ID」は、VR空間構成要素を識別する識別子である。「背景情報」は、「VR空間構成要素ID」と対応付けられたVR空間の背景に関する情報である。「オブジェクト情報」は、「VR空間構成要素ID」と対応付けられたオブジェクトに関する情報であり、オブジェクトの形状やテクスチャ等の情報である。「オブジェクト配置位置情報」は、「VR空間構成要素ID」と対応付けられたオブジェクトが配置されたVR空間内の位置に関する情報である。例えば、図3では、VR空間構成要素IDによって識別される「E1」は、背景情報が「小道」であり、オブジェクト情報が「花オブジェクト」であり、オブジェクト配置位置情報が「OP1」である。 “VR space component ID” is an identifier that identifies a VR space component. The “background information” is information on the background of the VR space associated with the “VR space component ID”. "Object information" is information on an object associated with "VR space component ID", and is information such as the shape or texture of the object. The “object placement position information” is information on the position in the VR space where the object associated with the “VR space component ID” is placed. For example, in FIG. 3, “E1” identified by the VR space component ID has “Background” as background information, “Flower object” as object information, and “OP1” as object arrangement position information.
なお、VR空間構成要素情報記憶部121は、上記に限らず、VR空間を実現するための種々の情報を記憶してもよい。例えば、VR空間構成要素情報記憶部121は、VR空間を実現するための音声及びBGMや映像データ等を記憶してもよい。
The VR space component
(広告オブジェクト記憶部122について)
実施形態に係る広告オブジェクト記憶部122は、広告主によって入稿された広告オブジェクトを記憶する。ここで、図4に、実施形態に係る広告オブジェクト記憶部122の一例を示す。図4に示した例では、広告オブジェクト記憶部122は、「広告主ID」、「広告オブジェクト」といった項目を有する。
(About advertisement object storage unit 122)
The advertisement
「広告主ID」は、広告主を識別するための識別情報を示す。「広告オブジェクト」は、広告主によって入稿された広告オブジェクトを示す。例えば、図4では、広告主IDによって識別される「CL1」によって入稿された広告オブジェクト「花束に関するクーポン」を示す。 "Advertiser ID" indicates identification information for identifying an advertiser. "Ad object" indicates an advertisement object submitted by an advertiser. For example, FIG. 4 shows the advertisement object “coupon for bouquet” submitted by “CL1” identified by the advertiser ID.
なお、広告オブジェクト記憶部122は、上記に限らず、広告主によって設定された条件に関する種々の情報を記憶してもよい。例えば、広告オブジェクト記憶部122は、オブジェクト、ユーザとオブジェクトとの接触態様等を記憶してもよい。この点について、変形例で詳述する。
Advertising
(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About the control unit 130)
The
図2に示すように、制御部130は、入稿受付部131と、ユーザ行動受付部132と、検出部133と、出力部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 2, the
(入稿受付部131について)
入稿受付部131は、広告主端末10から広告オブジェクトの入稿を受け付ける。具体的には、入稿受付部131は、広告主端末10から広告オブジェクトの入稿を受け付け、かかる広告オブジェクトを広告オブジェクト記憶部122に格納する。また、入稿受付部131は、広告主によって設定された所定の条件を受け付け、かかる所定の条件を広告オブジェクト記憶部122に格納する。例えば、入稿受付部131は、所定の条件として、オブジェクト、ユーザとオブジェクトとの接触態様等を受け付け、かかる所定の条件を広告オブジェクト記憶部122に格納する。
(About the submission acceptance unit 131)
The submission acceptance unit 131 accepts submission of an advertisement object from the
(ユーザ行動受付部132について)
ユーザ行動受付部132は、VR空間におけるユーザの行動を示す操作等をHMD20から受け付ける。例えば、ユーザ行動受付部132は、HMD20によって送信されたユーザの行動に関する情報に基づいて、ユーザの行動を受け付ける。また、ここでいうユーザの行動とは、オブジェクトを摘まむ、オブジェクトを蹴る、オブジェクトを踏む、オブジェクトを手のひらで温める、オブジェクトを持ったときにユーザの体温が上がる、オブジェクトを叩く、オブジェクトを投擲する等の行動を示す。なお、ユーザ行動受付部132の処理は、例えば、ユーザの体の各部位に各種センサーをつけて動作及び体温を読み取る各種の周知技術により実現可能である。
(About the user action acceptance unit 132)
The user
(検出部133について)
検出部133は、映像によって形成される仮想空間(VR空間に相当)を体験するユーザの行動であって、VR空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。具体的には、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが接触することで、VR空間内の所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。例えば、所定のオブジェクトが花オブジェクトであるとする。この場合、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが花オブジェクトに触るユーザの行動を検出する。一方、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが花オブジェクトに触らないユーザの行動を検出しない。
(About the detection unit 133)
The
(出力部134について)
出力部134は、検出部133によって検出された検出結果に基づいて、コンテンツ(広告オブジェクトに相当)を出力する。具体的には、出力部134は、VR空間構成要素情報記憶部121に基づいて、ユーザの操作に伴う向きの変更、各種オブジェクトの配置位置等に応じて、VR空間におけるユーザの視野に対応する映像をHMD20に出力する。また、具体的には、出力部134は、検出部133によって検出された検出結果に基づいて、VR空間内の所定のオブジェクトの代わりに、広告オブジェクト記憶部122に記憶される広告オブジェクトを表示させたVR空間の映像をHMD20に出力する。例えば、図1の例では、出力部134は、検出部133によって検出された検出結果に基づいて、VR空間VR1内の花オブジェクトOD1の代わりに、広告オブジェクト記憶部122に記憶される花束に関するクーポンC1を表示させたVR空間VR2の映像をHMD20に出力する。
(About the output unit 134)
The output unit 134 outputs content (corresponding to an advertisement object) based on the detection result detected by the
〔3.出力処理のフローチャート〕
次に、図5を用いて、実施形態に係る情報処理装置100が実行する出力処理の手順について説明する。図5は、実施形態に係る情報処理装置が実行する出力処理の流れの一例を示すフローチャートである。
[3. Flow chart of output processing]
Next, the procedure of the output process performed by the
図5に示すように、出力部134は、VR空間の映像をHMD20に出力する(ステップS101)。そして、ユーザ行動受付部132は、ユーザの行動を受け付ける(ステップS102)。そして、検出部133は、ユーザが花オブジェクトに触れる行動を検出する(ステップS103)。そして、検出部133は、ユーザが花オブジェクトに触れる行動を検出しない場合(ステップS103;No)、ユーザが花オブジェクトに触れる行動を検出するまで待機する。
As shown in FIG. 5, the output unit 134 outputs an image in the VR space to the HMD 20 (step S101). Then, the user
一方、検出部133は、ユーザが花オブジェクトに触れる行動を検出する場合(ステップS103;Yes)、出力部134は、VR空間内に広告オブジェクトを含む映像をHMD20に出力する(ステップS104)。
On the other hand, when the
〔4.変形例〕
上述した情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[4. Modified example]
The
〔4−1.検出処理(1)〕
上記実施形態では、情報処理装置100の検出部133が花オブジェクトに触れるユーザの行動を検出する検出処理の一例を説明したが、検出部133は、ユーザが所定のオブジェクトを用いて行動することで、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させるユーザの行動を検出してもよい。具体的には、検出部133は、ユーザが所定のオブジェクトを投擲することで、所定のオブジェクト以外の他のオブジェクトに衝突させるユーザの行動を検出する。例えば、ユーザが池オブジェクトに向かって石オブジェクトを投擲することで水切りを行うとする。この場合、検出部133は、ユーザ行動受付部132によって受け付けられたユーザの行動のうち、ユーザが石オブジェクトを池オブジェクトに向かって投擲することで、池オブジェクトの水面と石オブジェクトとが衝突したと示す場合に、石オブジェクトと池オブジェクトの水面とを接触させるユーザの行動を検出してもよい。
[4-1. Detection process (1)]
In the above embodiment, an example of the detection process in which the
図6を用いて、変形例に係る情報処理装置が実行する検出処理の一例について説明する。図6は、変形例に係る情報処理装置が実行する検出処理の一例を示す図である。以下、図6を用いて、情報処理装置100によるユーザの行動の検出処理の一例を流れに沿って説明する。
An example of the detection process performed by the information processing apparatus according to the modification will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of detection processing performed by the information processing apparatus according to the modification. Hereinafter, an example of the process of detecting the user's action by the
まず、図6に示すように、ユーザが所定のオブジェクトである池オブジェクトOD2を視認し、ユーザが所定のオブジェクトである石オブジェクトOD3を池オブジェクトOD2に向かって投擲する行動を行う(ステップS21)。例えば、図6に示すように、ユーザは、背景である森林の中に所在する池オブジェクトOD2を視認する。そして、ユーザは、池オブジェクトOD2の周辺に落ちている石オブジェクトOD3を拾う体験をする。そして、ユーザは、石オブジェクトOD3を池オブジェクトOD2に向かって投擲することで水切りを行う体験をする。これにより、ユーザは、ユーザが石オブジェクトOD3を池オブジェクトOD2に向かって投擲することで、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させる行動を行う。続いて、ユーザが池オブジェクトOD2に向かって石オブジェクトOD3を投擲する行動に関する広告オブジェクトC1を含むVR空間をHMD20に出力する(ステップS22)。例えば、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させるユーザの行動に対応する広告オブジェクトC1が石オブジェクトOD3で形成されたアクセサリーに関するクーポンであるとする。この場合、情報処理装置100は、石オブジェクトOD3と池オブジェクトOD2の水面とを接触させるユーザの行動を検出し、「今ならアクセサリー15%OFF!!」というクーポンを含むVR空間VR2の映像をHMD20に出力してもよい。
First, as shown in FIG. 6, the user visually recognizes the pond object OD2 which is a predetermined object, and the user performs an action of throwing a stone object OD3 which is the predetermined object toward the pond object OD2 (step S21). For example, as shown in FIG. 6, the user visually recognizes the pond object OD2 located in the forest which is the background. The user then experiences picking up the stone object OD3 falling around the pond object OD2. Then, the user experiences water drainage by throwing the stone object OD3 toward the pond object OD2. Thereby, the user performs an action of bringing the stone object OD3 into contact with the water surface of the pond object OD2 by throwing the stone object OD3 toward the pond object OD2. Subsequently, the VR space including the advertisement object C1 regarding the action of the user throwing the stone object OD3 toward the pond object OD2 is output to the HMD 20 (step S22). For example, it is assumed that the advertisement object C1 corresponding to the user's action of bringing the stone object OD3 into contact with the water surface of the pond object OD2 is a coupon related to an accessory formed of the stone object OD3. In this case, the
これにより、実施形態に係る情報処理装置100の検出部133は、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させる間接的なユーザの行動を検出することができるので、網羅的なユーザに関する行動の検出を行うことができる。
As a result, the
〔4−2.出力処理(1)〕
上記実施形態では、情報処理装置100の出力部134が花オブジェクトに触れるユーザの行動に基づいて広告オブジェクトを出力する出力処理の一例を説明したが、出力部134は、変化によって異なる広告オブジェクトを含むVR空間の映像を出力してもよい。具体的には、出力部134は、図7に示した広告オブジェクト記憶部123に記憶される所定の条件としてユーザ自身又は所定のオブジェクトに対して変化を及ぼすユーザの行動に伴うユーザ又は所定のオブジェクトの変化に基づいて、かかる変化によって異なる広告オブジェクトを含むVR空間の映像をHMD20に出力する。例えば、ユーザが花オブジェクトを摘まむ行動を起こすとする。この場合、出力部134は、検出部133によって検出された花オブジェクトを摘まむユーザの行動に基づいて、広告オブジェクトとして花束に関するクーポンを含むVR空間の映像をHMD20に出力してもよい。
[4-2. Output process (1)]
Although the above-mentioned embodiment explained an example of the output processing which outputs an advertising object based on a user's action which an output part 134 of
図8を用いて、変形例に係る情報処理装置が実行する出力処理の一例について説明する。図8は、変形例に係る情報処理装置が実行する出力処理の一例を示す図である。以下、図8を用いて、情報処理装置100による広告オブジェクトの出力処理の一例を流れに沿って説明する。
An example of the output process performed by the information processing apparatus according to the modification will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of an output process performed by the information processing apparatus according to the modification. Hereinafter, an example of the output process of the advertisement object by the
まず、図8に示すように、ユーザが所定のオブジェクトである花オブジェクトOD1を視認し、花オブジェクトOD1を摘まむ行動を行う(ステップS31)。例えば、図8に示すように、HMD20は、ユーザが街路樹の根元に咲いている花オブジェクトOD1を凝視することで、VR空間VR1の映像を花オブジェクトOD1が拡大表示されたVR空間VR1の映像に切り替える。そして、ユーザは、街路樹の根元に咲いている花オブジェクトOD1を摘まむ行動を行うものとする。続いて、情報処理装置100は、ユーザが花オブジェクトOD1を摘まむ行動に関する広告オブジェクトC1を含むVR空間VR2の映像をHMD20に出力する(ステップS32)。例えば、ユーザが花オブジェクトOD1を摘まむ行動に関する広告オブジェクトC1が花束に関するクーポンであるとする。この場合、情報処理装置100は、ユーザが花オブジェクトOD1を摘まむ行動を検出し、「今なら花束が15%OFF!!」というクーポンを含むVR空間VR2の映像をHMD20に出力してもよい。
First, as shown in FIG. 8, the user visually recognizes the flower object OD1 which is a predetermined object, and performs an action of picking the flower object OD1 (step S31). For example, as shown in FIG. 8, the
これにより、実施形態に係る情報処理装置100の出力部134は、ユーザが花オブジェクトを摘まむ行動に対応する広告オブジェクトを含むVR空間の映像を出力することができるので、訴求効果の高い広告オブジェクトを提供することができる。
As a result, the output unit 134 of the
〔4−3.出力処理(2)〕
上記実施形態では、情報処理装置100の出力部134がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、出力部134は、広告主によって設定された所定の条件が満たされた場合に、広告オブジェクトを出力してもよい。具体的には、出力部134は、図9に示した広告オブジェクト記憶部124に記憶される広告主によって設定されたオブジェクト又はユーザとオブジェクトとの接触態様が所定の条件として満たされた場合に、広告オブジェクトを含むVR空間の映像をHMD20に出力する。例えば、広告主によって設定された所定の条件がユーザとオブジェクトとの接触態様であるとする。この場合、出力部134は、ユーザが花オブジェクトを摘まんだ場合、広告オブジェクトとして花束に関するクーポンを含むVR空間をHMD20に出力してもよい。
[4-3. Output process (2)]
In the above embodiment, an example of the output process in which the output unit 134 of the
これにより、実施形態に係る情報処理装置100の出力部134は、広告主によって設定された所定の条件が満たされた場合に広告オブジェクトを含むVR空間の映像を出力することができるので、広告主にとって有益な広告オブジェクトの提供が実現できる。
As a result, the output unit 134 of the
〔4−4.広告オブジェクト〕
上記実施形態では、広告オブジェクトの代わりに、静止画像、動画像等を適用できる。また、情報処理装置100は、広告オブジェクトに限らず、各種のコンテンツオブジェクトを含むVR空間の映像を出力してもよい。例えば、情報処理装置100は、広告目的でないコンテンツオブジェクト(例えば、コンテンツオブジェクトに含まれる記事等)を含むVR空間の映像をHMD20に出力してもよい。
[4-4. Advertising object]
In the above embodiment, a still image, a moving image or the like can be applied instead of the advertisement object. Further, the
〔4−5.接触態様に対応するユーザ行動〕
上記実施形態では、情報処理装置100が花オブジェクトに触るユーザの行動を検出する一例を説明したが、接触態様に対応するユーザの行動として、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動、ユーザが所定のオブジェクトを触る行動、ユーザが所定のオブジェクトを摘まむ行動、ユーザが所定のオブジェクトを蹴る行動、ユーザが所定のオブジェクトを踏む行動、ユーザが所定のオブジェクトを用いてユーザの身体的変化を伴う行動等を検出してもよい。
[4-5. User behavior corresponding to contact mode]
In the above embodiment, an example in which the
〔4−6.仮想空間〕
上記実施形態では、情報処理装置100がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、情報処理装置100は、VR空間の映像を出力することに限定されるものではない。例えば、情報処理装置100は、ユーザの行動に基づいて、広告オブジェクトを含む拡張現実等の仮想空間の映像を出力してもよい。
[4-6. Virtual space〕
In the above embodiment, an example of the output process in which the
〔4−7.情報処理装置(1)〕
上記実施形態では、情報処理装置100がユーザの行動に基づいて、広告オブジェクトを含むVR空間の映像を出力する出力処理の一例を説明したが、情報処理装置100は、これに限定されるものではない。例えば、情報処理装置100が実行する検出処理及び出力処理は、HMD20がスタンドアローンで実行してもよい。
[4-7. Information processing apparatus (1)]
Although the above-mentioned embodiment explained an example of output processing which outputs a picture of VR space containing an advertising object based on a user's action,
〔4−8.情報処理装置(2)〕
上記実施形態では、情報処理装置100が広告主端末10から広告オブジェクトを受け付ける処理の一例を説明したが、情報処理装置100の入稿受付部131は、情報処理装置100と異なるサーバ装置等であってもよい。例えば、情報処理装置100は、入稿受付部131が広告主によって受け付けた広告オブジェクトを参照してもよい。
[4-8. Information processing apparatus (2)]
In the above embodiment, an example of the process in which the
〔5.ハードウェア構成〕
また、上述してきた実施形態に係る広告主端末10、HMD20、情報処理装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図10は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
The
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The CPU 1100 operates based on a program stored in the
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100がネットワークNを介して生成したデータを他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
The CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input /
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
〔6.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. Other]
Further, among the processes described in the embodiment and the modification, all or part of the process described as being automatically performed can be manually performed, or it is described as manually performed. All or part of the treatment may be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to the illustrated one, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Moreover, it is possible to combine suitably the embodiment and modification which were mentioned above in the range which does not make process content contradictory.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、出力部は、出力手段や出力回路に読み替えることができる。 In addition, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the output unit can be read as an output means or an output circuit.
〔7.効果〕
上述してきたように、実施形態に係る情報処理装置100は、検出部133と、出力部134とを有する。検出部133は、映像によって形成される仮想空間(VR空間に相当)を体験するユーザの行動であって、仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する。出力部134は、検出部133によって検出された結果に基づいて、コンテンツ(広告オブジェクト)を出力する。
[7. effect〕
As described above, the
これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内の興味を示すオブジェクトに触れたユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。
Thereby, the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザが仮想空間に映し出される所定のオブジェクトに接触するユーザの行動を検出する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して起こしたユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトを用いて行動することで、所定のオブジェクトと所定のオブジェクト以外の他のオブジェクトとを接触させるユーザの行動を検出する。
In addition, in the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトを投擲することで、所定のオブジェクト以外の他のオブジェクトに衝突させるユーザの行動を検出する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、ユーザがVR空間内のオブジェクトに対して起こした間接的なユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。
Thereby, the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザ自身又は所定のオブジェクトに対して変化を及ぼすユーザの行動に伴うユーザ又は所定のオブジェクトの変化を検出し、出力部134は、変化によって異なるコンテンツを出力する。
Further, in the
これにより、実施形態に係る情報処理装置100は、ユーザ自身やオブジェクトに対する変化を及ぼすユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。
Thus, the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動を検出し、出力部134は、接触態様によって異なるコンテンツを出力する。
In addition, in the
また、実施形態に係る情報処理装置100において、検出部133は、ユーザが所定のオブジェクトに接触する接触態様に対応するユーザの行動として、ユーザが所定のオブジェクトを触る行動、ユーザが所定のオブジェクトを摘まむ行動、ユーザが所定のオブジェクトを蹴る行動、ユーザが所定のオブジェクトを踏む行動、ユーザが所定のオブジェクトを用いてユーザの身体的変化を伴う行動のいずれか1つを検出する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、ユーザがオブジェクトに接触する接触態様に対応する様々なユーザの行動を検出することができるので、訴求効果の高い広告オブジェクトを含むVR空間の映像を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、出力部134は、コンテンツ提供主(広告主に相当)によって設定された所定の条件が満たされた場合に、コンテンツを出力する。
Further, in the
また、実施形態に係る情報処理装置100において、出力部134は、所定の条件として、所定のオブジェクト又はユーザと所定のオブジェクトとの接触態様が満たされた場合に、コンテンツを出力する。
Further, in the
これにより、実施形態に係る情報処理装置100は、広告主によって設定された所定の条件が満たされた場合に広告オブジェクトを含むVR空間の映像を出力することできるので、広告主にとって有益な広告オブジェクトの提供が実現できる。
Thus, the
また、実施形態に係る情報処理装置100において、出力部134は、コンテンツとして、ユーザの行動に関連するコンテンツを出力する。
Further, in the
これにより、実施形態に係る情報処理装置100は、広告オブジェクトとして様々な形態の情報を提供することができるので、広告主にとって有益な広告オブジェクトの提供が実現でき、かつ、ユーザにとってもユーザの趣向に合致した広告オブジェクトの提供が実現できる。
Thereby, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described above in detail based on the drawings, these are only examples, and various modifications can be made based on the knowledge of those skilled in the art, including the aspects described in the section of the description of the invention. It is possible to implement the invention in other improved forms.
1 情報処理システム
10 広告主端末
20 HMD
100 情報処理装置
110 通信部
120 記憶部
121 VR空間構成要素情報記憶部
122 広告オブジェクト記憶部
123 広告オブジェクト記憶部
124 広告オブジェクト記憶部
130 制御部
131 入稿受付部
132 ユーザ行動受付部
133 検出部
134 出力部
1
100 information processing apparatus 110
Claims (12)
前記検出部によって検出された結果に基づいて、コンテンツを出力する出力部と、
を備えたことを特徴とする情報処理装置。 A detection unit that detects an action of a user who exerts a physical change on a predetermined object displayed in the virtual space, which is an action of a user who experiences a virtual space formed by an image;
An output unit that outputs content based on the result detected by the detection unit;
An information processing apparatus comprising:
前記ユーザが前記仮想空間に映し出される所定のオブジェクトに接触する前記ユーザの行動を検出する、
ことを特徴とする請求項1に記載の情報処理装置。 The detection unit is
Detecting an action of the user touching the predetermined object displayed in the virtual space;
An information processing apparatus according to claim 1, characterized in that.
前記ユーザが前記所定のオブジェクトを用いて行動することで、前記所定のオブジェクトと前記所定のオブジェクト以外の他のオブジェクトとを接触させる前記ユーザの行動を検出する、
ことを特徴とする請求項1又は2に記載の情報処理装置。 The detection unit is
The user acts by using the predetermined object, thereby detecting an action of the user causing the predetermined object and another object other than the predetermined object to come into contact with each other.
The information processing apparatus according to claim 1 or 2, characterized in that:
前記ユーザが前記所定のオブジェクトを投擲することで、前記所定のオブジェクト以外の他のオブジェクトに衝突させる前記ユーザの行動を検出する、
ことを特徴とする請求項1〜3のいずれか1つに記載の情報処理装置。 The detection unit is
The user throws the predetermined object, thereby detecting an action of the user to collide with another object other than the predetermined object.
The information processing apparatus according to any one of claims 1 to 3, characterized in that:
前記ユーザ自身又は前記所定のオブジェクトに対して変化を及ぼすユーザの行動に伴う前記ユーザ又は前記所定のオブジェクトの変化を検出し、
前記出力部は、
前記変化によって異なるコンテンツを出力する、
ことを特徴とする請求項1〜4のいずれか1つに記載の情報処理装置。 The detection unit is
Detecting a change of the user or the predetermined object accompanying an action of the user who exerts a change on the user or the predetermined object;
The output unit is
Output different content according to the change,
The information processing apparatus according to any one of claims 1 to 4, characterized in that:
前記ユーザの行動として、前記ユーザが前記所定のオブジェクトに接触する接触態様を検出し、
前記出力部は、
前記接触態様によって異なるコンテンツを出力する、
ことを特徴とする請求項1〜5のいずれか1つに記載の情報処理装置。 The detection unit is
Detecting a touch mode in which the user touches the predetermined object as the action of the user;
The output unit is
Output different content depending on the contact mode,
The information processing apparatus according to any one of claims 1 to 5, characterized in that:
前記ユーザが前記所定のオブジェクトに接触する接触態様に対応するユーザの行動として、前記ユーザが前記所定のオブジェクトを触る行動、前記ユーザが前記所定のオブジェクトを摘まむ行動、前記ユーザが前記所定のオブジェクトを蹴る行動、前記ユーザが前記所定のオブジェクトを踏む行動、前記ユーザが前記所定のオブジェクトを用いて前記ユーザの身体的変化を伴う行動のいずれか1つを検出する、
ことを特徴とする請求項1〜6のいずれか1つに記載の情報処理装置。 The detection unit is
The action of the user touching the predetermined object, the action of the user picking the predetermined object, and the action of the user touching the predetermined object as the action of the user corresponding to the contact mode in which the user touches the predetermined object Detecting any one of an action of kicking the user, an action of the user stepping on the predetermined object, and an action accompanied by a physical change of the user using the predetermined object.
The information processing apparatus according to any one of claims 1 to 6, characterized in that:
コンテンツ提供主によって設定された所定の条件が満たされた場合に、前記コンテンツを出力する、
ことを特徴とする請求項1〜7のいずれか1つに記載の情報処理装置。 The output unit is
Outputting the content when a predetermined condition set by the content provider is satisfied,
The information processing apparatus according to any one of claims 1 to 7, characterized in that:
前記所定の条件として、前記所定のオブジェクト又は前記ユーザと前記所定のオブジェクトとの接触態様が満たされた場合に、前記コンテンツを出力する、
ことを特徴とする請求項1〜8のいずれか1つに記載の情報処理装置。 The output unit is
When the contact condition between the predetermined object or the user and the predetermined object is satisfied as the predetermined condition, the content is output.
The information processing apparatus according to any one of claims 1 to 8, characterized in that:
前記コンテンツとして、前記ユーザの行動に関連するコンテンツを出力する、
ことを特徴とする請求項1〜9のいずれか1つに記載の情報処理装置。 The output unit is
Output content related to the action of the user as the content
The information processing apparatus according to any one of claims 1 to 9, characterized in that:
映像によって形成される仮想空間を体験するユーザの行動であって、前記仮想空間に映し出される所定のオブジェクトに対して物理的な変化を及ぼすユーザの行動を検出する検出工程と、
前記検出工程によって検出された結果に基づいて、コンテンツを出力する出力工程と、
を備えたことを特徴とする情報処理方法。 An information processing method executed by a computer,
Detecting the user's behavior of exerting a physical change on a predetermined object displayed in the virtual space, the user's behavior experiencing a virtual space formed by video;
An output step of outputting content based on the result detected by the detection step;
An information processing method comprising:
前記検出手順によって検出された結果に基づいて、コンテンツを出力する出力手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。 A detection procedure for detecting an action of a user who exerts a physical change on a predetermined object shown in the virtual space, the action of the user experiencing a virtual space formed by an image;
An output procedure for outputting content based on a result detected by the detection procedure;
An information processing program characterized by causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017237050A JP7017919B2 (en) | 2017-12-11 | 2017-12-11 | Information processing equipment, information processing methods and information processing programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017237050A JP7017919B2 (en) | 2017-12-11 | 2017-12-11 | Information processing equipment, information processing methods and information processing programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019105932A true JP2019105932A (en) | 2019-06-27 |
JP7017919B2 JP7017919B2 (en) | 2022-02-09 |
Family
ID=67061347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017237050A Active JP7017919B2 (en) | 2017-12-11 | 2017-12-11 | Information processing equipment, information processing methods and information processing programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7017919B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6842582B1 (en) * | 2020-03-31 | 2021-03-17 | エイベックス・テクノロジーズ株式会社 | Augmented reality system |
JP2021068103A (en) * | 2019-10-21 | 2021-04-30 | 株式会社Interior Haraguchi | Marketing system and marketing method in commercial facility |
JP2021179652A (en) * | 2020-05-11 | 2021-11-18 | 株式会社アルファコード | Image display control apparatus, image display control method, and image display control program |
JP7524264B2 (en) | 2022-09-27 | 2024-07-29 | 株式会社コロプラ | Program and information processing system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130342572A1 (en) * | 2012-06-26 | 2013-12-26 | Adam G. Poulos | Control of displayed content in virtual environments |
JP2014085723A (en) * | 2012-10-19 | 2014-05-12 | Toyota Motor Corp | Information providing device and information providing method |
JP2015152940A (en) * | 2014-02-10 | 2015-08-24 | ソニー株式会社 | Presentation control device, method of controlling presentation, and program |
JP2016062277A (en) * | 2014-09-18 | 2016-04-25 | 泰章 岩井 | Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method |
JP2016527651A (en) * | 2013-08-12 | 2016-09-08 | エアバータイズ エルエルシー | Augmented reality device |
JP6093473B1 (en) * | 2016-08-19 | 2017-03-08 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
-
2017
- 2017-12-11 JP JP2017237050A patent/JP7017919B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130342572A1 (en) * | 2012-06-26 | 2013-12-26 | Adam G. Poulos | Control of displayed content in virtual environments |
JP2014085723A (en) * | 2012-10-19 | 2014-05-12 | Toyota Motor Corp | Information providing device and information providing method |
JP2016527651A (en) * | 2013-08-12 | 2016-09-08 | エアバータイズ エルエルシー | Augmented reality device |
JP2015152940A (en) * | 2014-02-10 | 2015-08-24 | ソニー株式会社 | Presentation control device, method of controlling presentation, and program |
JP2016062277A (en) * | 2014-09-18 | 2016-04-25 | 泰章 岩井 | Virtual reality presentation system, virtual reality presentation device, and virtual reality presentation method |
JP6093473B1 (en) * | 2016-08-19 | 2017-03-08 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021068103A (en) * | 2019-10-21 | 2021-04-30 | 株式会社Interior Haraguchi | Marketing system and marketing method in commercial facility |
JP6842582B1 (en) * | 2020-03-31 | 2021-03-17 | エイベックス・テクノロジーズ株式会社 | Augmented reality system |
JP2021163288A (en) * | 2020-03-31 | 2021-10-11 | エイベックス・テクノロジーズ株式会社 | Augmented reality system |
JP2021179652A (en) * | 2020-05-11 | 2021-11-18 | 株式会社アルファコード | Image display control apparatus, image display control method, and image display control program |
JP7524264B2 (en) | 2022-09-27 | 2024-07-29 | 株式会社コロプラ | Program and information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP7017919B2 (en) | 2022-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108615055B (en) | Similarity calculation method and device and computer readable storage medium | |
CN107294838B (en) | Animation generation method, device and system for social application and terminal | |
KR101794493B1 (en) | Mobile devices and methods employing haptics | |
JP5281063B2 (en) | How to play browser-based games with alternative controllers and interfaces | |
JP2019105932A (en) | Information processing device, information processing method, and information processing program | |
US20160155256A1 (en) | Avatar personalization in a virtual environment | |
US10908773B2 (en) | Home screen settings for information processing device and information processing system, and recording medium therefor | |
US10126917B2 (en) | Information processing device, information processing system, and recording medium | |
KR20130089921A (en) | Operating method and content providing system | |
US20160062629A1 (en) | Information processing device, information processing system, and recording medium | |
US11675439B2 (en) | Method and arrangement for handling haptic feedback | |
CN110246110A (en) | Image evaluation method, device and storage medium | |
EP2669819A1 (en) | Information processing system, computer program product, information processing device, and display method | |
US9338198B2 (en) | Information processing system, storing medium, information processing device, and display method | |
US11429265B2 (en) | Output device control | |
CN112823528B (en) | Information processing device, information processing method, and information processing program | |
JP5814422B1 (en) | Distribution device, display control device, display control method, and display control program | |
CN109299355B (en) | Recommended book list display method and device and storage medium | |
CN110213307B (en) | Multimedia data pushing method and device, storage medium and equipment | |
JP5485276B2 (en) | Information processing apparatus, information processing method, information storage medium, and program | |
JP7302945B2 (en) | Information processing device, information processing method and information processing program | |
JP6068942B2 (en) | Information processing system, information processing apparatus, information processing program, and information processing method | |
WO2016029705A1 (en) | Method and device for inserting webpage toolbar, and storage medium | |
JP2020115285A (en) | Calculation device, calculation method, and calculation program | |
JP2024079331A (en) | Information provision device, information processing system, information provision method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211104 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20211104 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20211115 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20211116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7017919 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |