JP2016518647A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2016518647A5 JP2016518647A5 JP2016501621A JP2016501621A JP2016518647A5 JP 2016518647 A5 JP2016518647 A5 JP 2016518647A5 JP 2016501621 A JP2016501621 A JP 2016501621A JP 2016501621 A JP2016501621 A JP 2016501621A JP 2016518647 A5 JP2016518647 A5 JP 2016518647A5
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- data set
- content data
- experience content
- experience
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 claims 19
- 230000002452 interceptive Effects 0.000 claims 14
- 230000003190 augmentative Effects 0.000 claims 6
- 238000005457 optimization Methods 0.000 claims 5
- 230000000875 corresponding Effects 0.000 claims 2
Claims (20)
- サーバであって、
キャンペーン最適化モジュールと、分析計算モジュールと、体験ジェネレータと、を備える、前記サーバの1以上のハードウェアプロセッサと、
ストレージデバイスと、を備え、
前記キャンペーン最適化モジュールは、デバイスの拡張現実アプリケーション用の第2体験コンテンツデータセットを、第1体験コンテンツデータセットを有する他のデバイスの他のユーザの相互作用の分析結果に基づいて生成するように構成され、前記第2体験コンテンツデータセットは、第2仮想オブジェクトと、前記第2仮想オブジェクトの第2ユーザ相互作用的特性セットとを有し、
前記分析計算モジュールは、前記他のデバイスから受信した分析データに基づいて、前記分析結果を生成するように構成され、前記分析データは、前記第1経験コンテンツデータセットの、前記他のデバイスに表示された第1仮想オブジェクトと前記第1仮想オブジェクトの第1ユーザ相互作用的特性セットとを含む前記他のユーザの相互作用に基づいており、
前記体験ジェネレータは、前記デバイスに前記第2体験コンテンツデータセットを供給するように構成され、前記デバイスは、前記第2体験コンテンツデータセットから物理的コンテンツ識別体を認識し、前記デバイスのカメラで取り込まれた画像の前記物理的コンテンツ識別体を識別し、前記画像の前記物理的コンテンツ識別体が識別されたことに応じて前記第2仮想オブジェクトと前記第2仮想オブジェクトの第2ユーザ相互作用的特性セットとを前記デバイスに表示するように構成され、
前記ストレージデバイスは、前記拡張現実アプリケーションと前記第1および第2体験コンテンツデータセットとを格納するように構成された、サーバ。 - 前記キャンペーン最適化モジュールは、
前記デバイスからの分析結果にアクセスするように構成された、分析取得部と、
前記デバイスおよび前記他のデバイスからの前記分析結果に基づいて、前記第1体験コンテンツデータセットを更新するために、第3体験コンテンツデータセットを構築するように構成された、体験コンテンツデータセット生成部と、
前記デバイスおよび前記他のデバイスからの前記分析結果に基づいて、前記第1体験コンテンツデータセットを改変するように構成された、体験コンテンツデータセット変更部と、を有する、請求項1に記載のサーバ。 - 前記キャンペーン最適化モジュールは、
前記他のデバイスからの分析結果及び分析データにアクセスするように構成され、前記他のデバイスは、前記第1経験コンテンツデータセットの、以前に表示された前記第1仮想オブジェクトと前記第1仮想オブジェクトの前記第1ユーザ相互作用的特性セットとを有する、分析取得部と、
前記他のデバイスからの前記分析結果及び分析データに基づいて、前記第1体験コンテンツデータセットを更新するために前記第2体験コンテンツデータセットを構築するように構成された、体験コンテンツデータセット生成部と、
前記他のデバイスからの前記分析結果及び分析データに基づいて、前記第1体験コンテンツデータセットを改変するように構成された、体験コンテンツデータセット変更部と、を有する、請求項1に記載のサーバ。 - 前記体験ジェネレータは、前記第1体験コンテンツデータセットを用いて第1仮想オブジェクトモデルを生成するように構成されており、前記第1仮想オブジェクトモデルは、前記物理的コンテンツ識別体として認識された実オブジェクトに対する前記デバイスの相対位置に基づいて、前記デバイスのディスプレイにおいてレンダリングされるべきものであり、
前記第1仮想オブジェクトの表示は、前記デバイスで取り込まれる前記実オブジェクトのリアルタイム画像に基づいており、前記第1仮想オブジェクトモデルは前記実オブジェクトの画像に関連付けられる、請求項1に記載のサーバ。 - 前記分析計算モジュールは、前記デバイスで取り込まれる実オブジェクトに対する前記デバイスの姿勢推定データと、前記デバイスで取り込まれる実オブジェクトに対する前記デバイスの姿勢継続時間データと、前記デバイスで取り込まれる実オブジェクトに対する前記デバイスの姿勢方向データと、前記デバイスで取り込まれる実オブジェクトに対する前記デバイスの姿勢相互作用データと、を受け取るように構成されており、
前記姿勢推定データは、前記デバイスが向けられた実オブジェクト若しくは第1仮想オブジェクトにおける位置を含み、
前記姿勢継続時間データは、前記デバイスが前記実オブジェクト若しくは前記第1仮想オブジェクト上の同じ位置に向けられている継続時間を含み、
前記姿勢方向データは、前記実オブジェクト若しくは前記第1仮想オブジェクトに向けられた前記デバイスの向きを含み、
前記姿勢相互作用データは、前記実オブジェクトに対応する前記第1仮想オブジェクトを有する前記デバイス上でのユーザの相互作用を含む、請求項1に記載のサーバ。 - 前記物理的コンテンツ識別体は、2次元物理的オブジェクト若しくは3次元物理的オブジェクトを識別し、
前記第1仮想オブジェクトは、2次元若しくは3次元仮想オブジェクトモデルを含み、
前記物理的コンテンツ識別体を前記第1仮想オブジェクトに関連付けることで、前記第1体験コンテンツデータセットを生成することをさらに含む、請求項1に記載のサーバ。 - 前記2次元若しくは3次元仮想オブジェクトモデルは、少なくとも1つのユーザ相互作用的特性を有し、前記少なくとも1つのユーザ相互作用的特性は、前記デバイス上でのユーザからの相互作用に応じて、前記2次元若しくは3次元仮想オブジェクトモデルの状態を変化させる、請求項6に記載のサーバ。
- 前記キャンペーン最適化モジュールは、前記他のデバイスの前記他のユーザ相互作用の前記分析結果に基づいて、前記第1体験コンテンツデータセットからの前記第1仮想オブジェクトのユーザ相互作用的特性を変更するように構成されている、請求項6に記載のサーバ。
- 前記分析データは、前記デバイスの使用状況を含む、請求項1に記載のサーバ。
- 前記デバイスの前記使用状況は、前記デバイスのユーザのソーシャル情報、ロケーション使用情報、及び前記拡張現実アプリケーションを使用する前記デバイスの時間情報、を含む、請求項9に記載のサーバ。
- コンピュータ実装方法であって、
デバイスの拡張現実アプリケーション用の第2体験コンテンツデータセットを、第1体験コンテンツデータセットを有する他のデバイスの他のユーザの相互作用の分析結果に基づいて生成し、前記第2体験コンテンツデータセットは、第2仮想オブジェクトと、前記第2仮想オブジェクトの第2ユーザ相互作用的特性セットとを有することと、
前記他のデバイスから受信した分析データに基づいて、前記分析結果を生成し、前記分析データは、前記第1経験コンテンツデータセットの、前記他のデバイスに表示された第1仮想オブジェクトと前記第1仮想オブジェクトの第1ユーザ相互作用的特性セットとを含む前記他のユーザの相互作用に基づいていることと、
前記デバイスに前記第2体験コンテンツデータセットを供給し、前記デバイスは、前記第2体験コンテンツデータセットから物理的コンテンツ識別体を認識し、前記デバイスのカメラで取り込まれた画像の前記物理的コンテンツ識別体を識別し、前記画像の前記物理的コンテンツ識別体が識別されたことに応じて前記第2仮想オブジェクトと前記第2仮想オブジェクトの第2ユーザ相互作用的特性セットとを前記デバイスに表示するように構成されることと、を含む、コンピュータ実装方法。 - 前記デバイスからの分析結果にアクセスすることと、
前記デバイスおよび前記他のデバイスからの前記分析結果に基づいて、前記第1体験コンテンツデータセットを更新するために、第3体験コンテンツデータセットを構築することと、
前記デバイスおよび前記他のデバイスからの前記分析結果に基づいて、前記第1体験コンテンツデータセットを改変することと、をさらに含む、請求項11に記載のコンピュータ実装方法。 - 前記他のデバイスからの分析結果及び分析データにアクセスし、前記他のデバイスは、前記第1経験コンテンツデータセットの、以前に表示された前記第1仮想オブジェクトと前記第1仮想オブジェクトの前記第1ユーザ相互作用的特性セットとを有することと、
前記他のデバイスからの前記分析結果及び分析データに基づいて、前記第1体験コンテンツデータセットを更新するために前記第2体験コンテンツデータセットを構築することと、
前記他のデバイスからの前記分析結果及び分析データに基づいて、前記第1体験コンテンツデータセットを改変することと、をさらに含む、請求項11に記載のコンピュータ実装方法。 - 前記第1体験コンテンツデータセットを用いて第1仮想オブジェクトモデルを生成することをさらに含み、前記第1仮想オブジェクトモデルは、前記物理的コンテンツ識別体として認識された実オブジェクトに対する前記デバイスの相対位置に基づいて、前記デバイスのディスプレイにおいてレンダリングされるべきものであり、
前記第1仮想オブジェクトの表示は、前記デバイスで取り込まれる前記実オブジェクトのリアルタイム画像に基づいており、前記第1仮想オブジェクトモデルは前記実オブジェクトの画像に関連付けられる、請求項11に記載のコンピュータ実装方法。 - 前記デバイスで取り込まれる実オブジェクトに対する前記デバイスの姿勢推定データと、前記デバイスで取り込まれる実オブジェクトに対する前記デバイスの姿勢継続時間データと、前記デバイスで取り込まれる実オブジェクトに対する前記デバイスの姿勢方向データと、前記デバイスで取り込まれる実オブジェクトに対する前記デバイスの姿勢相互作用データと、を受け取ることをさらに含み、
前記姿勢推定データは、前記デバイスが向けられた実オブジェクト若しくは第1仮想オブジェクトにおける位置を含み、
前記姿勢継続時間データは、前記デバイスが前記実オブジェクト若しくは前記第1仮想オブジェクト上の同じ位置に向けられている継続時間を含み、
前記姿勢方向データは、前記実オブジェクト若しくは前記第1仮想オブジェクトに向けられた前記デバイスの向きを含み、
前記姿勢相互作用データは、前記実オブジェクトに対応する前記第1仮想オブジェクトを有する前記デバイス上でのユーザの相互作用を含む、請求項11に記載のコンピュータ実装方法。 - 前記物理的コンテンツ識別体は、2次元画像物理的オブジェクト若しくは3次元物理的オブジェクトを含み、
前記第1仮想オブジェクトは、2次元若しくは3次元仮想オブジェクトモデルを含み、
前記物理的コンテンツ識別体を前記第1仮想オブジェクトに関連付けることで、前記第1体験コンテンツデータセットを生成することをさらに含む、請求項11に記載のコンピュータ実装方法。 - 前記2次元若しくは3次元仮想オブジェクトモデルは、少なくとも1つのユーザ相互作用的特性を有し、前記少なくとも1つのユーザ相互作用的特性は、前記デバイス上でのユーザからの相互作用に応じて、前記2次元若しくは3次元仮想オブジェクトモデルの状態を変化させる、請求項16に記載のコンピュータ実装方法。
- 前記他のデバイスの前記他のユーザ相互作用の前記分析結果に基づいて、前記第1体験コンテンツデータセットからの前記第1仮想オブジェクトのユーザ相互作用的特性を変更することをさらに含む、請求項16に記載のコンピュータ実装方法。
- 前記分析データは、前記デバイスの使用状況を含み、前記デバイスの前記使用状況は、前記デバイスのユーザのソーシャル情報、ロケーション使用情報、及び前記拡張現実アプリケーションを使用する前記デバイスの時間情報、を含む、請求項11に記載のコンピュータ実装方法。
- 命令を含む非一時的なマシン可読な媒体であって、該命令は、マシンの1つ以上のプロセッサで実行されることで、該マシンに、
デバイスの拡張現実アプリケーション用の第2体験コンテンツデータセットを、第1体験コンテンツデータセットを有する他のデバイスの他のユーザの相互作用の分析結果に基づいて生成し、前記第2体験コンテンツデータセットは、第2仮想オブジェクトと、前記第2仮想オブジェクトの第2ユーザ相互作用的特性セットとを有することと、
前記他のデバイスから受信した分析データに基づいて、前記分析結果を生成し、前記分析データは、前記第1経験コンテンツデータセットの、前記他のデバイスに表示された第1仮想オブジェクトと前記第1仮想オブジェクトの第1ユーザ相互作用的特性セットとを含む前記他のユーザの相互作用に基づいていることと、
前記デバイスに前記第2体験コンテンツデータセットを供給し、前記デバイスは、前記第2体験コンテンツデータセットからコンテンツ識別体を認識し、前記デバイスのカメラで取り込まれた画像の前記物理的コンテンツ識別体を識別し、前記画像の前記物理的コンテンツ識別体が識別されたことに応じて前記第2仮想オブジェクトと前記第2仮想オブジェクトの第2ユーザ相互作用的特性セットとを前記デバイスに表示するように構成されることと、
を含むオペレーションを実行させる、非一時的なマシン可読な媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/839,968 | 2013-03-15 | ||
US13/839,968 US9240075B2 (en) | 2013-03-15 | 2013-03-15 | Campaign optimization for experience content dataset |
PCT/US2014/024728 WO2014150995A1 (en) | 2013-03-15 | 2014-03-12 | Campaign optimization for experience content dataset |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016518647A JP2016518647A (ja) | 2016-06-23 |
JP2016518647A5 true JP2016518647A5 (ja) | 2016-08-04 |
JP6013642B2 JP6013642B2 (ja) | 2016-10-25 |
Family
ID=51525472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016501621A Active JP6013642B2 (ja) | 2013-03-15 | 2014-03-12 | 体験コンテンツデータセットに関するキャンペーン最適化 |
Country Status (7)
Country | Link |
---|---|
US (2) | US9240075B2 (ja) |
EP (1) | EP2973355B1 (ja) |
JP (1) | JP6013642B2 (ja) |
KR (1) | KR101667899B1 (ja) |
AU (1) | AU2014235442B2 (ja) |
NZ (1) | NZ713292A (ja) |
WO (1) | WO2014150995A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9240075B2 (en) | 2013-03-15 | 2016-01-19 | Daqri, Llc | Campaign optimization for experience content dataset |
DE102013206569B4 (de) * | 2013-04-12 | 2020-08-06 | Siemens Healthcare Gmbh | Gestensteuerung mit automatisierter Kalibrierung |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9332285B1 (en) | 2014-05-28 | 2016-05-03 | Lucasfilm Entertainment Company Ltd. | Switching modes of a media content item |
US20170107039A1 (en) * | 2015-10-15 | 2017-04-20 | Mark Anthony Chavez | Smart home defense chamber |
US11145122B2 (en) | 2017-03-09 | 2021-10-12 | Samsung Electronics Co., Ltd. | System and method for enhancing augmented reality (AR) experience on user equipment (UE) based on in-device contents |
CA3062541C (en) | 2017-05-05 | 2022-01-11 | Unity IPR ApS | Contextual applications in a mixed reality environment |
US10970425B2 (en) * | 2017-12-26 | 2021-04-06 | Seiko Epson Corporation | Object detection and tracking |
CN111630556A (zh) | 2018-02-08 | 2020-09-04 | 连普乐士株式会社 | 以三维形态提供聊天室的方法和系统及非暂时性计算机可读记录介质 |
US20190259198A1 (en) * | 2018-02-21 | 2019-08-22 | Tsunami VR, Inc. | Systems and methods for generating visual representations of a virtual object for display by user devices |
KR102135331B1 (ko) * | 2018-06-28 | 2020-07-17 | 한국과학기술연구원 | 가상 공간의 인터랙션 3차원 가시화 시스템 및 방법 |
US11626994B2 (en) | 2020-02-27 | 2023-04-11 | Sneakertopia Inc. | System and method for presenting content based on articles properly presented and verifiably owned by or in possession of user |
US11295135B2 (en) * | 2020-05-29 | 2022-04-05 | Corning Research & Development Corporation | Asset tracking of communication equipment via mixed reality based labeling |
US11374808B2 (en) * | 2020-05-29 | 2022-06-28 | Corning Research & Development Corporation | Automated logging of patching operations via mixed reality based labeling |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE251449T1 (de) | 1999-06-14 | 2003-10-15 | Cosmo Spa | Geschmacksmaskierte orale pharmazeutische zusammensetzungen mit kontrollierter abgabe |
US20090237328A1 (en) * | 2008-03-20 | 2009-09-24 | Motorola, Inc. | Mobile virtual and augmented reality system |
US8745494B2 (en) | 2009-05-27 | 2014-06-03 | Zambala Lllp | System and method for control of a simulated object that is associated with a physical location in the real world environment |
US9424583B2 (en) * | 2009-10-15 | 2016-08-23 | Empire Technology Development Llc | Differential trials in augmented reality |
US8683387B2 (en) * | 2010-03-03 | 2014-03-25 | Cast Group Of Companies Inc. | System and method for visualizing virtual objects on a mobile device |
US20110316845A1 (en) | 2010-06-25 | 2011-12-29 | Palo Alto Research Center Incorporated | Spatial association between virtual and augmented reality |
KR101325757B1 (ko) * | 2010-07-09 | 2013-11-08 | 주식회사 팬택 | 가상 마커 생성을 이용한 증강 현실 제공 장치 및 방법 |
KR101197630B1 (ko) | 2010-09-08 | 2012-11-07 | (주)더힘스 | 현재 제공되는 공통 콘텐츠에 관련된 증강 콘텐츠를 개인용 단말기로 제공하기 위한 시스템 및 방법 |
KR20130000160A (ko) * | 2011-06-22 | 2013-01-02 | 광주과학기술원 | 사용자 적응형 증강현실 이동통신 장치와 서버 및 그 방법 |
KR101126449B1 (ko) | 2011-06-30 | 2012-03-29 | 양재일 | 증강 현실 서비스 시스템 및 방법 |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
KR20140071417A (ko) * | 2011-09-07 | 2014-06-11 | 밀레니얼 미디어 | 그래프 모델을 이용하여 유도된 인터넷 연결 가능한 장치와 관련된 정보 데이터에 기초하여 데이터 네트워크를 이용하는 모바일 광고 |
US20130179925A1 (en) * | 2012-01-06 | 2013-07-11 | United Video Properties, Inc. | Systems and methods for navigating through related content based on a profile associated with a user |
US9389420B2 (en) * | 2012-06-14 | 2016-07-12 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
US9767720B2 (en) * | 2012-06-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Object-centric mixed reality space |
US9058660B2 (en) * | 2012-11-21 | 2015-06-16 | Gravity Jack, Inc. | Feature searching based on feature quality information |
US9240075B2 (en) | 2013-03-15 | 2016-01-19 | Daqri, Llc | Campaign optimization for experience content dataset |
-
2013
- 2013-03-15 US US13/839,968 patent/US9240075B2/en not_active Expired - Fee Related
-
2014
- 2014-03-12 AU AU2014235442A patent/AU2014235442B2/en not_active Ceased
- 2014-03-12 NZ NZ713292A patent/NZ713292A/en not_active IP Right Cessation
- 2014-03-12 KR KR1020157029846A patent/KR101667899B1/ko active IP Right Grant
- 2014-03-12 EP EP14768345.2A patent/EP2973355B1/en not_active Not-in-force
- 2014-03-12 JP JP2016501621A patent/JP6013642B2/ja active Active
- 2014-03-12 WO PCT/US2014/024728 patent/WO2014150995A1/en active Application Filing
-
2016
- 2016-01-15 US US14/996,958 patent/US9760777B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016518647A5 (ja) | ||
US11043031B2 (en) | Content display property management | |
US11127210B2 (en) | Touch and social cues as inputs into a computer | |
US10810797B2 (en) | Augmenting AR/VR displays with image projections | |
CN106575450B (zh) | 通过反照率模型、系统和方法的增强现实内容渲染 | |
US10055888B2 (en) | Producing and consuming metadata within multi-dimensional data | |
US9659381B2 (en) | Real time texture mapping for augmented reality system | |
JP2016521882A5 (ja) | ||
GB2590212A9 (en) | Augmented reality multi-plane model animation interaction method and device, apparatus, and storage medium | |
EP3007038A3 (en) | Interaction with three-dimensional video | |
WO2018125742A3 (en) | Dynamic depth-based content creation in virtual reality environments | |
NZ715232A (en) | Data manipulation based on real world object manipulation | |
JP2016512363A5 (ja) | ||
US10043317B2 (en) | Virtual trial of products and appearance guidance in display device | |
GB2507830A8 (en) | System and Method of Image Augmentation | |
EP2783812A3 (en) | Robot device and method for manufacturing an object | |
JP2014203377A5 (ja) | ||
WO2016025811A3 (en) | Spatial data visualization | |
EP2506222A3 (en) | Augmented reality apparatus, method and program | |
JP2014225229A5 (ja) | ||
WO2013028813A1 (en) | Implicit sharing and privacy control through physical behaviors using sensor-rich devices | |
Jia et al. | 3D image reconstruction and human body tracking using stereo vision and Kinect technology | |
US9424689B2 (en) | System,method,apparatus and computer readable non-transitory storage medium storing information processing program for providing an augmented reality technique | |
JP2016514865A5 (ja) | ||
JP2013161391A5 (ja) |