KR20150132526A - 체험 콘텐츠 데이터세트에 대한 캠페인 최적화 - Google Patents

체험 콘텐츠 데이터세트에 대한 캠페인 최적화

Info

Publication number
KR20150132526A
KR20150132526A KR1020157029846A KR20157029846A KR20150132526A KR 20150132526 A KR20150132526 A KR 20150132526A KR 1020157029846 A KR1020157029846 A KR 1020157029846A KR 20157029846 A KR20157029846 A KR 20157029846A KR 20150132526 A KR20150132526 A KR 20150132526A
Authority
KR
South Korea
Prior art keywords
data set
virtual object
content
content data
experience
Prior art date
Application number
KR1020157029846A
Other languages
English (en)
Other versions
KR101667899B1 (ko
Inventor
브라이언 뮬린스
Original Assignee
데크리, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=51525472&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR20150132526(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 데크리, 엘엘씨 filed Critical 데크리, 엘엘씨
Publication of KR20150132526A publication Critical patent/KR20150132526A/ko
Application granted granted Critical
Publication of KR101667899B1 publication Critical patent/KR101667899B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

캠페인 최적화를 위한 서버가 설명된다. 디바이스의 증강 현실 애플리케이션을 위한 체험 콘텐츠 데이터세트가 분석론 결과들에 기초하여 생성된다. 분석론 결과들은 디바이스로부터 수신되는 분석론 데이터에 기초하여 생성된다. 체험 콘텐츠 데이터세트는 디바이스에 제공된다. 디바이스는, 체험 콘텐츠 데이터세트의 콘텐츠 식별자를 인식하고, 콘텐츠 식별자와 관련된 가상 오브젝트 콘텐츠의 제시에 의해 대화형 체험을 생성한다.

Description

체험 콘텐츠 데이터세트에 대한 캠페인 최적화{CAMPAIGN OPTIMIZATION FOR EXPERIENCE CONTENT DATASET}
<우선권 출원>
본 출원은 2013년 3월 15일자 출원된 미국 출원 제13/839,968호의 우선의 이익을 주장하며, 이는 그 전부가 본 명세서에 참조로써 원용된다.
본 명세서에 개시되는 주제는 일반적으로 데이터의 처리에 관한 것이다. 구체적으로, 본 개시내용은 체험 콘텐츠 데이터세트에 대한 캠페인 최적화를 위한 시스템들 및 방법들을 다룬다.
하나의 디바이스는 해당 디바이스에 의해 캡쳐되는 이미지에 기초하여 추가적인 데이터를 생성하는데 사용될 수 있다. 예를 들어, AR(Augmented Reality)은, 사운드, 비디오, 그래픽 또는 GPS 데이터와 같은 컴퓨터 생성된 감각 입력에 의해 그 엘리먼트들이 증강되는, 물리적 실세계 환경의, 라이브, 직접 또는 간접, 뷰(view)이다. 증진된 AR 기술(예를 들어, 컴퓨터 비전 및 오브젝트 인식)의 도움으로, 사용자의 주변 실세계에 대한 정보가 대화형이 된다. 환경 및 그 오브젝트들에 대한 인공 정보가 실세계 상에 오버레이될 수 있다.
첨부 도면들의 도면에서 일부 실시예들이 제한이 아니라 예로써 도시된다.
도 1은, 일부 예시적인 실시예들에 따라, 캠페인 최적화기를 동작하는데 적합한 네트워크의 일 예를 도시하는 블럭도이다.
도 2는, 일부 예시적인 실시예들에 따라, 서버의 모듈들(예를 들어, 컴포넌트들)을 도시하는 블럭도이다.
도 3은, 일부 예시적인 실시예들에 따라, 캠페인 최적화기의 모듈들(에를 들어, 컴포넌트들)을 도시하는 블럭도이다.
도 4는, 일부 예시적인 실시예들에 따라, 캠페인 최적화기의 동작의 일 예를 도시하는 블럭도이다.
도 5는, 일부 예시적인 실시예들에 따라, 분석론 계산의 동작의 일 예를 도시하는 블럭도이다.
도 6은, 일부 예시적인 실시예들에 따라, 디바이스의 모듈들(예를 들어, 컴포넌트들)을 도시하는 블럭도이다.
도 7은, 일부 예시적인 실시예들에 따라, 정황 로컬 이미지 인식 모듈의 모듈들(예를 들어, 컴포넌트들)을 도시하는 블럭도이다.
도 8은, 일부 예시적인 실시예들에 따라, 분석론 추적 모듈의 모듈들(예를 들어, 컴포넌트들)을 도시하는 블럭도이다.
도 9는, 일부 예시적인 실시예들에 따라, 최적화 캠페인의 생성 및 활용의 일 예를 도시하는 개략도이다.
도 10은, 일부 예시적인 실시예들에 따라, 캠페인을 최적화하는 예시적인 방법을 도시하는 흐름도이다.
도 11은, 일부 예시적인 실시예들에 따라, 캠페인을 최적화하는 다른 예시적인 방법을 도시하는 흐름도이다.
도 12는, 머신 판독 가능 매체로부터 명령어들을 판독하고, 본 명세서에 논의되는 방법론들 중 임의의 하나 이상을 수행할 수 있는, 일부 예시적인 실시예들에 따른, 머신의 컴포넌트들을 도시하는 블럭도이다.
예시적인 방법들 및 시스템들은 체험 콘텐츠 데이터세트에 대한 캠페인 최적화에 관한 것이다. 예들은 단지 가능한 변형들을 대표한다. 명시적으로 달리 언급되지 않는 한, 컴포넌트들 및 기능들은, 옵션이고, 조합 또는 세분될 수 있으며, 동작들은, 순서가 변경될 수 있거나, 또는 조합 또는 세분될 수 있다. 이하의 설명에서, 설명의 목적들로, 다수의 특정 세부사항들은 예시적인 실시예들의 완전한 이해를 제공하기 위해 제시된다. 그러나, 본 주제가 이들 특정 세부사항들 없이도 실시될 수 있다는 점이 본 분야의 숙련된 자에게 명백할 것이다.
캠페인 최적화를 위한 서버가 설명된다. 디바이스의 증강 현실 애플리케이션을 위한 체험 콘텐츠 데이터세트가 분석론 결과들에 기초하여 생성된다. 분석론 결과들은 디바이스로부터 수신되는 분석론 데이터에 기초하여 생성된다. 체험 콘텐츠 데이터세트는 디바이스에 제공된다. 디바이스는, 체험 콘텐츠 데이터세트의 콘텐츠 식별자를 인식하고, 콘텐츠 식별자와 관련된 가상 오브젝트 콘텐츠의 제시에 의해 대화형 체험을 생성한다.
증강 현실 애플리케이션들은, 디바이스의 카메라에 의해 캡쳐되는 물리적 오브젝트의 사진 상에 오버레이되는 3차원 가상 오브젝트의 형태에서와 같이, 사용자가 추가 정보를 체험하게 한다. 물리적 오브젝트는 증강 현실 애플리케이션이 식별하고 인식할 수 있는 시각 기준(콘텐츠 식별자라고도 함)을 포함할 수 있다. 물리적 오브젝트의 이미지와 맞물리는 3차원 가상 오브젝트와 같은, 추가 정보의 시각화가 디바이스의 디스플레이에 생성된다. 3차원 가상 오브젝트는 인식된 시각 기준에 기초할 수 있다. 3차원 가상 오브젝트의 시각화의 렌더링은 시각 기준에 대한 디스플레이의 위치에 기초할 수 있다.
서버는 디바이스에 대한 분석론 결과들을 액세스할 수 있다. 일 실시예에서, 서버는 디바이스에 대한 분석론 결과들에 기초하여 체험 콘텐츠 데이터세트에 대해 새로운 체험 콘텐츠 데이터세트를 구축할 수 있다. 다른 실시예에서, 서버는 디바이스에 대한 분석론 결과들에 기초하여 원본 체험 콘텐츠 데이터세트를 체험 콘텐츠 데이터세트로 수정한다.
서버는 체험 콘텐츠 데이터세트를 사용하여 가상 오브젝트 모델을 생성할 수 있다. 가상 오브젝트 모델은 콘텐츠 식별자로서 인식되는 물리적 오브젝트에 대한 디바이스의 위치에 기초하여 디바이스의 디스플레이에서 렌더링될 수 있다. 가상 오브젝트의 제시는 디바이스에 의해 캡쳐되는 물리적 오브젝트의 실시간 이미지에 기초할 수 있다. 가상 오브젝트 모델은 물리적 오브젝트의 이미지와 관련될 수 있다.
일 실시예에서, 서버는, 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 디바이스의 자세 추정 데이터, 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 디바이스의 자세 지속시간 데이터, 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 디바이스의 자세 방향 데이터, 및 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 디바이스의 자사 상호작용 데이터를 수신할 수 있다. 자세 추정 데이터는 디바이스에 의해 조준되는 물리적 또는 가상 오브젝트 상의 위치를 포함할 수 있다. 자세 지속시간 데이터는 디바이스가 물리적 또는 가상 오브젝트 상의 동일한 위치에 조준되는 지속시간을 포함할 수 있다. 자세 방향 데이터는 물리적 또는 가상 오브젝트에 조준되는 디바이스의 방향을 포함할 수 있다. 자세 상호작용 데이터는 물리적 오브젝트에 대응하는 가상 오브젝트에 대한 디바이스 상의 사용자의 상호작용들을 포함할 수 있다.
일 실시예에서, 콘텐츠 식별자는 2차원 이미지 또는 3차원 오브젝트 모델을 포함할 수 있다. 가상 오브젝트 콘텐츠는 2차원 또는 3차원 가상 오브젝트 모델을 포함할 수 있다. 체험 생성기는 체험 콘텐츠 데이터세트를 생성하기 위해 콘텐츠 식별자를 가상 오브젝트 콘텐츠와 관련시킬 수 있다.
일 실시예에서, 2차원 또는 3차원 가상 오브젝트 모델은, 디바이스 상의 사용자로부터의 상호작용에 응답하여 2차원 또는 3차원 가상 오브젝트 모델의 상태를 변경하는 적어도 하나의 대화형 특징을 갖는다. 서버는 분석론 결과들에 기초하여 체험 콘텐츠 데이터세트로부터 가상 오브젝트 콘텐츠의 대화형 특징을 변경할 수 있다.
일 실시예에서, 분석론 데이터는 디바이스의 사용 조건들을 포함할 수 있고, 디바이스의 사용 조건들은, 디바이스의 사용자의 소셜 정보, 증강 현실 애플리케이션을 사용하는 디바이스의 위치 사용 정보 및 시간 정보를 포함한다.
다른 실시예에서, 서버는 또한 디바이스로부터 수신되는 분석론 데이터에 기초하여 분석론 결과들을 생성할 수 있다. 분석론 결과들은 분석론 결과들에 기초하여 강화된 체험 콘텐츠 데이터세트를 생성하기 위해 캠페인 최적화 모듈에 제공될 수 있다. 예를 들어, 디바이스에서의 체험은 사용자 디바이스 사용 이력, 어느 사진 및 사진의 어느 부분을 겨누도록 사용자가 디바이스를 사용하였는지, 디바이스가 겨누어진 사진의 부분에 대응하는 길이 시간 등에 기초하여 커스터마이징될 수 있다.
도 1은 일부 예시적인 실시예들에 따른, 디바이스의 증강 현실 애플리케이션을 구동하는데 적합한 네트워크 환경(100)을 도시하는 네트워크 도면이다. 네트워크 환경(100)은 네트워크(108)를 통해 서로 통신가능하게 결합된, 디바이스(101), 클라이언트(112), 및 서버(110)를 포함한다. 디바이스(101), 클라이언트(112) 및 서버(110)는 도 12에 관련하여 이하 기술된 바와 같이, 컴퓨팅 시스템에서, 전체적으로 또는 부분적으로, 각각 구현될 수 있다.
서버(110)는 네트워크 기반 시스템의 일부일 수 있다. 예를 들어, 네트워크 기반 시스템은 체험 콘텐츠 데이터세트에 대해 캠페인 최적화를 제공하는 클라우드 기반 서버 시스템일 수 있거나 이를 포함할 수 있다. 클라이언트(112)는 특정 독자들 또는 사용자들을 타겟으로 하는 프로그래매틱 클라이언트 또는 웹 브라우저를 통해 서버(110)에서의 캠페인 최적화 모듈에 액세스할 수 있다.
사용자(102)는 서버(110)에 의해 생성된 체험 콘텐츠 데이터세트에 의해 생성된 상호작용 콘텐츠를 체험하기 위한 디바이스(101)를 사용할 수 있다. 다른 예에서, 사용자(102)는 디바이스(101) 상에 상호작용 콘텐츠를 생성하기 위해 서버(110)의 콘텐츠 생성 도구를 사용하는 클라이언트(112)를 이용할 수 있다. 사용자는 인간 사용자(예를 들어, 인간), 머신 사용자(예를 들어, 디바이스(101)와 상호작용하기 위한 소프트웨어 프로그램에 의해 구성된 컴퓨터), 또는 이들의 임의의 적절한 조합(예를 들어, 머신에 의해 도움받는 인간 또는 인간에 의해 감독받는 머신)일 수 있다. 사용자(102)는 네트워크 환경(100)의 일부가 아니지만, 디바이스(101)와 관련되고 디바이스(101)의 사용자일 수 있다. 예를 들어, 디바이스(101)는 데스크톱 컴퓨터, 차량용 컴퓨터, 태블릿 컴퓨터, 네비게이션 디바이스, 휴대용 미디어 디바이스 또는 사용자(102)가 소유한 스마트 폰일 수 있다.
사용자(102)는 디바이스(101)에서 애플리케이션의 사용자일 수 있다. 애플리케이션은 2차원 물리적 오브젝트(104)(예를 들어, 사진) 또는 3차원 물리적 오브젝트(106)(예를 들어, 자동차)을 트리거하는 체험을 사용자(102)에게 제공하도록 구성되는 증강 현실 애플리케이션을 포함할 수 있다. 예를 들어, 사용자(102)는 2차원 물리적 오브젝트(104)의 이미지를 캡쳐하기 위해 디바이스(101)의 렌즈를 조준할 수 있다. 이미지는 디바이스(101)의 증강 현실 애플리케이션의 로컬 텍스트 인식 데이터세트 모듈을 이용하여 디바이스(101)에서 로컬 인식된다. 다음으로, 증강 현실 애플리케이션은 인식된 이미지를 식별한 것에 응답하여 디바이스(101)의 디스플레이에서 추가적인 정보(예를 들어, 상호작용 3차원 모델)을 생성한다. 캡쳐된 이미지가 디바이스(101)에서 로컬 인식되지 않는 경우, 디바이스(101)는 네트워크(108)를 통해 서버(110)의 데이터베이스로부터, 캡쳐된 이미지에 대응하는 3차원 모델을 다운로드한다.
디바이스(101)는 사용법에 대한 추가적인 분석 및 사용자(102)가 물리적 오브젝트를 어떻게 사용할 것인지에 대한 분석 데이터를 서버(110)에 캡쳐하고 제출할 수 있다. 예를 들어, 특히 사용자(102)가 바라본 물리적 또는 가상 오브젝트에 대해서, 사용자(102)가 물리적 또는 가상 오브젝트에 대한 각각의 위치를 얼마나 오래 보았는지, 사용자(102)가 물리적 또는 가상 오브젝트를 보고 있을 때 디바이스(101)를 어떻게 잡고 있는지, 가상 오브젝트의 어느 특징이 사용자(102)와 상호작용하는지(예를 들어, 가상 오브젝트에서 링크 상에 사용자가 탭(tap)했는지의 여부와 같은)에 대한 분석 데이터가 포함될 수 있다. 분석 데이터는 분석 데이터의 분석에 기초하여 향상된 콘텐츠 데이터세트 또는 변형된 콘텐츠 데이터세트를 생성하기 위해 서버(110)에서 처리될 수 있다. 디바이스(101)는 향상된 콘텐츠 데이터세트에 기초하여 추가적이거나 향상된 특징들 또는 새로운 체험으로 가상 오브젝트를 수신하고 생성할 수 있다.
도 1에 나타낸 임의의 머신들, 데이터베이스들 또는 디바이스들은 그 머신, 데이터베이스 또는 디바이스가 본 명세서에 기술되는 기능들 중 하나 이상을 수행하기 위해 소프트웨어에 의해 변형되어(예를 들어, 구성되거나 프로그램되어) 특수 목적의 컴퓨터가 될 범용 컴퓨터에서 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 방법론들 중 임의의 하나 이상을 구현시키는 것이 가능한 컴퓨터 시스템은 도 12를 참조하여 하기 논의된다. 본 명세서에 사용된 바와 같이, "데이터베이스"는 데이터 스토리지 리소스이며 텍스트 파일, 테이블, 스프레드시트, 관계 데이터베이스(예를 들어, 오브젝트 관계 데이터베이스), 트리플 스토리지, 계층적 데이터 스토리지 또는 이들의 임의의 적절한 조합으로서 구조화된 데이터를 저장할 수 있다. 게다가, 도 1에 예시된 머신들, 데이터베이스들 또는 디바이스들 중 임의의 2개 이상은 단일 머신 내에 통합될 수 있고, 임의의 단일 머신, 데이터베이스 또는 디바이스를 위해 본 명세서에 기술되는 기능들은 다수의 머신들, 데이터베이스들 또는 디바이스들 간에 세분될 수 있다.
네트워크(108)는 머신들(예를 들어, 서버(110)), 데이터베이스들, 및 디바이스들(예를 들어, 디바이스(101)) 사이에서 통신할 수 있는 임의의 네트워크일 수 있다. 따라서, 네트워크(108)는 유선 네트워크, 무선 네트워크(예를 들어, 모바일 또는 셀룰러 네트워크), 또는 이들의 임의의 적절한 조합일 수 있다. 네트워크(108)는 구내 네트워크, 공용 네트워크(예를 들어, 인터넷), 또는 이들의 임의의 적절한 조합을 구성하는 하나 이상의 부분을 포함할 수 있다.
도 2는 일부 예시적인 실시예들에 따른, 서버의 모듈들(예를 들어, 컴포넌트들)을 도시하는 블럭도이다. 서버(110)는 스토리지 디바이스내에 캠페인 최적화 모듈(202), 체험 생성기(204), 분석론 계산 모듈(206) 및 데이터베이스(208)를 포함한다.
캠페인 최적화 모듈(202)은 (디바이스 또는 기타 디바이스들로부터) 분석론 결과들에 기초하여 디바이스(101)의 증강 현실 애플리케이션을 위한 체험 콘텐츠 데이터세트를 생성할 수 있다. 캠페인 최적화 모듈(202)은 도 3을 참조하여 하기 보다 상세히 기술된다.
체험 생성기(204)는 콘텐츠 식별자를 인식하고 디바이스(101)에서 가상 오브젝트 콘텐츠를 갖는 상호작용 체험을 생성하는 디바이스(101)에 체험 콘텐츠 데이터세트를 제공할 수 있다. 일 실시예에서, 체험 생성기(204)는 2차원 물리적 오브젝트(104)(예를 들어, 사진) 또는 3차원 물리적 오브젝트(106)(예를 들어, 자동차)와 같은 물리적 오브젝트에 대한 디바이스(101)의 위치에 기초하여 디바이스(101)의 디스플레이에서 제공될 체험 콘텐츠 데이터세트를 이용하여 가상 오브젝트 모델을 생성한다. 디바이스(101)는 2차원 물리적 오브젝트(104)(예를 들어, 사진) 또는 3차원 물리적 오브젝트(106)(예를 들어, 자동차)를 콘텐츠 식별자로서 인식한다. 가상 오브젝트의 시각화(visualization)는 디바이스(101)에 의해 캡쳐된 물리적 오브젝트의 실시간 이미지와 맞물린 가상 오브젝트 모델에 대응할 수 있다. 가상 오브젝트 모델은 물리적 오브젝트의 이미지에 기초할 수 있다.
분석론 계산 모듈(206)은 디바이스 또는 기타 디바이스들로부터 수신된 분석론 데이터에 따라 동작하여 분석론 결과들을 생성하고, 이 분석론 결과들을 캠페인 최적화 모듈(202)에 제공함으로써, 캠페인 최적화 모듈(202)이 분석론 결과들에 기초하여 새롭거나 수정된 체험 콘텐츠 데이터세트를 생성할 수 있게 한다. 예를 들어, 추가적인 애니메이션 또는 특징은 사용자가 가장 빈번하게 본 위치를 제공하고 이와 연관될 수 있다. 다른 예에서, 개인화된 정보는 사용자의 선호 팀들의 스코어 또는 통계치를 갖는 가상 콘텐츠(가상 빌보드)의 제시시 제공될 수 있다.
일 실시예에서, 분석론 계산 모듈(206)은 디바이스(101)에 의해 캡쳐된 물리적 오브젝트에 대한 디바이스(101)의 자세 추정, 디바이스(101)에 의해 캡쳐된 물리적 오브젝트에 대한 디바이스(101)의 자세 지속시간, 디바이스(101)에 의해 캡쳐된 물리적 오브젝트에 대한 디바이스의 자세 방향, 및 디바이스(101)에 의해 캡쳐된 물리적 오브젝트에 대한 디바이스의 자세 상호작용을 분석한다. 자세 추정은 디바이스에 의해 조준된 물리적 또는 가상 오브젝트 상의 위치를 포함할 수 있다. 자세 지속시간은 디바이스가 물리적 또는 가상 오브젝트 상의 동일 위치를 조준한 지속 시간을 포함할 수 있다. 자세 방향은 물리적 또는 가상 오브젝트를 조준한 디바이스의 방향을 포함할 수 있다. 자세 상호작용은 물리적 오브젝트에 대응하는 가상 오브젝트에 대한 디바이스상의 사용자의 상호작용을 포함할 수 있다.
데이터베이스(208)는 체험 콘텐츠 데이터세트(212)와, 분석론 및 결과 데이터(214)를 포함할 수 있다.
체험 콘텐츠 데이터세트(212)는 콘텐츠 생성 도구를 이용하는 콘텐츠 생성 템플릿 데이터에 기초하여 생성된 데이터세트들을 포함할 수 있다. 예를 들어, 데이터세트들은 대화형 가상 콘텐츠들과 대응하는 물리적 콘텐츠들의 테이블을 포함할 수 있다.
분석론 및 결과 데이터(214)는 디바이스들로부터 수신된 분석론 데이터를 포함할 수 있다. 예를 들어, 분석론 데이터는 다른 것들 중에서, 자세 추정 데이터, 자세 지속시간 데이터, 자세 방향 데이터, 자세 상호작용 데이터, 감정 데이터를 포함할 수 있다. 분석론 및 결과 데이터(214)는 분석론 계산 모듈(206)에 의한 분석론 데이터의 분석으로부터의 결과 데이터를 포함할 수 있다. 결과 데이터는 매우 빈번하게 사용된 특징들을 포함할 수 있거나 체험 콘텐츠 데이터세트(212) 중 하나로부터 생성된 가상 콘텐츠의 위치에서 가장 빈번하게 본 것을 포함할 수 있다.
도 3은 일부 예시적인 실시예들에 따른, 캠페인 최적화 모듈(202)의 모듈들(예를 들어, 컴포넌트들)을 도시하는 블럭도이다. 캠페인 최적화 모듈(202)은 분석론 검색기(302), 체험 콘텐츠 데이터세트 구축기(306), 및 체험 콘텐츠 데이터세트 수정기(304)를 포함한다.
일 실시예에서, 분석론 검색기(302)는 디바이스(101)에 대한 분석론 결과를 액세스한다. 체험 콘텐츠 데이터세트 구축기(306)는 디바이스(101)에 대한 분석론 결과에 기초하여 체험 콘텐츠 데이터세트에 대한 새로운 체험 콘텐츠 데이터세트를 구축한다. 체험 콘텐츠 데이터세트 수정기(304)는 원본 체험 콘텐츠 데이터세트를 디바이스(101)에 대한 분석론 결과에 기초하여 체험 콘텐츠 데이터세트로 수정한다.
다른 실시예에서, 분석론 검색기(302)는 콘텐츠 식별자에 의해 이전에 생성된 상호작용 체험을 갖는 디바이스들로부터의 분석론 결과 및 분석론 데이터를 액세스한다. 체험 콘텐츠 데이터세트 구축기(306)는 콘텐츠 식별자에 의해 이전에 생성된 상호작용 체험을 갖는 디바이스들에 대한 분석론 결과 및 분석론 데이터에 기초하여 체험 콘텐츠 데이터세트에 대한 새로운 체험 콘텐츠 데이터세트를 구축할 수 있다. 체험 콘텐츠 데이터세트 수정기(304)는 콘텐츠 식별자에 의해 이전에 생성된 상호작용 체험을 갖는 디바이스들에 대한 분석론 결과 및 분석론 데이터에 기초하여 원본 체험 콘텐츠 데이터세트를 체험 콘텐츠 데이터세트로 수정할 수 있다.
일 실시예에서, 콘텐츠 식별자는 2차원 이미지 또는 3차원 오브젝트 모델을 포함한다. 가상 오브젝트 콘텐츠는 2차원 또는 3차원 오브젝트 모델을 포함할 수 있다. 체험 생성기(204)는 체험 콘텐츠 데이터세트를 생성하기 위해 가상 오브젝트 콘텐츠와 콘텐츠 식별자를 연관시킬 수 있다.
도 4는 일부 예시적인 실시예들에 따른, 캠페인 최적화 모듈(202)의 동작의 예를 도시하는 블럭도이다. 캠페인 최적화 모듈(202)은 분석론 계산 모듈(206)에 의해 처리된 분석론 데이터(402)와 분석론 결과를 수신한다.
체험 콘텐츠 데이터세트 구축기(306)는 디바이스(101)에 대한 또는 기타 디바이스들에 대한 분석론 데이터(402) 또는 분석론 결과(404)에 기초하여 새로운 체험 콘텐츠 데이터세트로서 최적화된 체험 콘텐츠 데이터세트(408)를 구축한다. 예를 들어, 체험 콘텐츠 데이터베이스 구축기(306)는 분석론 데이터(402)와 분석론 데이터(404)에 기초하여 선택된 3차원 가상 콘텐츠(예를 들어, 애니메이션화된 특징들을 갖는 3차원 가상 자동차)와 2차원 가상 콘텐츠(예를 들어, 사진)를 액세스한다. 체험 콘텐츠 데이터세트 구축기(306)는 최적화된 체험 콘텐츠 데이터세트(408)를 생성하기 위해 가상 콘텐츠 모듈과 물리적 콘텐츠 모델을 연관시킨다. 최적화된 체험 콘텐츠 데이터세트(408)는 디바이스(101)가 최적화된 체험 콘텐츠 데이터세트(408)로부터 스캐닝된 사진를 인식하도록 디바이스(101)에 통신될 수 있다. 인식된 스캐닝된 사진에 대응하는 체험은 디바이스(101)에서 생성된다. 체험은 사용자(102)가 디바이스(101)의 사용자에게 적절한 가상 오브젝트의 특정한 상호작용 특징들 또는 레이아웃과 상호작용할 수 있게 하는 것을 포함할 수 있다. 가상 오브젝트의 특정한 상호작용 특징들 또는 레이아웃은 디바이스(101)의 디스플레이에서 스캐닝된 사진의 실시간 표현과 결합하여 제공된다.
체험 콘텐츠 데이터세트 수정기(304)는 디바이스(101)에 대한 또는 기타 디바이스들에 대한 분석론 데이터(402) 또는 분석론 결과(404)에 기초하여 기존 원본 체험 콘텐츠 데이터세트(406)를 최적화된 체험 콘텐츠 데이터세트로 수정한다. 예를 들어, 체험 콘텐츠 데이터세트 수정기(304)는 기존 원본 체험 콘텐츠 데이터세트(406)의 3차원 가상 콘텐츠(예를 들어, 애니메이션화된 특징들을 갖는 3차원 가상 자동차) 및 2차원 가상 콘텐츠(예를 들어, 사진)를 액세스한다. 체험 콘텐츠 데이터세트 수정기(304)는 분석론 데이터(402)와 분석론 데이터(404)에 기초하여 3차원 가상 콘텐츠의 특징 또는 제시를 수정한다. 체험 콘텐츠 데이터세트 구축기(306)는 최적화된 체험 콘텐츠 데이터세트(408)를 생성하기 위해 수정된 가상 콘텐츠 모듈과 물리적 콘텐츠 모델을 연관시킨다. 최적화된 체험 콘텐츠 데이터세트(408)는 디바이스(101)가 최적화된 체험 콘텐츠 데이터세트(408)로부터 스캐닝된 사진를 인식하도록 디바이스(101)와 통신할 수 있다. 인식된 스캐닝된 사진에 대응하는 체험은 디바이스(101)에서 생성된다. 체험은 사용자(102)가 디바이스(101)의 사용자에 적절한 가상 오브젝트의 수정된 상호작용 특징들 또는 레이아웃과 상호작용할 수 있게 하는 것을 포함할 수 있다. 가상 오브젝트의 수정된 상호작용 특징들 또는 레이아웃은 디바이스(101)의 디스플레이에서 스캐닝된 사진의 실시간 표현과 결합하여 제공된다.
도 5는 일부 예시적인 실시예들에 따른, 분석론 계산 모듈(206)의 동작의 예를 도시하는 블럭도이다. 분석론 계산 모듈(206)은 분석론 데이터(402)에 따라 동작한다. 일 실시예에서, 분석론 데이터(402)는 자세 추정 데이터(502), 자세 지속시간 데이터(508), 자세 방향 데이터(506), 및 자세 상호작용 데이터(508)를 포함한다.
자세 추정 데이터(502)는 디바이스(101)가 조준하고 있는 가상 오브젝트 또는 물리적 오브젝트에 대한 위치를 포함할 수 있다. 예를 들어, 디바이스(101)는 디바이스(101)를 물리적 오브젝트(104)에 조준함으로써 생성된 가상 조각의 상부에 조준할 수 있다. 다른 예에서, 디바이스(101)는 매거진의 사진에서 사람의 신발들에 조준할 수 있다.
자세 지속시간 데이터(504)는 디바이스(101)가 물리적 또는 가상 오브젝트 상의 동일 위치를 조준하는 지속 시간을 포함할 수 있다. 예를 들어, 자세 지속시간 데이터(504)는 사용자(102)가 매거진에서 사람의 신발들에 디바이스를 조준하고 유지한 시간의 길이를 포함할 수 있다. 신발들에 대한 사용자 감정과 관심은 사용자(102)가 신발들에 조준한 디바이스(101)를 잡고 있었던 시간의 길이에 기초하여 추론될 수 있다.
자세 방향 데이터(506)는 물리적 또는 가상 오브젝트에 조준된 디바이스의 방향을 결정하도록 구성될 수 있다. 예를 들어, 자세 방향 모듈(506)은 사용자(102)가 디바이스(101)를 가로방향 모드로 유지하고 있기 때문에 디바이스(101)의 방향에 기초하여 감정 또는 관심을 추론할 수 있다는 것을 결정할 수 있다.
자세 상호작용 데이터(508)는 물리적 오브젝트에 대응하는 가상 오브젝트에 대한 디바이스(101)상에서 사용자(102)의 상호작용에 대한 데이터를 포함할 수 있다. 예를 들어, 가상 오브젝트는 가상 메뉴들 또는 버튼과 같은 특징들을 포함할 수 있다. 사용자(102)가 가상 버튼을 탭(tap)할 때, 디바이스(101)에서의 브라우저 애플리케이션은 탭된 가상 다이얼로그 박스와 연관되는 미리 선택된 웹사이트를 개시한다. 자세 상호작용 데이터(508)는 사용자(102)가 어느 버튼을 탭했는지, 사용자(102)가 어느 버튼을 얼마나 자주 탭했는지, 각각의 가상 버튼들에 대한 클릭률, 증강된 애플리케이션으로부터 사용자(102)가 방문한 웹사이트들, 기타 등등을 측정하고 결정하는 데이터를 포함할 수 있다.
분석론 계산 모듈(206)은 패턴들, 통계적 알고리즘들을 이용한 동향들을 결정하기 위해 제시된 데이터를 분석한다. 예를 들어, 분석론 계산 모듈(206)은 가장 많이 이용되거나 클릭된 특징들, 가장 많이 또는 가장 적게 클릭된 가상 오브젝트의 컬러들, 가장 많이 본 가상 오브젝트의 지역들, 기타 등등을 결정할 수 있다. 분석론 계산 모듈(206)의 최종적인 계산은 분석론 결과(404)로서 지칭될 수 있다.
도 6은 일부 예시적인 실시예들에 따른, 디바이스(101)의 모듈들(예를 들어, 컴포넌트들)을 도시하는 블럭도이다. 디바이스(101)는 센서들(602), 디스플레이(604), 프로세서(606) 및 스토리지 디바이스(616)를 포함할 수 있다. 예를 들어, 디바이스(101)는 데스크톱 컴퓨터, 차량용 컴퓨터, 태블릿 컴퓨터, 네비게이션 디바이스, 휴대용 미디어 디바이스, 또는 사용자의 스마트 폰일 수 있다. 사용자는 인간 사용자(예를 들어, 인간), 머신 사용자(예를 들어, 디바이스(101)와 상호작용하기 위한 소프트웨어 프로그램에 의해 구성된 컴퓨터), 또는 이들의 임의의 적절한 조합(예를 들어, 머신에 의해 도움받는 인간 또는 인간에 의해 감독받는 머신)일 수 있다.
센서들(602)은 예를 들어, 근접 센서, 광센서(예를 들어, CCD(charged-coupled device)), 방향 센서(예를 들어, 자이로스코프), 오디오 센서(예를 들어, 마이크로폰)을 포함할 수 있다. 예를 들어, 센서들(602)은 디바이스(101)에서 후방 카메라 및 전방 카메라를 포함할 수 있다. 본 명세서에 기술되는 센서들은 예시적인 설명을 위한 것이기에 센서들(602)은 기술된 것들에 제한되지 않는 것에 유의해야 한다.
디스플레이(604)는 예를 들어, 터치스크린 디스플레이 상에서 접촉을 통해 사용자 입력을 수신하도록 구성된 터치스크린 디스플레이를 포함할 수 있다. 다른 예에서, 디스플레이(604)는 프로세서(606)에 의해 생성된 디스플레이 이미지들로 구성된 스크린 또는 모니터를 포함할 수 있다.
프로세서(606)는 정황 로컬 이미지 인식 모듈(608), 증강 현실 애플리케이션(609)과 같은 소비 애플리케이션, 및 분석론 추적 모듈(618)을 포함할 수 있다.
증강 현실 애플리케이션(609)은 디바이스(101)의 디스플레이(604)에서 디바이스(101)의 카메라에 의해 캡쳐된 물리적 오브젝트의 이미지 상에 오버레이된 3차원 가상 오브젝트의 시각화를 생성할 수 있다. 3차원 가상 오브젝트의 시각화는 디바이스(101)의 카메라에 대한 물리적 오브젝트의 위치를 조정함으로써 조작될 수 있다. 유사하게, 3차원 가상 오브젝트의 시각화는 물리적 오브젝트에 대한 디바이스(100)의 위치를 조정함으로써 조작될 수 있다.
일 실시예에서, 증강 현실 애플리케이션(609)은 캡쳐된 이미지와 연관되는 가상 오브젝트들의 3차원 모델들을 검색하기 위해 디바이스(101)에서 정황 로컬 이미지 인식 데이터세트 모듈(608)과 통신한다. 예를 들어, 캡쳐된 이미지는 식별가능한 이미지, 심볼, 문자, 넘버, 머신 판독가능 코드로 구성된 시각 기준(표지(marker)라고도 함)을 포함할 수 있다. 예를 들어, 시각 기준은 3차원 가상 오브젝트와 이전에 연관되었던 바 코드, QR 코드 또는 이미지를 포함할 수 있다.
다른 실시예에서, 증강 현실 애플리케이션(609)은 사용자가 체험을 가상 메뉴로부터 선택할 수 있게 허용할 수 있다. 체험은 상이한 가상 오브젝트 콘텐츠를 포함할 수 있다.
정황 로컬 이미지 인식 데이터세트 모듈(608)은 캡쳐된 이미지가 디바이스(101)상에 대응하는 추가적인 정보(예를 들어, 3차원 모델 및 상호작용 특징들) 및 이미지들의 로컬 데이터베이스에 로컬 저장된 이미지와 일치하는지를 결정하도록 구성될 수 있다. 일 실시예에서, 정황 로컬 이미지 인식 모듈(608)은 서버(110)로부터의 1차 콘텐츠 데이터세트를 검색하고, 디바이스(101)에 의해 캡쳐된 이미지에 기초한 정황 콘텐츠 데이터세트를 생성하고 업데이트한다.
분석론 추적 모듈(618)은 사용자(102)가 물리적 오브젝트와 어떻게 맞물려 있는지에 관한 분석론 데이터를 추적할 수 있다. 예를 들어, 분석론 추적 모듈(618)은 사용자(102)가 바라본 물리적 또는 가상 오브젝트에 대해서, 사용자(102)가 물리적 또는 가상 오브젝트에 대한 각각의 위치를 얼마나 오래 보았는지, 사용자(102)가 물리적 또는 가상 오브젝트를 보고 있을 때 디바이스(101)를 어떻게 잡고 있는지, 가상 오브젝트의 어느 특징이 사용자(102)와 상호작용하는지(예를 들어, 가상 오브젝트에서 링크 상에 사용자가 탭(tap)했는지의 여부와 같은)를 추적할 수 있다.
스토리지 디바이스(616)는 시각 기준들(예를 들어, 이미지들)과 대응하는 체험들(예를 들어, 3차원 가상 오브젝트들, 3차원 가상 오브젝트들의 상호작용 특징들)의 데이터베이스를 저장하도록 구성될 수 있다. 예를 들어, 시각 기준은 머신 판독가능 코드 또는 이전에 식별된 이미지(예를 들어, 신발의 사진)를 포함할 수 있다. 이전에 식별된 신발의 이미지는 신발의 사진에 대해 디바이스(101)의 위치를 조작함으로써 상이한 각도로부터 보여질 수 있는 신발의 3차원 가상 모델에 대응할 수 있다. 3차원 가상 신발의 특징들은 신발의 3차원 가상 모델에 대해 선택가능한 아이콘들을 포함할 수 있다. 아이콘은 디바이스(101)상에서 탭하거나 이동시킴으로써 선택되거나 활성화된다.
일 실시예에서, 스토리지 디바이스(604)는 1차 콘텐츠 데이터세트(610), 정황 콘텐츠 데이터세트(612), 향상된 콘텐츠 데이터세트(622), 및 분석론 데이터(620)를 포함한다.
1차 콘텐츠 데이터세트(610)는 예를 들어, 제1 세트의 이미지들과 대응하는 체험들(예를 들어, 상호작용 3차원 가상 오브젝트 모델들)을 포함한다. 1차 콘텐츠 데이터세트(610)는 서버(110)에 의해 결정되는 이미지들의 핵심 세트 또는 가장 인기있는 이미지들을 포함할 수 있다. 이미지들의 핵심 세트는 서버(110)에 의해 식별된 제한된 수의 이미지들을 포함할 수 있다. 예를 들어, 이미지들의 핵심 세트는 10개의 가장 인기있는 매거진들과 대응하는 체험들(예를 들어, 가상 오브젝트들)의 커버 이미지를 포함할 수 있다. 다른 예에서, 서버(110)는 가장 인기있는 것에 기초한 제1 세트의 이미지들 또는 서버(110)에서 수신된 수시로 스캐닝된 이미지들을 생성할 수 있다.
정황 콘텐츠 데이터세트(612)는 예를 들어, 서버(110)로부터 검색된 제2 세트의 이미지들과 대응하는 체험들(예를 들어, 3차원 가상 오브젝트 모델들)을 포함한다. 예를 들어, 1차 콘텐츠 데이터세트(610)에서 인식되지 않은 디바이스(101)에 의해 캡쳐된 이미지들은 인식을 위해 서버(110)에 제출된다. 캡쳐된 이미지가 서버에 의해 인식되면, 대응하는 체험은 디바이스(101)에 다운로드되고 정황 콘텐츠 데이터세트(612)에 저장될 수 있다.
분석론 데이터(620)는 분석론 추적 모듈(618)에 의해 수집된 분석론 데이터에 대응한다.
향상된 콘텐츠 데이터세트(622)는 예를 들어, 분석론 추적 모듈(618)에 의해 수집된 분석론 데이터에 기초하여 서버(110)로부터 다운로드된 향상된 세트의 이미지들과 대응하는 체험들을 포함한다. 일 실시예에서, 향상된 콘텐츠 데이터세트(622)는 최적화된 체험 콘텐츠 데이터세트(408)를 포함할 수 있다.
일 실시예에서, 디바이스(101)는 시각 기준들, 대응하는 3차원 가상 오브젝트들, 3차원 가상 오브젝트들의 대응하는 상호작용 특징들의 데이터베이스의 일부를 검색하기 위해 서버(110)와 네트워크(108)를 통해 통신할 수 있다. 네트워크(108)는 머신들, 데이터베이스들, 및 디바이스들(예를 들어, 디바이스(101)) 간에 또는 사이에서 통신할 수 있는 임의의 네트워크일 수 있다. 따라서, 네트워크(108)는 유선 네트워크, 무선 네트워크(예를 들어, 모바일 또는 셀룰러 네트워크) 또는 이들의 임의의 적절한 조합일 수 있다. 네트워크는 구내 네트워크, 공용 네트워크(예를 들어, 인터넷) 또는 이들의 임의의 적절한 조합을 구성하는 하나 이상의 부분들을 포함할 수 있다.
본 명세서에 기술되는 임의의 하나 이상의 모듈은 하드웨어(예를 들어, 머신의 프로세서) 또는 하드웨어와 소프트웨어의 조합을 이용하여 구현될 수 있다. 예를 들어, 본 명세서에 기술되는 임의의 모듈은 그 모듈이 본 명세서에 기술되는 동작을 수행하기 위한 프로세서를 구성할 수 있다. 게다가, 임의의 2개 이상의 모듈은 단일 모듈에 결합될 수 있고, 단일 모듈을 위한 본 명세서에 기술된 기능들은 다수의 모듈들 간에 세분될 수 있다. 게다가, 다양한 예시적인 실시예들에 따르면, 단일 머신, 데이터베이스 또는 디바이스 내에 구현되는 것으로서 본 명세서에 기술된 모듈들은 다수의 머신들, 데이터베이스들 또는 디바이스들을 통하여 분배될 수 있다.
도 7은 일부 예시적 실시예들에 따른, 정황 로컬 이미지 인식 데이터세트 모듈(608)의 모듈들(예를 들어, 컴포넌트들)을 도시하는 블럭도이다. 정황 로컬 이미지 인식 데이터세트 모듈(608)은 이미지 캡쳐 모듈(702), 로컬 이미지 인식 모듈(704), 콘텐츠 요청 모듈(706) 및 정황 콘텐츠 데이터세트 업데이트 모듈(708)을 포함할 수 있다.
이미지 캡쳐 모듈(702)은 디바이스(101)의 렌즈에 의해 이미지를 캡쳐할 수 있다. 예를 들어, 이미지 캡쳐 모듈(702)은 디바이스(101)에 의해 포인팅되는 물리적 오브젝트의 이미지를 캡쳐할 수 있다. 일 실시예에서, 이미지 캡쳐 모듈(702)은 하나의 이미지 또는 일련의 스냅샷을 캡쳐할 수 있다. 다른 실시예에서, 이미지 캡쳐 모듈(702)은, 디바이스(101)가 더 이상 움직이고 있지 않다고 센서들(602)(예를 들어, 진동, 자이로스코프, 나침반 등)이 검출할 때에 이미지를 캡쳐할 수 있다.
로컬 이미지 인식 모듈(704)은 캡쳐된 이미지가 1차 콘텐츠 데이터세트(610)에 저장된 이미지에 대응한다는 것을 결정하고, 디바이스(101)로 캡쳐된 이미지가 디바이스(101)에 저장된 1차 콘텐츠 데이터세트(610)의 이미지들의 세트 중 하나에 대응할 때 디바이스(101)로 캡쳐된 이미지에 대응하는 3차원 가상 오브젝트 모델을 로컬 렌더링한다.
다른 실시예에서, 로컬 이미지 인식 모듈(704)은 캡쳐된 이미지가 정황 콘텐츠 데이터세트(612)에 저장된 이미지에 대응한다는 것을 결정하고, 디바이스(101)로 캡쳐된 이미지가 디바이스(101)에 저장된 정황 콘텐츠 데이터세트(612)의 이미지들의 세트 중 하나에 대응할 때 디바이스(101)로 캡쳐된 이미지에 대응하는 3차원 가상 오브젝트 모델을 로컬 렌더링한다.
콘텐츠 요청 모듈(706)은, 디바이스(101)로 캡쳐된 이미지가 스토리지 디바이스(604)에서의 정황 콘텐츠 데이터세트(612) 및 1차 콘텐츠 데이터세트(612)의 이미지들의 세트 중 하나에 대응하지 않을 때 디바이스(101)로 캡쳐된 이미지에 대응하는 3차원 가상 오브젝트 모델에 대하여 서버(110)에 요청할 수 있다.
정황 콘텐츠 데이터세트 업데이트 모듈(708)은, 콘텐츠 요청 모듈(706)에 의해 생성된 요청에 응답하여, 디바이스(101)로 캡쳐된 이미지에 대응하는 3차원 가상 오브젝트 모델을 서버(110)로부터 수신할 수 있다. 일 실시예에서, 정황 콘텐츠 데이터세트 업데이트 모듈(708)은, 디바이스(101)로 캡쳐된 이미지가 디바이스(101)의 스토리지 디바이스(604)에 로컬 저장된 어떠한 이미지들에도 대응하지 않을 때, 서버(110)로부터의 디바이스(101)로 캡쳐된 이미지에 대응하는 3차원 가상 오브젝트 모델로 정황 콘텐츠 데이터세트(612)를 업데이트할 수 있다.
다른 실시예에서, 콘텐츠 요청 모듈(706)은 디바이스(101)의 이용 상태들을 결정하고, 이러한 이용 상태들에 기초하여 이미지들의 제3 세트 및 대응하는 3차원 가상 오브젝트 모듈들에 대하여 서버(110)로의 요청을 생성할 수 있다. 이용 상태들은 사용자가 언제, 얼마나 자주, 어디에서 그리고 어떻게 디바이스(101)를 이용하고 있는지에 관련될 수 있다. 정황 콘텐츠 데이터세트 업데이트 모듈(708)은 정황 콘텐츠 데이터세트를 이미지들의 제3 세트 및 대응하는 3차원 가상 오브젝트 모델들로 업데이트할 수 있다.
예를 들어, 콘텐츠 요청 모듈(706)은 사용자(102)가 아침 시간에 신문의 페이지들을 스캔한다는 것을 결정한다. 다음에, 콘텐츠 요청 모듈(706)은, 아침의 사용자(102)의 이용에 관련되는 이미지들의 세트 및 대응하는 체험들에 대하여 서버(110)로의 요청을 생성한다. 예를 들어, 콘텐츠 요청 모듈(706)은 사용자(102)가 아침에 스캔할 가능성이 높은 스포츠 기사의 이미지들, 및 기사에 언급된 팀의 대응하는 업데이트된 가상 스코어 보드를 검색할 수 있다. 그 체험은 예를 들어 사용자(102)에 대해 개인화된 판타지 리그 스코어 보드 업데이트를 포함할 수 있다.
다른 예에서, 콘텐츠 요청 모듈(706)은 사용자(102)가 신문의 비즈니스 섹션을 종종 스캔한다는 것을 결정한다. 다음에, 콘텐츠 요청 모듈(706)은 사용자(102)에 관련되는 이미지들의 세트 및 대응하는 체험들에 대하여 서버(110)로의 요청을 생성한다. 예를 들어, 콘텐츠 요청 모듈(706)은, 다음 이슈의 비즈니스 기사들이 이용가능하자마자, 신문의 다음 이슈의 비즈니스 기사들의 이미지들을 검색할 수 있다. 그 체험은 예를 들어 다음 이슈의 비즈니스 기사의 이미지에 대응하는 비디오 리포트를 포함할 수 있다.
또 다른 실시예에서, 콘텐츠 요청 모듈(706)은 디바이스(101)의 사용자(102)의 소셜 정보를 결정하고, 이러한 소셜 정보에 기초하여 다른 이미지들의 세트 및 대응하는 3차원 가상 오브젝트 모델들에 대하여 서버(110)로의 요청을 생성할 수 있다. 소셜 정보는 디바이스(101)에서의 소셜 네트워크 애플리케이션으로부터 획득될 수 있다. 소셜 정보는 디바이스(101)의 증강 현실 애플리케이션(609)을 이용하여 사용자(102)가 체험들을 공유한 사람, 사용자(102)가 상호작용한 사람에 관련될 수 있다. 정황 콘텐츠 데이터세트 업데이트 모듈(708)은 정황 콘텐츠 데이터세트를 다른 이미지들의 세트 및 대응하는 3차원 가상 오브젝트 모델들로 업데이트할 수 있다.
예를 들어, 사용자(102)는 잡지의 수개의 페이지를 스캔하였을 수 있다. 콘텐츠 요청 모듈(706)은, 소셜 네트워크 애플리케이션으로부터, 유사한 관심사들을 공유하고 다른 잡지를 읽는 다른 사용자와 사용자(102)가 친구인 것을 결정한다. 이와 같이, 콘텐츠 요청 모듈(706)은 다른 잡지에 관련된 이미지들의 세트 및 대응하는 체험들에 대하여 서버(110)로의 요청을 생성할 수 있다.
다른 예에서, 사용자(102)가 동일한 잡지로부터 1개 또는 2개의 이미지를 스캔하였다고 콘텐츠 요청 모듈(706)이 결정하는 경우, 콘텐츠 요청 모듈(706)은 동일한 잡지에서 다른 이미지들로부터의 부가적인 콘텐츠에 대한 요청을 생성할 수 있다.
도 8은 일부 예시적인 실시예들에 따른 분석론 추적 모듈(618)의 모듈들(예를 들어, 컴포넌트들)을 도시하는 블럭도이다. 분석론 추적 모듈(618)은 자세 추정 모듈(802), 자세 지속시간 모듈(804), 자세 방향 모듈(806) 및 자세 상호작용 모듈(808)을 포함한다.
자세 추정 모듈(802)은 디바이스(101)가 조준하고 있는 물리적 오브젝트 또는 가상 오브젝트 상의 위치를 검출하도록 구성될 수 있다. 예를 들어, 디바이스(101)는 디바이스(101)가 물리적 오브젝트(104)를 조준하는 것에 의해 생성된 가상 조각의 상부를 조준할 수 있다. 다른 예에서, 디바이스(101)는 잡지의 사진에서의 사람의 신발을 조준할 수 있다.
자세 지속시간 모듈(804)은 디바이스(101)가 물리적 또는 가상 오브젝트 상의 동일한 위치를 조준하고 있는 시간 지속시간을 결정하도록 구성될 수 있다. 예를 들어, 자세 지속시간 모듈(804)은, 사용자(102)가 디바이스로 잡지에서의 사람의 신발을 조준하고 유지한 시간의 길이를 측정할 수 있다. 신발에 대한 감정 및 관심은 사용자(102)가 신발을 조준한 디바이스(101)를 유지한 시간의 길이에 기초하여 추론될 수 있다.
자세 방향 모듈(806)은 물리 또는 가상 오브젝트를 조준한 디바이스의 방향을 결정하도록 구성될 수 있다. 예를 들어, 자세 방향 모듈(806)은, 사용자(102)가 랜드스케이프 모드로 디바이스(101)를 유지하고 있다는 것을 결정할 수 있으며, 따라서 디바이스(101)의 방향에 기초하여 감정 또는 관심을 추론할 수 있다.
자세 상호작용 모듈(808)은, 물리적 오브젝트에 대응하는 가상 오브젝트에 대한 디바이스(101) 상에서의 사용자(102)의 상호작용들을 결정하도록 구성될 수 있다. 예를 들어, 가상 오브젝트는 가상 메뉴나 버튼과 같은 특징들을 포함할 수 있다. 사용자(102)가 가상 버튼을 탭핑할 때, 디바이스(101)에서의 브라우저 애플리케이션은 탭핑된 가상 다이얼로그 박스와 연관되는 미리 선택된 웹사이트로 론칭된다. 자세 상호작용 모듈(408)은 사용자(102)가 어느 버튼들을 탭핑하였는지, 각각의 가상 버튼에 대한 클릭률, 증강 현실 애플리케이션(609)으로부터 사용자(102)에 의해 방문된 웹사이트들 등을 측정 및 결정할 수 있다.
도 9는 일부 예시적인 실시예들에 따라 체험을 소비하는 예를 도시하는 개략도이다. 디바이스(901)는 디바이스(901)에 의해 인식되는 이미지(906)를 갖는 물리적 오브젝트(904)를 포인팅할 수 있다. 디바이스(901)는 디바이스(901)의 분석론 데이터(922)와 함께 이미지의 해시(916)를 서버(110)에 제출한다. 서버(110)는 동일 이미지(906)를 이전에 포인팅하였던 다른 디바이스들(930, 932 및 934)로부터 분석론 데이터(924, 926 및 928)를 또한 수신한다. 다른 실시예에서, 분석론 데이터(924, 926 및 928)는 다른 이미지들 또는 오브젝트들을 이전에 포인팅하였던 디바이스들(930, 932 및 934)로부터의 데이터를 포함한다.
서버(110)에서의 캠페인 최적화 모듈(202)은 디바이스(901)에 대해 맞춤화되는 최적화된 체험 콘텐츠 데이터세트(918)를 생성한다. 디바이스(901)는 디바이스(901)의 디스플레이(902)에서 가상 오브젝트(908)의 표현을 생성한다. 최적화된 체험(920)은, 예를 들어, 특히 디바이스(901)의 사용자에 관련되는 개인화된 관심 포인트들(910, 912 및 914)을 갖는 가상 오브젝트(908)를 포함할 수 있다. 예를 들어, 최적화된 체험 콘텐츠 데이터세트(918)는 사용자에 의해 선호되는 가상 오브젝트 또는 사운드를 포함할 수 있다.
다른 실시예에서, 서버(110)에서의 캠페인 최적화 모듈(202)은 집합적인 분석론 데이터(916, 924, 926 및 928)에 기초하여 최적화된 체험 콘텐츠 데이터세트(918)를 생성한다. 디바이스(901)는 디바이스(901)의 디스플레이(902)에서 가상 오브젝트(908)의 표현을 생성한다. 최적화된 체험(920)은, 예를 들어, 집합적인 분석론 데이터(924, 926 및 928)의 분석으로부터 결정된 바와 같은 가장 인기있는 관심 포인트들(910, 912 및 914)을 갖는 가상 오브젝트(908)를 포함할 수 있다.
다른 실시예에서, 최적화된 체험(920)은, 예를 들어, 3차원 가상 오브젝트(908)의 관심 포인트들(912, 910, 914)에 대해 가장 많이 본 대화형 특징들을 포함할 수 있다. 일 실시예에서, 디바이스에서의 렌더링 엔진은 3차원 가상 오브젝트(908)를 렌더링한다.
도 10은 일부 예시적인 실시예들에 따라 캠페인을 최적화하기 위한 예시적인 방법을 도시하는 플로우차트이다.
동작(1002)에서, 서버의 캠페인 최적화 모듈은 디바이스(들)로부터의 분석론 데이터 및 결과들에 액세스한다.
동작(1004)에서, 캠페인 최적화 모듈은 디바이스(들)로부터의 분석론 데이터 및 결과들에 기초하여 디바이스(들)에 대한 원본 체험 콘텐츠 데이터세트를 수정한다.
동작(1006)에서, 캠페인 최적화 모듈은 수정된 체험 콘텐츠 데이터세트를 디바이스(들)에 보낸다.
도 11은 일부 예시적인 실시예들에 따라 캠페인을 최적화하기 위한 다른 예시적인 방법을 도시하는 플로우차트이다.
동작(1102)에서, 서버의 캠페인 최적화 모듈은 디바이스(들)로부터의 분석론 데이터 및 결과들에 액세스한다.
동작(1104)에서, 캠페인 최적화 모듈은 디바이스(들)로부터의 분석론 데이터 및 결과들에 기초하여 디바이스(들)에 대한 새로운 체험 콘텐츠 데이터세트를 구축한다.
동작(1106)에서, 캠페인 최적화 모듈은 수정된 체험 콘텐츠 데이터세트를 디바이스(들)에 보낸다.
도 12는 일부 예시적인 실시예들에 따른, 머신 판독가능 매체(예를 들어, 머신 판독가능 저장 매체, 컴퓨터 판독가능 저장 매체 또는 이들의 임의의 적합한 조합)로부터 명령어들을 판독하며, 전체적으로 또는 부분적으로 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행할 수 있는 머신(1200)의 컴포넌트들을 도시하는 블럭도이다. 구체적으로는, 도 12는, 컴퓨터 시스템의 예시적인 형태로 이루어지며, 머신(1200)으로 하여금 본 명세서에서 논의된 방법론들 중 임의의 하나 이상을 수행하게 하기 위한 명령어들(1224)(예를 들어, 소프트웨어, 프로그램, 애플리케이션, 애플릿, 앱 또는 다른 실행가능 코드)이 전체적으로 또는 부분적으로 실행될 수 있는 머신(1200)의 도식적인 표현을 도시한다. 대안적인 실시예들에서, 머신(1200)은 독립형 디바이스로서 동작하거나, 또는 다른 머신들에 접속될(예를 들어, 네트워킹될) 수 있다. 네트워크 전개에서, 머신(1200)은 서버-클라이언트 네트워크 환경에서는 서버 머신 또는 클라이언트 머신의 자격으로 동작하거나, 또는 분산형(예를 들어, 피어-투-피어) 네트워크 환경에서는 피어 머신으로서 동작할 수 있다. 머신(1200)은 서버 컴퓨터, 클라이언트 컴퓨터, 퍼스널 컴퓨터(PC), 태블릿 컴퓨터, 랩톱 컴퓨터, 넷북, 셋톱 박스(STB), 개인 휴대 정보 단말기(PDA), 셀룰러 전화기, 스마트폰, 웹 어플라이언스, 네트워크 라우터, 네트워크 스위치, 네트워크 브리지, 또는 해당 머신에 의해 수행될 액션들을 특정하는 명령어들(1224)을 순차적으로 또는 다른 방식으로 실행할 수 있는 임의의 머신일 수 있다. 또한, 단일의 머신만이 도시되어 있지만, "머신"이라는 용어는 본 명세서에서 논의된 방법론들 중 임의의 하나 이상의 전부 또는 일부를 수행하기 위해 개별적으로 또는 공동으로 명령어들(1224)을 실행하는 머신들의 컬렉션을 포함하는 것으로 또한 간주되어야 한다.
머신(1200)은, 버스(1208)를 통해 서로 통신하도록 구성되는, 프로세서(1202)(예를 들어, 중앙 처리 유닛(CPU), 그래픽 처리 유닛(GPU), 디지털 신호 프로세서(DSP), 주문형 집적 회로(ASIC), 무선 주파수 집적 회로(RFIC), 또는 이들의 임의의 적합한 조합), 메인 메모리(1204) 및 스태틱 메모리(1206)를 포함한다. 머신(1200)은 그래픽 디스플레이(1210)(예를 들어, 플라즈마 디스플레이 패널(PDP), 발광 다이오드(LED) 디스플레이, 액정 디스플레이(LCD), 프로젝터, 또는 CRT(cathode ray tube))를 더 포함할 수 있다. 머신(1200)은 영숫자 입력 디바이스(1212)(예를 들어, 키보드), 커서 제어 디바이스(1214)(예를 들어, 마우스, 터치패드, 트랙볼, 조이스틱, 모션 센서 또는 다른 포인팅 기기), 스토리지 유닛(1216), 신호 생성 디바이스(1218)(예를 들어, 스피커) 및 네트워크 인터페이스 디바이스(1220)를 또한 포함할 수 있다.
스토리지 유닛(1216)은 본 명세서에 설명된 방법론들 또는 기능들 중 임의의 하나 이상을 구현하는 명령어들(1224)이 저장되어 있는 머신 판독가능 매체(1222)를 포함한다. 또한, 명령어들(1224)은, 머신(1200)에 의한 실행 중에, 메인 메모리(1204) 내에, 프로세서(1202) 내에(예를 들어, 프로세서의 캐시 메모리 내에), 또는 이들 모두 내에 완전히 또는 적어도 부분적으로 상주할 수 있다. 따라서, 메인 메모리(1204) 및 프로세서(1202)는 머신 판독가능 매체로서 고려될 수 있다. 명령어들(1224)은 네트워크 인터페이스 디바이스(1220)를 통해 네트워크(1226)(예를 들어, 네트워크(108))를 경유하여 송신되거나 수신될 수 있다.
본 명세서에서 이용된 바와 같이, "메모리"라는 용어는, 일시적으로 또는 영구적으로 데이터를 저장할 수 있는 머신 판독가능 매체를 지칭하며, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 버퍼 메모리, 플래시 메모리 및 캐시 메모리를 포함하지만 이에 제한되지는 않는 것으로 간주될 수 있다. 머신 판독가능 매체(1222)는 예시적인 실시예에서 단일의 매체인 것으로 도시되어 있지만, "머신 판독가능 매체"라는 용어는 명령어들을 저장할 수 있는 단일의 매체 또는 다수의 매체(예를 들어, 중앙집중형 또는 분산형 데이터베이스, 또는 연관된 캐시들 및 서버들)를 포함하는 것으로 간주되어야 한다. "머신 판독가능 매체"라는 용어는, 머신의 하나 이상의 프로세서(예를 들어, 프로세서(1202))에 의해 실행될 때 명령어들이 이 머신으로 하여금 본 명세서에 설명된 방법론들 중 임의의 하나 이상을 수행하게 하도록 머신(예를 들어, 머신(1200))에 의해 실행될 명령어들을 저장할 수 있는 임의의 매체 또는 다수의 매체의 조합을 포함하는 것으로 또한 간주되어야 한다. 따라서, "머신 판독가능 매체"는 단일의 스토리지 장치 또는 디바이스뿐만 아니라, 다수의 스토리지 장치 또는 디바이스를 포함하는 "클라우드 기반" 스토리지 시스템들 또는 스토리지 네트워크들을 지칭한다. 따라서, "머신 판독가능 매체"라는 용어는, 고체 상태 메모리, 광학 매체, 자기 매체 또는 이들의 임의의 적합한 조합의 형태의 하나 이상의 데이터 스토리지를 포함하지만 이에 제한되지는 않는 것으로 또한 간주되어야 한다.
본 명세서 전체에 걸쳐, 복수의 인스턴스는 단일의 인스턴스로서 설명된 컴포넌트들, 동작들 또는 구조들을 구현할 수 있다. 하나 이상의 방법의 개별적인 동작들이 별개의 동작들로서 예시 및 설명되어 있지만, 개별적인 동작들 중 하나 이상은 동시에 수행될 수 있으며, 동작들이 예시된 순서로 수행되는 것이 요구되지는 않는다. 예시적인 구성들에서 별개의 컴포넌트들로서 제시된 구조들 및 기능성은 결합된 구조 또는 컴포넌트로서 구현될 수 있다. 유사하게, 단일의 컴포넌트로서 제시된 구조들 및 기능성은 별개의 컴포넌트들로서 구현될 수 있다. 이들 변형들, 수정들, 추가들과 개선들 및 다른 것들은 본 명세서에서의 대상의 범위 내에 있다.
특정 실시예들은 본 명세서에서 로직을 포함하는 것으로서 또는 다수의 컴포넌트, 모듈 또는 메커니즘을 포함하는 것으로서 설명된다. 모듈들은 소프트웨어 모듈들(예를 들어, 머신 판독가능 매체 상에 또는 전송 신호에서 구현된 코드) 또는 하드웨어 모듈들을 구성할 수 있다. "하드웨어 모듈"은 특정 동작들을 수행할 수 있는 유형의 유닛이며, 특정의 물리적 방식으로 구성되거나 배열될 수 있다. 다양한 예시적인 실시예들에서, 하나 이상의 컴퓨터 시스템(예를 들어, 독립형 컴퓨터 시스템, 클라이언트 컴퓨터 시스템 또는 서버 컴퓨터 시스템) 또는 컴퓨터 시스템의 하나 이상의 하드웨어 모듈(예를 들어, 프로세서 또는 프로세서들의 그룹)은 본 명세서에 설명된 바와 같은 특정 동작들을 수행하도록 동작하는 하드웨어 모듈로서 소프트웨어(예를 들어, 애플리케이션 또는 애플리케이션 부분)에 의해 구성될 수 있다.
일부 실시예들에서, 하드웨어 모듈은 머신적으로, 전자적으로, 또는 이들의 임의의 적합한 조합으로 구현될 수 있다. 예를 들어, 하드웨어 모듈은 특정 동작들을 수행하도록 영구적으로 구성되는 전용 회로 또는 로직을 포함할 수 있다. 예를 들어, 하드웨어 모듈은, 필드 프로그램가능 게이트 어레이(FPGA) 또는 ASIC와 같은 특수 목적 프로세서일 수 있다. 하드웨어 모듈은 특정 동작들을 수행하도록 소프트웨어에 의해 일시적으로 구성되는 프로그램가능 로직 또는 회로를 또한 포함할 수 있다. 예를 들어, 하드웨어 모듈은 범용 프로세서 또는 다른 프로그램가능 프로세서 내에 포함된 소프트웨어를 포함할 수 있다. 머신적으로, 전용 및 영구적으로 구성된 회로로, 또는 일시적으로 구성된(예를 들어, 소프트웨어에 의해 구성된) 회로로 하드웨어 모듈을 구현하기 위한 결정은 비용 및 시간 고려사항들에 의해 드라이브될 수 있다는 것이 인식될 것이다.
따라서, "하드웨어 모듈"이라는 어구는, 본 명세서에 설명된 특정 동작들을 수행하도록 또는 특정 방식으로 동작하도록 일시적으로 구성되는(예를 들어, 프로그램되는), 영구적으로 구성되는(예를 들어, 하드와이어드), 또는 물리적으로 구성되는 엔티티인 유형의 엔티티를 포함하는 것으로 이해되어야 한다. 본 명세서에서 이용된 바와 같이, "하드웨어 구현 모듈"은 하드웨어 모듈을 지칭한다. 하드웨어 모듈들이 일시적으로 구성되는(예를 들어, 프로그램되는) 실시예들을 고려하면, 하드웨어 모듈들 각각은 임의의 하나의 시간 인스턴스에서 인스턴스화되거나 구성될 필요는 없다. 예를 들어, 하드웨어 모듈이 특수 목적 프로세서가 되도록 소프트웨어에 의해 구성된 범용 프로세서를 포함하는 경우, 범용 프로세서는 상이한 시간들에 각각 상이한 특수 목적 프로세서들(예를 들어, 상이한 하드웨어 모듈들을 포함함)로서 구성될 수 있다. 따라서, 소프트웨어는, 예를 들어, 하나의 시간 인스턴스에서 특정 하드웨어 모듈을 구성하고, 상이한 시간 인스턴스에서 상이한 하드웨어 모듈을 구성하도록 프로세서를 구성할 수 있다.
하드웨어 모듈들은 다른 하드웨어 모듈들에 정보를 제공하고, 다른 하드웨어 모듈들로부터 정보를 수신할 수 있다. 따라서, 설명된 하드웨어 모듈들은 통신가능하게 연결되는 것으로 간주될 수 있다. 다수의 하드웨어 모듈이 동시에 존재하는 경우에, 통신은 하드웨어 모듈들 중 2개 이상의 사이에서의 (예를 들어, 적절한 회로들 및 버스들을 통한) 신호 전송을 통해 달성될 수 있다. 다수의 하드웨어 모듈이 상이한 시간들에 구성되거나 인스턴스화되는 실시예들에서, 이러한 하드웨어 모듈들 사이의 통신은, 예를 들어 다수의 하드웨어 모듈이 액세스하는 메모리 구조들에서의 정보의 저장 및 검색을 통해 달성될 수 있다. 예를 들어, 하나의 하드웨어 모듈은 동작을 수행하고, 그 동작의 출력을, 그것이 통신가능하게 연결되는 메모리 디바이스에 저장할 수 있다. 그러면, 추가의 하드웨어 모듈은, 나중에, 메모리 디바이스에 액세스하여, 저장된 출력을 검색하고 처리할 수 있다. 또한, 하드웨어 모듈들은 입력 또는 출력 디바이스들과의 통신을 개시할 수 있고, 리소스(예를 들어, 정보의 컬렉션)에 대해 동작할 수 있다.
본 명세서에 설명된 예시적인 방법들의 다양한 동작들은, 관련 동작들을 수행하도록 영구적으로 구성되거나 또는 (예를 들어, 소프트웨어에 의해) 일시적으로 구성되는 하나 이상의 프로세서에 의해 적어도 부분적으로 수행될 수 있다. 일시적으로 구성되든지 또는 영구적으로 구성되든지 간에, 이러한 프로세서들은 본 명세서에 설명된 하나 이상의 동작 또는 기능을 수행하도록 동작하는 프로세서 구현 모듈들을 구성할 수 있다. 본 명세서에서 이용된 바와 같이, "프로세서 구현 모듈"은 하나 이상의 프로세서를 이용하여 구현된 하드웨어 모듈을 지칭한다.
유사하게, 본 명세서에 설명된 방법들은 적어도 부분적으로 프로세서 구현될 수 있으며, 프로세서는 하드웨어의 예이다. 예를 들어, 방법의 동작들의 적어도 일부는 하나 이상의 프로세서 또는 프로세서 구현 모듈들에 의해 수행될 수 있다. 또한, 하나 이상의 프로세서는 "클라우드 컴퓨팅" 환경에서 또는 "SaaS(software as a service)"로서 관련 동작들의 수행을 지원하도록 또한 동작할 수 있다. 예를 들어, 동작들의 적어도 일부는 (프로세서들을 포함하는 머신들의 예들로서의) 컴퓨터들의 그룹에 의해 수행될 수 있으며, 이러한 동작들은 네트워크(예를 들어, 인터넷)를 통해 그리고 하나 이상의 적절한 인터페이스(예를 들어, 애플리케이션 프로그램 인터페이스(API))를 통해 액세스가능하다.
동작들 중 특정 동작의 수행은, 단일의 머신 내에 상주할 뿐만 아니라 다수의 머신에 걸쳐 배치되는 하나 이상의 프로세서 사이에 분산될 수 있다. 일부 예시적인 실시예들에서, 하나 이상의 프로세서 또는 프로세서 구현 모듈들은 단일의 지리적 위치에(예를 들어, 홈 환경, 오피스 환경 또는 서버 팜 내에) 위치할 수 있다. 다른 예시적인 실시예들에서, 하나 이상의 프로세서 또는 프로세서 구현 모듈들은 다수의 지리적 위치에 걸쳐 분산될 수 있다.
본 명세서에서 논의된 대상의 일부 부분들은 머신 메모리(예를 들어, 컴퓨터 메모리) 내에 비트들 또는 바이너리 디지털 신호들로서 저장된 데이터에 대한 연산들의 알고리즘들 또는 심볼 표현들에 관하여 제시될 수 있다. 이러한 알고리즘들 또는 심볼 표현들은 데이터 처리 분야의 통상의 기술자가 그들의 작업의 본질을 관련 기술분야의 다른 통상의 기술자에게 전달하기 위해 이용되는 기술들의 예들이다. 본 명세서에서 이용된 바와 같이, "알고리즘"은 원하는 결과를 초래하는 자기-일관적인 연산들의 시퀀스 또는 유사한 처리이다. 이러한 정황에서, 알고리즘들 및 연산들은 물리적 양들의 물리적 조작을 수반한다. 통상적으로, 반드시 그러하지는 않지만, 이러한 양들은 머신에 의해 저장되거나, 액세스되거나, 전송되거나, 결합되거나, 비교되거나 또는 다른 방식으로 조작될 수 있는 전기, 자기 또는 광학 신호들의 형태를 취할 수 있다. 주로 통상 사용의 이유로 "데이터", "콘텐츠", "비트들", "값들", "요소들", "심볼들", "문자들", "용어들", "숫자들", "수치들" 등과 같은 단어들을 이용하여 이러한 신호들을 지칭하는 것이 때로는 편리하다. 그러나, 이러한 단어들은 편리한 라벨들일 뿐이며, 적절한 물리적 양들과 연관된다.
구체적으로 달리 언급되는 않는 한, "처리", "컴퓨팅", "계산", "결정", "제시", "디스플레이" 등과 같은 단어들을 이용한 본 명세서에서의 논의들은, 하나 이상의 메모리(예를 들어, 휘발성 메모리, 비휘발성 메모리, 또는 이들의 임의의 적합한 조합), 레지스터, 또는 정보를 수신하거나, 저장하거나, 전송하거나 또는 디스플레이하는 다른 머신 컴포넌트들 내의 물리적(예를 들어, 전자적, 자기적 또는 광학적) 양들로서 표현되는 데이터를 조작 또는 변환하는 머신(예를 들어, 컴퓨터)의 액션들 또는 프로세스들을 지칭할 수 있다. 또한, 구체적으로 달리 언급되지 않는 한, 용어들("a" 또는 "an")은, 특허 문헌들에서 일반적인 바와 같이, 본 명세서에서 하나 또는 하나보다 많은 인스턴스를 포함하기 위해 이용된다. 마지막으로, 본 명세서에서 이용된 바와 같이, 구체적으로 달리 언급되지 않는 한, 접속사 "또는(or)"은 비배타적인 "or"를 지칭한다.

Claims (20)

  1. 서버로서,
    분석론 결과들에 기초하여 디바이스의 증강 현실 애플리케이션을 위한 체험 콘텐츠 데이터세트를 생성하도록 구성되는 캠페인 최적화 모듈;
    상기 디바이스로부터 수신되는 분석론 데이터에 기초하여 상기 분석론 결과들을 생성하도록 구성되는 분석론 계산 모듈; 및
    상기 체험 콘텐츠 데이터세트의 콘텐츠 식별자를 인식하고, 상기 콘텐츠 식별자와 관련된 가상 오브젝트 콘텐츠의 제시에 의해 대화형 체험을 생성하도록 구성되는 디바이스에, 상기 체험 콘텐츠 데이터세트를 제공하도록 구성되는 체험 생성기
    를 포함하는 서버.
  2. 제1항에 있어서,
    상기 캠페인 최적화 모듈은,
    상기 디바이스에 대한 분석론 결과들을 액세스하도록 구성되는 분석론 검색기;
    상기 디바이스에 대한 분석론 결과들에 기초하여 상기 체험 콘텐츠 데이터세트에 대해 새로운 체험 콘텐츠 데이터세트를 구축하도록 구성되는 체험 콘텐츠 데이터세트 구축기; 및
    상기 디바이스에 대한 분석론 결과들에 기초하여 원본 체험 콘텐츠 데이터세트를 상기 체험 콘텐츠 데이터세트로 수정하도록 구성되는 체험 콘텐츠 데이터세트 수정기
    를 포함하는 서버.
  3. 제1항에 있어서,
    상기 캠페인 최적화 모듈은,
    상기 콘텐츠 식별자에 의해 대화형 체험들을 사전에 생성한 복수의 디바이스들로부터 분석론 결과들 및 분석론 데이터를 액세스하도록 구성되는 분석론 검색기;
    상기 콘텐츠 식별자에 의해 대화형 체험들을 사전에 생성한 상기 복수의 디바이스들에 대한 분석론 결과들 및 분석론 데이터에 기초하여 상기 체험 콘텐츠 데이터세트에 대해 새로운 체험 콘텐츠 데이터세트를 구축하도록 구성되는 체험 콘텐츠 데이터세트 구축기; 및
    상기 콘텐츠 식별자에 의해 대화형 체험들을 사전에 생성한 상기 복수의 디바이스들에 대한 분석론 결과들 및 분석론 데이터에 기초하여 원본 체험 콘텐츠 데이터세트를 상기 체험 콘텐츠 데이터세트로 수정하도록 구성되는 체험 콘텐츠 데이터세트 수정기
    를 포함하는 서버.
  4. 제1항에 있어서,
    상기 체험 생성기는 상기 체험 콘텐츠 데이터세트를 사용하여 가상 오브젝트 모델을 생성하도록 구성되고, 상기 가상 오브젝트 모델은 상기 콘텐츠 식별자로서 인식되는 물리적 오브젝트에 대한 상기 디바이스의 위치에 기초하여 상기 디바이스의 디스플레이에서 렌더링되고,
    상기 가상 오브젝트의 제시는 상기 디바이스에 의해 캡쳐되는 물리적 오브젝트의 실시간 이미지에 기초하며, 상기 가상 오브젝트 모델은 상기 물리적 오브젝트의 이미지와 관련되는 서버.
  5. 제1항에 있어서,
    상기 분석론 계산 모듈은, 상기 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 상기 디바이스의 자세 추정 데이터, 상기 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 상기 디바이스의 자세 지속시간 데이터, 상기 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 상기 디바이스의 자세 방향 데이터(pose orientation data), 및 상기 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 상기 디바이스의 자세 상호작용 데이터를 수신하도록 구성되고,
    상기 자세 추정 데이터는 상기 디바이스에 의해 조준되는 물리적 또는 가상 오브젝트 상의 위치를 포함하고,
    상기 자세 지속시간 데이터는 상기 디바이스가 물리적 또는 가상 오브젝트 상의 동일한 위치에 조준되는 시간 지속시간을 포함하고,
    상기 자세 방향 데이터는 물리적 또는 가상 오브젝트에 조준되는 상기 디바이스의 방향을 포함하고,
    상기 자세 상호작용 데이터는 물리적 오브젝트에 대응하는 가상 오브젝트에 대한 상기 디바이스 상의 상기 사용자의 상호작용들을 포함하는 서버.
  6. 제1항에 있어서,
    상기 콘텐츠 식별자는 2차원 이미지 또는 3차원 오브젝트 모델을 포함하고,
    상기 가상 오브젝트 콘텐츠는 2차원 또는 3차원 가상 오브젝트 모델을 포함하고,
    상기 체험 생성기는 상기 체험 콘텐츠 데이터세트를 생성하기 위해 상기 콘텐츠 식별자를 상기 가상 오브젝트 콘텐츠와 관련시키도록 구성되는 서버.
  7. 제6항에 있어서,
    상기 2차원 또는 3차원 가상 오브젝트 모델은 적어도 하나의 대화형 특징을 갖고, 상기 적어도 하나의 대화형 특징은 상기 디바이스 상의 사용자로부터의 상호작용에 응답하여 상기 2차원 또는 3차원 가상 오브젝트 모델의 상태를 변경하는 서버.
  8. 제6항에 있어서,
    상기 캠페인 최적화 모듈은 상기 분석론 결과들에 기초하여 상기 체험 콘텐츠 데이터세트로부터 상기 가상 오브젝트 콘텐츠의 대화형 특징을 변경하도록 구성되는 서버.
  9. 제1항에 있어서,
    상기 분석론 데이터는 상기 디바이스의 사용 조건들을 포함하는 서버.
  10. 제9항에 있어서,
    상기 디바이스의 사용 조건들은, 상기 디바이스의 사용자의 소셜 정보, 상기 증강 현실 애플리케이션을 사용하는 디바이스의 위치 사용 정보 및 시간 정보를 포함하는 서버.
  11. 컴퓨터 구현된 방법으로서,
    분석론 결과들에 기초하여 디바이스의 증강 현실 애플리케이션에 대한 체험 콘텐츠 데이터세트를 생성하는 단계;
    상기 디바이스로부터 수신되는 분석론 데이터에 기초하여 상기 분석론 결과들을 생성하는 단계; 및
    상기 체험 콘텐츠 데이터세트의 콘텐츠 식별자를 인식하고, 상기 콘텐츠 식별자와 관련된 가상 오브젝트 콘텐츠의 제시에 의해 대화형 체험을 생성하도록 구성되는 디바이스에, 상기 체험 콘텐츠 데이터세트를 제공하는 단계
    를 포함하는 컴퓨터 구현된 방법.
  12. 제11항에 있어서,
    상기 디바이스에 대한 분석론 결과들을 액세스하는 단계;
    상기 디바이스에 대한 분석론 결과들에 기초하여 상기 체험 콘텐츠 데이터세트에 대해 새로운 체험 콘텐츠 데이터세트를 구축하는 단계; 및
    상기 디바이스에 대한 분석론 결과들에 기초하여 원본 체험 콘텐츠 데이터세트를 상기 체험 콘텐츠 데이터세트로 수정하는 단계
    를 더 포함하는 컴퓨터 구현된 방법.
  13. 제11항에 있어서,
    상기 콘텐츠 식별자에 의해 대화형 체험들을 사전에 생성한 복수의 디바이스들로부터 분석론 결과들 및 분석론 데이터를 액세스하는 단계;
    상기 콘텐츠 식별자에 의해 대화형 체험들을 사전에 생성한 상기 복수의 디바이스들에 대한 분석론 결과들 및 분석론 데이터에 기초하여 상기 체험 콘텐츠 데이터세트에 대해 새로운 체험 콘텐츠 데이터세트를 구축하는 단계; 및
    상기 콘텐츠 식별자에 의해 대화형 체험들을 사전에 생성한 상기 복수의 디바이스들에 대한 분석론 결과들 및 분석론 데이터에 기초하여 원본 체험 콘텐츠 데이터세트를 상기 체험 콘텐츠 데이터세트로 수정하는 단계
    를 더 포함하는 컴퓨터 구현된 방법.
  14. 제11항에 있어서,
    상기 체험 콘텐츠 데이터세트를 사용하여 가상 오브젝트 모델을 생성하는 단계- 상기 가상 오브젝트 모델은 상기 콘텐츠 식별자로서 인식되는 물리적 오브젝트에 대한 상기 디바이스의 위치에 기초하여 상기 디바이스의 디스플레이에서 렌더링됨 -를 더 포함하고,
    상기 가상 오브젝트의 제시는 상기 디바이스에 의해 캡쳐되는 물리적 오브젝트의 실시간 이미지에 기초하며, 상기 가상 오브젝트 모델은 상기 물리적 오브젝트의 이미지와 관련되는 컴퓨터 구현된 방법.
  15. 제11항에 있어서,
    상기 분석론 계산 모듈은, 상기 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 상기 디바이스의 자세 추정 데이터, 상기 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 상기 디바이스의 자세 지속시간 데이터, 상기 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 상기 디바이스의 자세 방향 데이터, 및 상기 디바이스에 의해 캡쳐되는 물리적 오브젝트에 대한 상기 디바이스의 자세 상호작용 데이터를 수신하도록 구성되고,
    상기 자세 추정 데이터는 상기 디바이스에 의해 조준되는 물리적 또는 가상 오브젝트 상의 위치를 포함하고,
    상기 자세 지속시간 데이터는 상기 디바이스가 물리적 또는 가상 오브젝트 상의 동일한 위치에 조준되는 시간 지속시간을 포함하고,
    상기 자세 방향 데이터는 물리적 또는 가상 오브젝트에 조준되는 상기 디바이스의 방향을 포함하고,
    상기 자세 상호작용 데이터는 물리적 오브젝트에 대응하는 가상 오브젝트에 대한 상기 디바이스 상의 상기 사용자의 상호작용들을 포함하는 컴퓨터 구현된 방법.
  16. 제11항에 있어서,
    상기 콘텐츠 식별자는 2차원 이미지 또는 3차원 오브젝트 모델을 포함하고,
    상기 가상 오브젝트 콘텐츠는 2차원 또는 3차원 가상 오브젝트 모델을 포함하고,
    상기 체험 생성기는 상기 체험 콘텐츠 데이터세트를 생성하기 위해 상기 콘텐츠 식별자를 상기 가상 오브젝트 콘텐츠와 관련시키도록 구성되는 컴퓨터 구현된 방법.
  17. 제16항에 있어서,
    상기 2차원 또는 3차원 가상 오브젝트 모델은 적어도 하나의 대화형 특징을 갖고, 상기 적어도 하나의 대화형 특징은 상기 디바이스 상의 사용자로부터의 상호작용에 응답하여 상기 2차원 또는 3차원 가상 오브젝트 모델의 상태를 변경하는 컴퓨터 구현된 방법.
  18. 제16항에 있어서,
    상기 캠페인 최적화 모듈은 상기 분석론 결과들에 기초하여 상기 체험 콘텐츠 데이터세트로부터 상기 가상 오브젝트 콘텐츠의 대화형 특징을 변경하도록 구성되는 컴퓨터 구현된 방법.
  19. 제11항에 있어서,
    상기 분석론 데이터는 상기 디바이스의 사용 조건들을 포함하고, 상기 디바이스의 사용 조건들은, 상기 디바이스의 사용자의 소셜 정보, 상기 증강 현실 애플리케이션을 사용하는 디바이스의 위치 사용 정보 및 시간 정보를 포함하는 컴퓨터 구현된 방법.
  20. 명령어들을 포함하는 비-일시적 머신 판독가능 매체로서,
    상기 명령어들은, 머신의 하나 이상의 프로세서들에 의해 실행될 때, 상기 머신으로 하여금,
    분석론 결과들에 기초하여 디바이스의 증강 현실 애플리케이션에 대한 체험 콘텐츠 데이터세트를 생성하는 동작;
    상기 디바이스로부터 수신되는 분석론 데이터에 기초하여 상기 분석론 결과들을 생성하는 동작; 및
    상기 체험 콘텐츠 데이터세트의 콘텐츠 식별자를 인식하고, 상기 콘텐츠 식별자와 관련된 가상 오브젝트 콘텐츠의 제시에 의해 대화형 체험을 생성하도록 구성되는 디바이스에, 상기 체험 콘텐츠 데이터세트를 제공하는 동작
    을 포함하는 동작들을 수행하게 하는 비-일시적 머신 판독가능 매체.
KR1020157029846A 2013-03-15 2014-03-12 체험 콘텐츠 데이터세트에 대한 캠페인 최적화 KR101667899B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/839,968 2013-03-15
US13/839,968 US9240075B2 (en) 2013-03-15 2013-03-15 Campaign optimization for experience content dataset
PCT/US2014/024728 WO2014150995A1 (en) 2013-03-15 2014-03-12 Campaign optimization for experience content dataset

Publications (2)

Publication Number Publication Date
KR20150132526A true KR20150132526A (ko) 2015-11-25
KR101667899B1 KR101667899B1 (ko) 2016-10-19

Family

ID=51525472

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157029846A KR101667899B1 (ko) 2013-03-15 2014-03-12 체험 콘텐츠 데이터세트에 대한 캠페인 최적화

Country Status (7)

Country Link
US (2) US9240075B2 (ko)
EP (1) EP2973355B1 (ko)
JP (1) JP6013642B2 (ko)
KR (1) KR101667899B1 (ko)
AU (1) AU2014235442B2 (ko)
NZ (1) NZ713292A (ko)
WO (1) WO2014150995A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019156263A1 (ko) * 2018-02-08 2019-08-15 라인플러스 주식회사 대화방을 3차원 형태로 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
KR20200001871A (ko) * 2018-06-28 2020-01-07 한국과학기술연구원 가상 공간의 인터랙션 3차원 가시화 시스템 및 방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9240075B2 (en) 2013-03-15 2016-01-19 Daqri, Llc Campaign optimization for experience content dataset
DE102013206569B4 (de) * 2013-04-12 2020-08-06 Siemens Healthcare Gmbh Gestensteuerung mit automatisierter Kalibrierung
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9332285B1 (en) 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
US20170107039A1 (en) * 2015-10-15 2017-04-20 Mark Anthony Chavez Smart home defense chamber
WO2018164532A1 (en) * 2017-03-09 2018-09-13 Samsung Electronics Co., Ltd. System and method for enhancing augmented reality (ar) experience on user equipment (ue) based on in-device contents
EP3639261B1 (en) * 2017-05-05 2023-08-30 Unity IPR APS Contextual applications in a mixed reality environment
US10970425B2 (en) * 2017-12-26 2021-04-06 Seiko Epson Corporation Object detection and tracking
US20190259198A1 (en) * 2018-02-21 2019-08-22 Tsunami VR, Inc. Systems and methods for generating visual representations of a virtual object for display by user devices
US11626994B2 (en) 2020-02-27 2023-04-11 Sneakertopia Inc. System and method for presenting content based on articles properly presented and verifiably owned by or in possession of user
US11374808B2 (en) * 2020-05-29 2022-06-28 Corning Research & Development Corporation Automated logging of patching operations via mixed reality based labeling
US11295135B2 (en) * 2020-05-29 2022-04-05 Corning Research & Development Corporation Asset tracking of communication equipment via mixed reality based labeling

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100302143A1 (en) * 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for control of a simulated object that is associated with a physical location in the real world environment
US20110219339A1 (en) * 2010-03-03 2011-09-08 Gilray Densham System and Method for Visualizing Virtual Objects on a Mobile Device
US20110316845A1 (en) * 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US20120327119A1 (en) * 2011-06-22 2012-12-27 Gwangju Institute Of Science And Technology User adaptive augmented reality mobile communication device, server and method thereof

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60005819T2 (de) 1999-06-14 2004-05-06 Cosmo S.P.A. Geschmacksmaskierte orale pharmazeutische zusammensetzungen mit kontrollierter abgabe
US20090237328A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Mobile virtual and augmented reality system
US9424583B2 (en) * 2009-10-15 2016-08-23 Empire Technology Development Llc Differential trials in augmented reality
KR101325757B1 (ko) * 2010-07-09 2013-11-08 주식회사 팬택 가상 마커 생성을 이용한 증강 현실 제공 장치 및 방법
KR101197630B1 (ko) 2010-09-08 2012-11-07 (주)더힘스 현재 제공되는 공통 콘텐츠에 관련된 증강 콘텐츠를 개인용 단말기로 제공하기 위한 시스템 및 방법
KR101126449B1 (ko) 2011-06-30 2012-03-29 양재일 증강 현실 서비스 시스템 및 방법
US10019962B2 (en) * 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
WO2013036556A1 (en) * 2011-09-07 2013-03-14 Millenial Media Providing mobile advertising using data networks based on intelligence data associated with internet-connected devices
US20130179925A1 (en) * 2012-01-06 2013-07-11 United Video Properties, Inc. Systems and methods for navigating through related content based on a profile associated with a user
US9389420B2 (en) * 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
US9767720B2 (en) * 2012-06-25 2017-09-19 Microsoft Technology Licensing, Llc Object-centric mixed reality space
US9058660B2 (en) * 2012-11-21 2015-06-16 Gravity Jack, Inc. Feature searching based on feature quality information
US9240075B2 (en) 2013-03-15 2016-01-19 Daqri, Llc Campaign optimization for experience content dataset

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100302143A1 (en) * 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for control of a simulated object that is associated with a physical location in the real world environment
US20110219339A1 (en) * 2010-03-03 2011-09-08 Gilray Densham System and Method for Visualizing Virtual Objects on a Mobile Device
US20110316845A1 (en) * 2010-06-25 2011-12-29 Palo Alto Research Center Incorporated Spatial association between virtual and augmented reality
US20120327119A1 (en) * 2011-06-22 2012-12-27 Gwangju Institute Of Science And Technology User adaptive augmented reality mobile communication device, server and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019156263A1 (ko) * 2018-02-08 2019-08-15 라인플러스 주식회사 대화방을 3차원 형태로 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
US11392262B2 (en) 2018-02-08 2022-07-19 LINE Plus Corporation Method, system, and non-transitory computer readable record medium for providing chatroom in 3D form
KR20200001871A (ko) * 2018-06-28 2020-01-07 한국과학기술연구원 가상 공간의 인터랙션 3차원 가시화 시스템 및 방법

Also Published As

Publication number Publication date
EP2973355A4 (en) 2016-07-27
EP2973355B1 (en) 2017-10-04
KR101667899B1 (ko) 2016-10-19
NZ713292A (en) 2017-04-28
EP2973355A1 (en) 2016-01-20
JP6013642B2 (ja) 2016-10-25
WO2014150995A1 (en) 2014-09-25
AU2014235442B2 (en) 2016-09-22
US9760777B2 (en) 2017-09-12
AU2014235442A1 (en) 2015-11-05
US20140267405A1 (en) 2014-09-18
JP2016518647A (ja) 2016-06-23
US9240075B2 (en) 2016-01-19
US20160132727A1 (en) 2016-05-12

Similar Documents

Publication Publication Date Title
KR101667899B1 (ko) 체험 콘텐츠 데이터세트에 대한 캠페인 최적화
US10147239B2 (en) Content creation tool
KR102257826B1 (ko) 상황 로컬 이미지 인식 데이터세트
AU2014235416B2 (en) Real world analytics visualization
KR101732839B1 (ko) 컨텐츠 전달의 세그먼테이션

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190927

Year of fee payment: 4