JP2019531558A - 対話式コンテンツ管理 - Google Patents

対話式コンテンツ管理 Download PDF

Info

Publication number
JP2019531558A
JP2019531558A JP2019519614A JP2019519614A JP2019531558A JP 2019531558 A JP2019531558 A JP 2019531558A JP 2019519614 A JP2019519614 A JP 2019519614A JP 2019519614 A JP2019519614 A JP 2019519614A JP 2019531558 A JP2019531558 A JP 2019531558A
Authority
JP
Japan
Prior art keywords
content
content item
presentation
user
inputs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019519614A
Other languages
English (en)
Inventor
ゴーラン、オメル
ゴーラン、タル
Original Assignee
アウターネッツ、インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アウターネッツ、インコーポレイテッド filed Critical アウターネッツ、インコーポレイテッド
Publication of JP2019531558A publication Critical patent/JP2019531558A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/27Output arrangements for video game devices characterised by a large display in a public venue, e.g. in a movie theatre, stadium or game arena
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/88Mini-games executed independently while main games are being loaded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41415Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance involving a public display, viewable by several users in a public space outside their home, e.g. movie theatre, information kiosk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • A63F2300/1031Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection using a wireless connection, e.g. Bluetooth, infrared connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6036Methods for processing data by generating or executing the game program for offering a minigame in combination with a main game

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

対話式コンテンツ管理のためのシステム及び方法が開示される。1つの実装形態において、1つ又は複数の入力が受け取られる。1つ又は複数の入力は、1つ又は複数のコンテンツ提示面を識別するために処理される。1つ又は複数のコンテンツ提示面の識別に基づいて、第1のコンテンツ項目は修正される。修正された第1のコンテンツ項目は、1つ又は複数のコンテンツ提示面に対して提示される。

Description

本出願は、2016年6月23日に出願の米国特許出願第62/354,092号に関連し、この米国特許出願に対する優先権の利益を主張し、全体として参照により本明細書に組み込まれる。
本開示の態様及び実装形態はデータ処理に関し、より詳細には対話式コンテンツ管理に関するが、これに限定されるものではない。
ほとんどの現実世界の構造物及び場所は、静的コンテンツを提供することしかできない。結果として歩行者は、このようなコンテンツに関心を抱かないことが多い。
以下は、このような態様について根本的に理解するために、本開示の様々な態様の短縮された概要を提示する。本概要は、熟慮されたすべての態様についての広範囲にわたる全体像ではなく、主要且つ重要な要素を識別することも、このような態様の範囲を詳しく説明することも意図するものではない。この目的は、後で提示されるさらに詳細な説明に対する前置きとして、簡潔な形で本開示のいくつかの概念を提示することである。
本開示の1つの態様において、対話式コンテンツ管理のためのシステム及び方法が開示される。1つの実装形態において、1つ又は複数の入力が受け取られる。1つ又は複数の入力は、1つ又は複数のコンテンツ提示面を識別するために処理される。1つ又は複数のコンテンツ提示面の識別に基づいて、第1のコンテンツ項目は修正される。修正された第1のコンテンツ項目は、1つ又は複数のコンテンツ提示面に対して提示される。
本開示の態様及び実装形態は、下記で述べられる「発明を実施するための形態」から、並びに本開示の様々な態様及び実装形態に関する添付の図面から、さらに完全に理解されることになるが、特定の態様又は実装形態に本開示を限定するように解されるのではなく、説明及び理解のためだけに解されるべきである。
実施例の実例による、システムの1つの実例を示す図である。 実施例の実例による、デバイスの1つの実例を示す図である。 実施例の1つの実例による、本明細書で説明されるシナリオの1つの実例を示す図である。 実施例の1つの実例による、本明細書で説明されるシナリオの1つの実例を示す図である。 実施例の1つの実例による、本明細書で説明されるシナリオの1つの実例を示す図である。 実施例の実例による、本明細書で説明されるシナリオの実例を示す図である。 実施例の実例による、本明細書で説明されるシナリオの実例を示す図である。 実施例の実例による、本明細書で説明されるシナリオの実例を示す図である。 実施例の実例による、本明細書で説明されるシナリオの実例を示す図である。 実施例の実例による、本明細書で説明されるインターフェースの実例を示す図である。 実施例の実例による、本明細書で説明されるインターフェースの実例を示す図である。 実施例の実例による、本明細書で説明されるインターフェースの実例を示す図である。 実施例の実例による、本明細書で説明されるインターフェースの実例を示す図である。 実施例の実例による、本明細書で説明されるインターフェースの実例を示す図である。 実施例の実例による、本明細書で説明されるインターフェースの実例を示す図である。 実施例の実例による、本明細書で説明されるインターフェースの実例を示す図である。 実施例の実例による、本明細書で説明されるシナリオの実例を示す図である。 実施例の実例による、本明細書で説明されるシナリオの実例を示す図である。 実施例の1つの実例による、対話式コンテンツ管理のための方法を示す流れ図である。 実施例の1つの実例による、マシン可読媒体から命令を読み取り、本明細書で論じられる方法のいずれかを行うことができるマシンの構成要素を示すブロック図である。
本開示の態様及び実装形態は対話式コンテンツ管理を対象とする。
非常に多くの「実在の」商店(例えば、小売店及び他の店舗)は、自分の店頭の窓のディスプレイをデザインするのにかなりのリソースを充てるということが理解されよう。しかし、このような努力は、特に店舗が閉まっている時間に、顧客に関心を抱かせること、又は顧客を引き寄せることができないことが多い。したがって、対話式コンテンツ管理のためのシステム、方法、及び関連技術が本明細書で説明される。説明される技術を使用すると、店頭及び他の場所などの現実世界の構造物は、動的で対話式のコンテンツが投影/提示されることが可能になる面に変えられることが可能になる。そうすることで店の経営者らは、店が閉まっているときでも、自分のショーウィンドウをさらに効果的に利用して、ユーザ、顧客等に関心を抱かせることができる。
本開示で詳細に概説されるように、説明される技術は、コンテンツ提示、コンテンツ配信、及びマシン・ビジョンを含むがこれらに限定されない複数の技術的な領域における特定の技術的課題及び長年の欠陥を対象とし、これらに取り組む。本明細書で詳細に説明されるように、開示される技術は、言及された技術的課題、及び言及された技術分野における満たされない要求に対して特定の技術的ソリューションを提供し、従来のアプローチに非常に多くの利点及び改善をもたらす。さらに様々な実装形態において、本明細書で言及されるハードウェア要素、構成要素等のうちの1つ又は複数は、本明細書で説明される手法などで、説明される技術を可能にし、改善し、及び/又は拡張するように動作する。
図1は、いくつかの実装形態によるシステム100の実例を示す。図示のように、システム100は、1つ又は複数のユーザ・デバイス(例えば、デバイス102A、デバイス102B等、まとめてユーザ・デバイス102)、コンテンツ提示デバイス(例えば、コンテンツ提示デバイス112A、コンテンツ提示デバイス112B等、まとめてコンテンツ提示デバイス112)、及びサーバ120を含む。これらの(及び他の)要素又は構成要素は、ネットワーク150を介して互いに接続されてよく、このネットワークは、パブリック・ネットワーク(例えばインターネット)、プライベート・ネットワーク(例えばローカル・エリア・ネットワーク(LAN:local area network)、若しくは広域ネットワーク(WAN:wide area network))、又はこれらの組合せであってよい。さらに、ある特定の実装形態において、様々な要素は、互いに(例えば、図1に示されるコンテンツ提示デバイス112Aとユーザ・デバイス102Bを)通信及び/又はそうでなければインターフェースすることができる。
システム100は、1つ又は複数のコンテンツ提示デバイス112を含むことができる。このようなコンテンツ提示デバイス112の実例は、プロジェクタ又はスマート・プロジェクタ112を含むがこれらに限定されない。ある特定の実装形態において、このようなプロジェクタは、例えば、10K〜15K ANSIルーメンの高精細度ビデオ・レーザ・プロジェクタであってよい。このようなプロジェクタは、(例えば、投影面から0.6mから0.9m(2フィートから3フィート)離れて置かれたプロジェクタから、対角線が254cm(100インチ)ある領域にコンテンツを投影するための)超短焦点レンズなどのレンズをさらに装備されてよい。このようなプロジェクタはしたがって、本明細書で説明されるように、(例えば、窓に付けられたリア・プロジェクション・フィルムを有する窓といった)ガラス上に投影されると簡単に見える可能性があるものなど、高コントラストで、色彩豊かな画像を投影することができる可能性がある。
ある特定の実装形態において、コンテンツ提示デバイス112は、本明細書で詳細に説明される他のコンピューティング・デバイスの中にあるものなどの、プロセッサ、コントローラ、メモリ等などの構成要素をさらに含むことができる。さらに、コンテンツ提示デバイス112は、画像センサ113(例えばカメラ)などの様々なセンサを組み込むか、又は含むこともできる。本明細書で詳細に説明されるように、このようなセンサは、例えば、コンテンツ提示面に提示されるコンテンツをマップするためのコンテンツ提示面(例えば反射フィルム)をコンテンツ提示デバイス112が検出/識別できるようにすることができる。
さらに、ある特定の実装形態において、コンテンツ提示デバイス112は、様々な通信インターフェース(例えば本明細書で説明されるように、Wifi(登録商標)、イーサネット(登録商標)等などのネットワーク・インターフェース)を含むこと/組み込むことができる。このような構成要素は、本明細書で説明されるように、他のシステム、デバイス等からのデータ、コンテンツ、情報等を、コンテンツ提示デバイス112が送ること/受け取ることを可能にする。さらに、ある特定の実装形態において、コンテンツ提示デバイス112は、コンテンツ提示アプリケーション115などの、アプリケーション、モジュール、オペレーティング・システム等を含むことができる。アプリケーション115は、例えば、デバイス112が、本明細書で説明される様々な動作を行うように構成するため/行えるようにするために、コンテンツ提示デバイス112上で実行することができる。
ある特定の実装形態において、コンテンツ提示デバイス112は、様々な追加の構成要素を含むか、及び/又はそうでなければ組み込むこともできる。例えば、コンテンツ提示デバイス112は、近接センサ、光センサ(例えば環境光の検出のためのセンサであり、これによってプロジェクタの明るさを自動的に調節できる)、カメラ(例えば、本明細書で説明されるように、色の検出/調節、顔及びジェスチャの追跡等のため)、複数のアプリケーションを実行することができ、内部のWIFI(登録商標)/GSM(登録商標)の構成要素及びセンサ(例えば、GPS、NFC、加速度計(例えば、傾き及び角度の検出のため)等)を含む、ローカル及び/又はリモートのコンピューティング・デバイス(例えば、サーバ120に対する、本明細書で説明されるものなど)をさらに含むことができる。
ある特定の実装形態において、説明される技術は、例えばカメラの視野にプロジェクタの出力を較正及び整合させるために、並びに様々なプロジェクション・マッピング及びマスキング動作/機能を自動化するために、コンテンツ提示デバイス112(例えばプロジェクタ)の主要能力(key stoning capability)を組み合わせるか、及び/又はそうでなければ統合することができる。例えば、コンテンツ提示デバイス112に埋め込まれた/接続された加速度計は、コンテンツがフィルム/窓上で正しく見えることを保証するために、プロジェクタが置かれた角度を判断するために使用されてよく、投影される画像を適宜調節することができる。
図1に示されるように、ある特定の実装形態において、コンテンツ提示デバイス112は、コンテンツ提示面114に向けてコンテンツ(例えば、画像、テキスト等)を投影することができる。このようなコンテンツ提示面は、例えば、窓又は他のこのような構造物に貼られるか、又は付けられることが可能なフィルム(又は他のこのような面)であってよい。様々な実装形態において、このようなフィルムは、不透明な、半透明な、不透明と半透明の間で調節可能な、色のついた(例えば、黒、濃い灰色、灰色、白、ミラー、高分子分散液晶(PDLC:polymer−dispersed liquid crystal)等)ものであってよい。
ある特定の実装形態において、コンテンツ提示面114は様々な形状で構築されてよい。例えば、図1に示されるように、構造物101(例えば建物)の窓116は、投影フィルム114A及び114Bが窓に付けられており、これらのそれぞれは異なる形状に切られている。ある特定の実装形態において、(例えばコンテンツ提示デバイス112によって)投影されているコンテンツは、この形状の上に描写される(しかし、そうでなければ窓116の周辺領域上では見えない)。
さらに、ある特定の実装形態において、1つ又は複数のセンサ(例えばカメラといった、例えば統合された画像センサ113)は、フィルムの形状を検出するように構成されてよい。このような検出された形状(例えば、図1に示されるフィルム114Aの場合は長方形)に基づいて、言及されたコンテンツは、(例えば、投影されたコンテンツの中心がフィルム上で見えることを保証するように)適宜調節、修正等が行われてよい。
例証のために、図1に示されるように、コンテンツ提示デバイス112A(例えばプロジェクタ)は、建物101内に置かれてよい。センサ/カメラ113を使用して、コンテンツ提示デバイス112Aは、(例えば、窓116に貼られるような)コンテンツ提示面114A及び114Bを識別/検出することができる。コンテンツ提示デバイス112Aによって提示される(例えば、このようなコンテンツ提示面に向けて投影される)コンテンツは、例えば、面の形状、面のタイプ/材料又は性質、提示されることになるコンテンツの態様等の観点から、調節、修正等が行われてよい。
さらに、図1に示されるように、様々なセンサ、デバイス等は、言及されたフィルム114に埋め込まれるか、若しくはそうでなければ統合され、言及された窓116に取り付けられ及び/又はそうでなければその近くに置かれてよい。このようなデバイスの実例はセンサ118Aを含み、このセンサは、例えば、データを集めること、データを提供すること、エンド・ユーザ(例えば窓のそばを通る人々)と接続すること等を行うように構成されることが可能なNFCチップ/センサであってよい。さらなる実例のために、センサ118Bは、窓116に向かいあって/窓116の前で知覚される画像、ビデオ、及び/又は他のこのような視覚コンテンツをキャプチャするように構成される画像センサ(例えばカメラ)であってよい。他の様々なセンサ(例えばマイクロフォン)、並びにさらなる出力デバイス(例えばスピーカ)が、同様の手法で配置されてもよい。そうすることで、本明細書で説明されるように、コンテンツ制御し、これと対話できるようにするために、言及されたデバイス/技法が用いられることが可能になる。
図1(及び本明細書で提供される他の様々な実例)は、プロジェクタに関する(コンテンツ提示デバイス112を含む)説明される技術を描写/説明するが、説明される技術は、このように限定されないということを理解されたい。したがって、他の実装形態において、説明される技術は、実質的に任意のタイプのコンテンツ提示デバイスに対して、構成され及び/又はそうでなければ適用されてよいということを理解されたい。例えば、説明される技術の様々な態様は、ビデオ・ウォール、LCD/LED画面等を含むがこれらに限定されない表示デバイスに対して実装されてもよい。
さらに、ある特定の実装形態において、言及されたコンテンツ提示面114は、タッチ及び/又は他の相互作用を知覚することができるもの(例えば「タッチ・フォイル」)などの、様々なセンサ等をさらに埋め込まれてよい。そうすることで、面114とのユーザ対話が知覚され、処理されることが可能になり、描写されているコンテンツのさらなる態様(並びに他の機能)が、例えば本明細書で説明される手法で、結果として調節/制御されることが可能になる。
図1に示されるように、複数のコンテンツ提示デバイス112(例えばデバイス112B、112C等)は、(例えば全国的な小売チェーンの場合)様々な地理的領域にわたって導入されてよいということに留意されたい。そうすることで、説明される技術は、集中化された手法で、このようなコンテンツ提示デバイスを管理できるようにすることができる。そうすることで、例えば、1つの場所で効果的と判断されたコンテンツが、別の場所に送られ/利用されてよい。さらに、ある特定のシナリオにおいて、単一の設備(例えば、112Dについて図1で示すものなどのデバイスの配列)で、複数のコンテンツ提示デバイスが互いに組み合わされてよいということに留意されたい。
上述のように、また本明細書でさらに説明されるように、コンテンツ提示デバイス112、これに接続され連結されるセンサ、等の様々な態様及び/又は要素は、様々なデバイスと通信して(直接的及び/又は間接的に)接続されるか、及び/又はそうでなければ結合してよい。このようなデバイスの1つの実例はユーザ・デバイス102である。
ユーザ・デバイス102は、ラックマウント型サーバ、ルータ・コンピュータ、パーソナル・コンピュータ、携帯型情報端末、ラップトップ・コンピュータ、タブレット型コンピュータ、カメラ、ビデオ・カメラ、ネットブック、メディア・センタ、スマートフォン、ウェアラブル・デバイス、仮想現実デバイス、拡張現実デバイス、上記の任意の組合せ、又は本明細書で説明される様々な特徴を実装することができる他の任意のこのようなコンピューティング・デバイスであってよい。モバイル・アプリケーション(「アプリ」)、ウェブ・ブラウザ等などの様々なアプリケーションが、ユーザ・デバイス上(例えば、ユーザ・デバイスのオペレーティング・システム上)で動くことができる。
ある特定の実装形態において、ユーザ・デバイス102は、(図2及び図11に描写されるもの、並びに/又は本明細書で説明/言及されるものを含むがこれらに限定されない)様々なセンサ及び/又は通信インターフェースを含むか、及び/又は組み込んでもよい。このようなセンサの実例は、加速度計、ジャイロスコープ、方位計、GPS、触感センサ(例えば、タッチ・スクリーン、ボタン等)、マイクロフォン、カメラ等を含むがこれらに限定されない。このような通信インターフェースの実例は、セルラー(例えば、3G、4G等)インターフェース、Bluetooth(登録商標)インターフェース、WiFi(登録商標)インターフェース、USBインターフェース、NFCインターフェース等を含むがこれらに限定されない。
上述のように、ある特定の実装形態において、ユーザ・デバイス102は、様々なセンサ及び/又は通信インターフェースを含むか、及び/又は組み込んでもよい。例証のために、図2は、ユーザ・デバイス102の例証の1つの実例を描写する。図2に示されるように、デバイス102は、本明細書で説明されるものなどの、様々な動作を可能にするのに役立つ様々なハードウェア及び/又はソフトウェア構成要素に動作可能なように接続される制御回路240(例えばマザーボード)を含むことができる。制御回路240は、処理デバイス210及びメモリ220に動作可能なように接続されてよい。処理デバイス210は、メモリ220にロードされ得るソフトウェアに対して命令を実行する役目をする。処理デバイス210は、特定の実装形態に応じて、いくつかのプロセッサ、マルチプロセッサ・コア、又は他のいくつかのタイプのプロセッサであってよい。さらに、プロセッサ210は、メイン・プロセッサが2次プロセッサとともに単一チップ上にある、いくつかのヘテロジニアス・プロセッサ・システムを使用して実装されてよい。別の例証となる実例として、処理デバイス210は、同じタイプの複数のプロセッサを収める対称型マルチプロセッサ・システムであってよい。
メモリ220及び/又はストレージ290は、プロセッサ210によってアクセス可能であってよく、それによって、メモリ220及び/又はストレージ290上に格納された命令を処理デバイス210が受け取り、実行できるようにする。メモリ220は、例えば、ランダム・アクセス・メモリ(RAM:random access memory)、又は他の任意の適切な、揮発性若しくは不揮発性のコンピュータ可読ストレージ媒体であってよい。さらにメモリ220は、固定されるか、又は着脱可能であってよい。ストレージ290は、特定の実装形態に応じて様々な形をとることができる。例えば、ストレージ290は、1つ又は複数の構成要素又はデバイスを収めることができる。例えば、ストレージ290は、ハード・ドライブ、フラッシュ・メモリ、書換え可能光ディスク、書換え可能磁気テープ、又は上記のいくつかの組合せであってよい。ストレージ290も、固定されるか、又は着脱可能であってよい。
図2に示されるように、ストレージ290は、コンテンツ提示アプリケーション292を格納することができる。ある特定の実装形態において、コンテンツ提示アプリケーション292は、(例えば、サーバ120と共に/通信して)デバイスのユーザが、本明細書で説明される技術と対話すること、及び/又はそうでなければこの技術を利用することができるようにするために、メモリ220にロードされ、及び/又は処理デバイス210によって実行されることが可能な、例えば、命令、「アプリ」等であってよい。
ある特定の実装形態において、コンテンツ提示アプリケーション292は、コンテンツ提示デバイス112の動作の様々な態様を、ユーザ(例えばコンテンツ・アドミニストレータ)が管理、構成等を行えるようにすることができる。例えば、アプリケーション292は、特定の時間、特定の条件等のもとで、特定のコンテンツ提示デバイスで提示されることになるコンテンツを、ユーザが選択できるようにすることができる。他の実装形態において、アプリケーション292は、本明細書で説明されるように、(例えば、コンテンツ提示デバイス112によって提示されるビデオ・ゲームを制御するために)コンテンツ提示デバイス112によって提示されるコンテンツと、ユーザが対話できるようにすることができる。さらなる他の実装形態において、アプリケーション292は、例えば、下記で詳細に説明されるように、コンテンツ提示デバイス112のパフォーマンスについての、様々な分析、基準値等を、ユーザ(例えばコンテンツ・アドミニストレータ)が精査できるようにする様々なインターフェースを提供することができる。
通信インターフェース250もまた、制御回路240に動作可能なように接続される。通信インターフェース250は、ユーザ・デバイス102と、(図1に描写されるもの、及び本明細書で説明されるものを含むがこれらに限定されない)1つ又は複数の外部デバイス、マシン、サービス、システム、及び/又は要素との間の通信を可能にする任意のインターフェース(又は複数のインターフェース)であってよい。通信インターフェース250は、モデム、ネットワーク・インターフェース・カード(NIC:Network Interface Card)、統合型ネットワーク・インターフェース、無線周波数送信機/受信機(例えば、WiFi(登録商標)、Bluetooth(登録商標)、セルラー、NFC)、衛星通信送信機/受信機、赤外線ポート、USB接続、又は他のコンピューティング・デバイス、システム、サービス、及び/若しくはインターネットなどの通信ネットワークにデバイス102を接続するための他の任意のこのようなインターフェースを含むことができる(が限定されない)。このような接続は、有線接続又はワイヤレス接続(例えば802.11)を含むことができるが、通信インターフェース250は、制御回路240及び/又は本明細書で説明される様々な構成要素を行き来する通信を可能にする、実質的に任意のインターフェースであってよいということを理解されたい。
説明される技術の動作中の様々なポイントで、デバイス102は、図1に描写されるもの、及び/又は本明細書で説明されるものなどの、1つ又は複数の他のデバイス、システム、サービス、サーバ等と通信することができる。このようなデバイス、システム、サービス、サーバ等は、ユーザ・デバイス102との間でデータを送ること、及び/又は受け取ることができ、それによって本明細書で詳細に説明されるものなどの、説明される技術の動作を強化する。言及されたデバイス、システム、サービス、サーバ等は、本明細書で説明されるように、ユーザ・デバイス102との直接の通信状態、ユーザ・デバイス102との間接の通信状態、ユーザ・デバイス102と不変の/進行中の通信状態、ユーザ・デバイス102との定期的な通信状態にあってよく、及び/又はユーザ・デバイス102と通信によって連携してよいということを理解されたい。
1つ又は複数のセンサ245A〜245N(まとめて、センサ245)は、ユーザ・デバイス102の制御回路240にも接続されるか、及び/又はこの制御回路と通信する。センサ245は、ユーザ・デバイス102に及び/又はこれと通信して、組み込まれること/統合されることが可能な、様々な構成要素、デバイス、及び/又は受信機であってよい。センサ245は、本明細書で説明される、1つ又は複数の刺激、現象、又は他の任意のこのような入力を検出するように構成されてよい。このようなセンサ245の実例は、加速度計245A、ジャイロスコープ245B、GPS受信機245C、マイクロフォン245D、磁力計245E、カメラ245F、光センサ245G、温度センサ245H、高度センサ245I、圧力センサ245J、近接センサ245K、近距離無線通信(NFC:near−field communication)デバイス245L、方位計245M、及び触覚センサ245Nを含むがこれらに限定されない。本明細書で説明されるように、デバイス102は、センサ245からの様々な入力を知覚すること/受け取ることができ、このような入力は、本明細書で説明されるものなどの、様々な動作及び/又はその態様を始めるため、可能にするため、及び/又は拡張するために使用されてよい。
この時点で、(例えば、センサ245についての)前述の説明は、ユーザ・デバイス102を対象としたが、(図1に描写されるもの、及び/又は本明細書で説明されるものなどの)他の様々なデバイス、システム、サーバ、サービス等が、ユーザ・デバイス102について説明された構成要素、要素、及び/又は能力を同様に組み込むことができるということに留意されたい。図1に描写されるもの、及び/又は本明細書で説明されるものなどの、様々なデバイス、システム、サーバ、サービス等のある特定の態様及び実装形態も、図11に対して下記でより詳細に説明されるということも理解されたい。
サーバ120は、ラックマウント型サーバ、ルータ・コンピュータ、パーソナル・コンピュータ、携帯型情報端末、携帯電話、ラップトップ・コンピュータ、タブレット型コンピュータ、カメラ、ビデオ・カメラ、ネットブック、デスクトップ・コンピュータ、スマートフォン、メディア・センタ、スマートウォッチ、車載コンピュータ/システム、上記の任意の組合せ、ストレージ・サービス(例えば「クラウド」サービス)、又は本明細書で説明される様々な特徴を実装することができる他の任意のこのようなコンピューティング・デバイスであってよい。
サーバ120は、コンテンツ提示エンジン130、分析エンジン132、コンテンツ・リポジトリ140、及びログ142などの構成要素を含むことができる。ある特定の実装形態において、サーバ120は、(図2に描写されるもの、及びユーザ・デバイス102について説明されたものを含むがこれらに限定されない)様々なセンサ及び/又は通信インターフェースを含むか、及び/又は組み込むこともできるということを理解されたい。構成要素は、特定の実装形態に従って、互いに組み合わされるか、又はさらなる構成要素に分離されてよい。いくつかの実装形態において、サーバ・マシン120の様々な構成要素が、別々のマシン上で動くことができる(例えば、コンテンツ・リポジトリ140が別々のデバイスであってよい)ということに留意されたい。さらに、ある特定の構成要素のいくつかの動作が、下記でさらに詳細に説明される。
コンテンツ提示エンジン130は、デバイス/サーバのメモリに格納され、デバイス/サーバの1つ又は複数のプロセッサによって実行され得るものなどの、アプリケーション、プログラム、モジュール等であってよい。そうすることで、サーバ120は、様々な動作を行うこと、コンテンツ提示デバイス112にコンテンツを提供/提示すること、等、及び本明細書で説明される他の様々な動作を行うことを行うように構成されてよい。
分析エンジン132は、例えば、下記で詳細に説明されるように、説明される技術に関係がある様々な分析、基準値、レポート等を計算及び提供するために、ログ142及び/又は他のソースからの情報を処理するアプリケーション、プログラム等であってよい。ログ142は、データベース、又は説明される技術の動作の様々な態様(例えば、何のコンテンツが特定の時間にある場所でどのように示されたか)を反映するレコードの他のこのようなセットであってよい。ある特定の実装形態において、ログ142は、様々なセンサを介して集められた/得られた情報をさらに反映すること又は含むことができる。例えば、ログ142は、本明細書で説明されるように、様々なタイプのコンテンツに様々なユーザが反応/応答する手法を反映することができる。
コンテンツ・リポジトリ140は、メイン・メモリ、磁気又は光ストレージ・ベースのディスク、テープ、又はハード・ドライブ、NAS、SAN等などの、1つ又は複数のストレージ・デバイスによってホストされてよい。いくつかの実装形態において、リポジトリ140は、ネットワーク接続型ファイル・サーバであってよく、一方、他の実装形態において、リポジトリ140は、サーバ120、又はネットワーク150を介してサーバ120に連結される1つ又は複数の異なるマシンによってホストされることが可能な、オブジェクト指向データベース、リレーショナル・データベース等などの、他のいくつかのタイプの永続ストレージであってよく、一方、さらなる他の実装形態において、リポジトリ140は、別のエンティティによってホストされ、サーバ120にアクセス可能にされたデータベースであってよい。
コンテンツ・リポジトリ140は、コンテンツ項目143、スケジュール145、トリガ147、及び本明細書で説明/言及された他の様々な情報、データ等を格納することができる。コンテンツ項目143は、画像、テキスト、ビデオ、タイミング画像(timed image)、ソーシャル・メディア・コンテンツ、双方向体験、シネマグラフ、ゲーム、及び例えば、本明細書で説明される技術によって提示/提供されることが可能な他の任意のデジタル・メディア若しくはコンテンツを含むことができるが、これらに限定されない。スケジュール145は、様々なコンテンツ項目が提示/投影されることになる手法を定める時間的順序又はフレームワークを含み、又は反映することができる。ある特定の実装形態において、このようなスケジュールは継続的なものであってよく、その結果、含まれた/言及されたコンテンツは、スケジュールに従って繰返しを続ける。トリガ147は、知覚、観察等が行われると、様々な動作を始めるようにすることができる、様々な現象、刺激等を含み、又は反映することができる。ある特定の実装形態において、このようなトリガは様々なコンテンツ項目と関連付けられてよく、その結果、関連付けられたコンテンツ項目がトリガに応答して提示されることになる。このようなトリガは、人間のふるまい(例えば、ユーザが微笑んでいると判断されるときに、ある特定のコンテンツを提示する)、自然発生(例えば、外で雨が降っているときに、ある特定のコンテンツを提示する)、等などの任意の数の現象に対応することができる。したがって、スケジュール145及びトリガ147は、コンテンツ提示デバイス112が、(例えば面114上に)コンテンツ項目143を提示/投影することになるフレームワークを定義することができる。
この時点で、説明されたコンテンツ提示技術に対して様々なアプリケーションが用いられてよいということに留意されたい。ある特定の実装形態において、このようなアプリケーションは、動的な手法でコンテンツが提示されることを可能にすることができる。例えば、様々なユーザ(例えば、窓116の前に立っているユーザ、又はそばを通るユーザ)によって始められる対話に基づいて、コンテンツ提示デバイス112によって、特定のコンテンツが提示/投影されてよい。さらに、ある特定の実装形態において、このような対話(例えば、コンテンツ提示デバイス112とのユーザの対話に基づいて、ソーシャル・メディアの投稿、電子商取引の購入等を始めること)に応答して、さらなる様々なアクション又は動作が始められてよい。
このようなアプリケーションの実例は、(例えばアプリ・マーケットからの)アプリ、ギャラリー、スライドショー、ドロップ・ファイル、ビデオ・プレイリスト、電子商取引、ライブ・ビデオ(例えば、プロジェクタを介した窓上で、例えばスマートフォンといったデバイスによってキャプチャされたビデオをブロードキャストすること)、ゲーム、デザイン、及び/アート(コンテンツ・マーケットを介して売られる/アクセスされる多くのものなど)、等の発見、購入、及び/又はインストールができるように、説明される技術を構成するアプリケーションを含むがこれらに限定されない。
例証のために、コンテンツ提示デバイス112は、「ウィンドウ・ショッピング」アプリケーションを投影/提示するように構成されてよい。このようなアプリケーションは、(例えば面114上に投影される)説明されたコンテンツ提示技術を介して小売業者の製品カタログの動的な/対話式の提示を可能にすることができる。ユーザは、このようなコンテンツと対話すること、ブラウズすること、等ができる。所望の項目を識別すると、ユーザは、(例えば小売店の場所が閉まっているときでさえ)ユーザのスマートフォン102を介して購入を始めること/実行することができる。このような取引は、例えば、(例えば、電子商取引アプリケーション又はウェブページを介して取引が実行/完了されることが可能な)ユーザのデバイスによって認識されることが可能な、例えば、QRコード(登録商標)を(説明される技術を介して)投影/提示することによって完了されてよい。
図1は、サーバ120、コンテンツ提示デバイス112、及び様々なユーザ・デバイス102を個別の構成要素として描写するが、様々な実装形態において、任意の数のこのような構成要素(及び/又はその要素/機能)が単一の構成要素/システムなどの中で組み合わされてよいということを理解されたい。例えば、ある特定の実装形態において、デバイス102は、サーバ120の特徴を組み込むことができる。
本明細書で詳細に説明されるように、対話式の/動的なコンテンツの提示及び管理を可能にする様々な技術が開示される。ある特定の実装形態において、このような技術は、コンテンツ提示デバイス112、サーバ120、デバイス102、並びに本明細書で言及されるものなどの他の様々なデバイス及び構成要素によって、並びに/又はこれらと共に行われる動作を包含することができる。
本明細書で使用されるように、用語「構成される」は、その平易且つ普通の意味を包含する。1つの実例において、マシンは、マシンのプロセッサにアクセス可能なメモリに格納された方法のためのソフトウェア・コードを有することによってこの方法を行うように構成される。プロセッサは、方法を実行するためにメモリにアクセスする。別の実例において、方法を実行するための命令はプロセッサに配線で接続される。さらに別の実例において、命令の一部が配線で接続され、命令の一部が、ソフトウェア・コードとしてメモリに格納される。
図10は、実施例の1つの実例による、対話式コンテンツ管理のための方法1000を示す流れ図である。方法は、ハードウェア(回路機器、専用ロジック等)、ソフトウェア(本明細書で説明されるものなどのコンピューティング・デバイス上で動かされるものなど)、又は両方の組合せを備えることができる処理ロジックによって行われる。1つの実装形態において、方法1000は、図1(コンテンツ提示デバイス112、コンテンツ提示エンジン130、分析エンジン132、サーバ120、及び/若しくはユーザ・デバイス102含むがこれらに限定されない)、並びに/又は図2(例えば、アプリケーション292及び/若しくはデバイス102)、に対して描写及び/又は説明される1つ又は複数の要素によって行われ、一方、いくつかの他の実装形態において、図10の1つ又は複数のブロックが、別のマシン又は複数のマシンによって行われてもよい。
説明を簡単にするために、方法は、一連の行為として描写及び説明される。しかし、本開示による行為は、様々な順序で及び/又は並行に、並びに本明細書で提示及び説明されない他の行為と共に発生させることができる。さらに、開示の主題による方法を実行するのに、図示されたすべての行為が要求され得るわけではない。さらに、当業者は、一方で、状態図又はイベントによる一連の相関状態として、方法が表されることがあるということを理解し認識するであろう。さらに、本明細書で開示された方法は、コンピューティング・デバイスにこのような方法を転送及び移送するのを容易にするために、製品上に格納されることが可能であるということを理解されたい。本明細書で使用される用語、製品は、任意のコンピュータ可読デバイス又はストレージ媒体からアクセス可能なコンピュータ・プログラムを包含することを意図する。
動作1005において、1つ又は複数の入力が受け取られる。このような入力は、図1に示され、本明細書で説明されるセンサ113などの様々なセンサから受け取られてよい。ある特定の実装形態において、このような入力は、本明細書で説明される1つ又は複数の画像を含むことができる。さらに、ある特定の実装形態において、言及された1つ又は複数の入力は、(例えば、1つ又は複数のコンテンツ提示面に対する)コンテンツ提示デバイスの位置に対応することができる。
例証のために、上述のように、説明される技術は、コンテンツ提示デバイス112の機能の様々な態様を制御するために利用されてよい。例えば、プロジェクタの出力(例えば画像)は較正されてよい。そうすることで、投影されるコンテンツは、例えば、プロジェクション・マッピング及びコンテンツ提示能力を自動化するために、プロジェクタのカメラの視野に合わされてよい。
動作1010において、1つ又は複数の入力が処理される。そうすることで、例えば本明細書で説明されるように、1つ又は複数のコンテンツ提示面が識別される。ある特定の実装形態において、1つ又は複数の入力は、1つ又は複数のコンテンツ提示面(例えば、図1に示され、本明細書で説明される面114Aなどの、説明された反射フィルム)の少なくとも1つの場所、位置、及び/又は形状を識別するために処理されてよい。
動作1015において、関心基準値が計算される。例えば、本明細書で説明されるように、ユーザの関心のレベル又は度合いが判断されてよい。例えば、窓の前に立ち(例えば移動していない)、窓の方に顔を向けている/向いているユーザは、窓に提示されているコンテンツに関心を抱いている可能性があると判断されてよいが、窓のそばを歩いている(及び窓を見ていない)ユーザは、表示されているコンテンツに関心を抱いている可能性は比較的低いと判断されてよい。したがって、ある特定の実装形態において、説明される技術は、(例えば顔認識等を使用して)1人又は複数のユーザの関心のこのような度合いを判断するように構成されてよい。さらに、描写されているコンテンツは、適宜選択/修正されてよい。例えば、特定のユーザが、提示されているコンテンツに関心を抱いていない(例えば窓のそばを歩いている)と判断すると、見物人の注目を得るため、及び表示されるコンテンツによって彼らがさらに関心を抱くのを促進するために、(例えば、鮮やかな光、色、販売促進情報等で)ユーザの注目を得るように構成されるコンテンツが投影/提示されてよい。
動作1020において、第1のコンテンツ項目が修正される。ある特定の実装形態において、このようなコンテンツは、1つ又は複数のコンテンツ提示面の識別に基づいて(例えば動作1010において)修正されてよい。さらに、ある特定の実装形態において、第1のコンテンツ項目は、(例えば動作1015において計算されるような)関心基準値に基づいて修正されてよい。
ある特定の実装形態において、1つ又は複数の入力の1つ又は複数の態様が、第1のコンテンツ項目に組み込まれてよい。この機能のさらなる態様が図4に対して本明細書で示され、この中で、描写されるキャラクタの「体」の画像/ビデオが(例えばコンテンツ・リポジトリ140から)取得され、(埋め込まれ及び/又は接続されたカメラ、例えば図示のようなカメラ418によってキャプチャされる可能性のある)窓416の前に立っている可能性のある様々なユーザ(例えばユーザ460)の特性(ここでは顔)を組み込むように修正されてよい。
動作1025において、例えば、本明細書で説明される手法などで、1つ又は複数のコンテンツ提示面(例えば、動作1010において識別されたもの)に対して、修正された第1のコンテンツ項目の提示、投影等が行われる。
ある特定の実装形態において、第1のコンテンツ項目は、1つ又は複数のコンテンツ提示トリガと関連付けられてよい。このようなシナリオにおいて、第1のコンテンツ項目は、1つ又は複数のコンテンツ提示トリガのうちの少なくとも1つが発生したという判断に応答して提示されてよい。
例証のために、ある特定の実装形態において、説明される技術は、様々なトリガ147を様々なコンテンツ項目143と関連付けることができるようにすることができる。このようなトリガの実例は、1つ又は複数の統合/接続されたセンサ(例えばカメラ、NFC等)によって知覚される様々な現象を含むがこれらに限定されない。このような現象は、例えば、様々なユーザ・アクション/対話(例えば、ジェスチャ対話、顔認識、気分認識等)、様々な背景情報(例えば、現在の時間、日付、季節、天気等)、第三者ソースから発するコンテンツ(例えば、ニュース項目、ソーシャル・メディアの投稿等)、等を反映することができる。例証のために、特定のジェスチャを行うこと、特定の気分を表現すること、等をユーザが行っていることを検出/知覚すると、このような「トリガ」に対応するコンテンツがユーザのために選択され、提示されてよい。さらなる実例のために、言及されたトリガの1つ又は複数(例えば、1人又は複数のユーザが窓の前で見物しているか、又は立っていると判断すること)が、コンテンツの提示を始めるのに利用されてよい。
ある特定の実装形態において、第1のコンテンツ項目は、第1のコンテンツ提示面に対して提示されてよく、第2のコンテンツ項目は、第2のコンテンツ提示面に対して提示されてよい。この機能のシナリオの1つの実例が、(様々なコンテンツ項目550A、550Bが個々のコンテンツ提示面上に提示され得る)図5に対して本明細書で描写/説明される。
さらに、ある特定の実装形態において、第1のコンテンツ項目を提示することは、コンテンツ提示スケジュールに基づいて提示されてよい。本明細書で説明されるように、このようなスケジュール145は、様々なコンテンツ項目が提示/投影されることになる手法を定める時間的順序又はフレームワークを含むか、又は反映することができる。ある特定の実装形態において、このようなスケジュールは継続的なものであってよく、その結果、含まれた/言及されたコンテンツは、スケジュールに従って繰返しを続ける。
動作1030において、第1のコンテンツ項目と関連付けられた第1の通信は、例えばユーザ・デバイスから受け取られる。このような通信のシナリオの1回の実例が、図6Aに対して本明細書で描写/説明される。
動作1035において、例えば、第1の通信(例えば、動作1030において受け取られた通信)に応答して、コンテンツ制御がユーザ・デバイスに対して行われる。このようなコンテンツ制御は、例えば、提示されているコンテンツをユーザが制御できるアプリケーション、インターフェース等であってよい。このような制御に関係があるシナリオの1回の実例が、図6Bに対して本明細書で描写/説明される。
動作1040において、コンテンツ制御によってユーザ・デバイスによって行われた第2の通信が、本明細書で説明される手法などで受け取られる。
動作1045において、第1のコンテンツ項目の提示が、例えば第2の通信(例えば動作1040において受け取られた通信)に応答して調節される。
動作1050において、第1のコンテンツ項目の提示に対応する入力が、本明細書で説明される手法などで受け取られる。
動作1055において、第2のコンテンツ項目の提示が、例えば動作1050において受け取られた入力に基づいて調節される。
動作1060において、第1のコンテンツ項目の選択が、本明細書で説明される手法などで受け取られる。
動作1065において、1つ又は複数のコンテンツ提示面の1つ又は複数の態様が、(例えば動作1060における)第1のコンテンツ項目の選択に基づいて調節される。
例証のために、ある特定の実装形態において、説明される技術は、コンテンツ提示面114の大きさ/形状(例えば、窓116に貼られた、言及されたフィルム)に関する提案を生み出すことができる。例えば、様々なコンテンツ項目/コンテンツ提示の選択を受け取ると、選択されたコンテンツは、例えば、コンテンツのいくつか/すべての可視性を高めるために、コンテンツの様々な視覚パラメータ(例えば、大きさ、形状等)を識別すること、及び/又はコンテンツを提示する様々な方式を判断することを行うように処理/分析されてよい。このような判断に基づいて、例えば、コンテンツが投影/提示されることになるコンテンツ提示面114(例えば、言及されたフィルム)の形状、大きさ、及び/又は相対的な場所について、様々な提案が生み出され及び/又は行われてよい。
さらに、ある特定の実装形態において、説明される技術は、言及されたコンテンツ(例えば、画像、ビデオ、テキスト等)が作り出されること、カスタマイズされること、定義されること、調節されること、等が行われることが可能な、アプリケーション、インターフェース等を提供することができる。例えば、グラフィカル・ユーザ・インターフェース(スマートフォン、タブレット、PC等などのユーザ・デバイスを介してアクセス可能になり得るものなど)は、コンテンツ(例えば、画像、ビデオ、アプリケーション、例えばソーシャル・メディアの投稿といった他のソースから取得されたコンテンツ、等)を選択すること、(例えば、コンテンツの形状を定義すること、コンテンツが提示されることになる窓の中の相対的な場所を定義すること、テキスト又は他のコンテンツを挿入すること、連結部を挿入すること、等といった)様々な方式でこれらのコンテンツを修正又は調節すること、等を、ユーザが行えるようにすることができる。
動作1070において、コンテンツ提示トリガの発生が、本明細書で説明される手法などで識別される。
動作1075において、第2のコンテンツ項目が、例えば、(例えば動作1070における)コンテンツ提示トリガの発生の識別に応答して提示される。
動作1080において、例えば、第1のコンテンツ項目の提示に対する1つ又は複数のユーザ対話が識別される。
動作1085において、第1のコンテンツ項目に対して識別された1つ又は複数のユーザ対話に対応する第2のコンテンツ項目が識別される。
動作1090において、(例えば動作1085において識別されたような)第2のコンテンツ項目が、本明細書で説明される手法などで提示される。
説明される技術のこれらの(及び他の)動作及び機能のさらなる態様が、本明細書で詳細に説明される。
さらに、言及された技術のさらなる動作は、第1のコンテンツ項目を提示/投影すること、1つ又は複数の画像をキャプチャすること、第1のコンテンツ項目に対する1つ又は複数のユーザ対話(又はその不足)を識別するために1つ又は複数の画像を処理デバイスで処理すること、第1のコンテンツ項目に対して識別された1つ又は複数のユーザ対話に対応する第2のコンテンツ項目を識別すること、及び第2のコンテンツ項目を投影することを含む。これらの(及び他の)動作のさらなる態様は、本明細書でさらに詳細に説明される。ある特定の実装形態において、言及された動作の様々な態様は、コンテンツ提示デバイス112、デバイス102、コンテンツ提示エンジン130、及び/又はサーバ120によって行われてよく、一方、他の実装形態において、このような態様は、本明細書で説明されるものなどの1つ又は複数の他の要素/構成要素によって行われてよいということを理解されたい。
ある特定の実装形態において、説明される技術は、(例えばコンテンツ提示デバイス112によって)投影されているコンテンツとの様々な対話を可能又は容易にすることができる。例えば、ある特定の実装形態において、このような対話は、ジェスチャ認識(例えば、言及されたカメラ及び/又は他のセンサによる様々な人間の動きの認識)などの技法によって可能にされてよい。認識の他の様々な形式が統合されてもよい。例えば、顔認識、音声認識、眼球追跡、及び唇の動きの認識(まとめて、知覚ユーザ・インターフェース(PUI:perceptual user interface))が、投影されたコンテンツとの対話を可能にするために利用されてよい。
(上述のように、カメラ及び/又は他のセンサから受け取られた入力を介して可能にされること、動きを検出するために処理されること、等を行える)言及された認識技法が、データ収集、ライブ映像(live visuals)、及び見物人とシステムの間の対話のために使用されてよい。さらに、言及された技法(例えば顔認識)は、提示されているコンテンツを調節するか、又は個人向けにするために使用されてよい。例えば、特定の見物人が、特定の性別、年齢、購買層等である可能性があることを(例えば、顔認識及び/又は他のこのような技法を使用して)判断すると、表示されているコンテンツの様々な態様が、以下にさらに詳細に説明されるように、(例えば、見物人の判断された性別、年齢等に対して標的にされる製品、サービス、コンテンツ等を描写することによって)カスタマイズ又は調節されてよい。
上述のように、ある特定の実装形態において、統合及び/又は接続されたセンサ(例えば、図1に示されるカメラ113)が、(例えば店頭の窓116といった)コンテンツが投影されることになる全体的な領域の画像をキャプチャするために使用されてよい。キャプチャされた画像は、1つ又は複数のコンテンツ提示面114(例えば窓116に貼られたフィルム)の場所を識別するために(ローカル・デバイスで及び/又はリモートに、例えばサーバ120で)処理されてよい。言及されたフィルムの場所(及び形状)を識別すると、提示されることになるコンテンツが、フィルム上にコンテンツが適切に/最適に提示されることを保証するように調節されてよい。例えば、コンテンツの中心はフィルムの中心に合わされてよく、コンテンツは、フィルム等の大きさ/形状にフィットするように切り取られるか、又は変えられてよい。さらに、ある特定の実装形態において、統合又は接続された加速度計は、コンテンツ提示デバイス112(例えばプロジェクタ)が置かれる角度を検出又はそうでなければ判断するために利用されてよい。言及された角度の判断に基づいて、投影されることになるコンテンツは、(例えば、コンテンツが正確に/一貫して見える及び/又は提示されることを保証するように)適宜修正されてよい。
例証のために、図3は、(ここではレストランの)窓316に付けられたコンテンツ提示面314(ここではフィルム)上に投影される、対話式コンテンツの実例350を描写する。図3に示されるように、ユーザ360は、例えば、レストランを歩きながら通りすぎるときに、窓316のそばを通る可能性がある。図3に示されるように、(例えばカメラ/画像センサ318で受け取られた入力に基づいて)ユーザ360の存在を検出すると、(例えばコンテンツ・リポジトリ140からの)コンテンツ350がユーザに提示されてよい。例えば、様々な食材(ハンバーガー、トマト等)が、様々な領域に示されてよい。(例えばカメラ318によって検出されるような)ジェスチャに基づく対話を使用して、ユーザ360は、例えば、ユーザが興味のあるこれらの食材を選択するために、描写されたコンテンツ350と対話することができる。例えば、「スワイプする」手のジェスチャを使用して、ユーザ360は、中心部分に向けて食材を選択及びドラッグすることができ、それによってレストランの注文を生み出すこと/組み立てることができる。ユーザの注文が完了すると、QRコードが提示されてよく、これを通じてユーザは(自分のデバイス302、例えばスマートフォンを介して)、(例えば、レジのリンク/アプリケーションを介して)注文/購入を完了させることができる。一方、ある特定の実装形態において、描写された350(例えば、ハンバーガー、トマト等などの食材)は、ディスプレイの近くにユーザが立っていないときに、(図示のような)分解された形で提示されてよい。ユーザ360が窓316に近づきつつあることを(例えばセンサ318によって)検出すると、食材はハンバーガー・サンドイッチに組み立てられてよい。
図4は、説明される技術の実装形態のさらなる実例を描写する。図4に示されるように、コンテンツ450(例えば、描写されたキャラクタの「体」の画像/ビデオ)が、(例えばコンテンツ・リポジトリ140から)取得され、窓416の前に立っている可能性のある様々なユーザ(例えばユーザ460)の特性(ここでは顔)を組み込むように修正されてよい(これは、例えば図示のようなカメラ418といった、埋め込まれた及び/又は接続されたカメラによってキャプチャされてよい)。さらに、説明される技術は、特定のユーザ/見物人にふさわしい可能性のあるキャラクタを識別/選択するために使用されてよい。例えば、特定の見物人が女性であると判断すると、彼女の顔は、女性キャラクタの体に埋め込まれてよい。
さらに、ある特定の実装形態において、ユーザの関心のレベル又は度合いが判断されてよい。例えば、窓の前に立ち(例えば移動していない)、窓の方に顔を向けている/向いているユーザは、窓に提示されているコンテンツに関心を抱いている可能性があると判断されてよいが、窓のそばを歩いている(及び窓を見ていない)ユーザは、表示されているコンテンツに関心を抱いている可能性が比較的低いと判断されてよい。したがって、ある特定の実装形態において、説明される技術は、(例えば顔認識等を使用して)1人又は複数のユーザの関心のこのような度合いを判断するように構成されてよい。さらに、描写されているコンテンツは、適宜選択/修正されてよい。例えば、提示されているコンテンツに特定のユーザが関心を抱いていない(例えば、窓のそばを歩いている)と判断すると、見物人の注目を得るため、及び表示されたコンテンツに彼らがさらに関心を抱くことを促進するために、(例えば、鮮やかな光、色、販売促進情報等で)ユーザの注目を得るように構成されるコンテンツが投影/提示されてよい。
コンテンツ提示に関する様々な時系列の態様が定義されてもよい。例えば、各コンテンツ項目が提示されることになる時間を反映して、複数のコンテンツ項目に関するスケジュール145が定義されてよい。
さらに、ある特定の実装形態において、説明される技術は、(例えば、フィルム及び/又はその部分などの複数のコンテンツ提示面上に)複数のコンテンツ項目を提示/投影するために利用されてよい。例えば、図5は、複数のユーザ560A、560B、及び560Cが、例えばレストランの窓516(又は別のこのような面)のそばを通っている/前に立っているシナリオの実例を描写する。このようなユーザの存在、及び/又はこのようなユーザが、ディスプレイを見物していること、又はそうでなければ興味があることを識別/判断すると、様々なコンテンツ項目550A、550Bが、(例えば、それぞれの個々のユーザに向かいあっている個々のコンテンツ提示面上で)識別され、選択され、及び/又は提示されてよい。例えば、センサ/カメラ518によってキャプチャされた画像及び/又は他のコンテンツ(オーディオ、ビデオ等)が、窓516の前に立っているユーザの数、各ユーザの相対的な/絶対的な場所、購買層情報などの各ユーザに関する情報、等を判断するために処理されてよい。例えば、図5に示されるように、説明される技術は、1つ又は複数の窓の様々な領域/部分上に様々なコンテンツ項目を投影/提示できるように、単一のコンテンツ提示デバイス512(例えばプロジェクタ)を構成することができる。上述のように、各ユーザ(又はユーザの一群)に提示されるコンテンツは、このようなユーザについて識別される態様、特徴、特性等に基づいて、選択されること、整形されること、構成されること、等が行われてよい。例えば、ユーザ560Aとユーザ560Bが親と幼児に対応する可能性があると判断すると、(1人の大人と1人の子供のキャラクタに対応する)コンテンツ550Aが識別され、(例えば、このようなユーザに最も接近した又は最も目立つコンテンツ提示面上で)ユーザに投影/提示されてよい。さらなる実例のために、ユーザ560Cが28歳の男性に対応する可能性があると判断すると、(言及された購買層のユーザに人気があると判断されるキャラクタに対応する)コンテンツ550Bが識別され、(例えば、このようなユーザに最も接近した又は最も目立つコンテンツ提示面514B上で)ユーザ560Cに投影/提示されてよい。
ある特定の実装形態において、(例えばそれぞれの個々の部分において)説明される技術によって提示されるコンテンツは、(例えば本明細書で説明される手法で)様々なユーザごとに独立して対話されてよい。
上述のように、ある特定の実装形態において、説明される技術は、1つ又は複数のユーザ・デバイス(例えばスマートフォン)を介して(例えば表示されたコンテンツとの)対話を可能にすることができる。例えば、見物人のスマートフォンとコンテンツ提示デバイス(例えば、プロジェクタ、スクリーン等)との間の接続は、例えば、カスタムURL、投影されているQRコードをスキャンすること、スマートフォン上で実行するアプリケーション、Bluetooth(登録商標)、WiFi(登録商標)等を介する任意の数の方式で確立されてよい。
例証のために、図6Aは、例えば、窓616に貼られたコンテンツ表示面614上に、コンテンツ提示デバイス612によってコンテンツ650Aが投影/表示されるシナリオを描写する。図6Aに示されるように、このようなコンテンツは、デバイス(例えばユーザ660のデバイス602)によってアクセスされると、表示されているコンテンツとの対話及び/又はこのコンテンツの制御を可能にするQRコード及び/又はURLを提供することができる。このようなQRコード、URL等を利用することによって、デバイス602とコンテンツ提示デバイス612との間の接続/通信チャネルを確立することができる。
ユーザ・デバイス(例えばスマートフォン)とコンテンツ提示デバイスとの間のこのような接続を確立すると、ユーザは、様々な追加の機能を提供されることが可能になる。このような機能は、例えば、デバイス602上のアプリ又はブラウザを介して、表示されたコンテンツをユーザが制御するか、又はこのコンテンツと対話することを可能にすることができる。例証のために、デバイス602は、ユーザ660が、提示されているコンテンツ(例えば、図6Bに示されるビデオ・ゲームに対応するコンテンツ650B)と対話すること、及び/又はこのコンテンツを制御することができるインターフェース又は制御のセットを提示することができる。例えば、図6Bに示されるように、デバイス602は、選択可能な制御、及び/又はコンテンツ提示デバイス612によって提示/投影されるビデオ・ゲームをプレイするためにユーザ660が利用できる他のこのようなインターフェース(例えばグラフィカル・ユーザ・インターフェース)を提供することができる。
描写された/説明されたシナリオは、例証のために提供されるということを理解されたい。したがって、説明される技術は、任意の数の他のコンテンツ、設定等に実装されてもよい。例えば、説明される技術は、コンテンツ提示デバイス(例えば、プロジェクタ、ディスプレイ等)を介して提示されることになるコンテンツを選択するために、ユーザのユーザ・デバイス(例えばスマートフォン)をユーザのためにユーザが利用できるようにすることができる。例証のために、ユーザは、コンテンツ提示デバイスによって提示/投影されることになるビデオ又は他のこのようなコンテンツを選択するために、自分のスマートフォンを利用することができる。さらなる例証のために、ユーザは、(例えば、店頭の窓に表示される、コンテンツ提示デバイスによって描写される衣類の色、スタイル等を変更するために)コンテンツ提示デバイスによって提示されるコンテンツと対話するために、自分のスマートフォンを利用することができる。
ある特定の実装形態において、説明される技術(例えば、プロジェクタ、ディスプレイ等などのコンテンツ提示デバイス)とユーザ・デバイス(例えば、投影されているコンテンツを見物している個々のユーザのスマートフォン)との間の言及された接続は、例えば、説明される技術を介してプレイされることが可能なゲームの待ち行列を作り出す/維持するために利用されてよいということにも留意されたい。例えば、(例えば図6Bに示されるような)窓/スクリーン上に投影されているビデオ・ゲームをプレイすることを望む複数のユーザは、(例えば、対応するURL、QRコード等を介して、システムによって維持される)ゲームプレイの待ち行列に入ることができる。このようなユーザは、自分のプレイの順番が近づいている/順番になったときに、(例えば、ユーザの個々のデバイスに向けられた/提供された通知によって、及び/又はコンテンツ提示デバイス612によって)さらに注意喚起されてよい。
説明される技術(例えば分析エンジン132)は、提示されているコンテンツの公開の様々な態様を反映するデータ/情報の収集及び分析を可能にすることもできる。ある特定の実装形態において、ユーザ/見物人がこのようなコンテンツに反応/応答する手法、及びシステムが対話される手法が判断及び/又は分析されてもよく、このような反応の記録等が(例えばログ142に)維持されてもよい。そうすることで、(例えば、特定の時間に特定の場所で、興味があると判断されたコンテンツを提示することによって)ユーザの関心の度合いを改善することなどに、非常に多くの形式のデータ分析が応用されることが可能である(例えば、A/Bテスト等)。言及された分析は、リアル・タイムに監視されることが可能であり、ユーザ(例えばアドミニストレータ)は、様々な判断(例えば、そばを通るユーザが比較的多く関心を抱く/興味があると判断される特定のビデオがプレイされる頻度を増やすこと)に基づいて、コンテンツ提示の様々な態様を調節することができる。一方、このような調節は、手動入力を必要としない(言及された判断、及び/又はさらに利用される様々な機械学習技法に基づいて)自動化された/自動的な様式で行われてよい。
さらなる例証のために、分析エンジン132は、様々なタイプの分析、レポート、及び/又は説明される技術の有効性に見識を与える他のこのような判断を生み出してもよい。このような分析の実例は、店の窓、コンテンツ表示デバイス、等のそばを通った人々の数の推定/平均(例えば、時間ごと、日ごと、週ごと等)、窓を見物する人々の滞在時間の推定/平均(見物人が動かずにいる時間、及び/又は提示されているコンテンツに関心を抱いていた時間(例えば、10秒、30秒等)を反映する)、窓を見物する人々のおよその年齢及び性別、等を含むがこれらに限定されない。
さらに、ある特定の実装形態において、分析エンジン132は、様々な基準値、分析、結果等を、ユーザ(例えばアドミニストレータ)がフィルタリング及びランク付けできるようにすることができる。例えば、ある特定の実装形態において、コンテンツ提示デバイス(例えば、店頭の窓にコンテンツを投影するためにインストールされたプロジェクタ)は、広範囲のコンテンツ(例えば、テキスト・コンテンツ、画像、ビデオ、対話式コンテンツ、ゲーム等)を提示することができる。したがって、様々なユーザの反応、フィードバック、及び/又は(例えば、本明細書で説明され、ログ142に格納された手法で判断されるような)他のこのような判断に基づいて、分析エンジン132は、全体、及び/又はある特定の購買層等について、例えば、どのコンテンツ(又はコンテンツのタイプ)が、最も大きな関心、興味、対話、最長見物時間等を生み出すかを判断することができる。このような判断を計算すると、説明される技術は、例えば、ユーザの関心、コンテンツの流布/公開、及び/又は(本明細書で説明されるものを含むがこれらに限定されない)他の基準値/ファクタを改善又は最適化するために、説明されたコンテンツ提示の様々な態様をさらに調節又は構成することができる。
このような関心は、例えば、見物人の数、このような見物人が見続けたままの時間、このようなユーザによって行われるその後のアクション(例えば店に入ること)、等に基づいて判断されてよいということを理解されたい。上述のように、このような判断は、センサ(例えば図7Aに示されるカメラ718A)に由来する入力に基づく入力に基づいて計算されてよい。
例証のために、図7Aは、複数のコンテンツ提示面(ここでは、窓716A及び窓716B)がある店(又は他の任意のこのような構造物、場所等)のシナリオの実例を描写する。図7Aに示されるように、消火栓710(又は他の任意のこのような障害物)が、窓716Aに向かいあって置かれる。図7Aにも示されるように、フィルム/面714Aに提示/投影されるコンテンツ(ここではライブ・ビデオ・ゲーム)が、かなりの量のユーザの関心を引き寄せている。対照的に、フィルム/面714Bに提示されるコンテンツ(「ゲーム・リリース...」)は、実質的にあまり関心を生み出していない(例えば、面714Aに提示されるコンテンツに対する4人の見物人と比較してたった1人の見物人)。(ライブ・ビデオ・ゲームが提示される)面/フィルム714Aは、(図7Aにおいて、さらに多くの関心のあるコンテンツを面714Aが提示しているにもかかわらず)面714Bよりかなり小さいということも理解されよう。
したがって、(例えば図7Aに描写されるシナリオにおいて)(a)面714Aに提示されるコンテンツ(ライブ・ビデオ・ゲーム)がかなりのユーザの関心を生み出していること、(b)(例えば他のユーザによる)さらなる関心を消火栓が妨げている可能性があること、及び(c)面714Bに提示されるコンテンツが、かなりのユーザの関心を生み出していることを判断すると、説明される技術は、本明細書で説明される様々なアクション、調節等を始めることができる。そうすることで、様々な利用可能なコンテンツ提示の(及び他の)リソースが、例えば、さらに効率的及び/又は効果的な手法で利用されることが可能である。
さらなる例証のために、図7Bは、個々の窓716A、716Bに提示されるコンテンツが切り替えられるか、又は取り替えられるその後のシナリオを描写する。そうすることで、さらに関心を抱いている(及びさらに多くの見物人を引き寄せる可能性がある)コンテンツが窓716Bに表示されてよい(窓716Bは、上述のように、フィルム714Aよりかなり大きなフィルム714Bを含み、したがってさらに多くの見物人が本コンテンツを快適に見物できるようにする)。窓に向かいあって存在する障害物(例えば消火栓710)がないので、かなりの数のユーザ/見物人が、窓の前に立ち、コンテンツを同時に見物することができる。例えば、図7Bに示されるように、さらに多くのユーザ/見物人(ここでは、図7Aにおけるたった4人とは対照的に6人)が、言及されたコンテンツ(ライブ・ビデオ・ゲーム)を現時点で見物することができる。(消火栓に向かいあっている)窓716Aに対して、描写される「ゲーム・リリース...」のコンテンツが提示されてよい。そうすることで、このようなコンテンツは、さらに効果的に利用され得るリソース(例えば、本明細書で説明されるコンテンツ提示と関連付けられたもの)を解放すると同時に、さらにユーザに関心を抱かせることができる手法/状況で提示され続けることができる。
上述のように、分析エンジン132は、ユーザの通行量(例えば、特定の場所のそばを通るユーザの数)、ユーザの関心(例えば、少なくとも定義された時間の間に、例えば、ある特定の提示されたコンテンツを見物したユーザの数)、等の様々な態様を反映する様々な分析、基準値等を生み出すこと及び/又は提供することができる。
さらに、分析エンジン132は、ユーザ(例えばアドミニストレータ)がこのような基準値を問い合わせること、閲覧すること、等ができる様々なインターフェース(例えば、グラフィカル・ユーザ・インターフェース、レポート・ツール等)をさらに生み出すこと及び/又は提供することができる。例証のために、分析エンジンは、(例えば、特定の時間、場所等における)見物人の数、このような見物人が見続けたままの時間、このようなユーザによって行われるその後のアクション(例えば、提示されたコンテンツを見物した後に店に入ること)、等などの基準値を表示するインターフェースを提供することができる。
さらに、様々なコンテンツに対して、様々な基準値が生み出され/提示されてもよい。すなわち、ある特定の実装形態において、説明される技術は、様々なコンテンツ提示スケジュール又は手順を定義できるようにすることができるということが理解されよう。このような手順/スケジュールは、(例えばコンテンツ提示デバイスによって)コンテンツが提示されることになる手法を定める。例証のために、このようなスケジュールは、様々なコンテンツ(例えば、画像、ビデオ、テキスト、対話式コンテンツ等)を反映するタイムライン、及びこのようなコンテンツ項目が提示されることになる順番、期間等を含むことができる。したがって、説明される技術は、(例えば、ユーザに関心を抱かせることにおいて、一連のものの中であるビデオが別のビデオよりも効果的だったこと、等を反映して)個々のコンテンツ項目に対する基準値/分析をさらに追跡及び提供することができる。本明細書で言及された様々な基準値は、日付範囲、時刻、曜日等(例えば、平日の午後12時から4時の間に表示を見物した人々の数)によってフィルタリング、ソート等が行われてもよいということを理解されたい。このような基準値は、(例えば、店、地域、及び/又は他のグルーピングごとに、複数のコンテンツ提示システム又は「キット」にわたって)さらに集約されてよい。
例証のために、図8Aは、分析エンジン132によって生み出され、ユーザ(例えばコンテンツ・アドミニストレータ)によって提示され、提供され、及び/又はアクセスされることが可能なユーザ・インターフェースの実例802A(例えばダッシュボード)を描写する。図8Aに示されるように、様々なレポート、統計情報等が、(例えばログ142に格納されたような)説明される技術によって集められたデータに基づいて生み出されてよい。上述のように、このようなデータは、窓又は他のこのようなコンテンツ提示面(例えば、図3に描写され、本明細書で説明されるカメラ318)に/の近くに置かれたセンサ(例えば画像センサ)を介して集められ/受け取られてよい。
例えば、図8Aに示されるように、所与の日の見物人の数、対話の時間数、見物人の平均年齢、見物人の年齢分布、見物人の性別、対話期間、及び日々の通行量などの基準値が、判断及び提示されてよい。さらに、(例えば、図3に描写されるセンサ/カメラ318によってキャプチャされた画像に対して)顔認識技法を使用して、様々なコンテンツの見物人の気分及び/又は反応が判断及び追跡されてよい。図示のように、特定の活動をその後行った(例えば、提示されたコンテンツを見物した後に場所/店に入った)見物人の数に関する統計情報が判断され、追跡され、提示されてもよい。さらに、上述のように、説明された基準値は、個々のコンテンツの項目、プレゼンテーション、アプリケーション等に対して計算されてよい。そうすることで、特定の帰結を実現又は改善するために(例えば、店が開いているときの交通量/ユーザの入店を増やすこと、店が閉まっているときの電子商取引の注文を増やすこと、見物人の気分を改善すること、等を行うために)どのタイプのコンテンツが最も効果的であるかが判断されるか、又はそうでなければ計算されてよい。
ある特定の実装形態において、説明される技術は、表示されているコンテンツにあると考えられることが可能な様々な変化を追跡することもできる。このような変化は、(例えば本明細書で説明されるような)提示されているコンテンツにあると考えられることが可能なアクション、対話、トランザクション等を反映することができる。例証のために、図9Aは、道910Aに沿ってユーザ960がレストラン900を歩きながら通りすぎているシナリオの実例を描写する。図9Aに示されるように、ユーザ960が入口/ドア920を歩きながら通りすぎたこと(ユーザが初めのうち、レストランに入ることに興味がないことを示唆する)を映す画像が、センサ918A(例えばカメラ)によってキャプチャされてよい。しかし、窓/面916A及び/又はフィルム914Aに提示されたコンテンツを見物すると、ユーザ960が進路を反転させ、(例えば、図9Bに示される道910Bに沿って)入口920に向かって/の中に歩くことが(センサ918Aによってキャプチャされた画像、ビデオ等に基づいて)さらに判断されることが可能である。提示されたコンテンツを見物した(及び/又はこのコンテンツと対話した)後に、(例えば、図9Aのように最初に右から左に、次に図9Bのように左から右に)ユーザが自分の歩いている方向を変えたことを検出/判断することによって、このようなユーザの活動は、ユーザに提示されたコンテンツに帰する/あると考えられてよい。
図8Bは、分析エンジン132によって生み出され、ユーザ(例えばコンテンツ・アドミニストレータ)によって提示され、提供され、及び/又はアクセスされることが可能なユーザ・インターフェースの別の実例802Bを描写する。図8Bに示されるように、ある特定の時間にわたる印象の数(例えば、コンテンツがユーザに提示された回数)、及び/又はコンテンツが提示されるユーザによる関心の量を反映する様々なチャート又は傾向が計算されてよい。このような関心は、立ち止まって(例えば、定義された時間又はそれ以上の間)コンテンツを見物すること、アクションを行うこと(例えば店/場所の中に入ること)、提示されているコンテンツと対話すること、等を含むことができるがこれらに限定されない。上述のように、このような印象及び関心は、様々なセンサ(例えば図3に描写されるカメラ318)によってキャプチャされた/受け取られた画像(又は他のデータ)に基づいて判断/追跡されてよい。図8Bに示されるように、ユーザ・インターフェース802Bは、言及された基準値と共に天気の態様をさらに組み込むこと/描写することができるということにも留意されたい。例えば、コンテンツ提示デバイスの場所の天気を反映するアイコン又は他のこのような指標(この天気に対して、言及された基準値が計算される)は、言及されたグラフに沿った点で示されてよい。そうすると、例えば、コンテンツ提示キャンペーンが成功した/しなかったか否かを判断するときに天気関連のファクタをユーザがさらに考慮できるようにすることができる(例えば、雨の日に関心が低くなるのは雨のせいであり、コンテンツが最適とは言えないということはない)。
さらに、図8Cは、分析エンジン132によって生み出され、ユーザ(例えばコンテンツ・アドミニストレータ)によって提示され、提供され、及び/又はアクセスされることが可能なユーザ・インターフェースの別の実例802Cを描写する。図8Cに示されるように、言及されたインターフェース/ツールは、例えば、様々なファクタ/特性(ここでは、ユーザのキャプチャ画像に基づいて行われた判断/推定に基づいて計算された年齢範囲)ごとに、コンテンツ提示の段階(「印象」)、関心、及び/又は対話に関係がある情報をさらに分解することができる。
図8Dに示されるように、ある特定の実装形態において、様々な情報、現象等の分布が判断され、(例えば、図示のようなユーザ・インターフェース802Dに)提示されてよい。例えば、平均「滞在時間」((例えばコンテンツを見物するときに)例えば、コンテンツ提示デバイス/面の前にユーザがとどまる時間)は、例えば、個々の性別、年齢範囲、及び/又は他のこのような購買層、特性等に対して判断されてよい。上述のように、ユーザの性別、年齢等の判断は、様々な画像処理技法を使用して計算されてよい。
ある特定の実装形態において、コンテンツ保持率などの様々な基準値が計算されてよい。例えば、図8Eは、様々なコンテンツ項目(例えば、様々なビデオ、画像、マルチメディア・プレゼンテーション、対話式コンテンツ等)の保持率を描写するユーザ・インターフェースの実例802Eを描写し、(各コンテンツ項目に対して)性別ごとにさらに分解される。このようなコンテンツ保持率は、例えば、特定のコンテンツ項目を提示されるときに、ユーザ/見物人が保持される率(すなわち、コンテンツ項目がまだ提示されている間に歩き去るのでも、背を向けるのでもなく、コンテンツ項目の提示の結末までユーザがとどまる率)を反映することができる。
図8Fは、特定のコンテンツ提示デバイス/設備(「キット」)に関係がある様々な情報を描写するユーザ・インターフェースの実例802Fを描写する。例えば、上述のように、説明される技術は、様々な場所にあるコンテンツ提示デバイス(プロジェクタ、ディスプレイ等)の様々な設備にわたるコンテンツ提示の整合及び管理を可能にすることができる。したがって、インターフェース802Fは、様々な場所における説明される技術のパフォーマンス、ユーザ分布等を反映する様々な基準値を提示する。
さらに、図8Gは、特定のコンテンツ項目(例えば、様々なビデオ、画像、マルチメディア・プレゼンテーション、対話式コンテンツ等)に関係がある様々な情報を描写するユーザ・インターフェースの実例802Gを描写する。例えば、図示のように、説明される技術は、どのコンテンツ項目/タイプのコンテンツが、どのタイプのユーザに対して、どの場所で十分に(又は不十分に)行われるかを判断することができる。
図1に描写され、本明細書で説明されるように、複数のコンテンツ表示デバイス/システム(例えば、ディスプレイ、プロジェクタ、関連デバイス/センサ等)が、(例えば、様々な都市、州等の)複数の場所にわたって導入されてよい。説明される技術は、コンテンツの集中制御及び更新をこのような分散システム上で表示できるようにすることができる。そうすることで、説明される技術は(自動化された/自動的な様式で、及び/又はコンテンツ・アドミニストレータによって構成されるように)、多くの地理的領域にわたってディスプレイ上に表示されているコンテンツが、複数の場所にわたって絶えず最新であり、一貫していることを保証することができる。
さらに、(例えば、分析エンジン132によって提供されるような)説明された分析機能は、1つの場所/コンテンツ提示デバイスに対して計算された判断を、別のデバイス/場所に対して活用できるようにすることができる。例えば、特定のタイプのコンテンツ(例えば、ビデオ、プレゼンテーション、ゲーム、アプリケーション等)が、1つの場所にいるユーザに特に関心を抱かせていると判断すると、このようなコンテンツは他の場所でも提示されてよい。
例証のために、説明される技術は、小売店/店の窓のディスプレイ(例えば、店が開いている間、並びに店が閉まっている間に、店の製品、特別な提案、面白いアトラクション等の宣伝を可能にするため)、空いている小売店の場所(それによって、さもなければ空いているショーウィンドウを広告スペースとして利用すること、及び/又はこの空間に潜在的な小売店の機会、不動産の図、等を提示すること)、不動産(例えば、不動産物件のグリッドを示すこと)、建設現場において(例えば、フェンス上で、広告、この現場で何が作られているかについての情報、等を示すこと)、レストラン(例えば、メニュー項目、宣伝等を描写すること)、銀行(様々な銀行取引サービス及び/又は宣伝を描写すること)、等を含むがこれらに限定されない状況で用いられてよい。
この時点で、説明される技術の様々な態様は、ユーザの活動又は情報を監視又は追跡する様々な態様を伴うことができるが、ある特定の実装形態において、ユーザは、このような特徴をオプト・アウトするか、又はそうでなければ制御するか若しくは無効にするオプションを提供されることがあるということに留意されたい。さらに、ある特定の実装形態において、ユーザのアイデンティティ、プライバシー等を保護するために、任意の個人識別情報が格納されるか又は使用される前に、この情報が除去されるか又はそうでなければ処理されてよい。例えば、識別情報は、(例えば、格納されるビデオ/画像内のユーザの顔をあいまいにすること、等によって)匿名化されてよい。
本明細書で説明される技術は、対話式コンテンツ提示について主に示されるが、説明される技術は、任意の数の追加又は代替の設定又は状況で、及び任意の数の追加の目標に向けて実装されてもよいということにも留意されたい。(本明細書で説明され、及び/又は言及されたもの以上の)さらなる技術的な利点、解決策、及び/又は改善が、このような実装形態の結果として可能にされてよいということを理解されたい。
本明細書で説明される技術は、対話式コンテンツ管理について主に示されるが、説明される技術は、任意の数の追加又は代替の設定又は状況で、及び任意の数の追加の目標に向けて実装されてもよいということにも留意されたい。(本明細書で説明され、及び/又は言及されたもの以上の)さらなる技術的な利点、解決策、及び/又は改善は、このような実装形態の結果として可能にされてよいということを理解されたい。
ロジック、又はいくつかの構成要素、モジュール、若しくはメカニズムを含むような、ある特定の実装形態が本明細書で説明される。モジュールは、ソフトウェア・モジュール(例えば、マシン可読媒体上で具体化されるコード)又はハードウェア・モジュールを構成してよい。「ハードウェア・モジュール」は、ある特定の動作を行える有形のユニットであり、ある特定の物理的な手法で構成又は配置されてよい。実装形態の様々な実例において、1つ又は複数のコンピュータ・システム(例えば、スタンドアロン・コンピュータ・システム、クライアント・コンピュータ・システム、若しくはサーバ・コンピュータ・システム)、又はコンピュータ・システムの1つ若しくは複数のハードウェア・モジュール(例えば、プロセッサ若しくはプロセッサのグループ)は、本明細書で説明されるある特定の動作を行うように動作するハードウェア・モジュールとしてソフトウェア(例えば、アプリケーション又はアプリケーション部分)によって構成されてよい。
いくつかの実装形態において、ハードウェア・モジュールは、機械的に、電子的に、又はこれらの任意の適切な組合せで実装されてよい。例えば、ハードウェア・モジュールは、ある特定の動作を行うように永続的に構成される専用の回路機器又はロジックを含むことができる。例えば、ハードウェア・モジュールは、フィールド・プログラマブル・ゲート・アレイ(FPGA:Field−Programmable Gate Array)又は特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)などの特殊用途のプロセッサであってよい。ハードウェア・モジュールは、ある特定の動作を行うようにソフトウェアによって一時的に構成されるプログラマブル論理回路又は回路機器を含むこともできる。例えば、ハードウェア・モジュールは、汎用プロセッサ又は他のプログラマブル・プロセッサによって実行されるソフトウェアを含むことができる。このようなソフトウェアによって構成されると、ハードウェア・モジュールは、構成された機能を実行する一意に調整された特定のマシン(又はマシンの特定の構成要素)になり、もはや汎用プロセッサではなくなる。専用で永続的に構成される回路機器、又は(例えば、ソフトウェアによって構成される)一時的に構成される回路機器の中にハードウェア・モジュールを機械的に実装するという決定は、費用と時間の検討によって行われてよいということが理解されよう。
したがって、句「ハードウェア・モジュール」は、有形のエンティティを包含し、物理的に構築され、永続的に構成され(例えば配線で接続され)、又はある特定の手法で動作するように、若しくは本明細書で説明されるある特定の動作を行うように一時的に構成される(例えばプログラムされる)エンティティであるということを理解されたい。本明細書で使用されるように、「ハードウェア実装モジュール」は、ハードウェア・モジュールを指す。ハードウェア・モジュールが一時的に構成される(例えばプログラムされる)実装形態を考慮すると、ハードウェア・モジュールのそれぞれは、時間内の任意の1つの段階で構成又は生成される必要はない。例えば、特殊用途のプロセッサになるようにソフトウェアによって構成される汎用プロセッサをハードウェア・モジュールが備える場合、汎用プロセッサは、異なる時間において(例えば、異なるハードウェア・モジュールを備える)それぞれ異なる特殊用途のプロセッサとして構成されてよい。ソフトウェアは、例えば、時間の1つの段階において特定のハードウェア・モジュールを構成するように、一方、時間の異なる段階において異なるハードウェア・モジュールを構成するように、1つの特定のプロセッサ又は複数の特定のプロセッサを適宜構成する。
ハードウェア・モジュールは、他のハードウェア・モジュールと情報をやりとりすることができる。したがって、説明されるハードウェア・モジュールは、通信連結されているとみなされてよい。複数のハードウェア・モジュールが同時に存在する場合、通信は、2つ以上のハードウェア・モジュールの間又は中の(例えば適正な回路及びバス上で)信号伝送を通じて実現されてよい。複数のハードウェア・モジュールが異なる時間に構成又は生成される実装形態において、このようなハードウェア・モジュール間の通信は、例えば、複数のハードウェア・モジュールがアクセスできるメモリ構造における情報の格納及び取得を通じて実現されてよい。例えば、1つのハードウェア・モジュールが動作を行い、このハードウェア・モジュールが通信連結されるメモリ・デバイスに動作の出力を格納することができる。さらなるハードウェア・モジュールは次に、格納された出力を取得し、処理するために、メモリ・デバイスに後でアクセスすることができる。ハードウェア・モジュールは、入力又は出力デバイスとの通信を始めることもでき、リソース上で動作することができる(例えば情報の収集)。
本明細書で説明される方法の実例の様々な動作は、(例えばソフトウェアによって)一時的に構成されるか、又は関連動作を行うように永続的に構成される1つ又は複数のプロセッサによって少なくとも部分的に行われてよい。一時的に構成されるにせよ、永続的に構成されるにせよ、このようなプロセッサは、本明細書で説明される1つ又は複数の動作又は機能を行うように動作するプロセッサ実行モジュールとみなされてよい。本明細書で使用されるように、「プロセッサ実行モジュール」は、1つ又は複数のプロセッサを使用して実装されるハードウェア・モジュールを指す。
同様に、本明細書で説明される方法は少なくとも部分的にプロセッサ実行されてよく、1つの特定のプロセッサ又は複数の特定のプロセッサはハードウェアの実例である。例えば、方法の動作のうちの少なくともいくつかは、1つ又は複数のプロセッサ又はプロセッサ実行モジュールによって実行されてよい。さらに、1つ又は複数のプロセッサは、「クラウド・コンピューティング」環境における関連動作のパフォーマンスをサポートするように、又は「サービスとしてのソフトウェア」(SaaS:software as a service)として動作することもできる。例えば、動作のうちの少なくともいくつかは、(プロセッサを含むマシンの実例として)コンピュータのグループによって行われてよく、これらの動作は、ネットワーク(例えばインターネット)を介して、及び1つ又は複数の適正なインターフェース(例えばAPI)を介してアクセス可能である。
動作のある特定のパフォーマンスは、単一のマシンに常駐するだけでなく、いくつかのマシンにわたって導入され、複数のプロセッサの間で分散されてよい。実装形態のいくつかの実例において、プロセッサ又はプロセッサ実行モジュールは、単一の地理的な場所に(例えば、住居環境、オフィス環境、又はサーバ・ファームに)配置されてよい。実装形態の他の実例において、プロセッサ又はプロセッサ実行モジュールは、いくつかの地理的な場所にわたって分散されてよい。
図1〜図10と共に説明されたモジュール、方法、アプリケーション等は、マシン及び関連ソフトウェア・アーキテクチャに関連するいくつかの実装形態において実装される。下記のセクションは、開示の実装形態と共に使用するのに適した代表的なソフトウェア・アーキテクチャ及びマシン(例えばハードウェア)アーキテクチャを説明する。
ソフトウェア・アーキテクチャは、特定の目的のために調整されたデバイス及びマシンを作り出すために、ハードウェア・アーキテクチャと共に使用される。例えば、特定のソフトウェア・アーキテクチャと連結された特定のハードウェア・アーキテクチャは、携帯電話、タブレット・デバイス等などのモバイル・デバイスを作り出す。わずかに異なるハードウェア及びソフトウェア・アーキテクチャが、「モノのインターネット」での使用のためのスマート・デバイスを生むこともあるが、さらに別の組合せが、クラウド・コンピューティング・アーキテクチャでの使用のためのサーバ・コンピュータを生み出す。本明細書に収められた本開示からの様々な状況で発明の主題をどのように実装するかを当業者が容易に理解できるので、このようなソフトウェア及びハードウェア・アーキテクチャのすべての組合せがここで提示されるわけではない。
図11は、マシン可読媒体(例えばマシン可読ストレージ媒体)から命令を読み、本明細書で論じられる方法の任意の1つ又は複数を行える、実装形態のいくつかの実例による、マシン1100の構成要素を示すブロック図である。具体的には、図11は、コンピュータ・システムの形式の実例におけるマシン1100の図式表現を示し、この中で、本明細書で論じられる方法の任意の1つ又は複数をマシン1100に行わせるための命令1116(例えば、ソフトウェア、プログラム、アプリケーション、アプレット、アプリ、又は他の実行可能コード)が実行されてよい。命令1116は、説明された手法で、一般的なプログラムされていない機械を、説明され示された機能を実行するようにプログラムされた特定のマシンに変換する。代替実装形態において、マシン1100は、スタンドアロン・デバイスとして動作するか、又は他の機械に連結されてもよい(例えばネットワーク化されてよい)。ネットワーク化された導入において、マシン1100は、サーバ−クライアント・ネットワーク環境におけるサーバ・マシン若しくはクライアント・マシンの能力で、又はピアツーピアの(若しくは分散型の)ネットワーク環境におけるピア・マシンとして動作することができる。マシン1100は、サーバ・コンピュータ、クライアント・コンピュータ、PC、タブレット型コンピュータ、ラップトップ・コンピュータ、ネットブック、セット・トップ・ボックス(STB:set−top box)、パーソナル・デジタル・アシスタント(PDA:personal digital assistant)、エンターテイメント・メディア・システム、セルラー電話、スマートフォン、モバイル・デバイス、ウェアラブル・デバイス(例えばスマートウォッチ)、スマート・ホーム・デバイス(例えばスマート・アプライアンス)、他のスマート・デバイス、ウェブ・アプライアンス、ネットワーク・ルータ、ネットワーク・スイッチ、ネットワーク・ブリッジ、又は命令1116を順次実行できるか、若しくはそうでなければ、マシン1100によって行われることになるアクションを指定する任意のマシンを含むことができるが、これらに限定されない。さらに、単一のマシン1100しか示されないが、用語「マシン」は、命令1116を個別に又は一緒に実行して、本明細書で論じられる方法の任意の1つ又は複数を行う、マシン1100の集合体も含むように理解されるべきである。
マシン1100は、プロセッサ1110、メモリ/ストレージ1130、及びI/O構成要素1150を含むことができ、これらは、バス1102などを介して互いに通信するように構成されてよい。実装形態の1つの実例において、プロセッサ1110(例えば中央処理装置(CPU:Central Processing Unit)、縮小命令セット・コンピューティング(RISC:Reduced Instruction Set Computing)プロセッサ、複合命令セット・コンピューティング(CISC:Complex Instruction Set Computing)プロセッサ、グラフィックス処理ユニット(GPU:Graphics Processing Unit)、デジタル・シグナル・プロセッサ(DSP:Digital Signal Processor)、ASIC、無線周波数集積回路(RFIC:Radio−Frequency Integrated Circuit)、別のプロセッサ、又はこれらの任意の適切な組合せ)は、例えば、命令1116を実行できるプロセッサ1112及びプロセッサ1114を含むことができる。用語「プロセッサ」は、命令を同時に実行できる2つ以上の独立したプロセッサ(「コア」と呼ばれることもある)を備えることができるマルチコア・プロセッサを含むことを意図する。図11は、複数のプロセッサ1110を示すが、マシン1100は、単一のコアを有する単一のプロセッサ、複数のコアを有する単一のプロセッサ(例えばマルチコア・プロセッサ)、単一のコアを有する複数のプロセッサ、複数のコアを有する複数のプロセッサ、又はこれらの任意の組合せを含むことができる。
メモリ/ストレージ1130は、メイン・メモリ、又は他のメモリ・ストレージなどのメモリ1132、及びストレージ・ユニット1136を含むことができ、両方が、バス1102などを介してプロセッサ1110にアクセス可能である。ストレージ・ユニット1136及びメモリ1132は、本明細書で説明される方法又は機能の任意の1つ又は複数を具体化する命令1116を格納する。命令1116は、マシン1100による命令の実行中、メモリ1132の中、ストレージ・ユニット1136の中、プロセッサ1110のうちの少なくとも1つの中(例えばプロセッサのキャッシュ・メモリの中)、又はこれらの任意の適切な組合せの中に、完全に又は部分的に常駐することもできる。したがって、メモリ1132、ストレージ・ユニット1136、及びプロセッサ1110のメモリは、マシン可読媒体の実例である。
本明細書で使用されるように、「マシン可読媒体」は、命令(例えば命令1116)及びデータを一時的又は永続的に格納できるデバイスを意味し、ランダム・アクセス・メモリ(RAM)、リード・オンリ・メモリ(ROM:read−only memory)、バッファ・メモリ、フラッシュ・メモリ、光媒体、磁気媒体、キャッシュ・メモリ、他のタイプのストレージ(例えば、消去可能プログラマブル・リード・オンリ・メモリ(EPROM:Erasable Programmable Read−Only Memory))、及び/又はこれらの任意の適切な組合せを含むことができるがこれらに限定されない。用語「マシン可読媒体」は、命令1116を格納できる単一の媒体又は複数の媒体(例えば、集中型若しくは分散型のデータベース、又は関連キャッシュ及びサーバ)を含むものと理解されるべきである。用語「マシン可読媒体」は、マシン(例えばマシン1100)による実行のための命令(例えば命令1116)を格納することができる、任意の媒体、又は複数の媒体の組合せを含むものと理解されるべきであり、その結果、命令は、マシンの1つ又は複数のプロセッサ(例えばプロセッサ1110)によって実行されると、本明細書で説明される方法の任意の1つ又は複数をマシンに行わせる。したがって、「マシン可読媒体」は、単一のストレージ装置又はデバイス、並びに複数のストレージ装置又はデバイスを含む「クラウド・ベースの」ストレージ・システム又はストレージ・ネットワークを指す。用語「マシン可読媒体」は、信号を当然除外する。
I/O構成要素1150は、入力を受け取ること、出力を行うこと、出力を生み出すこと、情報を送ること、情報を交換すること、測定値をキャプチャすること、等を行う多種多様な構成要素含むことができる。特定のマシンに含まれる特定のI/O構成要素1150は、マシンのタイプに依存する。例えば、携帯電話などの携帯型マシンは、タッチ入力デバイス又は他のこのような入力メカニズムを含む可能性がある一方で、ヘッドレス・サーバ・マシンは、このようなタッチ入力デバイスを含む可能性は低い。I/O構成要素1150は、図11に示されない他の多くの構成要素を含むことができるということが理解されよう。I/O構成要素1150は、以下の議論を簡素化するために単に機能に従ってグルーピングされるだけであり、グルーピングは少しも限定的ではない。実装形態の様々な実例において、I/O構成要素1150は、出力構成要素1152及び入力構成要素1154を含むことができる。出力構成要素1152は、視覚構成要素(例えば、プラズマ・ディスプレイ・パネル(PDP:plasma display panel)、発光ダイオード(LED:light emitting diode)ディスプレイ、液晶ディスプレイ(LCD:liquid crystal display)、プロジェクタ、又は陰極線管(CRT:cathode ray tube)などのディスプレイ)、音響構成要素(例えばスピーカ)、触感構成要素(例えば、振動モータ、耐性機構)、他の信号発生器、等を含むことができる。入力構成要素1154は、英数字入力構成要素(例えば、キーボード、英数字入力を受け取るように構成されるタッチ・スクリーン、写真光学キーボード、又は他の英数字入力構成要素)、ポイント・ベース入力構成要素(例えば、マウス、タッチパッド、トラックボール、ジョイスティック、運動センサ、又は別のポインティング機器)、触覚入力構成要素(例えば、物理的なボタン、タッチ又はタッチ・ジェスチャの場所及び/若しくは力を提供するタッチ・スクリーン、又は他の触覚入力構成要素)、オーディオ入力構成要素(例えばマイクロフォン)、及び同様のものを含むことができる。
実装形態のさらなる実例において、I/O構成要素1150は、幅広い他の構成要素の中の、バイオメトリクス構成要素1156、運動構成要素1158、環境構成要素1160、又は位置構成要素1162を含むことができる。例えば、バイオメトリクス構成要素1156は、表現(例えば、手の表現、顔の表現、声の表現、体のジェスチャ、又は視線追跡)を検出すること、生体信号(例えば、血圧、心拍数、体温、発汗、又は脳波)を計測すること、人物を識別すること(例えば、音声識別、網膜識別、顔識別、指紋識別、又は脳波図ベースの識別)、及び同様のものを行う構成要素を含むことができる。運動構成要素1158は、加速度センサ構成要素(例えば加速度計)、重力センサ構成要素、回転センサ構成要素(例えばジャイロスコープ)、などを含むことができる。環境構成要素1160は、例えば、照度センサ構成要素(例えば光度計)、温度センサ構成要素(例えば、周囲の温度を検出する1つ若しくは複数の温度計)、湿度センサ構成要素、圧力センサ構成要素(例えば気圧計)、音響センサ構成要素(例えば、背景雑音を検出する1つ若しくは複数のマイクロフォン)、近接センサ構成要素(例えば、近くの物体を検出する赤外線センサ)、ガス・センサ(例えば、安全のために危険なガスの濃度を検出するか、若しくは大気中の汚染物質を測定するガス検出センサ)、又は周囲の物理環境に対応する指示、測定、若しくは信号を提供することができる他の構成要素を含むことができる。位置構成要素1162は、場所センサ構成要素(例えば、全地球測位システム(GPS:Global Position System)受信機構成要素)、高度センサ構成要素(例えば、高度が導出され得る大気圧を検出する高度計又は気圧計)、方向センサ構成要素(例えば磁力計)、及び同様のものを含むことができる。
通信は、多種多様な技術を使用して実装されてよい。I/O構成要素1150は、連結1182及び連結1172それぞれを介してネットワーク1180又はデバイス1170にマシン1100を連結するように動作可能な通信構成要素1164を含むことができる。例えば、通信構成要素1164は、ネットワーク・インターフェース構成要素、又はネットワーク1180をインターフェースする他の適切なデバイスを含むことができる。さらなる実例において、通信構成要素1164は、有線通信構成要素、ワイヤレス通信構成要素、セルラー通信構成要素、近距離無線通信(NFC:Near Field Communication)構成要素、Bluetooth(登録商標)構成要素(例えば、Bluetooth(登録商標)Low Energy)、Wi−Fi(登録商標)構成要素、及び他の様式を介して通信する他の通信構成要素を含むことができる。デバイス1170は、別のマシン、又は多種多様な周辺デバイスのいずれか(例えば、USBを介して連結される周辺デバイス)であってよい。
さらに、通信構成要素1164は、識別子を検出するか、又は識別子を検出するように動作可能な構成要素を含むことができる。例えば、通信構成要素1164は、無線周波数識別(RFID:Radio Frequency Identification)タグ・リーダ構成要素、NFCスマート・タグ検出構成要素、光学リーダ構成要素(例えば、統一商品コード(UPC:Universal Product Code)バー・コードなどの1次元バー・コード、クイック・レスポンス(QR:Quick Response)コード、Aztecコード、Data Matrix、Dataglyph、MaxiCode、PDF417、Ultra Code、UCC RSS−2Dバー・コード、及び他の光学的コードなどの多次元バー・コードを検出する光センサ)、又は音響検出構成要素(例えば、タグ付けされたオーディオ信号を識別するマイクロフォン)を含むことができる。さらに、インターネット・プロトコル(IP:Internet Protocol)の地理位置情報を介した場所、Wi−Fi(登録商標)信号の三角測量を介した場所、特定の場所を示せるNFCビーコン信号を検出することを介した場所、等などの、様々な情報が通信構成要素1164を介して導出されてよい。
実装形態の様々な実例において、ネットワーク1180の1つ又は複数の部分は、アドホック・ネットワーク、イントラネット、エクストラネット、仮想プライベート・ネットワーク(VPN:virtual private network)、ローカル・エリア・ネットワーク(LAN:local area network)、ワイヤレスLAN(WLAN:wireless LAN)、WAN、ワイヤレスWAN(WWAN:wireless WAN)、メトロポリタン・エリア・ネットワーク(MAN:metropolitan area network)、インターネット、インターネットの一部、公衆交換電話網(PSTN:Public Switched Telephone Network)の一部、基本電話サービス(POTS:plain old telephone service)ネットワーク、セルラー電話ネットワーク、ワイヤレス・ネットワーク、Wi−Fi(登録商標)ネットワーク、別のタイプのネットワーク、又は2つ以上のこのようなネットワークの組合せであってよい。例えば、ネットワーク1180、又はネットワーク1180の一部は、ワイヤレス又はセルラー・ネットワークを含むことができ、連結1182は、符号分割多元接続(CDMA:Code Division Multiple Access)接続、グローバル・システム・フォー・モバイル・コミュニケーションズ(GSM(登録商標):Global System for Mobile communications)接続、又は別のタイプのセルラー若しくはワイヤレス連結であってよい。この実例において、連結1182は、単一のキャリア無線伝送技術(lxRTT:Single Carrier Radio Transmission Technology)、エボリューション・データ・オプティマイズド(EVDO:Evolution−Data Optimized)技術、汎用パケット無線通信システム(GPRS:General Packet Radio Service)技術、GSM(登録商標)進化型高速データレート(EDGE:Enhanced Data rates for GSM(登録商標) Evolution)技術、3Gを含む第3世代パートナーシップ・プロジェクト(3GPP:third Generation Partnership Project)、第4世代ワイヤレス(4G:fourth generation wireless)ネットワーク、ユニバーサル移動体通信システム(UMTS:Universal Mobile Telecommunications System)、高速パケット・アクセス(HSPA:High Speed Packet Access)、ワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(WiMAX:Worldwide Interoperability for Microwave Access)、ロング・ターム・エボリューション(LTE:Long Term Evolution)標準、様々な標準化団体によって定義される他の標準、他の長距離プロトコル、又は他のデータ転送技術などの様々なタイプのデータ転送技術のいずれかを実装することができる。
命令1116は、ネットワーク・インターフェース・デバイス(例えば、通信構成要素1164に含まれるネットワーク・インターフェース構成要素)を介した伝送媒体を使用し、いくつかのよく知られた伝達プロトコルのうちの任意の1つ(例えばHTTP)を利用するネットワーク1180上で送られるか、又は受け取られてよい。同様に、命令1116は、デバイス1170への連結1172(例えばピアツーピアの連結)を介した伝送媒体を使用して送られるか、又は受け取られてよい。用語「伝送媒体」は、マシン1100による実行のための命令1116の格納、エンコーディング、又は搬送を行うことができる任意の無形の媒体を含むものと理解されるべきであり、デジタル若しくはアナログの通信信号、又はこのようなソフトウェアの通信を容易にする他の無形の媒体を含む。
本明細書の至る所に、単一の例として説明された構成要素、動作、又は構造を複数の例が実装することができる。1つ又は複数の方法の個別の動作が、別々の動作として示され、説明されるが、個別の動作の1つ又は複数が並行に行われてよく、示された順序で動作が行われることを要求しない。構成の実例において別々の構成要素として提示される構造及び機能は、組み合わされた構造又は構成要素として実装されてよい。同様に、単一の構成要素として提示される構造及び機能は、別々の構成要素として実装されてよい。これらの及び他の変形、修正、追加、及び改善は、本明細書の主題の範囲に入る。
実装形態の具体的な実例を参照しながら本発明の主題の全体像が説明されたが、様々な修正及び変更が、本開示の実装形態のより広い範囲から逸脱することなく、これらの実装形態に対して行われてよい。本発明の主題のこのような実装形態は、単に利便性のために用語「発明」によって個別に又はまとめて本明細書で言及されることがあり、2つ以上が実際に開示された場合、任意の単一の開示又は発明の概念に本出願の範囲を自発的に限定することを意図するものではない。
本明細書で示される実装形態は、開示された教示を当業者が実践できるようにするのに十分詳細に説明される。他の実装形態がここから使用及び導出されてよく、この結果、構造的及び論理的な代用及び変更が、本開示の範囲から逸脱することなく行われてよい。したがって、「発明を実施するための形態」は限定的な意味で理解されるべきではなく、様々な実装形態の範囲は、添付の特許請求の範囲が権利を与えられるすべての範囲の均等物と共に、添付の特許請求の範囲によってのみ定義される。
本明細書で使用されるように、用語「又は(or)」は、包括的又は排他的な意味で解釈されてよい。さらに、複数形の例が、単一の例として本明細書で説明されるリソース、動作、又は構造に提供されてよい。さらに、様々なリソース、動作、モジュール、エンジン、及びデータ・ストレージの間の境界はやや独断的であり、特定の動作が、特定の例証的な構成の状況で示される。機能の他の割振りが想像され、本開示の様々な実装形態の範囲に入る可能性がある。全体的に、構成の実例において別々のリソースとして提示される構造及び機能は、組み合わされた構造又はリソースとして実装されてよい。同様に、単一のリソースとして提示される構造及び機能は、別々のリソースとして実装されてよい。これらの及び他の変形、修正、追加、及び改善は、添付の特許請求の範囲によって表されるような本開示の実装形態の範囲に入る。明細書及び図面は、制限的な意味ではなく例証的な意味であると適宜みなされるべきである。

Claims (24)

  1. システムであって、
    処理デバイスと、
    前記処理デバイスに連結されたメモリとを備え、前記メモリが、前記処理デバイスによって実行されると、
    1つ又は複数の入力を受け取ること、
    前記1つ又は複数の入力を処理して1つ又は複数のコンテンツ提示面を識別すること、
    前記1つ又は複数のコンテンツ提示面の識別に基づいて、第1のコンテンツ項目を修正すること、及び
    前記1つ又は複数のコンテンツ提示面に対して、修正された前記第1のコンテンツ項目を提示すること
    を含む動作を前記システムに行わせる命令を格納する、システム。
  2. 前記1つ又は複数の入力を処理することが、前記1つ又は複数の入力を処理して前記1つ又は複数のコンテンツ提示面の少なくとも1つの場所を識別することを含む、請求項1に記載のシステム。
  3. 前記1つ又は複数の入力を処理することが、前記1つ又は複数の入力を処理して前記1つ又は複数のコンテンツ提示面の少なくとも1つの位置を識別することを含む、請求項1に記載のシステム。
  4. 前記1つ又は複数の入力を処理することが、前記1つ又は複数の入力を処理して前記1つ又は複数のコンテンツ提示面の少なくとも1つの形状を識別することを含む、請求項1に記載のシステム。
  5. 前記1つ又は複数の入力が、前記1つ又は複数の画像を含む、請求項1に記載のシステム。
  6. 前記メモリが、前記第1のコンテンツ項目と関連付けられた第1の通信をユーザ・デバイスから受け取ることを含む動作を前記システムに行わせるための命令をさらに格納する、請求項1に記載のシステム。
  7. 前記メモリが、前記第1の通信に応答して、前記ユーザ・デバイスに対してコンテンツ制御を行うことを含む動作を前記システムに行わせるための命令をさらに格納する、請求項6に記載のシステム。
  8. 前記メモリが、前記コンテンツ制御によって前記ユーザ・デバイスによって行われた第2の通信を受け取ることを含む動作を前記システムに行わせるための命令をさらに格納する、請求項7に記載のシステム。
  9. 前記メモリが、前記第2の通信に応答して前記第1のコンテンツ項目の提示を調節することを含む動作を前記システムに行わせるための命令をさらに格納する、請求項8に記載のシステム。
  10. 前記メモリが、
    前記第1のコンテンツ項目の提示に対応する入力を受け取ること、及び
    前記入力に基づいて第2のコンテンツ項目の提示を調節すること
    を含む動作を前記システムに行わせるための命令をさらに格納する、請求項1に記載のシステム。
  11. 1つ又は複数の入力を受け取ることが、コンテンツ提示デバイスの位置に対応する1つ又は複数の入力を受け取ることをさらに含む、請求項1に記載のシステム。
  12. 1つ又は複数の入力を受け取ることが、前記1つ又は複数のコンテンツ提示面に対するコンテンツ提示デバイスの位置に対応する1つ又は複数の入力を受け取ることさらに含む、請求項1に記載のシステム。
  13. 前記メモリが、
    前記第1のコンテンツ項目の選択を受け取ること、及び
    前記第1のコンテンツ項目の前記選択に基づいて前記1つ又は複数のコンテンツ提示面の1つ又は複数の態様を調節すること
    を含む動作を前記システムに行わせるための命令をさらに格納する、請求項1に記載のシステム。
  14. 前記第1のコンテンツ項目が、1つ又は複数のコンテンツ提示トリガと関連付けられ、前記第1のコンテンツ項目を提示することが、前記1つ又は複数のコンテンツ提示トリガのうちの少なくとも1つが発生したという判断に応答して前記第1のコンテンツ項目を提示することを含む、請求項1に記載のシステム。
  15. 前記第1のコンテンツ項目を修正することが、前記1つ又は複数の入力の1つ又は複数の態様を前記第1のコンテンツ項目に組み込むことを含む、請求項1に記載のシステム。
  16. 前記メモリが、関心基準値を計算することを含む動作を前記システムに行わせるための命令をさらに格納し、前記第1のコンテンツ項目を修正することが、前記関心基準値に基づいて前記第1のコンテンツ項目を修正することを含む、請求項1に記載のシステム。
  17. 前記第1のコンテンツ項目を提示することが、第1のコンテンツ提示面に対して前記第1のコンテンツ項目を提示し、第2のコンテンツ提示面に対して第2のコンテンツ項目を提示することを含む、請求項1に記載のシステム。
  18. 前記第1のコンテンツ項目を提示することが、コンテンツ提示スケジュールに基づいて前記第1のコンテンツ項目を提示することを含む、請求項1に記載のシステム。
  19. 前記メモリが、
    コンテンツ提示トリガの発生を識別すること、及び
    前記コンテンツ提示トリガの前記発生の識別に応答して第2のコンテンツ項目を提示すること
    を含む動作を前記システムに行わせるための命令をさらに格納する、請求項18に記載のシステム。
  20. 前記メモリが、
    前記第1のコンテンツ項目の提示に対する1つ又は複数のユーザ対話を識別すること、
    前記第1のコンテンツ項目に対して識別された前記1つ又は複数のユーザ対話に対応する第2のコンテンツ項目を識別すること、及び
    前記第2のコンテンツ項目を提示すること
    を含む動作を前記システムに行わせるための命令をさらに格納する、請求項1に記載のシステム。
  21. 1つ又は複数の入力を受け取るステップと、
    前記1つ又は複数の入力を処理して1つ又は複数のコンテンツ提示面を識別するステップと、
    前記1つ又は複数のコンテンツ提示面の識別に基づいて、第1のコンテンツ項目を修正するステップと、
    前記1つ又は複数のコンテンツ提示面に対して、修正された前記第1のコンテンツ項目を提示するステップと、
    前記第1のコンテンツ項目と関連付けられた第1の通信をユーザ・デバイスから受け取るステップと、
    前記第1の通信に応答して、前記ユーザ・デバイスに対してコンテンツ制御を行うステップと、
    前記コンテンツ制御によって前記ユーザ・デバイスによって行われた第2の通信を受け取るステップと、
    前記第2の通信に応答して前記第1のコンテンツ項目の提示を調節するステップと
    含む、方法。
  22. 処理デバイスによって実行されると、
    1つ又は複数の入力を受け取ること、
    前記1つ又は複数の入力を処理して1つ又は複数のコンテンツ提示面を識別すること、
    前記1つ又は複数のコンテンツ提示面の識別に基づいて、第1のコンテンツ項目を修正すること、
    前記1つ又は複数のコンテンツ提示面に対して、修正された前記第1のコンテンツ項目を提示すること、
    前記第1のコンテンツ項目の提示に対する1つ又は複数のユーザ対話を識別すること、
    前記第1のコンテンツ項目に対して識別された前記1つ又は複数のユーザ対話に対応する第2のコンテンツ項目を識別すること、及び
    前記第2のコンテンツ項目を提示すること
    を含む動作を前記処理デバイスに行わせる命令が格納された非一時的コンピュータ可読媒体。
  23. システムであって、
    処理デバイスと、
    前記処理デバイスに連結されたメモリとを備え、前記メモリが、前記処理デバイスによって実行されると、
    第1のコンテンツ項目を提示すること、
    1つ又は複数の画像をキャプチャすること、
    前記1つ又は複数の画像を処理して前記第1のコンテンツ項目に対する1つ又は複数のユーザ対話を識別すること、
    前記第1のコンテンツ項目に対して識別された前記1つ又は複数のユーザ対話に対応する第2のコンテンツ項目を識別すること、及び
    前記第2のコンテンツ項目を提示すること
    を含む動作を前記システムに行わせる命令を格納する、システム。
  24. 第1のコンテンツ項目を投影するステップと、
    1つ又は複数の画像をキャプチャするステップと、
    前記1つ又は複数の画像を処理して前記第1のコンテンツ項目に対する1つ又は複数のユーザ対話を識別するステップと、
    前記第1のコンテンツ項目に対して識別された前記1つ又は複数のユーザ対話に対応する第2のコンテンツ項目を識別するステップと、
    前記第2のコンテンツ項目を投影するステップと
    を含む、方法。
JP2019519614A 2016-06-23 2017-06-23 対話式コンテンツ管理 Pending JP2019531558A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662354092P 2016-06-23 2016-06-23
US62/354,092 2016-06-23
PCT/US2017/039115 WO2017223513A1 (en) 2016-06-23 2017-06-23 Interactive content management

Publications (1)

Publication Number Publication Date
JP2019531558A true JP2019531558A (ja) 2019-10-31

Family

ID=60784538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019519614A Pending JP2019531558A (ja) 2016-06-23 2017-06-23 対話式コンテンツ管理

Country Status (5)

Country Link
US (1) US20190222890A1 (ja)
EP (1) EP3475759A4 (ja)
JP (1) JP2019531558A (ja)
CN (1) CN110023832A (ja)
WO (1) WO2017223513A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3064097A1 (fr) * 2017-03-14 2018-09-21 Orange Procede d'enrichissement d'un contenu numerique par donnees spontanees
US10752172B2 (en) * 2018-03-19 2020-08-25 Honda Motor Co., Ltd. System and method to control a vehicle interface for human perception optimization
US11128980B2 (en) * 2019-02-13 2021-09-21 T-Mobile Usa, Inc. Enhanced algorithms for improved user experience using internet of things sensor integration
US11308697B2 (en) * 2019-09-12 2022-04-19 International Business Machines Corporation Virtual reality based selective automation adoption
JP6712739B1 (ja) * 2019-12-19 2020-06-24 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293999A (ja) * 2005-03-15 2006-10-26 Kyushu Institute Of Technology 画像表示方法およびその装置
JP2010109659A (ja) * 2008-10-30 2010-05-13 Seiko Epson Corp 投写光学系に対する投写面の位置又は傾きの測定方法、その測定方法を用いる投写画像の補正方法及びその補正方法を実行するプロジェクタ
WO2010070882A1 (ja) * 2008-12-16 2010-06-24 パナソニック株式会社 情報表示装置及び情報表示方法
JP2010283674A (ja) * 2009-06-05 2010-12-16 Panasonic Electric Works Co Ltd 投影システム及び投影方法
JP2013097799A (ja) * 2011-10-28 2013-05-20 Adidas Ag 双方向小売システム
JP2014165879A (ja) * 2013-02-27 2014-09-08 Ricoh Co Ltd コンテンツ提供装置、コンテンツ提供方法及びコンテンツ提供システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7292269B2 (en) * 2003-04-11 2007-11-06 Mitsubishi Electric Research Laboratories Context aware projector
US7001023B2 (en) * 2003-08-06 2006-02-21 Mitsubishi Electric Research Laboratories, Inc. Method and system for calibrating projectors to arbitrarily shaped surfaces with discrete optical sensors mounted at the surfaces
WO2010060146A1 (en) * 2008-11-27 2010-06-03 Seeing Machines Limited Metric for quantifying attention and applications thereof
US20140372209A1 (en) * 2013-06-14 2014-12-18 International Business Machines Corporation Real-time advertisement based on common point of attraction of different viewers
US20170223321A1 (en) * 2014-08-01 2017-08-03 Hewlett-Packard Development Company, L.P. Projection of image onto object

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293999A (ja) * 2005-03-15 2006-10-26 Kyushu Institute Of Technology 画像表示方法およびその装置
JP2010109659A (ja) * 2008-10-30 2010-05-13 Seiko Epson Corp 投写光学系に対する投写面の位置又は傾きの測定方法、その測定方法を用いる投写画像の補正方法及びその補正方法を実行するプロジェクタ
WO2010070882A1 (ja) * 2008-12-16 2010-06-24 パナソニック株式会社 情報表示装置及び情報表示方法
JP2010283674A (ja) * 2009-06-05 2010-12-16 Panasonic Electric Works Co Ltd 投影システム及び投影方法
JP2013097799A (ja) * 2011-10-28 2013-05-20 Adidas Ag 双方向小売システム
JP2014165879A (ja) * 2013-02-27 2014-09-08 Ricoh Co Ltd コンテンツ提供装置、コンテンツ提供方法及びコンテンツ提供システム

Also Published As

Publication number Publication date
CN110023832A (zh) 2019-07-16
US20190222890A1 (en) 2019-07-18
EP3475759A4 (en) 2020-04-22
WO2017223513A1 (en) 2017-12-28
EP3475759A1 (en) 2019-05-01

Similar Documents

Publication Publication Date Title
US11803992B2 (en) Device location based on machine learning classifications
US10785597B2 (en) System to track engagement of media items
US10712811B2 (en) Providing a digital model of a corresponding product in a camera feed
JP2019531558A (ja) 対話式コンテンツ管理
CN106462825B (zh) 数据网格平台
US9665983B2 (en) Method, medium, and system for facilitating electronic commercial transactions in an augmented reality environment
US11563817B2 (en) Passive social media contact engagement
US20150235267A1 (en) Systems and methods for delivering content
KR102558866B1 (ko) 필터 활동을 통한 오디언스 도출
TW201812521A (zh) 根據使用者的興趣顯示內容之具有眼動追蹤之互動式顯示系統
US20240202550A1 (en) Machine learning modeling using social graph signals
US11789179B2 (en) Generating weather data based on messaging system activity
US11995108B2 (en) Systems, devices, and methods for content selection
US20210133851A1 (en) Personalized content based on interest levels
CN107637086B (zh) 动态内容重新排序的方法、系统和机器可读介质
EP3499447A1 (en) Providing a digital model of corresponding product in a camera feed
US20170061549A1 (en) Image generation for social media contact engagement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210901

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220727