JPWO2015159602A1 - 情報提供装置 - Google Patents

情報提供装置 Download PDF

Info

Publication number
JPWO2015159602A1
JPWO2015159602A1 JP2016513666A JP2016513666A JPWO2015159602A1 JP WO2015159602 A1 JPWO2015159602 A1 JP WO2015159602A1 JP 2016513666 A JP2016513666 A JP 2016513666A JP 2016513666 A JP2016513666 A JP 2016513666A JP WO2015159602 A1 JPWO2015159602 A1 JP WO2015159602A1
Authority
JP
Japan
Prior art keywords
information
content
specific
user
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016513666A
Other languages
English (en)
Other versions
JP6253127B2 (ja
Inventor
西田 幸雄
幸雄 西田
智子 千代
智子 千代
典良 広井
典良 広井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
NEC Solution Innovators Ltd
Original Assignee
NEC Corp
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, NEC Solution Innovators Ltd filed Critical NEC Corp
Publication of JPWO2015159602A1 publication Critical patent/JPWO2015159602A1/ja
Application granted granted Critical
Publication of JP6253127B2 publication Critical patent/JP6253127B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/18Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds

Abstract

情報提供装置(100)は、複数の情報コンテンツグループに対応する複数の異なる特定コンテンツの各々を時間に応じて切り替えて表示部又は投影面に表示させる表示処理部(101)と、ユーザの所定操作を検出する検出部(102)と、当該検出された所定操作の対象とされた特定コンテンツを認識し、当該認識された特定コンテンツに対応する情報コンテンツグループの、当該ユーザのための操作インタフェースを提供する提供部(103)と、を有する。

Description

本発明は、情報を提供する技術に関する。
ディスプレイやプロジェクタ等を用いて広告や案内情報等を提示するデジタルサイネージが新しい情報媒体として普及しつつある。下記特許文献1には、デジタルサイネージと携帯端末とを円滑かつ効果的に連携させる手法が提案されている。この提案手法では、デジタルサイネージから所定範囲内に存在する携帯端末にそのデジタルサイネージを一時的に占有させ、その携帯端末に対するユーザ操作により、デジタルサイネージの表示内容を変化させる。
特開2010−176648号公報
上述の提案手法のように、デジタルサイネージの表示内容を各個人で操作可能とすることは、個人に有意義な詳細情報を提供するためには、大変重要である。一方で、個人に長い間デジタルサイネージを占有させることは、多くの人達に情報を提供するためには、望ましいことではない。占有する個人に興味のある情報のみが表示され、それ以外の情報の提供が妨げられるからである。
本発明は、このような事情に鑑みてなされたものであり、利便性の高い情報提供技術を提供する。
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第一の側面は、情報提供装置に関する。第一の側面に係る情報提供装置は、複数の情報コンテンツグループに対応する複数の異なる特定コンテンツの各々を時間に応じて切り替えて表示部又は投影面に表示させる表示処理手段と、ユーザの所定操作を検出する検出手段と、当該検出された所定操作の対象とされた特定コンテンツを認識し、当該認識された特定コンテンツに対応する情報コンテンツグループの、当該ユーザのための操作インタフェースを提供する提供手段と、を有する。
第二の側面は、少なくとも1つのコンピュータにより実行される情報提供方法に関する。第二の側面に係る情報提供方法は、複数の情報コンテンツグループに対応する複数の異なる特定コンテンツの各々を時間に応じて切り替えて表示部又は投影面に表示させ、ユーザの所定操作を検出し、検出された所定操作の対象とされた特定コンテンツを認識し、認識された特定コンテンツに対応する情報コンテンツグループの、当該ユーザのための操作インタフェースを提供する、ことを含む。
なお、本発明の他の側面としては、上記第二の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
上記各側面によれば、利便性の高い情報提供技術を提供することができる。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
第一実施形態におけるサイネージ装置のハードウェア構成例を概念的に示す図である。 第一実施形態におけるサイネージ装置の処理構成例を概念的に示す図である。 特定コンテンツと情報コンテンツグループとの関係例を概念的に示す図である。 サイネージ装置と携帯端末との通信を他のコンピュータを介して実現する構成例を概念的に示す図である。 第一実施形態におけるサイネージ装置の動作例を示すフローチャートである。 第二実施形態における情報提供装置のハードウェア構成例を概念的に示す図である。 第二実施形態における情報提供装置の処理構成例を概念的に示す図である。 パブリック画面及び標識画像の例を示す図である。 第二実施形態における情報提供装置の動作例を示すフローチャートである。 第二実施形態の実施シーンの例を示す図である。 第一変形例における情報提供装置のハードウェア構成例を概念的に示す図である。 第二変形例の実施シーンの例を示す図である。 第二変形例における情報提供装置の処理構成例を概念的に示す図である。 第四変形例における情報提供装置の処理構成例を概念的に示す図であり、は第四変形例の特徴を上述の第二実施形態の構成に適用した場合に対応する。 第三実施形態における情報提供装置の処理構成例を概念的に示す図である。 第三実施形態における情報提供装置の動作例を示すフローチャートである。
以下、本発明の実施の形態について説明する。なお、以下に挙げる各実施形態はそれぞれ例示であり、本発明は以下の各実施形態の構成に限定されない。
[第一実施形態]
以下、第一実施形態におけるサイネージ装置及び情報提供方法について複数の図面を用いて説明する。第一実施形態では、表示部を有するサイネージ装置及び携帯端末が連携して、個人向け及び非個人向け(周囲の者向け)にコンテンツの閲覧を可能とする。
〔ハードウェア構成〕
図1は、第一実施形態におけるサイネージ装置10のハードウェア構成例を概念的に示す図である。サイネージ装置10は、いわゆるデジタルサイネージであり、MPU(Micro Processing Unit)11、メモリ12、表示ユニット13、入力ユニット14、通信ユニット15等を有する。
メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)である。表示ユニット13は、液晶ディスプレイやプラズマディスプレイ等のような表示パネルを含み、表示処理を行う。入力ユニット14は、ユーザ操作を受け付ける入力インタフェースであり、表示パネルへの接触を検知するタッチセンサ、マウスやキーボード等の入力装置と接続されるインタフェース等である。通信ユニット15は、携帯端末20と無線通信又は有線通信を行う。通信ユニット15がサポートする通信形態は、近距離無線通信(NFC)、赤外線通信、無線LAN通信、USB(Universal Serial Bus)通信、シリアル通信等、任意である。
サイネージ装置10は、図1に示されないハードウェア構成要素を有していてもよく、サイネージ装置10のハードウェア構成は制限されない。
携帯端末20は、ノート型PC(Personal Computer)、携帯電話、スマートフォン、タブレット端末のようないわゆる携帯型のコンピュータである。サイネージ装置10から提供された情報コンテンツを表示でき、サイネージ装置10にアクセスするための通信機能を有していれば、携帯端末20のハードウェア構成も制限されない。
〔処理構成〕
図2は、第一実施形態におけるサイネージ装置10の処理構成例を概念的に示す図である。サイネージ装置10は、表示処理部21、検出部22、ユーザインタフェース(UI)提供部23、コンテンツ保持部24等を有する。これら各処理部は、例えば、MPU11によりメモリ12に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、メモリカード等のような可搬型記録媒体や他のコンピュータから通信ユニット15を介してインストールされ、メモリ12に格納されてもよい。
コンテンツ保持部24は、複数の情報コンテンツグループに関するデータを保持する。以降、情報コンテンツグループをグループと略称する場合もある。情報コンテンツグループは、異なる複数の情報コンテンツを含む。ここで、情報コンテンツとは、動画像、静止画像、音声、音楽、文字等を用いて表現されるひとまとまりの情報を意味する。情報コンテンツの情報種については何ら制限されない。
コンテンツ保持部24に保持される各グループは、コンテンツの種類や分野や提供者等のような何らかの条件で分類されたコンテンツ集合である。例えば、コンテンツ保持部24は、テナントビルのフロア毎の店舗情報を各情報コンテンツグループとして保持する。複数のグループに属する情報コンテンツが含まれていてもよい。例えば、服飾の店舗に関する情報コンテンツは、或るフロアに対応するグループと、服飾に対応するグループとに重複して含まれてもよい。
更に、コンテンツ保持部24は、複数の特定コンテンツに関するデータを保持する。各特定コンテンツは、各情報コンテンツグループにそれぞれ対応する。コンテンツ保持部24は、特定コンテンツと情報コンテンツグループとの対応関係も合わせて保持する。特定コンテンツは、対応する情報コンテンツグループに含まれる情報コンテンツとは異なるものであってもよいし、対応する情報コンテンツグループに含まれるいずれか1つの情報コンテンツであってもよい。
図3は、特定コンテンツと情報コンテンツグループとの関係例を概念的に示す図である。図3の例では、4つの特定コンテンツと4つの情報コンテンツグループCGとの対応関係が図示されている。各グループに含まれる複数の情報コンテンツは、図3に例示されるように、階層的な関係を有する。コンテンツ保持部24は、グループ毎に情報コンテンツ間の関係を更に保持する。後述するように、情報コンテンツグループの操作インタフェースを提供された携帯端末20は、このような情報コンテンツ間の関係に沿って、情報コンテンツを切り替え表示させる。
本実施形態における情報コンテンツの具体的内容は任意である。また、コンテンツ保持部24は、情報コンテンツグループに加えて、或る特定コンテンツに対応する1つの情報コンテンツを保持することもできる。
表示処理部21は、コンテンツ保持部24に保持される複数の特定コンテンツの各々を時間に応じて切り替えて、表示ユニット13の表示パネルに表示させる。図3には、特定コンテンツが切り替えられる例も示されている。表示処理部21は、予め決められた順序で予め決められた時間間隔で各特定コンテンツを切り替える。また、表示処理部21は、ランダムに選択された特定コンテンツを表示させてもよい。更に、表示処理部21は、特定コンテンツ間の切り替え間隔を変えてもよい。
対応する情報コンテンツグループに含まれるいずれか1つの情報コンテンツが特定コンテンツとなる場合には、表示処理部21は、特定コンテンツとしてその情報コンテンツを表示ユニット13の表示パネルに表示させる。
検出部22は、表示ユニット13の表示パネルに表示される特定コンテンツに対するユーザの所定操作を検出する。第一実施形態では、検出部22は、ユーザによる、携帯端末20にサイネージ装置10に対してアクセスさせる操作を当該所定操作として検出する。サイネージ装置10に対する携帯端末20のアクセスは、広い意味を持つ。例えば、当該アクセスは、サイネージ装置10が通信ユニット15を介して携帯端末20と通信可能となることを意味する。また、当該アクセスは、両者が通信可能となった後、サイネージ装置10が携帯端末20からの何らかの情報(例えば、情報提供の要求)を受信したことを意味してもよい。
サイネージ装置10と携帯端末20との間の通信形態は任意である。その通信形態は、通信ユニット15及び携帯端末20が有する通信ユニット(図示せず)によりサポートされるものであればよい。また、サイネージ装置10と携帯端末20との通信可能状態は、直接、通信することで実現されてもよいし、サーバ装置(図示せず)等の他のコンピュータを介して通信することで実現されてもよい。
図4は、サイネージ装置10と携帯端末20との通信を他のコンピュータを介して実現する構成例を概念的に示す図である。この例の場合、サイネージ装置10と携帯端末20とはサーバ装置30を介して相互に通信可能状態となる。例えば、携帯端末20は、サイネージ装置10の識別情報を何らかの方法で入手し、その識別情報及び携帯端末20自身の識別情報をサーバ装置30に送信する。サーバ装置30は、受信されたサイネージ装置10の識別情報に基づいて、携帯端末20の識別情報の送り先を特定し、サイネージ装置10に携帯端末20の識別情報を送信する。以降、サイネージ装置10は、携帯端末20の識別情報を用いて、サーバ装置30を介して携帯端末20と通信することができる。サイネージ装置10の識別情報は、サイネージ装置10に表示又は貼付される二次元コード等を用いて携帯端末20により入手されてもよいし、近距離無線通信等を用いて携帯端末20により入手されてもよい。
UI提供部23は、検出部22により検出された所定操作の対象とされた特定コンテンツを認識し、その特定コンテンツに対応する情報コンテンツグループの、ユーザのための操作インタフェースを提供する。第一実施形態では、UI提供部23は、次のように、ユーザのための操作インタフェースを提供する。UI提供部23は、検出部22により検出された所定操作の検出タイミングに対応する特定コンテンツを所定操作の対象として認識し、その認識された特定コンテンツに対応する情報コンテンツグループを特定する。UI提供部23は、その特定された情報コンテンツグループを遷移操作可能な状態で携帯端末20に提供する。
例えば、UI提供部23は、携帯端末20からのアクセスが検出部22により検出されると、その検出タイミングに表示ユニット13の表示パネルに表示されている特定コンテンツをその所定操作の対象と認識する。表示ユニット13の表示パネルに表示される特定コンテンツの情報は、表示処理部21又はコンテンツ保持部24に保持されればよい。UI提供部23は、特定された情報コンテンツグループ及びそのグループに含まれる情報コンテンツ間を携帯端末20上で遷移操作できるようにするアプリケーションデータを携帯端末20に提供する。このアプリケーションデータは、サイネージ装置10から直接携帯端末20に送信されてもよいし、サーバ装置30から携帯端末20にダウンロードされてもよい。
携帯端末20は、その提供されたアプリケーションデータを用いて、ユーザが、当該情報コンテンツグループに含まれる複数の情報コンテンツを遷移操作して自由に閲覧できるようにする。また、UI提供部23は、情報コンテンツグループ及びそのグループに含まれる情報コンテンツ間の関係情報をWEBページとしてWEBサーバ機能を有するサーバ装置30に登録し、そのURL(Uniform Resource Locator)を携帯端末20に通知してもよい。この場合、携帯端末20は、WEBブラウザを介して、ユーザに当該情報コンテンツグループに含まれる複数の情報コンテンツを遷移操作可能に提供することができる。
このようなUI提供部23による情報コンテンツグループの提供手法によれば、各ユーザの携帯端末20においてそれぞれ個別に(独自に)、情報コンテンツグループの遷移操作及び閲覧が行われる。即ち、UI提供部23は、当該情報コンテンツグループの、ユーザのための操作インタフェースを提供することができる。
〔動作例/情報提供方法〕
以下、第一実施形態における情報提供方法について図5を用いて説明する。図5は、第一実施形態におけるサイネージ装置10の動作例を示すフローチャートである。図5に示されるように、第一実施形態における情報提供方法は、サイネージ装置10のような少なくとも1つのコンピュータにより実行される。例えば、図示される各工程は、サイネージ装置10が有する各処理部により実行される。各工程は、サイネージ装置10が有する上述の各処理部の処理内容と同様であるため、各工程の詳細は、適宜省略される。
サイネージ装置10は、複数の特定コンテンツの各々を時間に応じて切り替えて表示ユニット13の表示パネルに表示させつつ、図5に示される処理を実行する。
サイネージ装置10は、携帯端末20からのアクセスを検出する(S51)。サイネージ装置10に対する携帯端末20のアクセスの意味については上述のとおりである。
サイネージ装置10は、携帯端末20からのアクセスを検出すると(S52;YES)、その検出タイミングに対応する特定コンテンツを認識する(S53)。例えば、サイネージ装置10は、当該アクセスの検出タイミングにおいて、表示ユニット13の表示パネルに表示されている特定コンテンツを認識する(S53)。
サイネージ装置10は、コンテンツ保持部24に保持される情報に基づいて、(S53)で認識された特定コンテンツに対応する情報コンテンツグループを特定する(S54)。
サイネージ装置10は、(S54)で特定された情報コンテンツグループを遷移操作可能な状態で携帯端末20に提供する(S55)。情報コンテンツグループの提供手法についても上述の通りである。サイネージ装置10は、複数の携帯端末20からのアクセスを受け付け可能であるため、携帯端末20毎に図5に示される処理を実行する。
〔第一実施形態における作用及び効果〕
上述のように、第一実施形態では、複数の特定コンテンツが時間に応じて切り替えられて、サイネージ装置10の表示パネルに表示される。携帯端末20によるサイネージ装置10に対するアクセスが検出されると、その検出タイミングに対応する特定コンテンツが認識される。そして、その特定コンテンツに対応する情報コンテンツグループが遷移操作可能な状態で携帯端末20に提供される。
従って、第一実施形態によれば、サイネージ装置10の表示パネルを視認し得る人々に対しては、複数の特定コンテンツを順次提供することができる。一方で、各個人は、興味のある特定コンテンツが表示されているときに、携帯端末20を用いてサイネージ装置10に対してアクセスする。これにより、各個人は、興味のある特定コンテンツに対応する情報コンテンツグループを個別に取得することができ、興味のある情報コンテンツを占有することができる。第一実施形態によれば、このように各個人に特定の情報を占有させたとしても、その他の人々に対しては、変わらず、複数の特定コンテンツを順次提供することができる。
更に、第一実施形態によれば、各個人の情報コンテンツグループに対する遷移操作は、携帯端末20内のみで完結させることができるため、各個人の嗜好や状況が他人に漏れるのを防ぐことができる。よって、今まで自身の嗜好や状況が他人に漏れるのを嫌がってデジタルサイネージを利用しようとしなかった多数の人達も取り込むことができ、ひいては、デジタルサイネージの利用頻度を高め、デジタルサイネージの情報伝達能力を向上させることができる。このように、第一実施形態によれば、パブリックなサイネージと、パーソナルなサイネージとを両立させることができる。
[第一実施形態の変形例]
上述の第一実施形態では、表示パネルを有するサイネージ装置10が表示処理部21、検出部22、UI提供部23及びコンテンツ保持部24を有していたが、これら処理部の全部又は一部は、サイネージ装置10と通信可能なサーバ装置30により備えられてもよい。例えば、サーバ装置30が全ての処理部を有し、サイネージ装置10はユーザインタフェースとしてのみ動作する構成も実現可能である。
[第二実施形態]
以下、第二実施形態における情報提供装置及び情報提供方法について複数の図面を用いて説明する。第二実施形態では、投影装置が投影する画像を用いて、個人向け及び非個人向け(周囲の者向け)にコンテンツの閲覧を可能とする。
〔ハードウェア構成〕
図6は、第二実施形態における情報提供装置40のハードウェア構成例を概念的に示す図である。情報提供装置40は、投影型のデジタルサイネージ装置であり、CPU(Central Processing Unit)41、メモリ42、通信ユニット43等を有する。メモリ42は、RAM、ROM、ハードディスク等である。通信ユニット43は、他のコンピュータとの通信網を介した通信や、三次元センサ46、投影装置47、投影装置48等の他の機器との信号のやりとり等を行う。通信ユニット43には、可搬型記録媒体等も接続され得る。三次元センサ46、投影装置47及び投影装置48と、情報提供装置40との間の通信形態は制限されない。情報提供装置40は、図6に図示しないハードウェア要素を含んでもよく、情報提供装置40のハードウェア構成は制限されない。
三次元センサ46は、二次元像(画像)の情報、及び、三次元センサ46からの距離の情報(深度情報)を含むセンサ情報を取得する。三次元センサ46は、例えば、可視光カメラ及び距離画像センサにより実現される。距離画像センサは、深度センサとも呼ばれ、レーザから近赤外光のパターンを照射し、そのパターンを近赤外光を検知するカメラで撮像して得られる情報に基づいて、距離画像センサから検知対象までの距離(深度)が算出される。但し、三次元センサ46の実現手法は制限されない。三次元センサ46は、複数のカメラを用いる3次元スキャナ方式で実現されてもよい。
投影装置47及び48は、情報提供装置40から送られる画像情報に基づいて光を投影面に投射することにより、投影面上に任意の画像を投影する。第二実施形態では、投影装置47は、非個人向けの投影画面を第一の投影面に向けて投射し、投影装置48は、後述の標識画像及び個人向けの投影画面を第二の投影面に向けて投射する。以降、投影装置47により投影される画面をパブリック画面と表記し、投影装置48により投影される個人向け画面をパーソナル画面と表記する場合もある。
パブリック画面は、複数人向けのため、パーソナル画面よりも大きく投影される。また、パブリック画面が投影される第一の投影面は、複数人に視認し易いような位置及び向きに設置され、パーソナル画面及び後述の標識画像が投影される第二の投影面は、個人向けのため、各個人に扱いやすい位置及び向きに設置されることが望ましい。例えば、パブリック画面は壁面に投影され、パーソナル画面は、テーブル上の個人の近傍に投影される。
投影装置47及び投影装置48は、投影方向を調整する手段をそれぞれ含むことができる。投影方向を調整する手段には、光を投射する投射部の向きを変える機構、投射部から投射された光の向きを変える機構等が含まれる。また、投影装置47及び48は、投影方向及び投影する画像が異なるため、2つの装置として図示されているが、1つの装置で実現されてもよい。
〔処理構成〕
図7は、第二実施形態における情報提供装置40の処理構成例を概念的に示す図である。情報提供装置40は、表示処理部51、標識表示部52、ユーザ位置取得部53、検出部54、ユーザインタフェース(UI)提供部55、コンテンツ保持部56等を有する。これら各処理部は、例えば、CPU41によりメモリ42に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、メモリカード等のような可搬型記録媒体や他のコンピュータから通信ユニット43を介してインストールされ、メモリ42に格納されてもよい。
コンテンツ保持部56は、第一実施形態におけるコンテンツ保持部24と同様に、複数の情報コンテンツグループ、及び、各情報コンテンツグループに対応する複数の特定コンテンツに関するデータを保持する。特定コンテンツと情報コンテンツグループとの関係についても上述したとおりである。
表示処理部51は、コンテンツ保持部56に保持される複数の特定コンテンツの各々を時間に応じて切り替えて、投影装置47に投影させる。具体的には、表示処理部51は、各特定コンテンツの画像情報を切り替えながら投影装置47に送る。投影装置47は、第一の投影面に特定コンテンツを投影する。特定コンテンツの切り替え手法については、表示処理部21と同様である。対応する情報コンテンツグループに含まれるいずれか1つの情報コンテンツが特定コンテンツとなる場合には、表示処理部51は、特定コンテンツとしてその情報コンテンツを投影装置47に投影させる。
図8は、パブリック画面及び標識画像の例を示す図である。図8の例では、投影装置47は、パブリック画面62を投影しており、パブリック画面62において、複数の特定コンテンツの各々が時間に応じて切り替えられて表示される。
標識表示部52は、投影装置48に所定画像を投影させる。標識表示部52は、この所定画像の画像情報を投影装置48に送ることで、当該所定画像を投影させる。投影装置48は、その所定画像を第二の投影面に投影する。その所定画像は、投影装置47により投影されるパブリック画面を示す標識であり、以降、標識画像と表記される。標識画像の画像自体は何ら制限されない。図8の例では、投影装置48は、テーブル60の上面を投影面とし、その投影面上に標識画像61を投影している。
標識画像は、パブリック画面を示す標識であるため、複数人により操作可能な状態で投影されることが望ましい。図8に示されるように、標識画像61は、投影面となるテーブル60の中央に投影され、更に好ましくは、中央周辺で移動される。そのようにすれば、テーブル60を囲む複数人が標識画像61に対する所定操作を行い易くなるからである。よって、標識表示部52は、好ましくは、標識画像を投影面上で移動させる。
ユーザ位置取得部53は、三次元センサ46から得られるセンサ情報に基づいてユーザの特定部位を認識し、その認識された特定部位の位置情報を取得する。具体的には、ユーザ位置取得部53は、センサ情報に含まれる画像情報及び深度情報の少なくとも一方を用いて、ユーザの特定部位を認識する。認識される特定部位は、ユーザが操作を行う上で用いる、体の一部(指先等)、又は、操作具である。画像から特定部位の認識手法については、周知のオブジェクト認識手法が利用されればよい。認識手法の一例としては、ユーザ位置取得部53は、画像情報から特徴量を用いて人の頭部を認識し、画像情報と距離情報とを用いて、その人の頭部との位置関係及び特徴量から当該特定部位を認識する。
ユーザ位置取得部53は、センサ情報に含まれる二次元像情報及び距離情報に基づいて、上述のように認識されたユーザの特定部位の位置情報を取得する。例えば、ユーザ位置取得部53は、三次元センサ46の位置及び向きを基準に設定された三次元座標空間における、当該特定部位の位置情報を取得することができる。
検出部54は、投影面に写される標識画像の位置情報及びユーザ位置取得部53により取得された当該特定部位の位置情報を用いて、ユーザの特定部位を用いた当該標識画像に対する所定操作を検出する。例えば、検出部54は、次のようにして、標識画像の位置情報を取得することができる。検出部54は、投影装置48の位置及び投影方向並びにセンサ情報に基づいて、投影装置48から投影面までの距離(投影距離)を認識し、その距離及び投影装置48の投影仕様に基づいて、上述の三次元座標空間における、投影画面が投影されている位置を特定することができる。ここで、投影画面とは、投影装置48により投影面に投影される像全体を意味する。
標識画像の位置が投影装置48の投影方向のみで変更される場合には、検出部54は、上述のように特定された投影画面の位置を標識画像の位置として用いることができる。投影装置48の投影方向が固定の場合には、検出部54は、上述のように特定される投影画面の位置と、標識表示部52により処理される画像情報から得られる投影画面内の標識画像の位置とに基づいて、標識画像の位置の情報を取得することができる。当該投影方向が可変でありかつ投影画面内で標識画像の位置が可変である場合にも同様に、標識画像の位置の情報は取得され得る。
検出部54は、上述のような三次元座標空間上にマッピングされている標識画像とユーザの特定部位との位置関係に基づいて、ユーザの所定操作を検出する。例えば、検出部54は、標識画像をユーザの特定部位でユーザ側に引き寄せる操作を当該ユーザ操作として検出する。但し、検出される所定操作の具体的内容は制限されない。検出部54は、標識画像とユーザの特定部位との接触を所定操作として検出してもよい。
UI提供部55は、検出部54による所定操作の検出タイミングに対応する特定コンテンツをその所定操作の対象として認識する。UI提供部55は、その認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で投影装置48に投影面上のユーザの近接するエリアに投影させる。例えば、UI提供部55は、検出部54により所定操作が検出されたタイミングで、表示処理部51が投影装置47に投影させている特定コンテンツをその所定操作の対象として認識する。表示処理部51が投影装置47に投影させている特定コンテンツの情報は、表示処理部51又はコンテンツ保持部56に保持されればよい。
UI提供部55は、コンテンツ保持部56に保持される情報の中から、そのように認識された特定コンテンツに対応する情報コンテンツグループを特定し、特定された情報コンテンツグループを投影装置48に投影面上のユーザの近接するエリアに投影させる。例えば、UI提供部55は、当該情報コンテンツグループ内の1つの情報コンテンツを投影装置48に投影させて、その情報コンテンツに対するユーザ操作に応じて、当該情報コンテンツグループ内で情報コンテンツを切り替えて投影する。このようにして、当該情報コンテンツグループは、遷移操作可能な状態で投影される。検出部54は、標識画像に対するユーザ操作と同様にして、情報コンテンツに対するユーザ操作を検出することができる。検出部54は、ユーザ位置取得部53により取得される特定部位の位置情報及び情報コンテンツの位置情報に基づいて、情報コンテンツに対するユーザ操作を検出すればよい。
UI提供部55は、ユーザの近接するエリアについては、ユーザ位置取得部53により認識されるユーザの位置に基づいて、特定することができる。ユーザ位置取得部53は、上述のように、特定部位を認識する上で、人(ユーザ)を認識することができる。UI提供部55は、特定されたユーザの位置に基づいて、当該情報コンテンツグループが投影される位置をそのユーザに近接するエリアに決め、その位置に投影されるように、投影装置48に当該情報コンテングループの情報コンテンツを投影させる。
このようなUI提供部55による情報コンテンツグループの提供手法によれば、各ユーザにより、それぞれ個別に(独自に)、情報コンテンツグループの遷移操作及び閲覧が行われる。即ち、UI提供部55は、当該情報コンテンツグループの、ユーザのための操作インタフェースを提供することができる。
〔動作例/情報提供方法〕
以下、第二実施形態における情報提供方法について図9及び図10を用いて説明する。図9は、第二実施形態における情報提供装置40の動作例を示すフローチャートである。図10は、第二実施形態の実施シーンの例を示す図である。
図9に示されるように、第二実施形態における情報提供方法は、情報提供装置40のような少なくとも1つのコンピュータにより実行される。例えば、図示される各工程は、情報提供装置40が有する各処理部により実行される。各工程は、情報提供装置40が有する上述の各処理部の処理内容と同様であるため、各工程の詳細は、適宜省略される。
情報提供装置40は、複数の特定コンテンツの各々を時間に応じて切り替えて、投影装置47に投影させつつ、図9に示される処理を実行する。図10の例によれば、投影装置47は、特定コンテンツを示すパブリック画面62を投影している。更に、情報提供装置40は、三次元センサ46からセンサ情報を逐次取得している。三次元センサ46は、投影装置48の投影方向と同じ又は近似するセンシング方向を有する。
情報提供装置40は、投影装置48に所定画像(標識画像)を投影させる(S91)。図10に示されるように、投影装置48は、標識画像61をテーブル60の中央に投影する。このとき、情報提供装置40は、上述した手法により、標識画像が投影されている位置を特定する。特定される標識画像の位置は、情報提供装置40で共有される三次元座標空間にマッピングされる。
情報提供装置40は、取得されるセンサ情報に基づいてユーザの特定部位を認識し、その認識された特定部位の位置情報を取得する(S92)。特定部位の位置についても、上述の三次元座標空間にマッピングされる。図10の例では、情報提供装置40は、特定部位としてユーザの指先を認識する。特定部位の認識手法及びその位置の特定手法については上述のとおりである。このとき、情報提供装置40は、認識された特定部位を用いるユーザの位置も合わせて認識している。このユーザの位置についても、上述の三次元座標空間にマッピングされる。
情報提供装置40は、(S91)で投影された所定画像(標識画像)の位置情報、及び、(S92)で取得されたユーザの特定部位の位置情報を用いて、当該特定部位を用いた当該標識画像に対するユーザの所定操作を検出する(S93)。図10の例では、情報提供装置40は、テーブル60に投影される標識画像61にユーザの特定部位が接触して、標識画像61をユーザ側に引き寄せる操作を所定操作として検出する。情報提供装置40は、所定操作が検出されるまで、(S92)及び(S93)を繰り返し実行する(S94;NO)。
情報提供装置40は、所定操作が検出されると(S94;YES)、所定操作の検出タイミングに対応する特定コンテンツをその所定操作の対象として認識する(S95)。例えば、情報提供装置40は、所定操作が検出されたタイミングで、投影装置47に投影させている特定コンテンツをその所定操作の対象として認識する。
情報提供装置40は、コンテンツ保持部56に保持される情報の中から、(S95)で認識された特定コンテンツに対応する情報コンテンツグループを特定する(S96)。
情報提供装置40は、(S96)で特定された情報コンテンツグループを投影装置48に投影面上のユーザの近接するエリアに投影させる(S97)。情報提供装置40は、特定部位の位置と共に特定されているユーザの位置に基づいて、投影面上のユーザの近接するエリアを特定することができる。図10の例では、テーブル60上のユーザの近接するエリアに、情報コンテンツグループに含まれる或る情報コンテンツ63がパーソナル画面として投影されている。
図10の例では、情報コンテンツ63は、パブリック画面62として投影される特定コンテンツとは異なり、個人向けのコンテンツとなっており、3つのメニュー65を含む。情報提供装置40は、(S96)で特定された情報コンテンツグループ内の1つの情報コンテンツ63を投影装置48に投影させて、その情報コンテンツ63のメニュー65に対するユーザ操作を検出する。情報提供装置40は、そのユーザ操作に応じて、当該情報コンテンツグループ内で情報コンテンツを切り替えて投影する。情報提供装置40は、このようにして、当該情報コンテンツグループを遷移操作可能な状態で投影する。
〔第二実施形態における作用及び効果〕
上述のように、第二実施形態では、複数の特定コンテンツが時間に応じて切り替えられて、投影装置47によりパブリック画面として第一の投影面に投影される。これと共に、第二実施形態では、そのパブリック画面を示す標識である所定画像(標識画像)が投影装置48により第二の投影面に投影される。そして、第二の投影面に投影されている標識画像に対するユーザの所定操作が検出されると、その検出タイミングに対応する特定コンテンツが認識される。そして、その特定コンテンツに対応する情報コンテンツグループが遷移操作可能な状態で第二の投影面上におけるそのユーザの近接エリアに投影される。
従って、第二実施形態によれば、第一の投影面を視認し得る人々に対しては、複数の特定コンテンツを順次提供することができる。一方で、各個人は、第一の投影面に興味のある特定コンテンツが投影されているときに、第二の投影面に投影されている標識画像に対して特定部位を用いて所定操作をする。これにより、各個人は、興味のある特定コンテンツに対応する情報コンテンツグループを個別に取得することができる。即ち、各個人は、興味のある情報コンテンツを占有することができる。第二実施形態によれば、このように各個人に特定の情報を占有させたとしても、その他の人々に対しては、変わらず、複数の特定コンテンツを順次提供することができる。
更に、第二実施形態によれば、第二の投影面に投影されている標識画像及び第二投影面におけるユーザの近接エリアに投影されている情報コンテンツグループに対する操作により、所望の情報コンテンツを各個人に提供することができる。即ち、第二実施形態によれば、ユーザ端末を用いる必要がないため、ユーザにとってより簡単に、所望の情報コンテンツを提供することができる。
また、第二実施形態によれば、情報コンテンツグループの操作インタフェースが、第二の投影面上のユーザの近接エリアに構築されるため、各個人の嗜好や状況を他人に漏れ難くすることができる。よって、今まで自身の嗜好や状況が他人に漏れるのを嫌がってデジタルサイネージを利用しようとしなかった多数の人達も取り込むことができ、ひいては、デジタルサイネージの利用頻度を高め、デジタルサイネージの情報伝達能力を向上させることができる。このように、第二実施形態においても、パブリックなサイネージと、パーソナルなサイネージとを両立させることができる。
[第一変形例]
図11は、第一変形例における情報提供装置40のハードウェア構成例を概念的に示す図である。図11に示されるように、第二実施形態における情報提供装置40は、パブリック画面を投影する投影装置47の代わりに、サイネージ装置70に接続されてもよい。サイネージ装置70は、図1に示されるハードウェア構成を有しており、一般的なデジタルサイネージとして動作すればよい。第一変形例では、サイネージ装置70は、複数の特定コンテンツの各々を時間に応じて切り替えて、表示ユニット13の表示パネルに表示させる。情報提供装置40は、ユーザの所定操作が検出された際に表示パネルに表示させている特定コンテンツの情報をサイネージ装置70に要求する。情報提供装置40は、その要求に応じたサイネージ装置70からの応答に基づいて、所定操作の検出タイミングに対応する特定コンテンツを認識することができる。
また、情報提供装置40は、表示すべき特定コンテンツのデータをサイネージ装置70に送り、サイネージ装置70は、情報提供装置40から受信されるデータに基づいて、特定コンテンツを表示パネルに表示させてもよい。この場合、サイネージ装置70は、表示装置としてのみ動作する。この場合、情報提供装置40は、ユーザの所定操作が検出された際に表示パネルに表示させている特定コンテンツの情報を自身で認識することができる。
第一変形例でも、パブリック画面が、投影画面ではなく、サイネージ装置70の表示パネルに表示される画面となるだけで、上述の第二実施形態と同様の効果を得ることができる。
[第二変形例]
上述の第二実施形態では、パブリック画面を示す標識として標識画像が用いられたが、標識画像の投影位置にパブリック画面を投影させてもよい。第二変形例における情報提供装置40は、第二実施形態と同様のハードウェア構成を有していればよい。
図12は、第二変形例の実施シーンの例を示す図である。図12に示されるように、第二変形例では、投影装置47は、テーブル60の中央部にパブリック画面62を投影し、投影装置48は、標識画像を投影せず、特定された情報コンテンツグループをパーソナル画面(情報コンテンツ)63として投影する。図12では、パブリック画面62を投影する投影装置47とパーソナル画面63を投影する投影装置48とが別々に存在する構成を例示したが、1つの投影装置により実現されてもよい。この場合、投影装置は、テーブル60の上面全体に投影画面を投影し、その投影画面内の部分エリアにパブリック画面62及びパーソナル画面63が表示される。
図13は、第二変形例における情報提供装置40の処理構成例を概念的に示す図である。第二変形例では、第二実施形態における標識表示部52が省かれる。表示処理部51は、各特定コンテンツを切り替えて投影装置47に投影面に投影させる。検出部54は、当該投影面に写される特定コンテンツの位置情報及び特定部位の位置情報を用いて、当該投影面に写される特定コンテンツに対する、特定部位を用いたユーザの所定操作を検出する。UI提供部55は、所定操作の検出タイミングに対応する特定コンテンツを当該所定操作の対象として認識する。UI提供部55は、当該認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で投影装置48に投影面上のユーザの近接するエリアに投影させる。
第二変形例では、パブリック画面が個人に操作可能な位置に投影されるため、第二実施形態に比べて、周囲の者にとってパブリック画面の視認性は低下する可能性がある。しかしながら、パブリック画面に対して所定操作を行う各個人にとっては、見ている特定コンテンツそのものに対して所定操作を行うことができるため、所定操作を行うタイミングを取りやすくなる。
[第三変形例]
上述したとおり、各情報コンテンツグループに含まれるいずれか1つの情報コンテンツを各特定コンテンツとして用いることもできる。例えば、各情報コンテンツグループに含まれる最上位の情報コンテンツが各特定コンテンツとして用いられる。この場合に、サイネージ装置10及び70の表示パネルに表示される特定コンテンツ、及び、投影装置47により投影される特定コンテンツについても、ユーザに操作できるようにしてもよい。
サイネージ装置10及び70は、タッチパネルユニットを有し、タッチパネルに特定コンテンツを表示させることができる。サイネージ装置10及び70は、タッチパネルに対するユーザの接触を検知することができる。また、第二実施形態における情報提供装置40は、投影装置47により投影されるパブリック画面に対するユーザの特定部位を用いた操作を検出するためのセンサ情報を取得する三次元センサに更に接続されればよい。
検出部22及び54は、特定コンテンツとして表示される情報コンテンツに対する、ユーザの遷移操作を検出する。この遷移操作は、上述の各実施形態において検出部22及び検出部54が検出していた所定操作とは異なる操作となる。
表示処理部21及び51は、検出部22及び検出部54による遷移操作の検出に伴い、特定コンテンツの切り替えを所定時間止め、対応する情報コンテンツグループの中の、当該特定コンテンツとして表示されていた情報コンテンツから遷移された、他の情報コンテンツをタッチパネル又は投影面に表示させる。
第三変形例によれば、非個人向けの情報提供環境の個人的利用が可能となる。
[第四変形例]
上述の各実施形態及び各変形例において、情報コンテンツグループの操作インタフェースの提供状況に応じて、非個人向けに提示される特定コンテンツの内容及び切り替え表示態様を変更することもできる。
図14は、第四変形例における情報提供装置40の処理構成例を概念的に示す図である。第四変形例における情報提供装置40は、上述の第二実施形態の構成に加えて、状況管理部80を更に有する。状況管理部80についても他の処理部と同様に実現される。
状況管理部80は、情報コンテンツグループの操作インタフェースの提供状況を管理する。具体的には、状況管理部80は、UI提供部55が遷移操作可能な状態で投影装置48に投影させた情報コンテンツグループ、又は、それに対応する特定コンテンツに関する情報を保持する。このとき、状況管理部80は、そのような操作インタフェースが提供された時間情報も併せて保持することもできる。
表示処理部51は、状況管理部80により管理される提供状況に応じて、特定コンテンツの切り替え表示態様を変更する。切り替え表示態様の変更には、表示順の変更、切り替え表示の対象とする特定コンテンツの変更(減らす、増やす等)、切り替え時間間隔の変更(短縮、伸長等)等があり得る。変更される表示態様は制限されない。例えば、表示処理部51は、多くのユーザに提供された情報コンテンツグループに対応する特定コンテンツを投影装置47に優先的に投影させ、あまり望まれなかった情報コンテンツグループに対応する特定コンテンツの投影優先度を低下させる。優先的に投影する手法には、投影頻度を高める、一回の投影時間を長くする等の手法がある。投影優先度を下げる手法は、その逆である。
表示処理部51は、提供時間の情報も更に加味して、特定コンテンツの切り替え表示態様を変更することもできる。例えば、表示処理部51は、時間帯毎に、各情報コンテンツグループの提供状況を算出し、算出された時間帯毎の提供状況に応じて、特定コンテンツの切り替え表示態様を変更することができる。
多くのユーザから要求された情報コンテンツグループは、人気コンテンツであり、逆に、あまり要求されなかった情報コンテンツグループは、不人気コンテンツであると考えられる。更に、時間帯に応じて望まれる情報コンテンツグループが異なる可能性もある。例えば、平日の昼間は、主婦層が望む情報コンテンツグループが人気となり、休日の夕方以降は、若年層が好む情報コンテンツグループが人気となるといった傾向が生じる可能性がある。状況管理部80により管理される提供状況によれば、各情報コンテンツグループの人気度合を把握することができ、ひいては、各実施形態で提供される情報の閲覧者の嗜好性を把握することができる。
第四変形例では、そのような提供状況に応じて、特定コンテンツの切り替え表示態様を変更することで、非個人向け(周囲の複数人向け)に提示する情報を閲覧者の嗜好性に合ったものとすることができ、ひいては、個人向けにも周囲の複数人向けにも魅力的な情報提供を行うことができる。
ここで、図14は、第四変形例の特徴を上述の第二実施形態の構成に適用した場合に対応する。第四変形例の特徴が第一実施形態の構成に適用される場合には、サイネージ装置10は、第一実施形態の構成に加えて、状況管理部80を更に有すればよい。この場合、状況管理部80は、UI提供部23が携帯端末20に提供した情報コンテンツグループ、又は、それに対応する特定コンテンツに関する情報を保持すればよい。
[第三実施形態]
以下、第三実施形態における情報提供装置及び情報提供方法について図15及び図16を用いて説明する。
図15は、第三実施形態における情報提供装置の処理構成例を概念的に示す図である。図15に示されるように、情報提供装置100は、表示処理部101と検出部102と提供部103とを有する。情報提供装置100は、図1に示されるサイネージ装置10、図6及び図11に示される情報提供装置40と同様のハードウェア構成を有する。情報提供装置100が有する各処理部は、サイネージ装置10及び情報提供装置40と同様にプログラムが処理されることで、上述の各処理部が実現される。
表示処理部101は、複数の情報コンテンツグループに対応する複数の異なる特定コンテンツの各々を時間に応じて切り替えて表示部又は投影面に表示させる。表示処理部101の具体的処理内容は、表示処理部21及び表示処理部51の処理内容を含む。表示部は、サイネージ装置10及び70の表示パネルに相当する。
検出部102は、ユーザの所定操作を検出する。検出部102の具体的処理内容は、検出部22及び検出部54の処理内容を含む。
提供部103は、検出部102により検出された所定操作の対象とされた特定コンテンツを認識し、当該認識された特定コンテンツに対応する情報コンテンツグループの、当該ユーザのための操作インタフェースを提供する。提供部103の具体的処理内容は、UI提供部23及びUI提供部55の処理内容を含む。即ち、情報コンテンツグループのユーザのための操作インタフェースの提供の実現形態は、上述のように様々である。提供部103は、ユーザがその情報コンテンツグループを個別に操作できるような操作環境を提供する。
情報提供装置100は、コンテンツ保持部24及びコンテンツ保持部56を有してもよいし、他のコンピュータがそれらを有してもよい。
図16は、第三実施形態における情報提供装置100の動作例を示すフローチャートである。図16に示されるように、第三実施形態における情報提供方法は、情報提供装置100のような少なくとも1つのコンピュータにより実行される。例えば、図示される各工程は、情報提供装置100が有する各処理部により実行される。
第三実施形態における情報提供方法は、複数の情報コンテンツグループに対応する複数の異なる特定コンテンツの各々を時間に応じて切り替えて表示部又は投影面に表示させる工程を実行しながら、図16に示される工程を更に実行する。
(S161)では、情報提供装置100は、ユーザの所定操作を検出する。
情報提供装置100は、所定操作が検出された場合(S162;YES)、(S161)で検出された所定操作の対象とされた特定コンテンツを認識する(S163)。(S161)及び(S162)は、図5の(S51)及び(S52)、並びに、図9の(S93)及び(S94)に相当する。(S163)は、図5の(S53)及び図9の(S95)に相当する。
(S164)では、情報提供装置100は、(S163)で認識された特定コンテンツに対応する情報コンテンツグループの、ユーザのための操作インタフェースを提供する。(S164)は、図5の(S55)及び図9の(S97)に相当する。
また、第三実施形態は、このような情報提供方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録した当該少なくとも1つのコンピュータが読み取り可能な記録媒体であってもよい。
第三実施形態によれば、上述の各実施形態及び各変形例と同様の作用効果を得ることができる。
なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態及び各変形例は、内容が相反しない範囲で組み合わせることができる。
上記の各実施形態及び各変形例の一部又は全部は、以下のようにも特定され得る。但し、各実施形態及び各変形例が以下の記載に限定されるものではない。
1. 複数の情報コンテンツグループに対応する複数の異なる特定コンテンツの各々を時間に応じて切り替えて表示部又は投影面に表示させる表示処理手段と、
ユーザの所定操作を検出する検出手段と、
前記検出された所定操作の対象とされた特定コンテンツを認識し、当該認識された特定コンテンツに対応する情報コンテンツグループの、前記ユーザのための操作インタフェースを提供する提供手段と、
を備える情報提供装置。
2. 前記表示処理手段は、前記各情報コンテンツグループに含まれるいずれか1つの情報コンテンツを前記各特定コンテンツとして前記表示部又は前記投影面に表示させる、
1.に記載の情報提供装置。
3. 前記検出手段は、前記特定コンテンツとして表示される情報コンテンツに対する、前記所定操作とは異なる前記ユーザの遷移操作を検出し、
前記表示処理手段は、前記遷移操作の検出に伴い、特定コンテンツの切り替えを所定時間止め、対応する情報コンテンツグループの中の、前記特定コンテンツとして表示されていた情報コンテンツから遷移された、他の情報コンテンツを前記表示部又は前記投影面に表示させる、
2.に記載の情報提供装置。
4. 情報コンテンツグループの操作インタフェースの提供状況を管理する状況管理手段、
を更に備え、
前記表示処理手段は、前記管理される提供状況に応じて、前記特定コンテンツの切り替え表示態様を変更する、
1.から3.のいずれか1つに記載の情報提供装置。
5. 前記表示処理手段は、前記各特定コンテンツを時間に応じて切り替えて、前記表示部としてのデジタルサイネージの表示部に表示させ、
前記検出手段は、前記ユーザによる、携帯端末に前記デジタルサイネージに対してアクセスさせる操作を前記所定操作として検出し、
前記提供手段は、前記所定操作の検出タイミングに対応する特定コンテンツを前記所定操作の対象として認識し、当該認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で前記携帯端末に提供する、
1.から4.のいずれか1つに記載の情報提供装置。
6. 投影装置に所定画像を投影面に投影させるサマリ表示手段と、
三次元センサから得られるセンサ情報に基づいてユーザの特定部位を認識し、認識された特定部位の位置情報を取得するユーザ位置取得手段と、
を更に備え、
前記検出手段は、前記投影面に写される前記所定画像の位置情報及び前記特定部位の位置情報を用いて、前記所定画像に対する、前記特定部位を用いた前記ユーザの所定操作を検出し、
前記提供手段は、前記所定操作の検出タイミングに対応する特定コンテンツを前記所定操作の対象として認識し、当該認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で前記投影装置に前記投影面上の前記ユーザの近接するエリアに投影させる、
1.から4.のいずれか1つに記載の情報提供装置。
7. 三次元センサから得られるセンサ情報に基づいてユーザの特定部位を認識し、認識された特定部位の位置情報を取得するユーザ位置取得手段、
を更に備え、
前記表示処理手段は、前記各特定コンテンツを切り替えて投影装置に前記投影面に投影させ、
前記検出手段は、前記投影面に写される特定コンテンツの位置情報及び前記特定部位の位置情報を用いて、前記投影面に写される特定コンテンツに対する、前記特定部位を用いた前記ユーザの所定操作を検出し、
前記提供手段は、前記所定操作の検出タイミングに対応する特定コンテンツを前記所定操作の対象として認識し、当該認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で投影装置に前記投影面上の前記ユーザの近接するエリアに投影させる、
1.から4.のいずれか1つに記載の情報提供装置。
8. 少なくとも1つのコンピュータにより実行される情報提供方法において、
複数の情報コンテンツグループに対応する複数の異なる特定コンテンツの各々を時間に応じて切り替えて表示部又は投影面に表示させ、
ユーザの所定操作を検出し、
前記検出された所定操作の対象とされた特定コンテンツを認識し、
前記認識された特定コンテンツに対応する情報コンテンツグループの、前記ユーザのための操作インタフェースを提供する、
ことを含む情報提供方法。
9. 前記各特定コンテンツは、前記各情報コンテンツグループに含まれるいずれか1つの情報コンテンツである、
8.に記載の情報提供方法。
10. 前記特定コンテンツとして表示される情報コンテンツに対する、前記所定操作とは異なる前記ユーザの遷移操作を検出し、
前記遷移操作の検出に伴い、特定コンテンツの切り替えを所定時間止め、
情報コンテンツグループの中の、前記特定コンテンツとして表示されていた情報コンテンツから遷移された、他の情報コンテンツを前記表示部又は前記投影面に表示させる、
ことを更に含む9.に記載の情報提供方法。
11. 情報コンテンツグループの操作インタフェースの提供状況を管理し、
前記管理される提供状況に応じて、前記特定コンテンツの切り替え表示態様を変更する、
ことを更に含む8.から10.のいずれか1つに記載の情報提供方法。
12. 前記各特定コンテンツは、前記表示部としてのデジタルサイネージの表示部に表示され、
前記所定操作の検出は、前記ユーザによる、携帯端末に前記デジタルサイネージに対してアクセスさせる操作を前記所定操作として検出し、
前記操作インタフェースの提供は、前記所定操作の検出タイミングに対応する特定コンテンツを前記所定操作の対象として認識し、当該認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で前記携帯端末に提供する、
8.から11.のいずれか1つに記載の情報提供方法。
13. 投影装置に所定画像を投影面に投影させ、
三次元センサから得られるセンサ情報に基づいてユーザの特定部位を認識し、
前記認識された特定部位の位置情報を取得する、
ことを更に含み、
前記所定操作の検出は、前記投影面に写される前記所定画像の位置情報及び前記特定部位の位置情報を用いて、前記所定画像に対する、前記特定部位を用いた前記ユーザの所定操作を検出し、
前記操作インタフェースの提供は、前記所定操作の検出タイミングに対応する特定コンテンツを前記所定操作の対象として認識し、当該認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で前記投影装置に前記投影面上の前記ユーザの近接するエリアに投影させる、
8.から11.のいずれか1つに記載の情報提供方法。
14. 三次元センサから得られるセンサ情報に基づいてユーザの特定部位を認識し、認識された特定部位の位置情報を取得する、
ことを更に含み、
前記各特定コンテンツは、前記投影面に投影され、
前記所定操作の検出は、前記投影面に写される特定コンテンツの位置情報及び前記特定部位の位置情報を用いて、前記投影面に写される特定コンテンツに対する、前記特定部位を用いた前記ユーザの所定操作を検出し、
前記操作インタフェースの提供は、前記所定操作の検出タイミングに対応する特定コンテンツを前記所定操作の対象として認識し、当該認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で投影装置に前記投影面上の前記ユーザの近接するエリアに投影させる、
8.から11.のいずれか1つに記載の情報提供方法。
15. 8.から14.のいずれか1つに記載の情報提供方法を少なくとも1つのコンピュータに実行させるプログラム。
16. 8.から14.のいずれか1つに記載の情報提供方法を少なくとも1つのコンピュータに実行させるプログラムを記録したコンピュータが読み取り可能な記録媒体、又はそのプログラムを内蔵するコンピュータプログラムプロダクト。
この出願は、2014年4月18日に出願された日本出願特願2014−086509号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (9)

  1. 複数の情報コンテンツグループに対応する複数の異なる特定コンテンツの各々を時間に応じて切り替えて表示部又は投影面に表示させる表示処理手段と、
    ユーザの所定操作を検出する検出手段と、
    前記検出された所定操作の対象とされた特定コンテンツを認識し、当該認識された特定コンテンツに対応する情報コンテンツグループの、前記ユーザのための操作インタフェースを提供する提供手段と、
    を備える情報提供装置。
  2. 前記表示処理手段は、前記各情報コンテンツグループに含まれるいずれか1つの情報コンテンツを前記各特定コンテンツとして前記表示部又は前記投影面に表示させる、
    請求項1に記載の情報提供装置。
  3. 前記検出手段は、前記特定コンテンツとして表示される情報コンテンツに対する、前記所定操作とは異なる前記ユーザの遷移操作を検出し、
    前記表示処理手段は、前記遷移操作の検出に伴い、特定コンテンツの切り替えを所定時間止め、対応する情報コンテンツグループの中の、前記特定コンテンツとして表示されていた情報コンテンツから遷移された、他の情報コンテンツを前記表示部又は前記投影面に表示させる、
    請求項2に記載の情報提供装置。
  4. 情報コンテンツグループの操作インタフェースの提供状況を管理する状況管理手段、
    を更に備え、
    前記表示処理手段は、前記管理される提供状況に応じて、前記特定コンテンツの切り替え表示態様を変更する、
    請求項1から3のいずれか1項に記載の情報提供装置。
  5. 前記表示処理手段は、前記各特定コンテンツを時間に応じて切り替えて、前記表示部としてのデジタルサイネージの表示部に表示させ、
    前記検出手段は、前記ユーザによる、携帯端末に前記デジタルサイネージに対してアクセスさせる操作を前記所定操作として検出し、
    前記提供手段は、前記所定操作の検出タイミングに対応する特定コンテンツを前記所定操作の対象として認識し、当該認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で前記携帯端末に提供する、
    請求項1から4のいずれか1項に記載の情報提供装置。
  6. 投影装置に所定画像を投影面に投影させるサマリ表示手段と、
    三次元センサから得られるセンサ情報に基づいてユーザの特定部位を認識し、認識された特定部位の位置情報を取得するユーザ位置取得手段と、
    を更に備え、
    前記検出手段は、前記投影面に写される前記所定画像の位置情報及び前記特定部位の位置情報を用いて、前記所定画像に対する、前記特定部位を用いた前記ユーザの所定操作を検出し、
    前記提供手段は、前記所定操作の検出タイミングに対応する特定コンテンツを前記所定操作の対象として認識し、当該認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で前記投影装置に前記投影面上の前記ユーザの近接するエリアに投影させる、
    請求項1から4のいずれか1項に記載の情報提供装置。
  7. 三次元センサから得られるセンサ情報に基づいてユーザの特定部位を認識し、認識された特定部位の位置情報を取得するユーザ位置取得手段、
    を更に備え、
    前記表示処理手段は、前記各特定コンテンツを切り替えて投影装置に前記投影面に投影させ、
    前記検出手段は、前記投影面に写される特定コンテンツの位置情報及び前記特定部位の位置情報を用いて、前記投影面に写される特定コンテンツに対する、前記特定部位を用いた前記ユーザの所定操作を検出し、
    前記提供手段は、前記所定操作の検出タイミングに対応する特定コンテンツを前記所定操作の対象として認識し、当該認識された特定コンテンツに対応する情報コンテンツグループを遷移操作可能な状態で投影装置に前記投影面上の前記ユーザの近接するエリアに投影させる、
    請求項1から4のいずれか1項に記載の情報提供装置。
  8. 少なくとも1つのコンピュータにより実行される情報提供方法において、
    複数の情報コンテンツグループに対応する複数の異なる特定コンテンツの各々を時間に応じて切り替えて表示部又は投影面に表示させ、
    ユーザの所定操作を検出し、
    前記検出された所定操作の対象とされた特定コンテンツを認識し、
    前記認識された特定コンテンツに対応する情報コンテンツグループの、前記ユーザのための操作インタフェースを提供する、
    ことを含む情報提供方法。
  9. 請求項8に記載の情報提供方法を少なくとも1つのコンピュータに実行させるプログラム。
JP2016513666A 2014-04-18 2015-03-04 情報提供装置 Expired - Fee Related JP6253127B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014086509 2014-04-18
JP2014086509 2014-04-18
PCT/JP2015/056348 WO2015159602A1 (ja) 2014-04-18 2015-03-04 情報提供装置

Publications (2)

Publication Number Publication Date
JPWO2015159602A1 true JPWO2015159602A1 (ja) 2017-04-13
JP6253127B2 JP6253127B2 (ja) 2017-12-27

Family

ID=54323819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016513666A Expired - Fee Related JP6253127B2 (ja) 2014-04-18 2015-03-04 情報提供装置

Country Status (4)

Country Link
US (1) US20170038912A1 (ja)
JP (1) JP6253127B2 (ja)
TW (1) TW201602842A (ja)
WO (1) WO2015159602A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3008667B1 (en) * 2013-06-14 2019-01-16 Agilent Technologies, Inc. System and method for facilitating manual sorting of objects
WO2017154114A1 (ja) * 2016-03-08 2017-09-14 楽天株式会社 表示制御システム、表示制御方法及び表示制御プログラム
TWI653563B (zh) * 2016-05-24 2019-03-11 仁寶電腦工業股份有限公司 投影觸控的圖像選取方法
JP2018077664A (ja) * 2016-11-09 2018-05-17 大日本印刷株式会社 情報処理システム、情報処理装置、表示装置及びプログラム
JP6929707B2 (ja) * 2017-05-29 2021-09-01 ルネサスエレクトロニクス株式会社 広告を管理するためにコンピュータが実行する方法およびプログラムならびに移動通信端末を制御するためのプログラム
WO2019226688A1 (en) 2018-05-22 2019-11-28 Agilent Technologies, Inc. Method and system for implementing augmented reality (ar)-based assistance within work environment
JP7169367B2 (ja) * 2018-11-22 2022-11-10 本田技研工業株式会社 動態表示装置、動態表示システム、動態表示方法および動態表示プログラム
JP7149915B2 (ja) * 2019-09-27 2022-10-07 富士フイルム株式会社 投影装置、投影方法及びプログラム
KR20220120303A (ko) * 2021-02-23 2022-08-30 삼성전자주식회사 디스플레이 장치 및 그 동작방법
CN113206987B (zh) * 2021-05-06 2023-01-24 北京有竹居网络技术有限公司 投影显示的方法、装置、终端及非暂时性存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110377A (ja) * 2002-09-18 2004-04-08 Hitachi Ltd 情報表示方法及びシステム
JP2008059117A (ja) * 2006-08-30 2008-03-13 Fuji Xerox Co Ltd 画像表示システム、画像表示サーバ、及び制御プログラム
JP2008269431A (ja) * 2007-04-23 2008-11-06 Sony Computer Entertainment Inc コンテンツ出力装置、コンテンツ出力方法及びプログラム
JP2009282618A (ja) * 2008-05-20 2009-12-03 Marubeni Corp 電子広告配信システム及び方法
JP2010079770A (ja) * 2008-09-29 2010-04-08 Hitachi Ltd デジタルサイネージシステム
JP2010102411A (ja) * 2008-10-21 2010-05-06 Canon Inc コンテンツブラウズ装置及びその制御方法
JP2012018457A (ja) * 2010-07-06 2012-01-26 Nippon Telegr & Teleph Corp <Ntt> サイネージディスプレイ表示情報提供装置、サイネージディスプレイ表示情報提供方法、およびサイネージディスプレイ表示情報提供用プログラム
JP2013097517A (ja) * 2011-10-31 2013-05-20 Sharp Corp 表示装置、表示方法、および表示プログラム
JP2013152711A (ja) * 2011-12-28 2013-08-08 Nikon Corp 投影装置及び表示装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8140403B2 (en) * 2010-03-23 2012-03-20 Amazon Technologies, Inc. User profile and geolocation for efficient transactions
TWI474270B (zh) * 2011-09-28 2015-02-21 Interactive kanban system, interactive methods and kanban
CN107610627A (zh) * 2011-12-28 2018-01-19 株式会社尼康 显示装置以及投影装置
JP5942840B2 (ja) * 2012-12-21 2016-06-29 ソニー株式会社 表示制御システム及び記録媒体

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110377A (ja) * 2002-09-18 2004-04-08 Hitachi Ltd 情報表示方法及びシステム
JP2008059117A (ja) * 2006-08-30 2008-03-13 Fuji Xerox Co Ltd 画像表示システム、画像表示サーバ、及び制御プログラム
JP2008269431A (ja) * 2007-04-23 2008-11-06 Sony Computer Entertainment Inc コンテンツ出力装置、コンテンツ出力方法及びプログラム
JP2009282618A (ja) * 2008-05-20 2009-12-03 Marubeni Corp 電子広告配信システム及び方法
JP2010079770A (ja) * 2008-09-29 2010-04-08 Hitachi Ltd デジタルサイネージシステム
JP2010102411A (ja) * 2008-10-21 2010-05-06 Canon Inc コンテンツブラウズ装置及びその制御方法
JP2012018457A (ja) * 2010-07-06 2012-01-26 Nippon Telegr & Teleph Corp <Ntt> サイネージディスプレイ表示情報提供装置、サイネージディスプレイ表示情報提供方法、およびサイネージディスプレイ表示情報提供用プログラム
JP2013097517A (ja) * 2011-10-31 2013-05-20 Sharp Corp 表示装置、表示方法、および表示プログラム
JP2013152711A (ja) * 2011-12-28 2013-08-08 Nikon Corp 投影装置及び表示装置

Also Published As

Publication number Publication date
JP6253127B2 (ja) 2017-12-27
US20170038912A1 (en) 2017-02-09
TW201602842A (zh) 2016-01-16
WO2015159602A1 (ja) 2015-10-22

Similar Documents

Publication Publication Date Title
JP6253127B2 (ja) 情報提供装置
US10021294B2 (en) Mobile terminal for providing partial attribute changes of camera preview image and method for controlling the same
US9823762B2 (en) Method and apparatus for controlling electronic device using touch input
JP6070512B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10802663B2 (en) Information processing apparatus, information processing method, and information processing system
EP3413184B1 (en) Mobile terminal and method for controlling the same
EP3182265B1 (en) Mobile terminal and method for controlling the same
KR102521333B1 (ko) 사용자 인증과 관련된 사용자 인터페이스 표시 방법 및 이를 구현한 전자 장치
US20090091539A1 (en) Sending A Document For Display To A User Of A Surface Computer
US10768881B2 (en) Multi-screen interaction method and system in augmented reality scene
KR20170016215A (ko) 이동단말기 및 그 제어방법
KR20150092964A (ko) 지문 처리 방법 및 그 전자 장치
JP2012094138A (ja) 拡張現実ユーザインタフェース提供装置および方法
KR20160133781A (ko) 이동단말기 및 그 제어방법
TW201626166A (zh) 以手勢爲基礎之三維影像操控技術
JPWO2019069575A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20170212906A1 (en) Interacting with user interfacr elements representing files
JP6982277B2 (ja) 情報端末装置、情報処理システムおよび表示制御プログラム
US9286580B2 (en) Terminal apparatus, display method, recording medium, and display system
US9959034B2 (en) Mobile terminal and method for controlling the same
KR20190035373A (ko) 혼합 현실에서의 가상 모바일 단말 구현 시스템 및 이의 제어 방법
CN108141474B (zh) 与外部设备共享内容的电子设备及其用于共享内容的方法
US20190096130A1 (en) Virtual mobile terminal implementing system in mixed reality and control method thereof
JP6019458B2 (ja) 情報処理方法
JP5941483B2 (ja) 共有ファイルを取得する方法、電子機器およびコンピュータ・プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171122

R150 Certificate of patent or registration of utility model

Ref document number: 6253127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees